❏ 站外平台:

AI 模型的开源定义需要改变

作者: Sourav Rudra 译者: ChatGPT

| 2023-11-02 22:00      

你认为开源许可证应当进行演变吗?

2023 年,我们以人工智能(AI)崭露头角开始了新的一年,同时也见证了众多公司全力以赴投身于 AI。

比如说 Mozilla,它在 2023 年初制定了 开源 AI 计划,以开发各种 AI 驱动的解决方案。而 HuggingChat 也成为了第一个推出 ChatGPT 开源替代品 的组织。

即便是 Meta,他们也不例外。他们自家的 大型语言模型Large Language Model(LLM)Llama 2 项目在这一年都颇受关注,几个月前他们甚至推出了一款新的 ChatGPT 竞争对手

然而,也有很多人开始 提出质疑,主张 Meta 的 Llama 2 模型并不像人们期望的那样开放,查看它的开源许可证似乎更是印证了这个观点。

该许可证 不允许拥有超过 7 亿日活跃用户的服务使用 Llama 2,同样的,它也不能被用于训练其他的语言模型

这也就意味着 Meta 对于 Llama 2 的许可证 未能满足 开源倡议组织Open Source Initiative(OSI)的 开源定义Open Source Definition(OSD)所列出的 全部要求

人们可以争辩,像 EleutherAI 和 Falcon 40B 这样的机构就做出了很好的示范,展示了如何适当地处理 AI 的开源许可。

然而,Meta 对此的看法却截然不同。

开源许可需要进化

在与 The Verge 的交谈中,Meta 人工智能研究副总裁 Joëlle Pineau 为他们的立场进行了辩解。

她说,我们 需要在信息共享的益处和可能对 Meta 商业造成的潜在成本之间寻找平衡

这种对开源的态度让他们的研究人员能够更加专注地处理 AI 项目。她还补充说:

开放的方式从内部改变了我们的科研方法,它促使我们不发布任何不安全的东西,并在一开始就负起责任。

Joëlle 希望他们的生成型 AI 模型能够和他们过去的 PyTorch 项目一样受到热捧。

但是,问题在于现有的许可证机制。她又补充说,这些许可证并不是设计来处理那些需要利用大量多源数据的软件。

这反过来为开发者和用户提供了有限责任,以及,对版权侵犯的有限赔偿(解释为:保护)。

此外,她还指出:

AI 模型与软件不同,涉及的风险更大,因此我认为我们应该对当前用户许可证进行改变,以更好地适应 AI 模型。

但我并不是一名律师,所以我在此问题上听从他们的意见。

我赞同她的观点,我们需要更新现有的许可方案,使之更好地适应 AI 模型,以及其他相关事务。

显而易见,OSI 正在努力进行此事。OSI 的执行董事 Stefano Maffulli 向 The Verge 透露,他们了解到 当前的 OSI 批准的许可证无法满足人工智能模型的需求

他们正在商讨如何与 AI 开发者合作,以提供一个 “透明、无许可但安全” 的模型访问。

他还补充说:

我们肯定需要重新思考许可证的方式,以解决 AI 模型中版权和授权的真正限制,同时仍遵循开源社区的一些原则。

无论未来如何,显然,开源标准必须推动其演化,以适应新的以及即将出现的技术 ,而此类问题不仅仅局限于 AI。

对于未来几年开源许可的变革,我充满期待。

💬 对于你来说呢?你认为对于陈旧的开源标准,我们需要进行什么样的改变?

(题图:MJ/e8bae5f6-606b-47db-aaea-c992c0bd143e)


via: https://news.itsfoss.com/open-source-definition-ai/

作者:Sourav Rudra 选题:lujun9972 译者:ChatGPT 校对:wxy

本文由 LCTT 原创编译,Linux中国 荣誉推出



最新评论


返回顶部

分享到微信

打开微信,点击顶部的“╋”,
使用“扫一扫”将网页分享至微信。