IT之家 8 月 5 日消息 外媒 MSPoweruser 报道,今年 6 月份,微软旗下 GitHub 宣布了 Copilot,是微软 Visual Studio Code 中内置的一项新的软件开发人工智能协助服务。GitHub Copilot 支持各种语言和框架,可以在 IDE 内为整行或整个功能提供建议。GitHub Copilot 由 OpenAI Codex 提供支持,它是在数十亿行的开放源代码上训练出来的。自从宣布这一消息以来,一些版权爱好者批评了 GitHub。有些人甚至声称,Copilot 废止了开放源代码,为开发者提供有偿的 AI 服务。
而对于 GitHub Copilot 在数十亿行的开放源代码上进行训练上,引起了自由软件基金会(FSF)的强烈不满,称该工具“从我们的角度来看是不可接受和不公正的”。
开源软件倡导者抱怨说,Copilot 需要封闭源码软件,如微软 Visual Studio IDE 或 Visual Studio Code 编辑器来运行,它构成了“作为软件替代品的服务”,这意味着它是一种获得对其他人的计算权力的方式。
FSF 认为 Copilot 存在许多问题,仍需要面向法庭寻求答案。
“开发者想知道在他们的软件上训练一个神经网络是否可以被认为是公平使用。其他可能想使用 Copilot 的人想知道,从 GitHub 托管的资源库中复制的代码片段和其他元素是否会导致版权侵犯。即使一切在法律上都是合理的,积极人士也想知道,一个专利软件公司在他们的作品上建立一个服务,是不是有一些根本性的不公平,”FSF 写道。
为了帮助回答这些问题,FSF 已经呼吁发表白皮书,研究以下问题。
Copilot 对公共资源库的培训是否侵犯了版权?公平使用?
Copilot 的输出有多大可能产生违反 GPL 许可作品的可诉要求?
使用 Copilot 的开发者能否遵守 GPL 等自由软件许可?
开发者如何确保他们拥有版权的代码受到保护,不受 Copilot 产生的侵犯?
如果 Copilot 生成的代码引起了对自由软件许可作品的侵犯,版权人如何发现这种侵犯?
经过训练的 AI/ML 模型是否有版权?谁拥有版权?
像 FSF 这样的组织是否应该为与这些问题相关的版权法的改变而争论?
IT之家获悉,微软对即将到来的挑战回应称,“这是一个新的领域空间,我们渴望与开发者就这些话题进行讨论,并引领行业为训练人工智能模型制定适当的标准。”
鉴于 GitHub Copilot 有时会从其他开源应用程序中窃取整个功能,大家是否会同意 FSF 的观点,或者 FSF 是否仅仅因为它是一个人工智能而不是人类重新使用代码而区别对待。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。