拒绝白嫖!Stable Diffusion 新版:画师可自主选择作品是否加入训练集

不希望自己作品被 Stable Diffusion“白嫖”的画家们,可以松口气了!

Stable Diffusion 3.0 版本将会提供一个选项:

艺术家们可以选择将自己的画作纳入 Stable Diffusion 3 的训练数据集,或从数据集中删掉

据了解,未来几周内,这个操作就会被开启。

不过,承接这个任务的不是 Stability AI 本身,而是一个叫 Spawning 的艺术家倡导组织。

自由选择纳入或删除作品

选择在 Stable Diffusion3 中纳入或删除自己的作品,步骤十分简单。

画师们只需要在网站“Have I Been Trained?”注册,并表明自己希望在训练数据集中删除或者纳入哪些自己的作品。

而后,Spawning 会收集艺术家们在网站上的意向。

网站 Have I Been Trained 背后是 LAION-5B 训练数据集,它被用来训练 Stable Diffusion 和 Google 的 Imagen AI 等模型。

LAION 是一个非营利性的开源数据集,Stability AI 对其进行了部分资金资助。

具体操作是酱婶的:

首先需要在 Have I Been Trained 上注册一个账户,然后上传自己的画作。

利用 LAION 图像数据库,搜索引擎会显示出上传画作在数据库训练集中的匹配项

这个时候,只需要分别右键单击几个缩略图,并在弹出选项中选择选择删除此图像即可。

所有退出数据集的图像,都会集中显示在一个“选择退出”的图像列表中。

当然,上述还只是进行操作的大概步骤,实施细节尚待完善。

Stability AI 创始人兼 CEO Emad Mostaque 在推特上表示,除了选择删除外,Spawning 还将提供选择加入请求。

也就是说,希望自己作品成为训练集一部分的艺术家,同样可以把自己的画作添加到里面。

这位 CEO 在推特上还说了:

我们希望为大伙儿建立更好的数据集,相信这是一项变革性的技术。

我们乐意与各方接触,并尽可能做到透明。

承接数据收集工作的 Spawning,是一个总部位于柏林的艺术家倡导组织。

它很年轻,今年 9 月刚刚创建创建,创始人是 Dryhurst 夫妇和一位音乐家。

Dryhurst 表示,这三个月来,Spawning 一直在和 Stability AI 和 LAION 进行洽谈,并得到了支持。

他还表示,Spwaning 是一个独立组织,不会把收集来的数据拿去做任何别的事

然而,人们对事情的担心并不局限在数据隐私上。

一个方面是,要从训练集中删除图像,前提是你想要删除的图像已经存在于 LAION 数据集中,且可以在 Have I Been Trained 上搜索到。

此外,目前没有办法选择批量删除图片,如果数据集中存在同一图像的多个副本,那么删除起来可是个费时费力的大工程。

而争议的目光最为聚集的一点,则是让艺术家们纷纷跑去注册一个和 Stability AI 或 LAION 没有法律约束的网站。

目前在 Have I Been Trained 完成“删除图像”的操作,整个流程可以说是畅通无阻。

没错,你既不会遇上任何试图验证身份的步骤,也不会遇上任何法律约束的条约。

也就是说,你想把别人的作品添加或从训练集中删除,轻而易举,完全不受阻碍。

有人上传了一张版权不属于自己的图像,并将其从数据集中删除

以及,针对 Spawning 在其公告视频中关于同意的声明,有网友指出,选择退出过程不符合欧洲通用数据保护条例(GDPR)中关于“同意”的定义。

这份条例中规定,必须予以用户主动同意的权利,而不是默认同意了。

谁拥有 AIGC 作品版权?

有看客拥有更激烈一些的看法:

设置的选项,应该只有“要不要让自己的画作加入训练集”,而不是既有加入也有删除。

他们的观点是,所有的艺术作品都应该默认被 AI 训练集排除在外

今年,AIGC 的力量喷薄而出,席卷全球各行各业。

自 DALL・E 2 在 4 月发布以来,创意产业一直对 AI 艺术图像所有权的问题议论纷纷,尤其是画家本人,他们中不少都抱着饭碗对 AIGC 骂骂咧咧。

DALL・E 2 生成图像

等到开源的 Stable Diffusion 在 8 月发布时,有关模型训练的争议也越来越大。

用大量网络中真人画师的作品组成数据集,然后生成 AI 画作,被有的网友批判为“抄袭和偷窃”

但是这样的“抄袭”很难衡量其频次,因为扩散系统是根据来自不同来源的数十亿张图像进行训练的。

而且,这样生成的作品,版权到底归属哪一方?

是被“学习”的画家,还是 AI 模型背后的公司,抑或是 AI 模型本身?

一切尚未有所定论。

前几天,马里兰大学和纽约大学的科学家们做了一项新研究,研究表明:

DALL・E2 和 Stable Diffusion 这样的文生图 AI 模型,可以并且确实在从它们的训练数据集中,疯狂复制数据集图像的各个方面

“使用扩散模型生成数据的公司,可能需要重新考虑涉及知识产权法的任何部分。”研究人员表示,“因为几乎没办法验证 Stable Diffusion 生成的任何图像,是不是全新的,或者有没有从训练数据集中窃取别人的成果。”

Stable Diffusion 从其训练数据集中复制元素的更多示例(图源:TechCrunch)

研究表明,模型复制的频率取决于几个因素,包括训练数据集的大小,较小的集合往往比较大的集合导致更多的复制。

与此同时,一旦模型记住了原画作,就很难判定生成图像和原始图像之间的界限。

相似度达到多少,才能判定抄袭与否或版权归属何方呢?

研究人员也并没有给出答案,他们只是说:

我们不能抛弃扩散模型,应该考虑如何在不损害隐私的情况下保持它们的性能。

那么,有没有一种办法,让艺术家的版权受到保护需求,和 AI 生成技术继续进步达到微妙的平衡?

Stability AI 承认,自家产品引发了对在线 AI 生成艺术的大规模道德辩论,其间主流还是抗议的声音。

不过,就让艺术家自动选择加入或删除图像这事儿,CEO 同志 Emad Mostaque 毫不忌讳地表达了自己的开放态度

他在推特上写道:

@laion_ai 团队对反馈有着非常开放的心态,我们的初心是希望为所有人构建更好的数据集。

那么,你是怎么看待 AIGC 生成作品版权归属的?

参考链接:

  • [1]https://venturebeat.com/ai/stability-ai-to-honor-artist-opt-out-requests-for-stable-diffusion-3/

  • [2]https://twitter.com/EMostaque

本文来自微信公众号:量子位 (ID:QbitAI),作者:衡宇

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享