OpenAI陷入版权诉讼旋涡,Midjourney等图像生成工具可能面临类似处境

转载
310 天前
3389
Kyle

文章转载来源:Kyle

谷歌 DeepMind 的 Nicholas Carlini 和 Gary Marcus 等学者提出了一个长期存在的问题,即大型语言模型(LLM)能够在多大程度上“记住”一些训练输入。 最近的实证研究表明,大模型在某些情况下能够复制或通过微小的更改复制出现在其训练集中的大量文本。

例如,Milad Nasr 及其同事在 2023 年发表的一篇论文表明,通过可以引导提示,大模型可能泄露用户的电子邮件地址和电话号码等私人信息。Carlini 等人最近表明,较大的聊天机器人模型(较小的模型似乎没有这种情况)有时会逐字照搬训练文本。这就引发了严重的版权保护担忧。

例如,最近闹得很火的《纽约时报》对 OpenAI 提起的版权诉讼案件。《纽约时报》向纽约联邦地方法院起诉OpenAI和微软,指控这两家公司未经许可使用其数百万篇文章用于训练GPT模型,创建包括ChatGPT和Copilot在内的AI 产品。不仅要求它们对“非法复制和使用独特价值的作品承担数十亿美元的法定和实际损害赔偿”,还要销毁所有包含NYT版权材料的模型和训练数据。

《纽约时报》在诉讼中展示了许多 OpenAI 旗下软件几乎逐字地重新创建《纽约时报》报道的例子(下图中红色文字部分):

诉讼中的一份证据显示 OpenAI 的 GPT-4 的输出看似抄袭。

我们将这种接近逐字照搬的输出称为“抄袭输出”,因为如果人类创造了它们,我们就会将它们称为抄袭的表面证据。

用数学语言来说,这些近乎逐字复制的例子是存在性证明。 不过诉讼文件没有直接回答此类抄袭产出发生的频率或确切在什么情况下发生的问题。

这些结果提供了强有力的证据……至少某些生成式 AI 系统可能会产生抄袭输出,即使没有直接要求这样做,也可能使用户面临版权侵权索赔。

这些问题很难准确回答,部分原因是大模型是“黑匣子”——我们无法完全理解输入(训练数据)和输出之间关系的系统。 更重要的是,输出可能随时发生不可预测的变化。 抄袭反应的普遍程度可能在很大程度上取决于模型的大小和训练集的确切性质等因素。 由于大模型从根本上来说是黑匣子(即使对于它们自己的制造者来说也是如此,无论是否开源),有关剽窃盛行的问题可能只能通过实验来回答,甚至可能只是暂时的。

尽管流行程度可能有所不同,但抄袭输出的存在本身就引发了许多重要问题,包括技术问题(可以采取什么措施来抑制此类输出吗?)、社会学问题(新闻业因此会发生什么?)、法律问题( 这些输出算作版权侵权吗?),以及实际问题(当最终用户使用大模型生成某些内容时,用户是否可以放心自己没有侵犯版权?对于希望不侵权的用户来说,有什么办法可以让他们放心吗? 确信不会侵权?)。

《纽约时报》与 OpenAI 的诉讼可以说是一个很好的案例,证明此类输出确实构成版权侵权。 律师们当然可能不同意,但很明显,很大程度上取决于此类输出的存在,以及特定诉讼的结果,这可能对生成式 AI 领域的向前发展产生重大的财务和结构影响。

同样,OpenAI 面临的处境,在视觉领域可以提出完全相同的问题。 图像生成模型是否可以被诱导产生基于版权材料的抄袭输出?


案例研究:Midjourney v6 中的剽窃视觉输出


就在《纽约时报》诉 OpenAI 诉讼公开之前,我们在图像生成模型领域就发现了类似迹象,即使没有直接征求抄袭输出。 以下是本文第二作者从 Midjourney V6 “alpha” 版本中引出的一些示例,他是一位视觉艺术家,曾参与多部主要电影(包括《黑客帝国:复活》、《蓝甲虫》和《饥饿游戏》)的制作,其中包括许多好莱坞最著名的工作室(包括漫威和华纳兄弟)。

经过一些实验,只要提供与商业电影相关的简短提示词,我们发现实际上很容易生成许多涉嫌抄袭的输出(下图)。

Midjourney 生成的图像与著名电影和视频游戏中的镜头几乎相同。

我们还发现卡通人物形象可以很容易地被大模型复制,例如Midjourney 生成的下面的《辛普森一家》图像。

鉴于这些结果,几乎可以肯定的是,Midjourney V6 已经接受了受版权保护的材料的训练(我们不知道他们是否已获得许可),并且他们的工具可用于创建侵权的输出。 我们还在 Stable Diffusion 平台上发现了 Carlini 关于视觉图像的重要相关工作,尽管使用了更复杂的自动化对抗技术,但这些工作都得出了类似的结论。

此后,我们进行了进一步的实验。


视觉模型可以通过间接提示词生成商标符号的近似复制品


在上面的许多例子中,我们在提示词中直接引用了一部电影名称(例如,《复仇者联盟:无限战争》); 这表明 Midjourney 可以在知情的情况下重新创建受版权保护的材料,但留下了一个问题:如果用户没有故意去提示,是否有可能会侵权。

在某些方面,《纽约时报》起诉 OpenAI 的案件中最引人注目的部分是原告证明,根本不需要在提示词中引用《纽约时报》的报道就可以引出抄袭的输出。 原告并没有向系统发出“你能用《纽约时报》的风格写一篇关于某事的文章吗”之类的提示,而是仅仅通过给出《纽约时报》报道的前几个字就引发了一些抄袭的回应,如在这个例子中。

一项诉讼的证据显示,当提示实际文章的前几个单词时,GPT-4 生成了看似抄袭的文本。

这些例子特别引人注目,因为它们增加了最终用户可能无意中生产侵权材料的可能性。 然后我们询问类似的事情是否会发生在视觉图像生成领域。

答案是肯定的。 在每个示例中,我们都会提供提示和输出。 在每张图像中,系统都生成了清晰可辨的角色(曼达洛人、达斯维德、卢克天行者等),我们认为这些角色都受版权保护和商标注册; 在任何情况下,源电影或特定角色的名字都不会直接唤起。 至关重要的是,系统没有被要求侵权,但系统无论如何都产生了潜在侵权的艺术品。

尽管提示没有提到电影,Midjourney 还是制作了这些显而易见的《星球大战》电影角色图像。

我们在电影和电子游戏角色中都看到了这种现象。


即使不直接指导,大模型仍旧可以输出类似的电影画面


在我们对 Midjourney 的第三次实验中,我们询问它是否能够在没有直接指导的情况下输出整个电影画面。 我们再次发现答案是肯定的。 (最上面的一张是 Hot Toys 拍摄的照片,而不是电影。)

Midjourney 制作的图像与著名电影中的特定帧非常相似。

最终,我们发现,只要一个不特定于任何电影、角色或演员的单词(不包括常规参数)的提示就会产生明显侵权的内容:这个单词就是“screencap”。 下面的图像是根据该提示创建的。

这些图像均由 Midjourney 制作,与电影画面非常相似。 它们是在提示“screencap”的情况下制作的。

我们非常期望 Midjourney 能够立即修补此特定提示,使其无效,但产生潜在侵权内容的能力是显而易见的。

在两周的调查过程中,我们发现了数百个电影和游戏角色的例子; 我们很快就会在 YouTube 上发布更多示例。 以下是我们发现的电影、演员和游戏的部分列表。

作者对 Midjourney 的实验生成了与数十名演员、电影场景和视频游戏非常相似的图像。


对 Midjourney 的影响


这些结果提供了强有力的证据,证明 Midjourney 大模型已经接受了受版权保护的材料的训练,并证明至少一些生成式 AI 系统可能会产生抄袭的输出,即使没有直接要求这样做,也可能使用户面临版权侵权索赔。 最近的新闻报道也支持同样的结论; 例如,一项诉讼提交了一份来自 Midjourney 的电子表格,其中包含 4,700 多名艺术家的名单,他们的作品被认为已在模型训练中使用,很可能未经这些艺术家的同意。

Midjourney 的源材料中有多少是未经许可而使用的受版权保护的材料? 我们不确定。 许多输出肯定与受版权保护的材料非常相似,但该公司对其源材料和已获得适当许可的内容并不透明。 我们怀疑至少有一些尚未获得许可。

事实上,该公司的一些公开评论显示他们对这个问题或许不屑一顾。 当被《福布斯》记者问及“你们是否征求了在世艺术家或仍受版权保护的作品的同意?”时,Midjourney 创始人兼首席执行官 David Holz 表达了对版权所有者权利的某种程度的关注:

不。确实没有办法获得一亿张图像并同时知道它们来自哪里。 如果这些图像本身已经嵌入了有关版权所有者或其他内容的元数据,那确实很棒。 但实际上不是这么回事; 它们没有注册表。 没有办法在互联网上找到一张图片,然后自动追踪它的所有者,然后再采取任何措施来验证。

如果这些源材料中有任何是未获得许可的,在我们(作为非律师)看来,这可能会使 Midjourney 面临来自电影制片厂、视频游戏发行商、演员等的广泛诉讼。

版权和商标法的要点是限制未经授权的商业再利用,以保护内容创作者。 由于 Midjourney 收取订阅费,并且可以被视为与工作室存在竞争关系,我们可以理解为什么原告可能会考虑提起诉讼。 (事实上,Midjourney 已经被一些艺术家起诉。)

Midjourney 显然试图压制我们的发现,在这篇文章的一位作者报告了他的第一个结果后,Midjourney 封禁了他。

当然,并非所有使用受版权保护的材料的作品都是非法的。 例如,在美国,由四部分组成的合理使用原则允许在某些情况下使用潜在侵权作品,例如使用简短且用于批评、评论、科学评估或模仿的目的。 像 Midjourney 这样的公司可能希望依靠这一点来展开诉讼防御。

然而,从根本上来说,Midjourney 是一项大规模销售订阅的服务。 个人用户可能会提出潜在侵权的特定实例,例如他们对《沙丘》中的角色的特定使用是为了讽刺或批评,或者是为了他们自己的非商业目的。 (大部分所谓的“同人小说”实际上被认为是侵犯版权,但在非商业用途时通常是可以容忍的。)Midjourney 能否大规模地提出这一论点完全是另一个问题。

X 上的一位用户指出,日本允许 AI 公司使用版权材料进行训练。 虽然这一观察是正确的,但它是不完整且过于简单化的,因为训练受到直接来自相关国际法(包括《伯尔尼公约》和 TRIPS 协议)的未经授权使用的限制的限制。 无论如何,日本的立场似乎不太可能在美国法庭上产生任何影响。

更广泛地说,一些人认为所有信息都应该免费。 我们认为,这种情绪是不尊重艺术家和创作者的权利; 如果没有他们的工作,世界将会变得更加贫穷。

此外,它让我们想起 Napster 早期提出的论点,当时歌曲通过点对点网络共享,而不向其创作者或发行商提供任何补偿。 最近的声明,例如“在实践中,版权无法通过像[Stable Diffusion]或 Midjourney 这样强大的模型来执行——即使我们就法规达成一致,它也是不可行的”,是该论点的现代版本 。

我们不认为大型生成式 AI 公司应该假设版权和商标法将不可避免地围绕他们的需求进行重写。

值得注意的是,最终,在 Metallica 和美国唱片工业协会 (RIAA) 提起诉讼后,Napster 的大规模侵权行为被法院终止。 新的流媒体商业模式推出,出版商和艺术家获得了收益分成(虽然比例比我们希望的要小得多)。

人们所熟知的 Napster 在一夜之间就消失了。 该公司破产,其资产(包括其域名)被出售给流媒体服务。

如果迪士尼、漫威、DC 和任天堂等公司效仿《纽约时报》,就版权和商标侵权提起诉讼,他们完全有可能胜诉,就像 RIAA 之前所做的那样。

使这些问题变得更加复杂的是,我们发现了证据,展示了 Midjourney 的一名高级软件工程师在 2022 年 2 月参加了一次对话,讨论如何通过“微调” 的手段“清洗”数据来逃避版权法。 另一位可能曾或未曾为 Midjourney 工作过的参与者表示,“在某些时候,从版权角度来看,追踪衍生作品是否侵权确实变得不可能。”

据我们了解,惩罚性赔偿可能会很大。 如前所述,消息人士最近报道称,Midjourney 可能故意创建了一份庞大的艺术家名单来进行训练,或许没有获得许可或补偿。 考虑到当前的输出似乎与源材料非常接近,不难想象一场集体诉讼。

此外,Midjourney 显然试图压制我们的调查结果,在 Southen 报告了他的第一个结果后,以及在他创建了一个新 Midjourney 帐户并报告了更多结果后,Midjourney 再次禁止他使用其服务(甚至没有退还他的订阅费)。 然后,Midjourney 在圣诞节前更改了服务条款,插入了新的语言:“您不得使用该服务试图侵犯他人的知识产权,包括版权、专利或商标权。 这样做可能会让您受到处罚,包括采取法律行动或永久禁止使用该服务。”

这一变化可能会被解读为阻止甚至排除红队调查生成式 AI 局限性的重要且常见的做法——几家主要 AI 公司在 2023 年宣布的与白宫达成的协议中承诺采用这种做法。(Southen 为了完成这个项目,创建了两个额外的帐户;这些帐户也被禁止,并且订阅费不予退还。)

我们发现这些做法(禁止用户和阻止红队)是不可接受的。 确保工具有价值、安全且不被剥削的唯一方法是让社区有机会进行调查; 这正是为什么社区普遍认为红队是 AI 开发的重要组成部分,特别是因为这些系统尚未被完全理解。

促使生成式 AI 公司收集更多数据并扩大模型的压力也可能使模型抄袭更加频繁。

我们鼓励用户考虑使用替代服务,除非 Midjourney 撤销这些阻止用户调查版权侵权风险的政策,特别是因为 Midjourney 对其源材料一直不透明。

最后,作为一个科学问题,我们并没有忘记,Midjourney 生成的图像是当前图像生成软件中最详细的一些图像。 一个悬而未决的问题是,创建抄袭图像的倾向是否会随着能力的提高而增加。

我们上面提到的 Nicholas Carlini 的文本输出数据表明这可能是真的,我们自己的经验和我们在 X 上看到的一份非正式报告也是如此。从直觉上看,系统拥有的数据越多,它就能更好地选择统计相关性越高,但也可能更容易准确地重新创建某些东西。

换句话说,如果这种猜测是正确的,那么驱使生成式 AI 公司收集越来越多的数据并使模型变得越来越大(为了使输出更加人性化)的压力也可能使模型更加频繁地抄袭。


抄袭视觉输出:DALL-E 3


一个明显的后续问题是,我们记录的其他生成式 AI 图像创建系统的情况在多大程度上是真实的? 有关 Midjourney 的结果,在 OpenAI 的 DALL-E 3 上是否仍旧属实。

答案显然是肯定的。 与 Midjourney 一样,DALL-E 3 能够创建涉嫌抄袭的商标样式(几乎相同),即使没有在提示词中提及商标的名字。

DALL-E 3 还通过这个两个词的提示创造了一系列潜在的商标侵权输出:“动画玩具”[右下]。

OpenAI 的 DALL-E 3 与 Midjourney 一样,生成的图像与电影和游戏中的角色非常相似。

OpenAI 的 DALL-E 3 与 Midjourney 一样,似乎借鉴了广泛的版权资源。 正如 Midjourney 的案例一样,OpenAI 似乎很清楚其软件可能侵犯版权,并于 11 月提出赔偿用户(但有一些限制)免受版权侵权诉讼。 考虑到我们在这里发现的规模,潜在的成本是相当可观的。

这些侵权现象能否被复现?

与任何随机系统一样,我们不能保证我们的特定提示在其他用户那里得到相同的输出; 此外,有人猜测 OpenAI 一直在实时更改其系统,以排除我们报道过的某些特定行为。 尽管如此,在我们最初报告后的两天内,这些侵权现象仍旧可以被复现。

接下来的问题是,解决这些问题有多难?


可能的解决方案:删除版权材料


最干净的解决方案是在不使用受版权保护的材料的情况下重新训练图像生成模型,或者将训练限制在适当许可的数据集上。

请注意,一个明显的替代方案——仅在出现投诉时才删除受版权保护的材料,类似于 YouTube 上的删除请求——实施起来的成本比许多读者想象的要高得多。 特定的受版权保护的材料不能以任何简单的方式从现有模型中删除; 大型神经网络不是可以轻松删除违规记录的数据库。 就目前情况而言,相当于删除通知的情况需要在每种情况下进行(非常昂贵的)重新训练。

尽管公司显然可以通过在没有任何未经许可的材料的情况下重新训练模型来避免侵权风险,但许多公司可能会忍不住考虑其他方法。 开发人员很可能会尽力避免许可费用,并避免大量的再训练成本。 此外,如果没有受版权保护的材料,结果可能会更糟。

因此,生成式 AI 供应商可能希望修补他们现有的系统,以限制某些类型的查询和某些类型的输出。 我们已经看到了一些迹象(如下),但相信这是一场艰苦的战斗。

OpenAI 可能正在尝试根据具体情况实时修补这些问题。 一位 X 用户分享了一个 DALL-E-3 提示,该提示第一次生成了 C-3PO 的图像,然后再次生成时变成了一条消息,称无法生成所请求的图像。

我们看到了两种无需重新训练模型即可解决抄袭图像问题的基本方法; 两者都不容易可靠地实施。


可能的解决方案:过滤掉可能侵犯版权的查询


为了过滤掉有问题的查询,有些情况很容易实现(例如,不能生成蝙蝠侠)。 但其他情况可能很微妙,甚至可能跨越多个查询,如来自 X 用户 NLeseul 的示例:

经验表明,文本生成系统中的护栏往往在某些情况下过于宽松,而在其他情况下又过于严格。 修补图像生成服务的努力可能会遇到类似的困难。 例如,一位名叫乔纳森·基岑 (Jonathan Kitzen) 的朋友最近向 Bing 生成“在荒凉的阳光下建造一个厕所”。 Bing 拒绝遵守,而是返回了一个令人困惑的“检测到不安全图像内容”标志。 此外,正如凯蒂·康拉德(Katie Conrad)所表明的那样,必应关于其创建的内容是否可以合法使用的答复有时会被严重误导。

已经有在线指南提供了有关如何机智规避 OpenAI 的 DALL-E 3 护栏的建议,其中包括“包含区分角色的具体细节,例如不同的发型、面部特征和身体纹理”以及“采用适合的配色方案”等建议。 暗示原作,但同时使用独特的色调、图案和布置。”

一位 Reddit 用户分享了这个欺骗 ChatGPT 生成布拉德·皮特图像的示例。


可能的解决方案:过滤掉来源


如果艺术生成软件能够列出它的来源,让人类判断最终产品是否是衍生品,那就太好了,但当前的系统在“黑匣子”中运行的性质上太不透明了,不允许这样做。 当我们在此类系统中获得输出时,我们不知道它与任何特定输入集有何关系。

潜在侵权输出的存在本身就证明了另一个问题:未经同意使用受版权保护的人类作品来训练机器。

当前没有服务提供解构输出和特定训练示例之间的关系,目前我们也不知道有任何引人注目的演示。 正如我们所知,大型神经网络将信息分解成许多微小的分布式片段; 众所周知,重建起源是极其困难的。

作为最后的手段,X 用户 @bartekxx12 尝试过使用 ChatGPT 和 Google 反向图像搜索来识别来源,取得了好坏参半(但不是零)的成功。 这些方法是否可以可靠地使用还有待观察,特别是对于比我们在实验中使用的材料更新且不太知名的材料。

重要的是,尽管一些人工智能公司和一些现状的捍卫者建议过滤掉侵权输出作为一种可能的补救措施,但这种过滤在任何情况下都不应该被理解为一个完整的解决方案。 潜在侵权输出的存在本身就证明了另一个问题:未经同意使用受版权保护的人类作品来训练机器。 为了符合保护知识产权和人权的国际法的意图,未经同意,任何创作者的作品都不得用于商业培训。

如果每个人都已经认识马里奥了,为什么这一切都很重要呢?

假设您需要一张水管工的图像,然后得到了一张马里奥 图像。 作为用户,你就不能自己舍弃这张马里奥 图像吗? X 用户@Nicky_BoneZ 生动地解决了这个问题:

……每个人都知道马里奥的样子。 但没有人会认出迈克·芬克尔斯坦拍摄的野生动物摄影作品。 因此,当您说“水獭跃出水面的超锐利美丽照片”时,您可能没有意识到输出本质上是迈克在雨中呆了三个星期拍摄的真实照片。

正如该用户指出的那样,像 Finklestein 这样的个人艺术家也不太可能有足够的法律人员来对 AI 公司提出索赔,无论这种索赔多么有效。

另一位 X 用户也类似地讨论了一个朋友的例子,他创建了一张带有“60 年代风格的抽烟男人”提示的图像,并将其用于视频中; 这位朋友不知道他们只是使用了保罗·麦卡特尼的 Getty 图片库照片的几乎完全一样的复制品。

这些公司很可能还会引起美国联邦贸易委员会和全球其他消费者保护机构的关注。

在一个简单的绘图程序中,用户创建的任何内容都是他们可以随意使用的,除非他们故意导入其他材料。 绘图程序本身从不侵权。 借助生成式AI,软件本身显然能够创建侵权材料,并且无需通知用户潜在的侵权行为。

通过谷歌图像搜索,您会得到一个链接,而不是代表原始艺术品的东西。 如果您通过 Google 找到图像,则可以点击该链接来尝试确定该图像是否属于公共领域、是否来自图像库机构等。 在生成式 AI 系统中,推论是创作是用户可以自由使用的原创艺术品。 没有提供艺术品如何创作的清单。

除了服务条款中隐藏的一些语言之外,没有任何警告表明会面临侵权问题。 据我们所知,没有任何警告表明任何特定生成的输出可能会侵权,因此不应用于商业目的。 正如音乐家兼软件工程师埃德·牛顿-雷克斯(Ed Newton-Rex)最近出于道德担忧而放弃使用 Stable Diffusion 所言:

用户应该能够期望他们使用的软件产品不会导致他们侵犯版权。 在当前[流传]的多个示例中,不能指望用户知道模型的输出是某人受版权保护的作品的副本。

用风险分析师 Vicki Bier 的话说,

“如果该工具没有警告用户输出可能受版权保护,用户如何负责? AI 可以帮助我侵犯我从未见过、也没有理由知道受版权保护的材料。”

事实上,没有公开可用的工具或数据库可供用户参考以确定可能的侵权行为,也没有任何指导用户如何可能这样做。

这些公司给用户和未经同意的内容提供商带来过度的、不寻常的和不充分解释的负担,很可能也会引起美国联邦贸易委员会和全球其他消费者保护机构的关注。


道德层面和更广阔的视野


软件工程师 Frank Rundatz 最近提出了更广阔的视角。

有一天,我们回首往事,会好奇一家公司如何厚颜无耻地复制全世界所有的信息,并让人们侵犯这些作品的版权。Napster 所做的一切就是让人们能够以点对点的方式传输文件。 他们甚至没有托管任何内容! Napster 甚至开发了一个系统来阻止其用户 99.4% 的版权侵权,但仍然被关闭,因为法院要求他们做到 100%。OpenAI 扫描并托管所有内容,出售对其的访问权限,甚至会为付费用户生成衍生作品。

当然,Midjourney 也是如此。

斯坦福大学教授苏里亚·甘古利补充道:

我认识的许多大型科技公司的研究人员都在致力于人工智能与人类价值观的协调。 但从本质上讲,这种一致性难道不应该补偿人类通过其原创的、受版权保护的输出提供训练数据吗? (这是一个价值观问题,而不是法律问题)。

延伸甘古利的观点,除了知识产权和艺术家的权利之外,图像生成还存在其他担忧。 类似的图像生成技术正被用于创建儿童性虐待材料和未经同意的深度伪造色情内容等目的。 就 AI 社区认真对待使软件符合人类价值观而言,必须制定法律、规范和软件来打击此类用途。


总结


几乎可以肯定的是,像 OpenAI 和 Midjourney 这样的生成式 AI 开发公司已经在受版权保护的材料上训练了他们的图像生成系统。 两家公司均未对此公开透明。 Midjourney 甚至因调查他们的训练材料的性质而三次禁止我们使用。

OpenAI 和 Midjourney 都完全有能力制作看似侵犯版权和商标的材料。 这些系统在这样做时不会通知用户。 他们不提供有关他们制作的图像来源的任何信息。 用户在制作图像时可能不知道自己是否侵权。

除非有人提出一种技术解决方案,能够准确报告出处或自动过滤掉绝大多数版权侵权行为,否则唯一的道德解决方案就是生成式 AI 系统将其训练限制在已获得适当许可的数据上。 图像生成系统应该需要获得用于培训的艺术许可,就像流媒体服务需要获得其音乐和视频的许可一样。

我们希望我们的发现(以及其他已经开始测试相关场景的人的类似发现)将引导生成式 AI 开发人员更仔细地记录他们的数据源,将自己限制在经过适当许可的数据上,仅使用获得许可的训练数据,并补偿艺术家的工作。 从长远来看,我们希望开发出的软件作为一种艺术工具具有强大的力量,但不会利用未经同意的艺术家的艺术作品。

尽管我们没有在这里深入探讨,但我们完全预计,随着生成式AI应用于其他领域(例如音乐生成),也会出现类似的问题。

继《纽约时报》诉讼之后,我们的结果表明,生成式 AI 系统可能会经常产生抄袭的书面和视觉输出,没有透明度或补偿,从而给用户和内容创作者带来过度的负担。 我们相信,诉讼的可能性可能是巨大的,整个企业的基础可能建立在道德上不稳定的基础上。

原文来源:https://spectrum.ieee.org/midjourney-copyright

作者:Gary Marcus、Reid Southen