文章转载来源:Yangz
撰文:Claire Leibowicz
来源:麻省理工科技评论
图片来源:由无界 AI工具生成
AIGC 显然需要透明度,但水印等措施的价值并不明显。
5 月下旬,五角大楼着火的图片在网上疯传。而几英里外,白宫助理和记者们则忙着弄清楚这些大楼爆炸的图片是否属实。
结果是,这些图片是由人工智能生成的。但政府官员、记者和科技公司却无法在图片产生实际影响之前采取行动。这不仅造成了混乱,还导致了金融市场的下跌。
操纵和误导性内容并非新现象。但人工智能使内容创作变得越来越容易,且生成的内容往往十分逼真。虽然 AI 可以用于艺术表达或可访问性改进,但也可能被滥用于对政治事件的质疑,或用于诽谤、骚扰和剥削。
无论是为了促进选举的公正性、保护证据、减少错误信息还是保存历史记录,受众都可以通过了解内容是否被人工智能操纵或生成而受益。如果五角大楼的图片含有人工智能生成的痕迹,技术平台或许就能更快地采取行动;它们本可以及时减少图片的传播,或者对内容进行标注,这样受众或许就能更容易地识别出图片是伪造的。这样就可以避免混乱,进而避免市场波动。
毫无疑问,要想区分真假,我们需要更多的透明度。上个月,白宫就如何做到这一点发表了意见,宣布七家最著名的人工智能公司已承诺“制定强有力的技术措施,确保用户知道什么内容是人工智能生成的,比如水印。”
水印等披露方法是一个良好的开端。不过,这些方法在实践中比较复杂,而且也不是什么快速有效方案。目前还不清楚水印是否能帮助 Twitter 用户识别出五角大楼的假图像,或者识别出最近特朗普在广告活动中的声音是合成的。而其他方法,比如来源披露和元数据,是否会产生更大的影响?最重要的是,仅仅披露内容是人工智能生成的,是否能帮助受众区分事实与虚构,或减轻对现实世界的伤害?
要回答这些问题,我们需要明确水印和其他类型的披露方法的含义。我们需要明确它们是什么,我们可以合理地期望它们做些什么,以及即使引入这些方法,还会存在哪些问题。尽管对定义的争论看似迂腐,但“水印”一词的广泛使用目前正在造成整个人工智能领域的混乱。定义这些不同方法的含义,是人工智能领域合作并就披露标准达成一致的重要前提。否则,人们就会各说各话。
我在领导非营利组织“人工智能伙伴关系”(PAI)开展多部门工作,为负责任的合成媒体制定指导方针时,亲眼目睹了这一问题,OpenAI、Adobe、Witness、微软、BBC 等组织都做出了承诺。
一方面,水印可以指最终用户可见的信号(例如,图像供应商的媒体上印有“Getty Images”字样)。不过,它也可以指嵌入内容中肉眼或耳朵无法察觉的技术信号。这两种类型的水印 -- 被称为“直接”和“间接”披露 -- 对于确保透明度都至关重要。因此,任何关于水印的挑战和机遇的讨论都必须强调评估的是哪种类型的水印。
更加复杂的是,水印经常被用作提供内容披露的一般行为的“总括”术语,尽管有许多方法。仔细阅读白宫的承诺,就会发现另一种被称为“出处”(provenance)的披露方法,它依靠的是加密签名,而不是隐形信号。不过,在大众媒体中,这通常也被描述为水印。如果你觉得这些混杂的术语令人困惑,请放心,你不是唯一一个。晰度很重要:如果我们连如何称呼不同的技术都无法达成一致,那么人工智能领域就无法实施一致且稳健的透明度措施。
对此,我提出了六个初步问题,可以帮助我们评估水印和其他人工智能披露方法的实用性。这些问题应有助于确保各方讨论的问题完全相同,并确保我们能以全面、一致的方式评估每种方法。
具有讽刺意味的是,被吹捧为有助于衡量内容来源和内容如何被修改的技术信号,有时本身也会被篡改。虽然很难,但隐形和可见的水印都可以被移除或篡改。水印被篡改的难易程度因内容类型而异。
虽然隐形水印经常被宣传为处理生成式人工智能的广泛解决方案,但这种嵌入式信号在文本中比在视听内容中更容易被操纵。这很可能解释了为什么白宫的摘要文件暗示水印将适用于所有类型的人工智能,但在全文中却明确指出,公司只承诺对视听材料进行披露。因此,在制定人工智能政策时,必须具体说明隐形水印等披露技术在不同内容类型中的有效性和更广泛的技术稳健性有何不同。一种披露解决方案可能对图像很有用,但对文本毫无用处。
即使 AI 行业同意实施隐形水印,更深层次的问题也不可避免地会出现,即谁有能力检测这些信号,并最终根据这些信号做出权威性的声明。谁能决定内容是否是人工智能生成的,或者作为延伸,谁能决定内容是否具有误导性?如果每个人都能检测水印,那么这可能会导致它们容易被坏人滥用。另一方面,对检测隐形水印的权限进行控制 -- 特别是如果由大型人工智能公司主导的话 -- 可能会降低开放性并强化技术把关。在未确定如何管理的情况下实施这类信息披露方法,可能会导致这些方法不被信任且效果不佳。而且,如果这些技术没有被广泛采用,坏人可能会转向缺乏隐形水印的开源技术,制造有害和误导性的内容。
正如人权与技术组织 Witness 的主要工作所表明的,任何随内容长期传播的追踪系统都可能给内容创建者带来隐私问题。人工智能行业必须确保水印和其他披露技术的设计方式不包含可能给创作者带来风险的识别信息。例如,人权捍卫者可能会通过带有身份识别信息水印的照片来捕捉侵权行为,从而使其很容易成为专制政府的目标。即使知道水印可能泄露活动人士的身份,也可能对表达和言论产生寒蝉效应。政策制定者必须提供更明确的指导,说明如何设计信息披露,以保护内容创建者的隐私,同时还要包括足够有用和实用的细节。
即使隐形水印在技术上可以持久保护隐私,也未必能帮助受众解读内容。虽然直接披露(如可见水印)具有提供更大透明度的直观吸引力,但这种披露并不一定能达到预期效果,它们往往会被认为是家长作风的、有偏见的和惩罚性的,即使它们没有说明内容的真实性。此外,受众可能会误解直接披露。在我 2021 年的研究中,一位参与者误解了 Twitter 的“被操纵的媒体”标签,认为是“媒体”机构在操纵他,而不是特定视频的内容被剪辑以误导他。虽然关于不同的用户体验设计如何影响受众对内容披露的理解的研究不断涌现,但大部分研究都集中在大型科技公司内部,而且主要集中在选举等不同的背景下。研究直接披露和用户体验的效果,而不是仅仅依赖于给人工智能生成的内容贴标签的直观吸引力,对于提高透明度的有效决策至关重要。
也许要评估的最棘手的社会问题是,协调一致的直接披露将如何影响人们对信息的广泛态度,并可能降低人们对“真实”内容的信任。如果人工智能组织和社交媒体平台只是简单地标注内容是人工智能生成或修改的 -- 这是一种可以理解、但有限的方式,以避免对哪些声明具有误导性或有害性做出判断 -- 这会如何影响我们看待网上内容的方式?
通过信息披露提高媒体素养是一项崇高的事业;然而,许多在科技公司内外政策团队工作的人担心,过早推动对所有生成内容进行标注将导致“骗子分化”-- 社会对所有可能由人工智能生成的内容的怀疑态度如此明显,以至于破坏了人们对非人工智能生成的真实内容的信任,这种担心是可以理解的。这种前景也导致人们不确定,是否所有看似低风险的人工智能内容创作使用 -- 例如,iPhone 的人像模式依赖于人工智能技术,或者白宫承诺中提到的语音助手 -- 都需要披露人工智能的参与。该领域需要共同努力,衡量社会对信息的长期态度,并确定何时披露人工智能的参与才有意义。最重要的是,他们必须评估那些仅仅描述内容创建方法(说明某些内容是由人工智能生成或编辑的)的可见性披露影响,以替代我们真正关心的内容:说明内容声明的真假。
水印和其他披露技术带来的挑战不应被用作不作为或限制透明度的借口。相反,它们应推动公司、政策制定者和其他人共同制定定义,并决定如何评估实施过程中不可避免的权衡。只有这样,生成式人工智能政策才能充分帮助受众区分事实与捏造。
来源:Yangz
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com