ChatGPT之父美国国会作证:AI可能对世界造成重大伤害,必须监管

转载
553 天前
6199
AI之势

文章转载来源:AI之势

来源:澎湃新闻

记者 方晓

·OpenAI首席执行官山姆·奥特曼说,“我认为,如果这项技术出了问题,它可能会大错特错”,“鉴于我们明年将面临选举,而这些模型正在变得更好,我认为这是一个值得关注的重要领域”。

·参议员迪克·杜宾表示,大公司来到参议院“恳求我们对其进行监管”是很了不起的。

当地时间5月16日,OpenAI首席执行官山姆·奥特曼在美国国会作证。

当地时间5月16日,OpenAI首席执行官山姆·奥特曼在美国参议院就人工智能技术的潜在危险作证,敦促立法者对开发GPT-4等先进人工智能系统的组织实施许可要求和其他法规。

“我们认为政府的监管干预对于减轻日益强大的模型的风险至关重要。”奥特曼说,“例如,对开发和发布超过能力门槛的AI模型,美国政府可以考虑把实施许可和测试要求结合起来。”

出庭作证的还有IBM的首席隐私和信任官克里斯蒂娜·蒙哥马利(Christina Montgomery)和著名AI专家加里·马库斯(Gary Marcus)。马库斯指出,美国政府可能需要一个拥有技术专长的“内阁级组织”专门监督人工智能。

近年来,以科技高管为主题的国会听证会的基调一般会用“敌对”来形容,Facebook创始人马克·扎克伯格、亚马逊创始人杰夫·贝索斯等科技名人都曾在国会山被对其公司不满的立法者训斥。但奥特曼在听证会上受到了议员的表扬。


参议员使用ChatGPT发表开场白


奥特曼是在参议院司法委员会隐私、技术和法律小组委员会举行的听证会上发表上述讲话的。

小组委员会主席、参议员理查德·布鲁门撒尔(Richard Blumenthal,康涅狄格州民主党)在听证会上发表开场白,“我们经常看到技术超出监管时会发生什么。”他说,“对个人数据的无节制利用、虚假信息的泛滥和社会不平等的加深。”

开场白的文字由ChatGPT撰写,语音应用程序根据布鲁门撒尔在参议院的演讲训练生成音频。

这时候,所有目光都转向了坐在证人席上准备提供证词的奥特曼。布鲁门撒尔发出笑声,说人工智能能够制作出如此逼真的音频片段真是太神奇了。他接着用自己真正的声音阅读了开场白的其余部分。

布鲁门撒尔支持成立一个机构来监管AI的想法,但他警告说,如果新机构得不到足够的资金和科学专业知识,科技公司“将绕着他们转圈子”。他指出,美国公司通常反对任何新规定,但就人工智能制造商而言,“我感觉到这里有一种真正的参与意愿。”

据参加前一天晚宴和会议的人士透露,奥特曼在当地时间5月15日晚与数十名众议院议员共进晚餐,并在听证会前与多位参议员私下会面。

几位立法者对OpenAI和IBM愿意面对新监管发表了评论,伊利诺伊州民主党人迪克·杜宾(Dick Durbin)表示,大公司来到参议院“恳求我们对其进行监管”是很了不起的。新泽西州民主党人科里·布克(Cory Booker)甚至多次直接称呼奥特曼的名字山姆。

在听证会上,被问是否赚了很多钱时,山姆·奥特曼表示,“没有任何OpenAI股权,做这件事只因热爱。”(00:29)


奥特曼建议国会成立新机构,定义能力门槛


虽然奥特曼强调人工智能的好处,但他在听证会上表示,OpenAI“非常担心”选举受到人工智能生成的内容的影响。他担心人工智能行业可能“对世界造成重大伤害”。“我认为,如果这项技术出了问题,它可能会大错特错,我们希望对此直言不讳。” “我们希望与政府合作,防止这种情况发生。”

“鉴于我们明年将面临选举,而这些模型正在变得更好,我认为这是一个值得关注的重要领域……我确实认为在这个话题上进行一些监管是非常明智的。”他说。

奥特曼建议国会成立一个新机构,为“超过一定规模的能力”的人工智能技术颁发许可证,在向公众发布AI系统之前,应该由可以判断该模型是否符合这些规定的专家进行独立审计。

不过,奥特曼认为繁琐的要求不应该适用于模型远不如OpenAI先进的公司和研究人员。他建议国会“定义能力门槛”,并将能够执行某些功能的人工智能模型纳入严格的许可制度。

例如,奥特曼说,“可以说服、操纵、影响一个人的行为、信仰”或“帮助创造新型生物制剂”的人工智能模型可能需要获得许可。为任何超过特定计算能力阈值的系统要求许可会更简单,但他更愿意根据特定功能划定监管界限。

OpenAI由非营利和营利实体组成。奥特曼表示,OpenAI的GPT-4模型“比具有类似功能的任何其他模型更有可能做出有益和真实的响应并拒绝有害请求”,部分原因是广泛的预发布测试和审计:在发布任何新系统之前,OpenAI会进行广泛的测试,聘请外部专家进行详细审查和独立审计,改进模型的行为,并实施强大的安全和监控系统。在发布最新模型GPT-4之前,他们花了六个月时间进行广泛的评估、外部红队测试和危险能力的测试。

奥特曼还表示,人们应该能够选择不将他们的个人数据用于训练AI模型。OpenAI上个月宣布,ChatGPT用户现在可以关闭聊天记录,以防止对话被用于训练AI模型。


IBM提出透明度要求,建议参考欧洲


蒙哥马利在听证会上表示,IBM敦促国会对人工智能采取精确的监管方法。“从本质上讲,AI只是一种工具,工具可以服务于不同的目的。”她说,“这意味着建立规则来管理人工智能在特定用例中的部署,而不是监管技术本身。”

蒙哥马利呼吁拟议类似欧洲的法规,其中概述了不同级别的风险。她提出,国会应该明确定义人工智能的风险,并“针对不同的风险制定不同的规则”,最严格的规则“适用于对人类和社会风险最大的用例”。

蒙哥马利提出了透明度要求,称消费者应该知道他们何时与人工智能互动。“任何地方的人都不应该被诱骗与人工智能系统互动……人工智能时代不能成为另一个快速行动和破坏事物的时代。”她说。

蒙哥马利还表示,美国应该迅速让公司对部署“在选举等方面传播错误信息”的人工智能负责。


马库斯担心新闻质量下降,批评微软


参议员们还听取了加里·马库斯的说法,马库斯是一位创办了两家人工智能和机器学习公司的作家,也是纽约大学心理学和神经科学名誉教授。他在听证会上说,人工智能可以制造具有说服力的谎言并提供有害的医疗建议。他批评微软在“悉尼”聊天机器人(新必应聊天机器人的内部名称)表现出令人震惊的行为后没有立即将其撤下。

AI大牛加里·马库斯(左)与山姆·奥特曼在作证前宣誓。

“悉尼显然有问题......我会暂时将其从市场上撤回,但他们没有。”马库斯说。“这给我敲响了警钟,提醒我即使有像OpenAI这样的非营利性公司……其他人也可以收购这些公司并随心所欲。也许现在我们有一组稳定的参与者,但这些系统在塑造我们的观点和生活方面所拥有的力量确实非常重要,而且这甚至没有考虑到有人可能故意将它们重新用于各种不良目的的风险。”

人工智能生成的新闻文章是马库斯讨论的另一个问题。他说,随着越来越多的新闻由人工智能撰写,“整个新闻市场的质量将会下降”。

马库斯说,美国政府可能需要一个拥有技术专长的“内阁级组织”,其全职工作是监督人工智能。他说,在广泛部署人工智能系统之前,应该进行类似食品和药物管理局(FDA)的安全审查,并在产品发布后再进行审查。

但马库斯也警告参议员们要提防滥用监管的可能性。 “如果我们让监管看起来好像我们在做什么,但它更像是绿色外衣(greenwashing,指机构为树立对环境负责的公共形象而散布虚假信息),实际上什么都没有发生,我们就会把小玩家拒之门外,因为我们给他们施加了太多的负担,以至于只有大玩家才能做到。”他说。


“阻止人工智能发展没有意义”


一些人工智能评论家呼吁暂停开发,有非营利性人工智能研究小组指责OpenAI在没有适当考虑其风险的情况下发布GPT-4。奥特曼表示,迭代发布更好,因为“我认为,秘密构建一个超级强大的AI系统,然后一次性将它投放到世界上,并不会有好结果。”

奥特曼说:“我们战略的很大一部分是在这些系统相对薄弱且非常不完善的情况下找到让人们体验它们的方法……并弄清楚我们需要做些什么才能让它更安全、更好。”

参议员布鲁门撒尔说,试图阻止人工智能的发展是没有意义的,“世界不会等待,全球科学界的其他成员也不会停下来。我们的对手正在前进,把头埋在沙子里不是答案。”

布鲁门撒尔表示,“人工智能公司应该被要求测试他们的系统,披露已知风险,并允许独立研究人员访问。”“在某些地方,人工智能的风险如此之大,以至于我们应该施加限制甚至禁止它们的使用,尤其是在涉及商业性侵犯隐私以谋取利益和影响人们生计的决策时。”

参议员乔希·霍利(Josh Hawley)建议,人工智能的危害可以通过集体诉讼和其他诉讼来处理,国会可以“建立联邦诉讼权,允许受到这项技术伤害的个人”起诉公司。

奥特曼指出,人们已经可以就技术造成的危害起诉OpenAI。马库斯说,诉讼是不够的,可能需要十年或更长时间,霍利的建议“肯定会让很多律师变得富有,但我认为它太慢了,无法影响我们关心的很多事情。”

听证会上还讨论了人工智能对工作的影响。 IBM首席执行官阿温德·克里希纳(Arvind Krishna)最近透露,计划暂停招聘约7800个可能被人工智能系统取代的工作岗位。蒙哥马利表示,“将创造新的工作岗位,更多的工作岗位将被转变,一些工作岗位将被转移。”奥特曼告诉参议员们,“GPT-4将完全自动化一些工作,并将创造我们认为会更好的新工作。”

听证会上的一些立法者仍然表现出华盛顿和硅谷之间在技术知识方面的持续差距。南卡罗来纳州共和党人林赛·格雷厄姆(Lindsey Graham)反复询问证人,针对Facebook和谷歌等在线平台的言论责任保护是否也适用于人工智能。奥特曼表现镇定,多次尝试区分人工智能和和社交媒体。 “我们需要共同努力寻找一种全新的方法。”他说。