全文|白宫召集7家AI公司,发布人工智能自愿承诺

转载
485 天前
3509
AI梦工厂

文章转载来源:AI梦工厂

文章来源:阿法兔研究笔记

2023年7月21日,根据美国白宫公告称,美国总统拜登7月21日在白宫召集七家领先的人工智能公司——亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI,并宣布这些公司已自愿承诺,帮助实现人工智能技术安全、可靠和透明的发展,本文来自OpenAI官网,主体内容和白宫网站一致

全文

为了夯实人工智能技术和服务的安全性、保障性和可信性,OpenAI 和其他领先的人工智能实验室,做出自愿承诺。这项工作主要由白宫协调,是在美国和全球各地推进有意义、有效人工智能治理的重要步骤。

为了践行构建安全、有益的人工智能的使命,OpenAI将继续试点和完善具体的治理实践,这些治理实践,是专门为像OpenAI这样的,具备能够生产的高能力基础模型所量身定制的。除此之外,OpenAI还将继续投资于有助于为监管提供参考信息的研领域的,例如研发评估人工智能模型潜在危险能力的技术。

"世界各地的政策制定部门,正在考虑针对高能力人工智能系统制定新的法律。我们今天的承诺,为正在进行的讨论贡献了具体的实践。OpenAI全球事务副总裁 Anna Makanju 表示:"这一声明是OpenAI与各国政府、民间社会组织和世界各地其他机构为推进人工智能治理而持续合作的一部分。

人工智能自愿承诺(Voluntary AI commitments)

以下自愿承诺清单最初由白宫发布:

下列是各公司为促进安全、可靠和透明地开发和应用人工智能技术而做出的承诺清单,下列承诺与现行法律法规保持一致,旨在推进人工智能法律和政策制度的健全。各公司将践行下列自愿承诺,直至相关联的法律法规和制度正式生效,部分公司可以在这项承诺之外做出其他承诺。

范围:本承诺提到的特定模型,仅适用于比当前行业前沿更强大的生成式人工智能模型(例如,比当前发布的任何模型都更强大的模型,包括 GPT-4、Claude 2、PaLM 2、Titan,以及图像生成方面的 DALL-E 2)。

注:Security对应蓄意(人为)的威胁,Safety对应AI系统自身的漏洞或意外后果;在这里,AI Safety对应的是功能安全,AI Security 对应的是AI信息安全


安全(Safety,侧重功能安全)


1) 承诺在滥用、社会风险和国家安全问题(如生物、网络和其他安全领域)等方面,重新对模型和系统内部和外部进行评估。

参与做出上述承诺的公司明白,强大红队测试对于打造成的产品、确保公众对人工智能的信心以及防范重大的国家安全威胁至关重要。包括红队测试在内的模型安全性和能力评估,是一个开放的科学探索领域,还需要做更多的工作。各公司承诺,推进这一领域的研究,并为范围内所有新模型的重大公开发布制定多方面、专业化和详细的红队测试制度,这里包括,要参考独立领域专家的意见。在设计制度时,须确保对以下方面给予高度重视: 

  • 生物、化学和放射学风险,如系统如何降低武器开发、设计、获取或使用的准入门槛 
  • 网络安全能力,如系统帮助发现、利用或操作使用漏洞的方式,需要考虑到模型的能力,也可能具备有用的防御用途,并适合纳入系统中
  • 系统互动和工具使用的效果,包括控制物理系统的能力
  • 模型复制自身或 "自我复制 "的能力 
  • 社会风险,如偏见和歧视 

为了支持上述工作,参与承诺的公司,会推进正在进行的人工智能安全研究,包括人工智能系统决策过程的可解释性,以及提高人工智能系统防止滥用的鲁棒性。同样,各公司承诺,在透明度报告中公开披露红队和安全程序测试。

2) 致力于在公司和政府之间共享有关信任和安全风险、危险或AI的新兴能力以及试图规避保障措施的信息 

参与做出承诺的公司,需要认识到信息共享、共同标准和最佳实践对红队测试和促进人工智能信任与安全的重要性。大家承诺建立或加入一个论坛或机制,通过该论坛或机制,参与制定、推进和采用有关前沿人工智能安全的共享标准和最佳实践,如 NIST 人工智能风险管理框架或与红队测试、安全和社会风险相关的未来标准。这一论坛或机制,可促进有关前沿能力进展以及新出现的风险和威胁(如试图规避保障措施)的信息共享,促进有关优先关注领域的技术工作组的发展。在这项工作中,公司将酌情与包括美国政府在内的各国政府、民间社会和学术界密切合作。


安防/网络安全(Security,侧重信息安全)


3) 投资于网络安全防护和内部威胁保障措施,以保护专有和未发布的模型 

参与做出承诺的公司,需要将范围内模型的未发布人工智能模型权重,视为公司业务的核心知识产权,尤其是在网络安全和内部威胁风险方面。这里包括限制只有工作职能需要的人才能访问模型权重,并建立与保护最有价值的知识产权和商业机密相一致的、强大的内部威胁检测计划。此外,还需要在适当的安全环境中存储和使用权重,以降低未经许可发布的风险。

4) 鼓励第三方发现和报告问题与漏洞

做出此承诺的公司认识到,即使经过强大的 "红队测试",人工智能系统仍可能存在漏洞,公司会承诺在赏金系统、竞赛或奖品范围内为系统设立赏金,以鼓励负责任地披露弱点,如不安全行为,或将人工智能系统纳入公司现有的漏洞赏金计划。


可信(Trust)


5) 针对人工智能生成的音频或视频内容,需要开发和部署新的机制,主要用来能让用户了解音频或视频内容,是否由人工智能生成,包括可靠的出处、水印或两者兼而有之。

参与作出这一承诺的公司认识到,让人们能够了解音频或视频内容是否由人工智能生成非常重要。为实现这一目标,各公司同意开发强大的机制,包括在水印系统开发完成后,在其引入的范围内,为其任何公开可用系统创建的音频或视频内容提供出处和/或水印系统。它们还将开发工具或应用程序接口,以确定某一特定内容是否由其系统创建。易于与现实区分的视听内容,或设计为易于识别由公司人工智能系统生成的视听内容(如人工智能助手的默认声音)不包含在本承诺范围内。

水印或出处数据应包括创建内容的服务或模型的标识符,但不必包括任何可识别用户的信息。更广泛地说,做出此承诺的公司承诺与业界同行和标准制定机构合作,共同开发一个技术框架,帮助用户区分用户生成的音频或视频内容与人工智能生成的音频或视频内容。

6) 公开报告模型或系统的能力、局限性以及适当和不适当使用的领域,包括讨论社会风险,如对公平性和偏见的影响。

参与作出承诺的公司需要承认,用户应了解自己使用或与之互动的人工智能系统的已知能力与局限性。各公司需要为范围内所有新的重要模型公开发布发布报告。这些报告应包括所进行的安全评估(包括在危险能力等领域的评估,但这些评估应负责公开披露)、对适当使用领域有影响的性能方面的重大限制、模型对公平性和偏见等社会风险影响的讨论,以及为评估模型是否适合部署而进行的对抗测试的结果。

7) 优先研究人工智能系统带来的社会风险,包括避免有害的偏见和歧视,保护隐私。

参与作出承诺的公司,需要认识到避免人工智能系统传播有害偏见和歧视的重要性。公司普遍承诺增强信任和安全团队的能力,推进人工智能安全研究,促进隐私保护,保护儿童,并努力积极管理人工智能的风险,以实现最终效益。

8) 开发和部署前沿人工智能系统,帮助应对社会最大挑战

参与作出承诺的公司,需要同意支持前沿人工智能系统的研究和开发,以帮助应对社会的最大挑战,如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。各公司还承诺支持促进学生和工作人员的教育和培训的举措,使他们从人工智能的好处中受益,帮助公民了解人工智能技术的性质、能力、局限性和影响。

参考文献:Moving AI governance forward (openai.com)

https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/#:~:text=As%20part%20of%20this%20commitment,help%20move%20toward%20safe%2C%20secure%2C