由于微信限制了第三方应用的跳转,请使用以下方法。
1. 点击右上角的
2. 选择在浏览器中打开
文章转载来源:AIGC第一梯队
文章来源:AI范儿
美国政府委托的报告警告,人工智能(AI)发展可能对国家安全构成“灭绝级威胁”。报告建议立法禁止高计算能力的AI模型训练,并要求AI公司在新模型训练和部署时获得政府许可。此外,提议禁止公布强大AI模型的内部工作机制,并对AI芯片制造和出口实施更严格控制。这些措施旨在防止AI技术的潜在滥用,并确保全球安全。
美国政府面临着来自人工智能(AI)带来的国家安全风险,这些风险可能在最极端的情况下构成“灭绝级威胁”。这是根据美国政府委托并于本周一发布的一份报告所警告的。
报告指出,当前的AI前沿开发正对国家安全构成紧迫且不断增长的威胁,并认为先进AI和通用人工智能(AGI)的发展可能会对全球安全造成破坏,类似于核武器的问世。尽管AGI尚未问世,但顶尖的AI实验室正在努力朝这个目标迈进,许多人预计在未来五年内或更短的时间内可能实现。
报告的作者们花费了一年多的时间与200多位政府官员、专家以及前沿AI公司的员工进行了交流,包括OpenAI、谷歌DeepMind、Anthropic和Meta等公司。一些交流内容揭示了一个令人不安的现实:许多在尖端实验室工作的AI安全人员担心,公司高管可能会因逆向激励而做出不当决策。
这份名为“提高先进AI安全性和安全性的行动计划”的报告提出了一系列广泛的、前所未有的政策行动建议,如果得以实施,将彻底改变AI行业。报告建议国会应立法禁止使用超过一定计算能力的AI模型训练,并由新成立的联邦AI机构设定这一门槛。
报告还建议,新的AI机构应要求处于行业前沿的AI公司在训练和部署超过一定门槛的新模型时,必须获得政府许可。此外,报告还提出,当局应“紧急”考虑禁止公布强大AI模型的“权重”或内部工作机制,并加强对AI芯片制造和出口的控制,并将联邦资金投向旨在使先进AI更安全的研究。
报告是由国务院在2022年11月委托的,作为一份价值25万美元的联邦合同的一部分。报告由Gladstone AI撰写,该公司专门为政府员工提供AI技术简报。报告于2月26日以247页的文件形式提交给国务院,但国务院未对报告作出回应。报告首页声明,建议“不代表美国国务院或美国政府的观点”。
报告的建议,许多之前被认为是不可想象的,是在AI领域一系列重大进展之后提出的。自2022年11月发布的聊天机器人ChatGPT首次引发了人们对未来AI可能对人类构成风险的质疑以来,更多功能强大的新工具不断快速推出。
随着全球政府讨论如何最佳监管AI,全球最大的科技公司也在迅速构建下一代更强大的系统基础设施,有时计划使用的计算能力是现有水平的10倍或100倍。同时,超过80%的美国公众认为AI可能意外引发灾难性事件,77%的选民认为政府应加强AI监管。
报告提出,禁止超过一定门槛的先进AI系统训练,可能会“缓和所有AI开发者之间的竞争动态”,并有助于减缓芯片行业制造更快硬件的速度。报告表示,硬件——特别是目前用于训练AI系统的高端计算机芯片——是提高AI能力的一个重要瓶颈。监管这种硬件的扩散可能是“保护长期全球安全和安全免受AI影响的最重要要求”。政府应探索将芯片出口许可与芯片上的技术联系起来,这些技术允许监控芯片是否用于大型AI训练运行,作为执行针对训练超过GPT-4的AI系统的提议规则的一种方式。
报告还提出了一个可能性,即最终,宇宙的物理边界可能不在那些试图通过芯片防止先进AI扩散的人一边。新的联邦AI机构可以探索阻止发布提高算法效率的研究,尽管它承认这可能会损害美国AI行业,最终可能是不可行的。
尽管存在挑战,报告的作者们表示,他们被目前用户如果能够访问AI模型的权重,就可以轻松且廉价地移除安全防护措施的情况所影响。报告的第三位合著者,前国防部官员Beall,已经离开Gladstone,成立了一个超级政治行动委员会(PAC),旨在倡导AI政策。该PAC的目标是到2024年底通过AI安全立法,使AI安全和安全成为“2024年选举的关键问题”。
来源:AIGC第一梯队
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com