紧急刹车:AI军备竞赛升温,“喊停”公开信倏忽而至

转载
387 天前
5960
Yangz

文章转载来源:Yangz

撰文:Billy Perrigo

来源:《时代》周刊

编译:巴比特

图片来源:由无界 AI工具生成

一封包括马斯克在内的数百名科技界大佬签名的公开信,敦促全球领先的人工智能实验室暂停训练新的超强系统 6 个月,称人工智能的最新进展给“社会和人类带来了深刻的风险”。

这封信是在 OpenAI 的 GPT-4 公开发布仅两周后发出的,GPT-4 是有史以来最强大的人工智能系统,使研究人员削减了他们对 AGI(或超越人类认知能力的人工通用智能)何时到来的预期。许多专家担心,随着人工智能军备竞赛的升温,人类正在梦游般地进入灾难。

信中写道:“高级人工智能可能代表着地球生命史上的一个深刻变化,应该以相应的谨慎和资源来规划和管理。”“不幸的是,这种水平的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至包括它们的创造者——能够理解、预测或可靠地控制。”

除了马斯克之外,签名名单上还有 900 多人(截止本文发布时已有 1126 位签名者),其中包括苹果公司联合创始人 Steve Wozniak、Sapiens 作者 Yuval Noah Harari,以及一些负责机器学习方面多项突破的人工智能领域最杰出的学者们。截至发稿,没有 OpenAI 的员工在信上签名,尽管首席执行官 Sam Altman 的名字曾短暂出现在名单上,但随后就消失了。此外,至少有四名谷歌员工,包括来自其子公司人工智能实验室 DeepMind 的三名员工,Stability AI 的首席执行官 Emad Mostaque 和人类技术中心(Center for Humane Technology)的执行主任 Tristan Harris 也出现在名单上。《时代》周刊无法核实所有签名是否真实。

“当代人工智能系统现在在一般任务上正变得具有人类竞争力,”信中写道,该信目前在 Future of Life Institute 的网站上。“我们必须问自己:我们应该让机器用宣传和谎言淹没我们的信息渠道吗?”我们是否应该把所有的工作都自动化掉,包括那些令人满意的工作?我们是否应该发展非人类思维,让它们最终在数量上、智力上超过我们,淘汰我们并取代我们?我们是否应该冒着失去对我们文明的控制的风险?这种决定决不能委托给未经选举的科技领袖”。

这封信呼吁所有人工智能实验室同意利用拟议的六个月暂停时间继续进行安全研究。信中说:“人工智能实验室和独立专家应利用这一暂停,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审计和监督。““这些协议应该确保遵守这些协议的系统是安全的,排除合理怀疑。”这封信背后的人指出,他们不是在呼吁暂停人工智能的发展,而是“从转向具有新兴能力的越来越大的不可预测的黑箱模型的危险竞赛中退后一步”。

公开信的签署者、《重启人工智能》(Rebooting AI)一书的作者 Gary Marcus 告诉《时代》周刊,他签上自己的名字是因为他觉得有责任站出来。他说:“短期和长期都存在严重的风险,在人类最需要人工智能责任的时候,企业似乎已经失去了方向。”“冒着如此大的风险,如此迅速地进入未知领域,似乎不是一个好办法。如果(企业)不太重视这些风险,我们其他人就有必要大声说出来。”

人工智能安全初创公司 SaferAI 的首席执行官 Simeon Campos 告诉《时代》周刊,他在这封信上签字是因为,如果连这些系统的发明者都不知道它们是如何运作的,不知道它们有什么能力,也不知道如何对它们的行为进行限制,那么就不可能管理好系统的风险。“我们目前在做什么?”Campos 说。”我们在全速竞赛中把这类系统的能力提升到了前所未有的水平,对社会产生变革性影响。我们必须放慢这些系统的发展速度,让社会适应并加速替代性的 AGI 架构,这些架构在设计上是安全的,而且是可以正式验证的。“

公开信的结尾充满了希望。“社会曾经暂停过对社会产生潜在灾难性影响的其他技术。我们在这里也可以这样做。让我们享受一个漫长的 AI 夏天,而不是毫无准备地匆忙进入秋天。”