AutoGPT和BabyAGI的横空出世,会是迈向AGI的更进一步吗

转载
615 天前
4112
Yangz

文章转载来源:Yangz

撰文:Benj Edwards

来源:Ars Technica

图片来源:由无界 AI工具生成

AutoGPT 和 BabyAGI 运行 GPT 人工智能代理,以迭代方式完成复杂任务。

自上个月向测试者推出 OpenAI 的 GPT-4 API 以来,一群零散的开发者一直在尝试制作人工智能模型的类似代理实现,试图在尽可能少的人为干预下执行多步骤任务。这些自制的脚本可以循环、迭代,并根据需要衍生出人工智能模型的新实例。

特别是两个实验性的开源项目,在社交媒体上吸引了大量的关注,尤其是在那些无情炒作人工智能项目的人中:由 Toran Bruce Richards 创建的 Auto-GPT,以及由 Yohei Nakajima 创建的 BabyAGI

它们是干什么的?就目前而言,二者的功能还没有完善。它们需要大量的人类输入和手把手的指导,还没有像承诺的那样自主。但它们代表了迈向更复杂的人工智能模型链的早期趋势,有可能比单独工作的单个 AI 模型更有能力。


“自主实现你设定的任何目标”


Richards 称他的脚本是“一个实验性的开源应用程序,展示了 GPT-4 语言模型的能力”。该脚本“将 LLM 的‘思想’串联起来,自主地实现你设定的任何目标”。

基本上,Auto-GPT 从 GPT-4 中获取输出,并通过一个即兴的外部存储器将其反馈给自己,这样它就可以进一步迭代一个任务,纠正错误,或提出改进建议。理想情况下,这样的脚本可以作为一个 AI 助手,可以自己执行任何数字任务。

为了测试这些说法,我们在一台 Windows 机器上本地运行了 Auto-GPT(一个 Python 脚本)。启动时,它要求为你的人工智能代理取一个名字,描述它的作用,并列出它试图实现的五个目标。在设置时,你需要提供一个 OpenAI API 密钥和一个谷歌搜索 API 密钥。在运行时,Auto-GPT 会在默认情况下请求执行它生成的每一步的权限,不过如果您喜欢冒险的话,它还包括一个全自动模式。

如果任务是“购买一双复古的 Air Jordans”,Auto-GPT 将制定一个多步骤的计划并尝试执行。例如,它可能会搜索卖家,然后寻找符合你标准的特定鞋款。但这时它就停止了,因为就目前而言,它实际上还不能购买任何东西。但如果与适当的购物 API 相连接,这也是可能的。

如果你想亲自体验一下 Auto-GPT 的功能,有人创建了一个基于网络的版本,叫做 AgentGPT,其功能类似。

Richards 对他在 Auto-GPT 上的目标一直非常开放:开发一种 AGI(人工通用智能)形式。在人工智能领域,“通用智能”通常指的是人工智能系统执行广泛的任务,解决没有专门编程或训练的问题的能力,目前这还是一种假设。

就像一个相当聪明的人一样,具有通用智能的系统应该能够适应新的情况并从经验中学习,而不是仅仅遵循一套预先定义的规则或模式。这与具有狭义或专业智能的系统(有时称为“狭义人工智能”)形成对比,后者被设计用来执行特定的任务或在有限的范围内运作。

同时,BabyAGI(它的名字来自于努力实现人工通用智能的理想目标)以类似于 Auto-GPT 的方式运作,但具有不同的任务导向喜好。你可以在一个名为“上帝模式”的网站上尝试它的一个版本。

BabyAGI 的创造者 Nakajima 告诉我们,他在 3 月份目睹了“HustleGPT”运动后,受到了创造其脚本的启发,该运动试图使用 GPT-4 来自动建立企业,可以说是一种 AI 联合创始人。“这让我很好奇,我是否可以建立一个完全的 AI 创始人,”Nakajima 说。

为什么 Auto-GPT 和 BabyAGI 没有达到 AGI 的要求,是因为 GPT-4 本身的限制。虽然作为文本的转化器和分析器令人印象深刻,但 GPT-4 仍然感觉被限制在一个狭窄的解释智能范围内,尽管有人声称微软已经在该模型中看到了类似 AGI 行为的“火花”。事实上,像 Auto-GPT 这样的工具目前的作用有限,这可能是大型语言模型目前局限性的最有力的证据。不过,这并不意味着这些限制最终不会被克服。

此外,幻觉的问题(LLMs 编造信息)可能会被证明是对这些代理类助手的有用性的一个重要限制。例如,在一个 Twitter 话题中,有人使用 Auto-GPT 通过搜索网络和查看每个公司产品的评论来生成一份关于生产防水鞋的公司的报告。在这个过程中的任何一步,GPT-4 都有可能对评论、产品、甚至整个公司产生“幻觉”,从而影响其分析。

当被问及 BabyAGI 的有用应用时,Nakajima 除了“Do Anything Machine”(Garrett Scott 开发的一个项目,旨在创建一个自动执行的待办事项列表,目前正在开发中)之外,无法举出实质性的例子。公平地说,BabyAGI 项目只有大约一周的历史。他说:“这更像是一个框架/方法的介绍,最令人兴奋的是人们在这个想法上构建的东西。”


自动赚钱


这两个项目对“赚钱”的关注可能会让人停下来思考。在过去的一年里,在 Twitter、Instagram、TikTok 和 YouTube 等平台上,围绕生成式人工智能出现了一个由社交媒体影响者组成的小型产业。Mashable 将这些人称为“Hustle Bros”,他们通常会兜售夸张的说法,比如使用 ChatGPT 自动赚取收入。而随着 Auto-GPT 的出现,这群人很快就想到了让自主人工智能代理来建立业务或赚钱的想法。

Auto-GPT 似乎也参与了这种炒作。在启动该工具时,它要求你命名一个人工智能代理并描述其作用。它给出的例子是“一个旨在自主开发和经营业务的人工智能,其唯一目标是增加你的净资产。”

尽管这里提到了这些限制,但人们仍在迅速地将 Auto-GPT 和 BabyAGI 的代码都改编成不同的语言和平台,尽可能地努力去实现它,因为在许多人眼中这都是美元。

Nakajima 说:“这种利用 ChatGPT 技术构建自主代理的新方法似乎在整个社区激发了许多新想法。”“看到人们以不同的方式在此基础上进行开发,真是令人难以置信。我很高兴有机会支持这些建设者和创始人之间的合作并共享学习。”


是否危险


在这个世界上,AI 界的大佬们一直在呼吁“暂停‌”开发强大的人工智能模型,以保护人类文明,但问题仍然存在:像 Auto-GPT 和 BabyAGI 这样的自主 AI 代理是否危险?

Richards 和 Nakajima 并不是第一个用所谓的“自主”AI 系统进行实验的人。在 GPT-4 的安全测试中,与 OpenAI 合作的研究人员检查‌了 GPT-4 是否可以自主行动,制定和执行目标。他们很可能设计了类似的链式设置来实现这一点。而且 OpenAI 努力用人类的反馈来调节‌ GPT-4 模型,目的是不产生有害的结果。

Lesswrong 是一个以关注人工智能末日愿景‌而闻名的互联网论坛,其成员目前似乎并不特别关心‌ Auto-GPT,尽管如果你表面上担心‌强大的人工智能模型“逃逸”到开放的互联网上并造成严重破坏,那么自主的人工智能似乎是一种风险。如果 GPT-4 真的像人们经常宣传的那样强大,他们可能会更担心。

当被问及是否认为像 BabyAGI 这样的项目可能是危险的,其创建者对这种担忧一笑置之。Nakajima 说:“所有的技术都可能是危险的,如果不深思熟虑地实施,不注意潜在的风险”。“BabyAGI 是一个框架的介绍。它的能力仅限于生成文本,所以它不构成威胁”。