小模型编排,让1+1>2,企业工作更灵活,效率更高

转载
387 天前
8270
AI之势

文章转载来源:AI之势

善用小模型,发挥大作用。

原文来源:机器之能

图片来源:由无界AI生成

AI 的使用越来越广泛,不局限于个人对于它的使用。在企业中,也越来越流行使用 AI 完善工作流程、推进工作进度。但不得不提到的是,功能更加强大的往往是规模较大的大模型,这会造成企业部署上的难题。Silvio Savarese 发文针对这一问题谈到了自己的想法,模型并不是越大越好,小模型组合起来能更好地处理工作内容。

以下是机器之心对原文进行的不改变原意的翻译与整理。

原文地址:https://blog.salesforceairesearch.com/from-copilot-to-coorchestration/

最近几个月,我写了很多关于我称之为 LAM(Large Action Model)的文章,这是 LLM 的一种更活跃、更自主的变体。它不仅能生成文本或图像等内容,还能完成整个任务,甚至参与工作流,并且无论是与人一起还是自己完成都可以。今年,在 Dreamforce 2023 大会上,随着 Einstein Copilot 的推出,这一愿景向现实迈进了一大步。Einstein Copilot 是 Salesforce 的 AI 会话助手,将在整个 Salesforce 平台上推出,并准备集成到客户所做的几乎所有事情中。


Einstein Copilot:生成式 AI 的未来一瞥


开箱即用的 Einstein Copilot 很难不给人留下深刻印象。它从头开始设计,通过在几乎所有类型的工作流程中为用户提供帮助,以安全的方式提高工作效率。它可以处理以自然语言发布的问题,并提供从公司安全的专有数据中提取的相关可信答案。这是我所相信的 AI 在企业中的发展方向的清晰图景:一个单一、可信的界面,围绕日常的人机交互而设计,并且能够帮助完成各种任务。它展现了 AI 的力量,确保技术符合企业的需求,而且我毫不怀疑它还将改变客户的工作方式。而 LAM,随着其灵活性和功能的发展,将把这个已经非常强大的力量提升到一个新的水平。


让生成式 AI 模型「既小又大」


最近,生成式 AI 领域的许多话题都围绕着为 LLM 和 LAM 提供动力的模型规模和模型架构展开。随着 OpenAI 等公司不断挑战规模极限,参数数量远超千亿,我们不难得出这样的结论:越大越好。事实上,大型模型通常会吹嘘它们的性能很难或不可能以其他方式实现。并且随着模型尺寸的增加,不可思议的复杂行为会出现,这表明越来越大的规模策略会带来显著的好处。


战略性缩小模型规模如何带来巨大收益


虽然更大的模型不断地占据新闻头条,但是一味地追求让模型更大并非最佳策略。最明显的就是,现在最大的模型计算成本高得吓人,让许多企业望尘莫及。而且,即使那些有能力部署它们的企业也必须承认,它们所承诺的高质量输出可能会极其慢。此外,在信任、安全、有害性以及版权等所有权主张方面,我们仍然面临着一些问题,这都源于超大规模模型所依赖的海量、全球来源的数据集。

这些缺点使得小型模型在许多领域越来越有吸引力。它们相对划算,并且可以调到惊人的速度。如今,专门设计的 LLM 在某些情况下甚至可以完全在边缘运行,包括终端用户的移动设备。而且由于他们需要较少的训练,客户可以在准备他们的数据集时发挥更积极的管理作用。这时,数据集所包含的内容的质量、安全性甚至法律地位方面都能取得巨大进步。

通过专注于更窄的领域,小模型产出质量也能与它们的「大兄弟」们比肩。像 ChatGPT 这样的模型本质上是为每个人设计的,帮助完成家庭作业、晚餐食谱、回答有关科学、技术、历史和流行文化的问题。相比之下,面向企业的生成式 AI 可以而且应该专注于更小、更相关的问题领域。这显然是一种双赢:它意味着在不影响产出质量的情况下降低准入门槛。


小模型的编排如何提供巨大的潜力


即使是小型模型也能提供大型解决方案,我们只需要换一种思路来考虑规模问题。与其让模型本身变得更大,不如将多个模型交织在一起,为一个更高层次的目标服务。这其中,每个模型都是根据特定目标设计的,并在经过精心策划、严格审核和专有的数据集上进行过训练。如果像 Einstein Copilot 这样的 AI 智能体可以组合或协调,就像多个人类可以作为一个团队完成比他们作为个体所能完成的更多的工作一样,那会怎样?例如一家餐厅,这是一个只有团队合作才能实现的组织,每个成员都有自己的技能和专注领域:服务员负责点餐,厨师负责准备食物,接待员负责处理预订和订单,司机负责送餐。那么,LAM 以类似的方式组织起来会是什么样子呢?

我最近一直在思考编排这个问题,我认为它是最令人兴奋的技术之一,同时也是最实用的技术,能以安全、高效的方式带来有用、自主的智能体。最重要的是,编排意味着,即使是最雄心勃勃的解决方案,也能保持透明,并为创建者和与之并肩工作的人们所知晓。请记住,在这种情况下,规模并不是来自于越来越大的神经网络,而是来自于独立、定义明确的组件,它们以对人类有意义的方式组织起来。例如,与其训练一个巨大的模型来记录客户会议记录、从结果中得出推论、更新相应的客户关系管理记录,然后发送后续信息,不如将这些任务中的每一项都分配给一个单独训练的模型。

事实上,我的大部分研究生涯都是在机器人技术领域度过的,我不禁将目光投向了更远的地方,想象在现实世界的空间里也能实现这样的编排工作。在工厂、办公室、医院,甚至是餐馆里,实体模型与人类并肩工作,共同完成各种任务。这听起来很高大上、很遥远,但目前,编排潜力已经非常大了。

让我们来谈谈它的好处。首先,编排让我们免去了组建一个足够大的数据集,并将单一模型变得如此灵活,解决跨领域智能体的困难,同时也免去了将大量差异巨大的数据放入单一训练集中所带来的风险。此外,每个模型还可以通过 RLHF 进行进一步微调。因此,在这个系统中,每个组件都是非常专业化的,用于完成更大任务中关键但易于管理的步骤。

当出现问题时,无论是在调试过程中,还是在生产过程中,都能通过单一的专用模型更容易地识别问题,从而更有把握地理解和解决这些问题。即使是严重故障,也能以更稳健的模块化方式处理。并且多个模型协同工作,故障更容易被控制和隔离,当单个组件发生故障时,也有更多机会保持连续性。


生成式 AI 的新艺术:跨越多个模型的设计


更重要的是,它将企业 AI 模型的创建从纯粹的技术任务提升为以人类利益相关者能够理解的术语、对业务流程进行建模的任务。正像是一位优秀的管理者会将一个问题分解给一个团队去解决,AI 编排的专家们也将会拥有这样的能力将一个问题分解给一系列专门建立的模型。

这一愿景尤其令人兴奋的一点是,它指向了一种新的技能,甚至可以称之为一种新兴艺术,我期待着看到它在企业中的发展。LAM 编排专家将从高层次思考问题,将企业的需求视为一项业务,而不仅仅是一个技术平台,并利用这种洞察力将大型、有意义的任务分解为一系列较小的任务,由 LAM 「团队」共同解决。

他们的工作将基础设施、数据科学和人机界面设计交织在一起。前者要确保这些模型团队能够安全高效地部署,后者要努力收集独特的数据集,以解决更小、更不模糊的问题。换句话说,编排专家可能会成为企业 AI 有关的新面孔,他们不再专注于神经网络的具体细节,而是更多地关注如何构建强大、稳健的系统。

事实上,我最终希望的是,这种技能既不稀有也不排斥,而是普及开来,将 LAM 的编排变成强大的个性化解决方案,在我们的职业生活中发挥越来越大的作用。随着市场的出现,门槛可能会进一步降低,为世界带来类似于 copilot 的 LAM 编排解决方案,通过简单方式,以惊人的规模让生成式 AI 发力。

有些人将直接使用这种市场解决方案,使 LAM 编排成为现实的可能。其他人则会把它们当作模块,与其他模块组合在一起,从而根据自己的需要组成各种规模的解决方案。但不管是在哪种情况下,最让我兴奋的是,生成式 AI 与其说是由技术专家组成的精英小团体塑造的,不如说是由各个领域专业人士的创造力和远见卓识塑造的。

事实上,这是我对未来工作的愿景是:在这个世界里,AI 支持人类的技能,使我们能够在更高的层面上思考,简化我们所做的一切,同时保留让我们与众不同的创造力、风格和视角。


总结


实现任何新愿景都是渐进的,LAM 也不例外。但是,近年来的情况表明,它的每一步都将是变革性的。从最初的雏形开始,LLM 就展现出了罕见的颠覆和创新潜力。Einstein Copilot 等辅助智能体将这一标准提升到了更高的水平,它拥有直观的界面、强大的信任和安全功能,并能与传统的 copilot 系统无缝集成。