由于微信限制了第三方应用的跳转,请使用以下方法。
1. 点击右上角的
2. 选择在浏览器中打开
文章转载来源:AIGC
作者 | Mary Branscombe
编译 | 言征
来源:51CTO技术栈
OpenAI,作为生成式AI的宠儿,近期却陷入了一场混乱且闹剧般的解体“连续剧”中。微软,就像是一位老大哥,坚定而友好地进行了干预,宛如一个成年人走进房间平息孩童的争吵。
聘请奥特曼、聘请大部队、“遣返”奥特曼、寻求在董事会中占据一席之地,纳德拉带领着微软采取一切措施保住OpenAI。
最后,随着Sam回归OpenAI,董事会换血,这场冲突大戏历经几番曲折,终于落下帷幕。但外界的争论点已经转移到“OpenAI依懒性”方面。
不止采用GPT的中小企业对OpenAI的结算感到恐慌,即便是微软,也不得不出手挽救。OpenAI如果不稳定,对谁也没好处。
在刚刚过去的 Ignite 会议上的开场主题演讲中,微软CEO纳德拉对OpenAI 名称的提及高达12次,对GPT模型提及高达19次。尽管拥有自己非常出色的AI研究人员以及足够庞大的基础模型,但微软依旧非常关心 OpenAI 的 ChatGPT。
多年来,微软在 OpenAI 上投入了大量资金,尤其在今年,微软更是对 OpenAI 进行了 100 亿美元的投资,这即便对于微软来说,也绝对是一笔巨款。
然而,除了巨款,不要低估了微软对于创建 AGI 的野心。短期看,这是一个无法完成的计划,但微软很难说没有这样的新愿景:微软希望人们将其视为“AI 公司”,特别是“Copilot 公司”,而不是“Windows 公司”。
2021年,微软豪掷197亿美元收购了Siri背后的智能语音识别巨头Nuance,2019年,微软在 GitHub 上花费了 75 亿美元。
同样,微软今年也通过高额投资的方式拿到了ChatGPT的技术基础,并成功整合到自己的云端。现在我们看到的是微软通过在(Azure)云上来运行 OpenAI 的大型语言模型,扩大了Azure的市场份额和盈利。
云,只是冰山一角。微软自己的产品同样采用了 OpenAI 技术,这是许多 Copilot 的核心。
为什么?因为OpenAI同样在微软的硬件和软件方面投入了巨大,几乎所有部门和产品线都采用 OpenAI 技术,进而产生了一定的技术依懒。
大型语言模型和其他基础模型一样,需要大量的数据、时间和计算能力来训练。
微软投入巨大,如何“开发”出大模型的价值?
微软的打法很清晰:将大模型视为平台,一次性构建一些模型,然后以越来越定制化和专业化的方式一遍又一遍地进行重用。
具体的例子就是,这五年来,微软一直在构建 Copilots 的技术栈,改变从底层基础设施和数据中心设计(2023 年,平均每三天就启用一个新数据中心)到软件开发环境的一切,以提高效率。
从 GitHub Copilot 开始,现在几乎每个 Microsoft 产品线都具有一项或多项 Copilot 功能。它不仅仅是为消费者和办公室工作人员提供 Microsoft 365 Copilot、Windows Copilot、Teams、Dynamics 和重命名的 Bing Chat,或者 Power BI 中由 GPT 支持的工具;从安全产品(如 Microsoft Defender 365)到Azure 基础设施,再到 Microsoft Fabric 和 Azure Quantum Elements,都有 Copilot 。
除此之外,微软客户还基于同一堆栈上构建了自己的自定义Copillot。纳德拉列举了6个例子——从 Airbnb 和 BT,到 NVidia 和Chevron。
同时,最近推出的 Copilot Studio 是一个低代码工具,用于使用业务数据和适用于 JIRA、SAP ServiceNow 和 Trello 等常用工具的 Copilot 插件来构建自定义Copilot。这可能会让 OpenAI 变得无处不在。
为了实现这一目标,微软建立了一个内部管道,采用 OpenAI 的新基础模型,在 Power Platform 和 Bing 等小型服务中进行实验,然后利用从中学到的知识,将它们构建成开发人员可以使用的更专业的 AI 服务。
这个内部管道对语义内核和提示流进行了标准化,以便使用 Python 和 C# 等传统编程语言编排 AI 服务(并在新的Azure AI Studio 工具中为开发人员建立了一个友好的前端)。这些工具可帮助开发人员构建和理解由大模型支持的应用程序,而无需了解大模型。但它们依赖于 OpenAI 模型方面的专业知识。
微软将在OpenAI所依赖的硬件基础设施上进行大量投资。具体而言,他们计划投资于Nvidia和AMD的GPU,这些GPU是OpenAI模型训练和推理的关键组成部分。除此之外,微软还将投资于高带宽的InfiniBand网络互连,以确保节点之间的快速和高效通信。
值得一提的是,微软去年收购了Lumensity,一家专注于低延迟空心光纤(HFC)制造的公司。这种光纤技术将在微软的硬件基础设施中发挥重要作用,提供更快速、更可靠的数据传输。
这些投资不仅仅针对某一个特定的基础模型,而是旨在提升整个OpenAI平台的性能和稳定性。通过这些举措,微软希望确保OpenAI能够继续保持在生成式人工智能领域的领先地位。
目前,OpenAI不仅在Tops500 榜单上的 Nvidia 驱动的 AI 超级计算机上进行了合作,甚至还对 Maia 100(微软发布的首款AI芯片) 进行了一些改进。
微软的客户之中,同样想要类似的基础设施,又或者只对在该基础设施上运行的服务感兴趣(微软提供的几乎所有产品和服务都是如此)。
在此之前,微软AI加速的主要手段是利用FPGA(现场可编程门阵列)的灵活性。最初,这些硬件被用于加速Azure网络,后来成为Bing搜索的加速器,用于实时AI推理。此外,服务开发人员也可以使用它在AKS上扩展自己的深度神经网络。
随着新的人工智能模型和方法的出现,微软能够重新编程FPGA,创建软定制处理器,从而更快地加速这些模型和方法。相比之下,构建新的硬件加速器可能很快就会过时。
FPGA的巨大优势在于,微软不需要预先确定它认为人工智能在未来几年将需要的系统架构、数据类型或运算符。相反,它可以在需要时不断修改其软件加速器。事实上,您甚至可以在工作过程中重新加载FPGA的功能电路。
然而,上周微软宣布了第一代自定义芯片:Azure Maia AI加速器。这款加速器配备了定制的片上液体冷却系统和机架,专门用于“大型语言模型的训练和推理”,将运行OpenAI模型Bing、GitHub Copilot、ChatGPT和Azure OpenAI服务。
这是一项重大投资,将显著降低训练和运行OpenAI模型的成本和用水量。但只有当训练和运行OpenAI模型继续成为主要工作量时,这些成本节约才能实现。
这一新举措显示了微软对于AI领域的深度投资和长远规划,同时也反映了FPGA和定制芯片在AI加速领域的互补性。
从本质上讲,微软刚刚构建了一个可软定制的 OpenAI 硬件加速器,直到明年才会部署到数据中心,未来的设计已经规划好了。这并不是微软与OpenAI亲密伙伴崩溃的最佳时机,否则连锁反应难以现象。
那为什么微软不收购OpenAI呢?
尽管微软过去多年来可能一直提出收购建议,但起初它并没有打算收购OpenAI。相反,微软特意选择与公司外部的团队合作,以确保其正在构建的人工智能训练和推理平台不仅仅满足自身需求,而是更加普遍适用。
然而,随着OpenAI的模型在竞争中不断取得领先地位,微软对这些模型的押注也越来越大。事实上,OpenAI的ChatGPT在推出仅一年后就宣称每周拥有1亿用户,甚至使得OpenAI不得不暂停ChatGPT Plus的注册,因为新订阅者的数量过于庞大。
而这还不包括微软直接客户对OpenAI的使用量,这进一步证明了OpenAI模型的受欢迎程度和市场份额。
真相就是,无论你使用 OpenAI 中的 ChatGPT ,还是 Microsoft 产品中内置的 OpenAI 模型,它都可以在 Azure 上运行。微软所谓的“第一方服务”(它自己的代码)和“第三方服务”(来自其他任何人)之间的界限已经变得相当模糊。
尽管OpenAI的开发者关系团队一直在努力向客户保证“我们的灯依然亮着”,系统仍在稳定运行,且工程团队随时待命,但据报道,OpenAI的客户已经开始与竞争对手Anthropic和Google进行接触。
这其中甚至可能包括微软不愿失去的Azure OpenAI客户。例如,初创公司LangChain,它是一家为创建LLM支持的应用程序构建框架的公司,刚刚宣布与Azure OpenAI服务进行重大集成。然而,它也一直在向开发人员分享关于如何切换到不同的LLM需要对提示工程进行重大更改的建议。目前,大多数示例都是针对OpenAI模型的。
LangChain发布的切换LLM用例
很明显,在微软,几乎所有部门和产品线都拥着同样的内部GPT版本,引入尽可能多的OpenAI专业知识并简化,对于微软而言dui显然是更加高效的,如果OpenAI分裂或消失了,一切都会变得棘手。
正如微软CFO Amy Hood 所说:“对所有 OpenAI IP 的广泛永久许可”,直到 AGI(如果发生的话)。然而,今天的大模型,还不够。Microsoft 在期待获得像 GPT-5 这样的大模型的到来。
尽管有这个名字,OpenAI 从来都不是一个主要的开源组织,在开源的少数几个版本中,没有一个是核心大型语言模型。而相较之下,微软正在缓慢拥抱开源,它开源了 PowerShell 和 VS Code 等核心项目,同时微软也开始在 Windows Server 和 Azure 中依赖 Docker、Kubernetes 等开源项目,这是耐人寻味的。
话说回来,相较于对开源的依赖而言,微软如今对 OpenAI 的依赖更加严重。讽刺地是,OpenAI的稳定性和治理能力多少让人大跌眼镜。
因此,无论如何,微软都要不惜一切措施确保OpenAI能够活下来,正如同我们看到的。
原文链接:
https://analyticsindiamag.com/microsoft-doesnt-really-need-openai-it-wants-agi/
来源:AIGC
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com