面对人工智能浪潮,英特尔的选择

转载
384 天前
9636
芯片客

文章转载来源:芯片客

来源:阿法兔研究笔记

图片来源:由无界 AI生成

随着人工智能热潮的发展,英特尔的老牌竞争对手,像英伟达(Nvidia)和Broadcom(博通公司:今年二季度芯片营收超预期增长,下一财年,博通AI相关芯片业务有望翻倍至70亿美元,成为仅次于英伟达的全球第二大AI芯片公司)等公司都在这波人工智能浪潮中大放光彩,但是,英特尔似乎并没有跟上人工智能的脚步。

早在2023年5月德国的超算会议上,,英特尔公司(INTC.O)就计划于2025年推出的GPU芯片Falcon Shores的参数预告如下:高带宽内存(HBM3)规格将达到288GB,支持8bit浮点运算,总带宽可达9.8TB/秒。

除此之外,还有即将向美国阿贡国家实验室交付完成的基于Ponte Vecchio的Aurora超级计算机。但是,由于芯片推出的速度,比如说Falcon Shores 后续芯片要到 2025 年才能上市,和英伟达这种迅速推出产品的公司还是难以竞争。

2023年9月19日,英特尔在加利福尼亚州圣何塞的英特尔创新中心举行的活动也着重展示了对AI的思考,特别是Pat Gelsinger在Intel Innovation首日的演讲提出几个观点:

关于工艺技术进展:英特尔仍然按照其四年内五次工艺节点的计划推进。该公司展示了首个使用通用芯片互连表达式(UCIe)互连的多芯片组包装。

下一代英特尔至强 Xeon 处理器:英特尔分享了即将推出的 至强Xeon 处理器的详细信息。这些处理器将在功耗效率和性能方面有显著改进。他们还推出了一款拥有288个核心的E-core处理器。第五代英特尔 至强Xeon 处理器将于12月14日发布。

AI个人PC的推出:英特尔将于12月14日发布英特尔核心Ultra处理器,并推出AI个人电脑。这标志着英特尔首次涉足集成神经处理单元(NPU),可在个人电脑上直接提供高效的AI加速。

AI超级计算机:英特尔正在构建一个大型AI超级计算机,基于英特尔 至强Xeon 处理器和英特尔Gaudi2 AI硬件加速器。稳定性AI是主要客户,而阿里巴巴也打算在其推断引擎中使用第四代 至强Xeon 处理器。

英特尔开发者云:英特尔宣布英特尔开发者云已正式推出。该平台旨在用于构建和测试高性能应用程序,包括人工智能。已经有几家客户在使用它,并且此前曾处于测试阶段。

软件解决方案:英特尔展示了即将推出的软件解决方案,包括英特尔OpenVINO工具包的2023.1版本。这将帮助开发人员利用新的人工智能功能。

客户端对AI的押注:新的核心Ultra处理器,代号“Meteor Lake”,是英特尔在客户端推动AI的战略举措。正如Gelsinger所言,AI、云和个人电脑的结合将显著改变和增强个人电脑体验。

核心Ultra处理器特点:核心Ultra处理器配备了英特尔首个集成的NPU,用于高效的AI操作。这是英特尔首个由Foveros 3D封装技术支持的客户芯片设计。除了NPU外,该处理器还因采用英特尔4工艺技术而在功耗效率方面取得了显著进展。此外,它还提供了内置的英特尔Arc图形,具有离散级别的图形性能。


最新战略


最近Information报道,英特尔有新的战略安排,正与多家咨询公司合作,为不具备专业知识的客户打造类似ChatGPT 的应用程序。今年早些时候与波士顿咨询公司(Boston Consulting Group)合作启动了这一项目,后面还会和其他咨询公司逐步建立合作。

除此之外,英特尔还计划直接向企业客户销售To B类目的应用。

不过,目前大多数人工智能客户会采购类 OpenAI 等公司提供的大语言模型服务。但是,英特尔希望自己与大型咨询公司合作,根据客户具体的需求,协助客户找到适合它使用的模型。

具体来说,英特尔开发的软件可以协助客户进行模型调优。这样一来,客户就可以开发自己的类似 ChatGPT 的应用程序和人工智能驱动的搜索工具。但是目前Intel还没有完全公布这项服务的特点、优势以及具体费用和价格,估计未来几个月会正式公布。

英特尔的各项行动充分表明目前人工智能在科技企业中,作为战略布局非常重要。而英特尔参与软件开发,更意味着在这个时间点,客户是否使用英特尔的芯片,并不是最重要的。消息还说,英特尔计划引导一些客户使用英特尔的Gaudi和Xeon芯片来驱动LLM。与此同时,英伟达也在努力构建一个重要的人工智能软件业务,尽管它的重点是已经使用其图形处理器的客户,这些图形处理器在人工智能计算中占主导地位。

不过,有一个趋势对英特尔有利——降本增效对所有人都很重要:在许多公司迅速推出新产品来帮助员工或客户总结会议内容、自动化软件编码或生成销售线索的电子邮件后,美国使用这些工具的企业都希望降低LLM支出。

据《The Information》报道,早期的大型OpenAI客户正在寻找更便宜的替代方案,而微软在某些情况下希望使用更简单、更便宜的开源人工智能模型,而不是OpenAI的模型,后者的运行成本更高。与其他对市场充满信心的人工智能提供商一样,英特尔现在可以从不断增长的大模型需求选择中获益。

然而,英特尔仍然必须与传统的云服务提供商以及成熟的小型咨询公司竞争,这些公司帮助客户使用云服务器和人工智能。像微软、亚马逊和谷歌这样的云服务提供商希望通过租用专用服务器来进行培训和运行人工智能LLM,从而吸收大部分与AI LLM相关的企业支出(特别是微软在这方面取得了一些进展)。与此同时,英伟达试图将自己置于这些云服务提供商和其客户之间,利用其由芯片驱动的服务器来运行自己的云服务。

虽然看起来有点晚,但是英特尔的优势在于——“大量资金和强大的营销引擎”。

参考文献:

  • https://www.theinformation.com/articles/ai-laggard-intel-expands-effort-to-help-companies-build-chatgpt-like-apps?rc=ypdxx3
  • Intel CEO: ‘We’re going to build AI into every platform we build’ -
  • The VergeAI Laggard Intel Expands Effort to Help Companies Build ChatGPT-Like Apps — The Information