英伟达的野心:“AI原生”彻底颠覆数据中心

转载
467 天前
8808
华尔街见闻

文章转载来源:华尔街见闻

图片来源:由无界 AI生成

来源:华尔街见闻

作者:赵颖

英伟达CEO黄仁勋在周二的发布会上这样说。昨日,英伟达发布新一代GH200 Grace Hopper超级芯片平台,专为加速计算和生成式AI时代而打造。

黄仁勋指出,为了满足生成式 AI 不断增长的需求,数据中心需要有针对特殊需求的加速计算平台。新的GH200芯片平台提供了卓越的内存技术和带宽,提升无损耗连接GPU聚合性能的能力,并且拥有可以在整个数据中心轻松部署的服务器设计。

值得一提的是,大模型浪潮来袭,催生各种AI原生应用,带动算力需求激增,专为应对数据密集型人工智能应用的数据中心市场正迅速崛起。


数据中心迎来新变革


据华尔街日报报道,分析师们指出,随着老牌云计算供应商竞相为数据中心改装先进芯片和进行其他升级,以满足人工智能软件的需求,一些新兴的建设者看到了从零开发新设施的机会。

数据中心类似于一个大型仓库,配备了多架服务器、网络和存储设备,用于存储和处理数据。与传统数据中心相比,AI数据中心拥有更多使用高性能芯片的服务器,因此AI数据中心服务器每个机架的平均耗电量可达50千瓦或更多,而传统数据中心每个机架的耗电量大约为7千瓦。

这意味着AI数据中心需要增建能够提供更高功率的基础设施,由于额外的用电量会产生更多的热量,AI数据中心还需要其他冷却方法,如液体冷却系统,以防止设备过热。

服务和咨询公司Unisys高级副总裁Manju Naglapur指出:

专门建造的人工智能数据中心可容纳利用人工智能芯片(如英伟达的GPU)的服务器,在人工智能应用筛选庞大的数据存储时,可同时运行多个计算。这些数据中心还配备了光纤网络和更高效的存储设备,以支持大规模的人工智能模型。

AI数据中心是高度专业化的建筑,需要投入大量的资金和时间。研究公司Data Bridge Market Research数据显示,到2029年,全球人工智能基础设施市场的支出预计将达到4225.5 亿美元,未来六年的复合年增长率将达到44%。

DataBank首席执行官Raul Martynek表示,人工智能的部署速度很可能会导致数据中心容量在未来12到24个月内出现短缺。


AI算力新秀获得23亿美元融资


目前,各路巨头都在押注AI数据中心,“地产标杆”黑石卖房转投AI数据中心。Meta也曾表示,将建设一个新的人工智能数据中心。

此前文章提到,AI算力新秀CoreWeave,拿英伟达H100抵押贷款,获得债务融资23亿美元(约165亿人民币)。

CoreWeave表示,这笔资金将用于加快建设人工智能数据中心,这是该公司继今年4月获得2.21亿美元和5 月获得2亿美元后的又一次融资。CoreWeave成立于六年前,目前已有7个人工智能数据中心上线,预计到今年年底将翻一番。

CoreWeave正与英伟达以及Inflection AI合作建一个超大型AI服务器集群,目标是运行2.2万块英伟达H100。如果建成,将成为全球最大的AI服务器集群。

值得一提的是,根据CoreWeave官网宣传,他们的服务比传统云计算厂商便宜80%。英伟达最新的HGX H100服务器,内含8张80G显存的H100和1T内存那种,起步价每小时只要2.23美元(16块人民币)。

而相比前代平台,新GH200 Grace Hopper平台的双芯片配置将内存容量提高3.5倍,带宽增加三倍,一个服务器就有144个Arm Neoverse高性能内核、8 petaflops 的 AI 性能和282GB的最新HBM3e内存技术。

难怪在这个LLM大爆炸的时代,黄仁勋依然大胆放话“买得越多,省得越多”!