百模大战再次开启:国区争霸,手机安家

转载
366 天前
9266
Model进化论

文章转载来源:Model进化论

原文来源:GPLP

作者:六阳

图片来源:由无界 AI生成

北京时间11月7日凌晨,美国人工智能研究公司OpenAI 创始人兼 CEO 山姆·阿尔特曼,在“OpenAI首次开发者大会”上公布了最新版本GPT-4 Turbo的升级功能。正如“Turbo”一词的含义“涡轮增压”一样,本次发布会上,OpenAI的这款最新大模型在长文本、知识库、多模态、模型控制、模型微调、高速率六大方面的功能均进行了“升级”,而价格甚至比GPT-4还要低,给友商狠狠地上了一波“压力”。

与2023年初“大模型狂热”相比,2023年末高曝光率的AI 大模型正在逐步走向“智能终端侧”。国外的高通、微软、英伟达、OpenAI,以及国内 AI“头部战队”的腾讯、百度等,纷纷宣布加速推进AI大模型在移动终端的轻量化部署。在2023 年华为开发者大会上,华为发布 HanmonyOS4,并宣称相比前几代操作系统,HarmonyOS4 最大的变化在于,将AI大模型能力内置在了系统底层。

11月6日,按照《生成式人工智能服务管理暂行办法》规定,学而思大模型MathGPT完成相关备案并通过审核,正式成为首批通过备案的教育大模型。据该公司透露,MathGPT即日起由内测转为全面开放,未来将在学习机上陆续落地。

也是同一天,蚂蚁集团的百灵大模型已完成备案,基于百灵大模型的多款产品已陆续完成内测,将向公众开放。11月4日,360公司的大模型“奇元大模型”也通过备案落地。2023年9月,“360智脑大模型”已获批面向公众开放。

11月1日,vivo也在“2023 vivo开发者大会” 上发布了自主研发的蓝心大模型BlueLM、全新操作系统OriginOS 4以及自主研发的蓝河操作系统BlueOS。相比于其他手机厂商,vivo率先提出了大模型矩阵的概念,目前包含覆盖十亿、百亿、千亿三个参数量级的五款自研大模型。

种种迹象表明,大模型的“新入口”属性已经从主流的PC端, 向手机端以及更广泛的机器人、智能音箱、车载助手等智能设备扩散。“万物皆可大模型”是否是巨头们的下一个战场?大模型未来又将走向何方?我们又能从中获得什么?


国内大模型:百花齐放,手机安家


科技部新一代人工智能发展研究中心近期发布的《中国人工智能大模型地图研究报告》显示,中国研发的大模型数量排名全球第二,仅次于美国。目前,中国10亿参数规模以上的大模型已发布79个。

根据领用领域上分类的话,可分为通用大模型和垂类行业大模型两种。通用大模型是具有强大泛化能力,可在不进行微调或少量微调的情况下完成多场景任务,相当于AI完成了“通识教育”,像是ChatGPT、智谱清言等都是通用大模型。

行业大模型则是利用行业知识对大模型进行微调,让AI完成“专业教育”,以满足在能源、金融、制造、传媒等不同领域的需求,如金融领域的BloombergGPT、法律领域的LawGPT_zh,以及百度基于文心大模型推出的航天-百度文心、辞海-百度文心等。

目前像李开复、王慧文、王小川等互联网老兵,互联网大厂的中高层,再加上一些学院派的科学家,纷纷加入这波大模型创业浪潮。这些“创业新锐”一类做自研大模型,一类做垂直大模型,各有侧重。

实际上,不光是中国和美国,像欧洲一些国家,比如英国,最近也在投资做自己的大模型。

虽然现在整个大模型市场仍处于混沌形态,但是有个理念是国内专家和投资人的共识:中国必须有自研大模型,这不仅关乎高新技术的市场竞争方面,更是先进生产力的积极探索。

其实不止科技巨头,国内手机厂商无不在追赶大模型风潮。大模型与终端的结合,已经成为下阶段AI战场的必争之地。

此前,2023年8月,华为率先打响了手机AI大模型应用第一枪,宣布手机系统接入盘古大模型,开启内置大模型的语音助手小艺的众测,还发布了内置AI大模型的新机华为Mate 60系列。

不久后,小米董事长雷军也宣布,小米全面拥抱AI大模型,并表示目前手机端侧的大模型已经初步跑通,小爱同学也升级了AI大模型并开启邀请测试。

10月11日,OPPO宣布基于其自主训练的安第斯大模型打造的新小布助手1.0 Beta版尝鲜体验正式开启,升级后的小布助手将具备AI大模型能力。

10月26日,荣耀CEO赵明官宣新机荣耀Magic6将会搭载全新骁龙8Gen3 AI芯片以及荣耀自研的70亿端侧AI大模型。

凭借AI大模型的支持,智能手机不仅可以成为用户的个性化数字助手,还可以显著提升对复杂语义和语境的理解能力。由此不难看出,所有手机厂商对于AI大模型的设想都是:让其成为用户的“私人助理”。

而AI手机和其他智能终端有望成为未来消费电子行业变革的方向。强调AI功能的优势显然是各大厂商战略中的重要环节。这不仅能激发用户对高端产品的购买欲望,为品牌创造更丰厚的利润,而且有助于提升市场地位。

“未来,AI大模型将具备颠覆式能力,一定会改变人们对手机的定义,具备AI大模型能力的手机,将成为个人的超级助理,也是未来的智能体。”vivo副总裁周围表示,“AI大模型将驱动手机行业新一轮换机潮,而这波换机潮可能出现在明年。”

几乎没有一家手机厂商愿意错过将大模型集成到手机中的机会。然而,将参数动辄达到百亿、千亿级的大模型放入小小的手机端并非易事。

按照小米技术委员会AI实验室大模型团队负责人栾剑的理解,“跑通”手机大模型至少要同时满足三方面的要求:

第一,内存占用不能影响其他应用程序的运行。如果大模型占用了过多的手机内存,可能会导致手机无响应、整体性能大幅下降,甚至直接引发死机的情况。

第二,运行速度要快,这很好理解,如果生成一个字符就需要花费数秒的时间,对用户体验无疑是灾难性的。

第三,功耗不能过高,不然的话,计算芯片在高负载下很可能导致手机过热并缩短电池寿命。为了在内存、执行速度、功耗等要素之间找到一个恰如其分的平衡。

目前大多数手机厂商给出的部署方案是“端云协同”部署,而摆在它们面前的一大问题就是——成本。

vivo副总裁周围表示,对于智能手机来说,在终端部署大模型几乎不用考虑成本,但大模型上云的单次成本是可以明确计算的,大约为单次0.012元或0.015元。如果按3亿用户每天使用10次计算,那么一天就要花费至少3600万元,一年就是100多亿元。

而相比之下,端侧计算成本更可控,并且由于数据不用上云,安全隐私性更强,并且计算效率更高。不过,端侧计算却对手机硬件提出了更高的要求。一般而言,大模型肯定是越大越好,这代表着推理结果会越精确,但是,手机的内存、核心处理器的计算能力却是有限的。

根据数据测算,1B的数据在手机上会占用1个G的运行内存,而当数据量达到13B,运行内存占用超过7G。如今大部分高端手机的RAM是12G或16G,这代表着,一个很好用的大模型要在手机端侧实装,可能占掉大约一半以上的内存,很可能影响手机的流畅使用。

而很尴尬的是,尽管目前手机厂商已经将本地存储容量扩充到了1TB以上,还尝试内存融合/扩展技术,将本地内存转化为运行内存,但这对于现阶段的大模型来说并没有太大的帮助。

大模型对手机的挑战远远不止内存。大模型计算同样对SOC芯片计算能力提出了更高的要求。当前,行业内可供AI大模型采用的芯片不多,目前也只有联发科天玑9300和高通骁龙8gen 3芯片能支持大模型的端侧落地。

不过,芯片厂商们也敏锐识别了手机厂商的诉求。比如,前段时间高通就在骁龙8 gen 3上提升了AI计算能力,不仅能支持运行100亿参数的模型,还针对70亿参数LLM每秒能够生成20个token,这意味着,各类虚拟助手、GPT 聊天机器人未来都能在手机等终端运行。

这些大模型对于手机内存和芯片的限定要求,也注定了在短期内,手机端大模型只会是高端手机的专属体验。

而对于大模型能否在手机成为“智能助手”,其实还包括手机隐私数据、用户信息能否在AI数据的应用深层次地调用。这些数据包括但不限于个人的支付信息,日程信息,以及身份信息等,而这些也是APP应用商手中最敏感的数据,想要完全调用目前还是困难重重。

简而言之,AI大模型在手机领域的普及仍然进展缓慢。目前的努力只是探索之旅的初步阶段,各大手机厂商要想让AI大模型和手机充分融合,成为真正的智能终端,仍有很长的路要走。


租“铲子”洗数据,大模型带来新商机


虽然听上去有些匪夷所思,但是“味精大王”进军算力产业已经成为现实。

“ 十一”假期前夕,莲花健康产业集团股份有限公司(下称“莲花健康”)发布公告称,全资子公司杭州莲花科技创新有限公司与新华三集团有限公司控股子公司新华三信息技术有限公司签署采购合同,后者向前者交付 330 台英伟达H800 GPU系列算力服务器(每台服务器含8张GPU),本采购合同项下的服务器采购单价为 210 万元,合同总价为6.93亿元。

换句话说,莲花健康通过这波跨界操作,直接进入了当前市场大热门——算力产业。

而在10月10日晚间,莲花健康在披露的异动公告中称,该公司计划从事算力租赁业务的业务模式主要为公司负责投资建设智能算力中心,需要购买大量固定资产,为下游各行业客户提供面向人工智能业务的算力租赁云服务。

算力、数据、算法被称为支撑AI大模型的“三驾马车”。当前,以大模型迭代和应用商业化落地为重点的AI浪潮向纵深演进,算力需求呈现爆发式增长,算力也成为了各国/各公司竞相争夺的“数字机器”。在美国对中国算力设备进行出口管制的背景下,除了大型行业龙头企业具有较多的GPU算力芯片储备外,中小企业在发展 AI 模型、应用过程中,往往遭遇算力瓶颈。在此背景下,算力租赁业务此前在二级市场已经迎来了一波较大的上涨行情。

说到算力租赁,字面意思,就是对算力资源进行出租,它是一种通过云计算服务提供商租用计算资源的模式。这就像当年美国的“淘金热”,有人找到了卖铲子的商机一般,只不过这次是“租用”。

事实上,有关算力租赁业务超高的毛利率并非虚言。国盛证券测算:以英伟达A100(80G)租赁服务为例,A100(80G)显卡单价成本取为10万元,现假设每张卡都得到充分租用,则按照2023年8月19日国内云算力平台租用A100(80G)服务器的均价15.1元/小时,考虑到各大平台竞争客户,经常性推出优惠活动,则假设平均实际租金为7.6元/小时,投入10亿元资金的实际回本周期为1.5年至2年,按照平台最低定价计算,毛利率至少为46.3%。

这样一块利润丰厚的“蛋糕”,自然也吸引了大量巨头参与其中。早在2023年3月,英伟达便下场操盘,正式推出算力租赁服务方案“DGX云”,该方案由英伟达与微软云、谷歌云、甲骨文等全球前十的云服务商共同打造,企业通过一个浏览器就可以按月租用英伟达DGX AI超级计算机,不需要采购与拥有服务器设备。

头豹研究院报告显示,目前中国已有多家大公司着手布局AI算力租赁,如利通电子和世纪华通合作建立世纪利通,在上海、深圳等地建立大数据中心以开展算力租赁业务,预期面向腾讯、华为等大客户;中科曙光和AMD深度合作,算力业务已与百度飞桨进行适配,为紫东太初、悟道等大模型训练提供算力。

除了算力市场成为香饽饽,“数据”也即将成为新的商机。在2023年的世界人工智能大会上,中信智库专家委员会主任、中信建投证券研究所所长武超则表示,一个模型的好坏,20%由算法决定,80%由数据质量决定,未来高质量的数据将是提升模型性能的关键。

收益方面,大模型对高质量数据集的需求不断增加。训练大模型需要大量优质数据的支持,这也成为提升模型性能的关键。根据德勤的预测,AI预训练数据服务市场规模有望在2027年达到160亿元,并以28.9%的复合增长率增长。

相比于国内的“刚刚起步”,在海外,对于AI的创业公司而言,已经开始做这些大模型的中间层业务,并取得了不错的效果,例如 Databricks。

成立于 2016 年的 Databricks 本是一个“数据 + 人工智能”的开发平台,因其早期数据湖的主张和布局(数据湖对 AI 能力要求更高),积累了一定 AI 能力。生成式 AI 爆火后,Databricks 通过一系列行动,迅速补上了大模型相关能力,这些行动包括收购 Okera(数据治理平台)、发布 Dolly 系列开源模型以及2023年6月以 13 亿美金收购开源大模型企业平台 MosaicML。

现在的 Databricks帮助企业准备用于分析的数据,支持采用机器学习和数据驱动的决策。它还使数据科学能够与数据工程和其他业务部门协作来构建数据产品。今天,它已经扩展成为一个更广泛的湖仓一体的 Databricks Marketplace,能够为企业提供 AI 训练、模型管理等一整套服务。

在截至2023年1月的财年中,Databricks销售额增长了60%以上。这一增长的原因之一是数据仓库服务Databricks SQL,据彭博社(Bloomberg)报道,该服务在4月份创造了1亿美元的年度经常性收入。2023年9月,Databricks在超过5亿美元的I轮融资中估值达到430亿美元。一位大模型创业者指出,Databricks 通过购买多家云厂商(微软、AWS 等)的算力,并叠加自身的 AI 训练、模型管理、数据管理等服务,以更高的价格打包出售,是其高利润的原因。本质上,赚的还是算力的钱。

还有一个做数据精标和清洗的公司Scale AI。Scale AI 创立于2016年,最初主要为无人车提供数据标注服务,后来逐渐积累了包括电商、短视频甚至政府机构的客户。在发展期间,它积累了1000人的科技管理团队,几十万来自全球的长期外包人员和严格的验收体系。这些积累使得它在大模型时代快速转型,为企业提供 RLHF 的微调业务。目前,硅谷顶尖的 AI 公司,包括 OpenAI、Cohere、Inflection AI 都是它的客户。

由于Scale AI的大部分客户都为 “enterprise”,因此实际上大部分收入均为项目制收入,客单价几十万美金至几千万美金不等。Scale 2022 年收入预计为 2.9 亿美元,毛利率约为 70%。


大模型的趋势:从开发层卷到应用层


“模型本身是不直接产生价值的,基于基础大模型开发出来的应用才是模型存在的意义,对于创业者来说,卷大模型没有意义,卷应用机会更大。”

2023年9月5日,在“2023百度云智大会”上,百度创始人、董事长兼首席执行官李彦宏抛出了上述观点。而在2023年世界互联网大会乌镇峰会期间,百度李彦宏表示,从头开始训练大模型到开发好用、可用的大模型,重复造轮会给社会资源造成极大的浪费。

而在2023年11月7日,Open AI除了发布了一款GPT-4 turbo,还带来了一个惊人的“GPTs”。OpenAI推出了自定义GPT,并命名为“GPTs”,OpenAI还发布了专门用于创建、管理和自定义聊天机器人的GPT Builder。

在发布会上,山姆·阿尔特曼通过与GPT Builder对话,表示想要一个给创业者建议的助手,GPT Builder仅用了2-3分钟便生成了一个应用。GPT应用可以选择私有,专属企业拥有和公开所有三种方式。开发者也可以将自己的GPTs在商店中上架,用户可以搜索自己感兴趣的应用并下载。最受欢迎的应用不仅能登上排行榜,开发者还能与OpenAI进行收入分成。

简单来说,OpenAI正通过AI将“研发过程”进行封装,动手打字,甚至说几句话就创建应用的时代,真的来临了。未来Assistants API如果面向所有用户开放,那么每个人都能成为产品经理,由AI来做程序员。

要知道:一场技术变革能够真正抵达大众,最终靠的是百花齐放的实际应用。大模型的应用层也被报以厚望。

原因很简单:无论在海外还是国内,相较于基础架构层、大模型层与中间层,应用层的创业热度是更高的,因为后者的技术门槛没有那么高,又直接面向用户、容易拿到结果,对于创业者来说更容易上手。

这就像操作系统和APP的关系一样。那么目前国内大模型的应用层发展,创业团队的机会多吗?

在以往,应用层的兴起必然少不了大模型系统稳定的底座。大模型的迭代速度极快,底层的技术飞跃将很大程度限制应用的发展。如果AI技术天天飞跃式发展,只调用基础数据做一层“很薄”的简单应用是很容易被颠覆碾压的。

但是从最新一届的 OpenAI 开发者大会看来,虽然GPT-4之前就有插件系统,但是这次提供的JSON 模式以及多次函数调用以及官方推出的“商店付费生态”,会为 OpenAI 拉拢一大片开发者入驻。更泛化的AI能直接碾压很多垂直方向的创业机会,比如做各类虚拟助手、文生图的公司等,基于OpenAI的定制化AI工具,AI应用落地的过程会变得更简单。

在未来,大模型行业可能会更加倾向形成数据库领域的两层架构,即“础大模型—大模型应用”,在大模型应用的基础上,进一步形成社会运行的基础。

“月儿弯弯照九州,几家欢乐几家愁”,向这些方向创业的AI 公司要面临相当严峻的市场考验。在发布会结束后,一张梗图传播甚广,一位受邀参与开发者日的创业者直言,山姆·阿尔特曼毁掉了自己价值300万美元的创业公司,而自己只得到了500美元的OpenAI API积分(OpenAI为现场的每一个开发者准备的礼物)。

无论巨头之间的竞争如何,AI应用领域的初创公司无疑正面临着一场噩梦。

OpenAI 开发者大会结束后,人们不禁思考一个问题:OpenAI 的一系列操作,是抄了创业者的后路,还是在给创业者机会?

对此,OPPO 智能交互部部长、小布助手首席架构师万玉龙博士回应道:“要相信,像 ChatGPT 这种颠覆性技术的诞生和演进,是会给更多创业者带来更多机会的。”

从本次开发者大会中可以见得, OpenAI 所走的路线是先基于很强的基座模型,然后再往上演化。从长期来看,Open AI是有意把大模型生态逐渐下沉,学苹果拉拢开发者构建应用生态,从而形成自己的闭环生态圈;不过从短期来看,Open AI的确提振了AI创业者的信心。

从现实状况来看,目前国内市场中仍有很多用户需求是可以和大模型匹配的。对于创业者来说,不能只做大语言模型下游应用开发,要深入做垂直领域,精通行业内部细节,发现和利用那些标准助手API无法满足的复杂场景和细分市场,才是初创公司可以把握的机会。


结语


目前,AI大模型十分火热,但目前的环境好像重重迷雾中的我们点起了一堆篝火,虽然在狂欢,但是周围却是一片困顿。但正如OpenAI联合创始人兼首席科学家伊尔亚·苏茨克维所说:

“AI的发展是信仰的游戏。你越有信心,就越能取得进步。如果你有很大的信心,你可以取得最大的进步。你必须相信这个想法并推动它,你相信得越多,你就越努力,这就是进步的原因。”

不过我们需始终相信:我们正慢慢走出这片数据的混沌,奔向光明的前途之路。无论这条路何时才能跑通,都值得一直跑下去。