文章转载来源:元宇宙与碳中和研究院
自最近半年多,大模型浪潮掀起,万物皆可GPT以来,BAT等企业都在发布自己的大模型产品,百“模”大战、群“模”乱舞都已见怪不怪。各种规模的发布会你方唱罢我登场,各家企业都在铆足了劲向外界证明自己的想象空间究竟有多大。进入七月后,通用大模型略微降温,行业专用大模型开始亮相,如专用于酒店与旅游的携程“问道”,专用于教育的网易有道“子曰”,专用于中医诊疗的大经中医“岐黄问道”,凡此种种不一而足。
之所以出现这种变化,一方面是由于不同企业各有业务侧重点,因此打造的大模型产品也不可避免的受其影响,这是客观事实;另一方面是随着大模型的整体发展,其产业化也开始被越来越多的提及。毕竟如果不能落地部署成触手可及的产品,再先进的科技都没有意义。六月中旬时奔驰与微软合作,成为全球首家将ChatGPT集成到自家车载语音控制系统中的车企,半个月后又有自行车企业宣布搭载ChatGPT,最近吉利也官宣将在九月发布全栈自研的车载大模型。作为旁观者在感慨科幻之光照进现实的同时,也不免让人遐想,大模型或许真的就是汽车智能化的下个风口?
6月16日,百年车企梅赛德斯·奔驰和微软共同宣布,两家公司正在扩大AI领域的合作,将ChatGPT整合到奔驰车载语音控制系统中。这项合作将通过微软的Azure OpenAI服务,允许车主在驾车时体验ChatGPT。测试计划于16日当天正式开始,在美国共约90万辆配备MBUX信息娱乐系统的奔驰都可以参加测试。
近几年科技的发展,表明汽车正愈发变成一个新型智能终端。大模型出现后,人车、车机关系也不可避免的受到影响。具体说来这种影响主要体现在两方面:1.对自动驾驶的影响。2.对智能座舱的影响。下面分开来说。
1.大模型对自动驾驶的影响。大模型可以处理海量数据,同时具备多维度分析能力,可以提供更精准、更全面的数据分析和预测能力。保持对大模型的优化升级,就可以提高自动驾驶的准确性和可靠性。像ChatGPT那种通用大模型,也是当参数量到达一定程度,开始具备足够的能力后,它才能火遍全世界。而具体到应用层面,大模型对自动驾驶的影响又可以细化为云端和车端。在云端,车企可以发挥大模型天生的大参数容量优势,通过大模型完成绝大多数的数据标注与挖掘工作,节省成本,还能够借助仿真场景构建赋能。在车端,大模型可以将细分为多个附属子模型,分管不同子任务,节省车端的推理计算时间,增加行车安全性。此外,云端到车端的感知决策一体化算法常被认为是自动驾驶算法最后瓶颈,或许在汽车接入大模型之后也可以得到有效解决,自动驾驶的算法升级或许也不再遥不可及。
2.对智能座舱的影响。以前面已经说过的奔驰举例来说,微软表示车载ChatGPT能支持更动态的对话,既有一般的语音命令,也支持交互式对话,对话范围可以涵盖地点信息、菜谱、甚至是一些更加复杂的问题,让驾驶员的眼睛更专注于路况。随后微软与奔驰还表示将继续保持合作,探索ChatGPT的插件生态系统,为集成第三方服务探索可能性。未来的司机可能通过车载大模型系统,就可以完成预订餐厅或电影票等任务,在改善驾驶体验的同时提高便利性和生产力。
此外,大模型也将对车企的研发方式和商业模式产生新的影响。在研发方式方面,由于AI高效的标注能力有目共睹,过去需要很长时间的数据标注任务现在只需要几小时即可,研发的时间成本大幅压缩,而且大模型可以处理多模态的丰富数据,如语音、手势、视觉等,这可以助力车企深入改善总体研发效能,降本增效。而在商业模式上说,目前的大模型普遍能说会道,集成到车载系统之后,人、车、机之间就可能从“雇佣关系”发展到“陪伴关系”,大模型通过机器学习能力也会逐步了解人的喜好和习惯,进而衍生出全新的商业价值。
在奔驰宣布与微软合作后,国内的理想汽车也发布了自研大模型MindGPT,百度的文心一言也被接入到了红旗、长安、吉利、岚图、零跑等众多车企之中。因此可以预料到的,大模型与车企和汽车的结合将会越来越普遍。而从目前参与的车企来看,他们对大模型的发展重点与方向也各有侧重。从功能的角度来说可以分为两种:1.用于智能座舱的的交流对话领域。2.用于自动驾驶等智能系统。前者如前面说到的奔驰与微软的合作,以及接入通义千问的阿里巴巴AliOS智能汽车操作系统;后者如理想汽车自研的MindGPT,摆脱对高清地图的依赖,让汽车更接近人类司机的驾驶表现,以及毫末智行的自动驾驶生成式大模型DriveGPT,帮助解决认知决策问题,最终实现云端到车端的自动驾驶。此外,长城、奇瑞、蔚来、小鹏四家车企,也已经注册申请了多个与GPT相关的商标,相信很快就会有大模型相关成果问世。
相较ChatGPT那种通用大模型来说,行业或垂类大模型的训练和使用成本都更低。因此不论是奔驰这种百年老厂还是蔚小理这种国产新势力,再或者是微软,BAT这种科技企业,正有越来越多的人认为智能汽车可能是率先实现大模型落地部署的B端场景。不过二者的相互成就之路也并非想象中的一帆风顺。
首先一点肉眼可见的是车载硬件条件的限制,导致车载大模型可能难以发挥全部性能。目前全球各家大模型需要的硬件配置普遍很高,包括高性能计算能力、大容量内存和低延迟等特点,但车载设备的硬件天生相对有限,很难提供足够的算力资源支撑大模型运行。举个例子,GPT-3.5的参数量高达1750亿,支撑它的计算能力高达数万亿TOPS,配套芯片的算力至少也要在万级TOPS以上才能负担得起大模型的计算任务。但是在车载环境下,芯片的算力往往只有数百TOPS,可以说是连大模型运算要求的门槛都够不到。照此趋势发展,升级车载算力基础设施是大势所趋,智算中心甚至是未来智能汽车的标配。比如特斯拉建设的独立云端智算中心Dojo,总共使用了约1.4万张英伟达的GPU来训练大模型。
其次对数据的处理也是不小的难题,特别是现在日益流行的多模态数据。自动驾驶需要的传感器与数据非常多,包括激光雷达、毫米波雷达、超声波雷达等,以及专用的高清摄像头、GPS设备等,而且因为这些零件自带高敏感属性导致其故障与损坏率非常高。自动驾驶数据来自不同的坐标系,各自带有不同的触发时间戳。此外,自动驾驶还需要大量的场景数据,比如对交通标志与地面标线的学习与识别、对车流与人流的行为与相关应对模型等。大模型和数据的管理都需要利用智能车联网,以及配套的专用计算技术平台、云控技术平台等基建设施,要交叉配合就要以海量数据汇聚为前提,尤其是在汽车这种垂直领域内。这和其他车载系统并不相同,假如基础性平台各自为战,必定导致其很难向更深层次发展。这些因素的叠加,让车载大模型的研发、训练门槛变得非常高。自动驾驶的技术门槛已经很高了,车载大模型则比它有过之而无不及。
最后,虽然现在的生成式AI在信息获取方面取得了突破,但在后续的控制、决策、执行等层面,它离真正落地部署在汽车上还有不小的一段距离。云端到车端的大模型训练,也需要在车载系统中构建基于大模型的全新算法,这个过程保守的估计需要三到五年,八到十年,甚至更长的时间也不是不可能。
汽车和大模型都有浓重的科技属性,二者结合最大的意义,或许在于彼此间的取长补短,即强化大模型的制造和消费属性,同时强化汽车的电子和科技属性。这么看来,真正决定大模型能否上车的还得看车企本身的科技实力,这甚至关系到他们能否占领未来科技制高点。
平心而论,汽车与大模型的结合蛮值得期待的。大模型的一大意义在于重新定义了人机交互与相关的服务生态,上车后将加速车载应用服务生态消费的电子化进程,而这将在很大程度上改变汽车,车载系统,大模型等底层产品的定义。对此,华为自动驾驶产品部前部长苏箐的话堪称一针见血:“在传统车厂看来车是基座,车载App或其他系统都是试图把电脑或AI嵌到这个基座上。我们的看法不一样,基座是电脑,车是电脑控制的外设。这是本质看法不一样。”
这是对大模型的意义,换到汽车的角度来说则是降本增效。传统车企中人的成本始终居高不下,即使是自动驾驶算法依然在很大程度上依赖人工的编写与测试。集成大模型后就可以用大模型驱动形成新的智能算法,而要构筑这样的算法,车企要做好平台,大模型企业要做好产品。举个例子,连接汽车与大模型的计算平台,主要建设围绕芯片、云端等展开,最大的难点在于降低成本与标准化生产。而有了好的大模型产品才会有足够多的销量,有足够多的销量才能增加端到端的闭环数据,有了保质保量的数据反过来又能促成优质大模型的建设。以一切的基础AI大算力芯片举例来说,一枚英伟达的芯片现在的售价动辄数万或十数万,成本高不说,依赖外供对国内车企也绝非长久之计。
这么看下来,车企在车载大模型领域要想走得长远,要么加大对底层芯片的自研力度以节约成本,要么在算法或系统上寻求突破,以尽快找到大模型的最佳落地部署路径。但不论哪种都注定不会一帆风顺,这是条鲜花丛生的道路,同时也遍布着肉眼可见的荆棘。
来源:元宇宙与碳中和研究院
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com