腾讯云吴运声:通用大模型与行业大模型并不对立

转载
490 天前
1806
36氪

文章转载来源:36氪

图片来源:由无界 AI 生成

“我们宁可100%解决客户的一个问题,也不要70%-80%地解决客户的100个问题。”

7月7日,2023年世界人工智能大会(WAIC)腾讯论坛上,当被问及先推出面向行业的大模型原因,时,腾讯云副总裁、腾讯云智能负责人吴运声如此回复。

大模型是今年AI界,当之无愧最火的话题。对比百度、阿里等巨头先推出底层的通用大模型,腾讯把眼光直接聚焦到产业中——在WAIC举办前,6月19日,腾讯云正式公布MaaS(模型即服务)全景图,目前已为10大行业输出了超过50个解决方案,涵盖文旅、金融、传媒、教育、政务等多个不同场景。

自然而然地,场景应用和落地成为贯穿整场WAIC腾讯论坛的主题。

“通用大模型不是模型应用的唯一方向,面向垂直产业的模型,会成为大模型价值的引爆点。”腾讯副总裁、腾讯政企业务总裁李强在论坛上如此预测。

吴运声以OTA(在线旅行社)智能客服为例,解释到,用户在实际交流过程中,往往是多个意图混杂的。交流的过程中,意图也可能随时进行切换。

“(用户)刚提出要定10号的酒店,机器正准备回答,突然又说,再帮我看看11号的酒店。”面对客服场景下极其复杂的流程,通用大模型并不能完美地完成任务,因此必须结合具体场景,重构一些复杂的模型。

但当前通用大模型尚在研发初期,在行业应用会要面临成本高昂的问题,吴运声则表示,在一些具体场景里,通用大模型既然不能100%满足需求,那么“判断解决成本的高低,没有太大意义”。而尽管不同行业和场景的解决方案会有很大差别,但总体而言提升企业30%以上的效率,没有问题。

腾讯云副总裁、腾讯云智能负责人吴运声。来源:腾讯

论坛上,腾讯云也介绍了近期围绕大模型的重要升级。其两大技术底座——星脉网络、向量数据库都进行了能力升级。升级后的星脉高性能计算网络,可以提升GPU利用率的40%,节省模型训练成本的30%-60%,提升AI大模型的通信性能近10倍。

而就在7月4日,腾讯云正式发布AI原生向量数据库,相比传统方式,将其用于大模型预训练数据的分类、去重和清洗,数据库可以实现10倍效率的提升。将其作为外部知识库用于模型推理,则可以将成本降低2-4个数量级。

今年的WAIC上,也出现了一个有趣的现象:会上30多款通用、行业大模型齐齐亮相,都说要做大模型。同质化问题随即成为讨论焦点:如今AI领域的创业是否还有意义?各个大厂都有自己的大模型,人有我有的前提下,大模型是否还会是Game Changer?

吴运声认为,在大模型发展的初期,不需要对这些问题急于发表论断。“我更希望看到,在行业百花齐放的阶段,通过技术和产业的结合,探索各种各样的可能性,提升产业和行业的效率。”吴运声表示。

这种判断,也来自他对AI大模型商业潜力的乐观。在上一波单点突破的AI浪潮中,许多AI企业陷入做项目、做私有化的交付实施困境中,无法实现盈利。

“在大模型时代,情况或许会和之前有所不同。”吴运声认为,随着技术的发展,包括底层算力、GPU芯片等的发展,以往动辄千亿的模型参数正在越来越小;腾讯在训练加固、推理加固上也有许多进展,成本正在快速下降。另一方面,大模型应用方面的可能性正在不断拓展,价值正在不断上升。

如今,腾讯正在围绕AI大模型拓展技术和应用生态,也在加强与行业的联动。7月6日,联合国工业发展组织与华为等合作伙伴在WAIC上,共同宣布成立“全球工业和制造业人工智能联盟”。

吴运声同时也强调,技术底座的升级,是“修炼内功”:“不管通用大模型,还是行业大模型,都需要有底层的支撑能力,包括巨大的算力、数据等等。”

 “大模型时代,开放非常重要,所有人都要开放。底层技术变化太快,外延能力非常广,结合到具体行业中,有大量的研发成本。”吴运声表示,只有通过开放,让更多行业专家、各类人员加入,才能培养起更健康的生态体系,产生更多可能。

以下是媒体与吴运声的采访实录,经36氪编辑:

媒体:腾讯云一开始推出了面向行业的大模型,而不是通用大模型,是不是收入的考量?

吴运声:这和成本、投入没什么关系。我们一直强调希望解决客户的问题,宁可100%解决客户的一个问题,也不要70%-80%地解决客户的100个问题。我们可以把问题做得少,但一定要解决这个问题。

媒体:听上去通用大模型和行业模型有对立的感觉,您怎么看两者之间未来的关系?

吴运声:首先,我要明确,我个人肯定没有将两者对立起来。基础大模型是类似底座的东西,可以解决没有特别定制的需求。行业模型要在通用大模型基础上,有效地提高生产力,为大众服务。只有深入行业,才能解决特别重要的问题。

文生图功能也会有非常细节和具体的行业之分——就比如针对一款包生成广告图,也会有客户有特别需求,比如要做一些特别的认证。面对实际问题时,要用不同的方式进行。

媒体:腾讯今年将聚焦哪些领域,有哪些发展目标?最近有哪些升级和迭代?

吴运声:我们的大策略是专注于实际问题的落地,希望在每个特定场景里,100%解决客户问题,而不是找100个产品解决70%-80%的问题。所以,我们会聚焦特定行业,与客户深入打磨,来解决行业问题。

比如,在文旅行业,OTA(在线旅行社)领域的客户,会结合自身业务场景,在业务流程中运用大模型技术,并利用数据相关资源对大模型进行精调。在技术发展方面,我们的模型、算力网络都有迭代和升级,我们也会持续迭代相关技术。

媒体:上次发布产业大模型到现在,接入大模型的企业数量有明显变化吗?

吴运声:和我们接触公司确实非常多,我们会很坦诚地研究客户实际的场景,以及如何满足当前的业务需求。“接入”这件事情没有特别明确的定义,探索过程中有各种各样的需求,可能大家平时见的比较多是AIGC。

我说点稍微不一样的。我们有一家做企业级软件的公司客户,需要制作智能表单。比如管理层开会,新增一个表单,表单下面的项有些必填,有些不必填,有些下拉只能选4、5个选项。选项完成后,要把它变成一个流程,经过A、B、C三人审批,每个人审批的方面不太一样。

原先的做法是,在系统里把表单用自己的工具和语言代码设计出来,编出整个流程,再调用内部机构实现流程。而现在的需求是,拍张照片放到系统里,用系统的代码(自己的脚本语言)描述出来,个人只需要简单的自然语言交流和沟通,比如哪些必填,哪些不必填,第一步到哪,第二步到哪,用自己系统的语言设计对接流程。

这个例子是非常具体的需求,通用大模型无法完全解决。所以,我们就会和企业深入交流,要看表格大概是什么字段,脚本语言是什么。通用技术可能可以直接解决60%-70%的问题,但是客户要的是100%解决问题,就需要更多深入交流。

媒体:行业大模型的落地,将为企业节约多少成本?与通用大模型相比,行业大模型在哪些领域会有优势?

吴运声:节省的成本,其实在不同的企业、不同的场景里有很大区别。举个例子,在客服场景里,客服本身在企业占多大规模,有多少预算,都有很大区别。从实际感受来说,我觉得提升30%以上的效率是没有问题的。

通用大模型在面对具体行业时,不一定能彻底解决行业遇到的问题。比如,客服需要的不是简单的问答聊天,而是机器人、大模型能够理解人类意图,检索数据库,提取所需信息,再组合成人类可理解的文字进行回复。

最关键的是,用户实际交流过程,往往是多个意图混杂的,一个描述里有很多需求,交流过程时意图可能随时切换,难度很大,流程非常复杂,尤其是与客户的系统交互有非常复杂的模型。这个流程一定不是通用大模型能解决的,需要结合具体场景。

媒体:腾讯能把企业大模型成本控制在怎样的范围内?

吴运声:我们强调通过这个技术,使企业降本增效、提高生产效率,但我们一定不会说把成本控制在什么水平。我们产品发布还不到一个月,前期有一些合作,但肯定给不出整体性的数据。

36氪:上一波AI浪潮里,是以CV(图像识别)为首的技术应用,应用更偏单点,比如调用api计费,但做到后面,公司都开始做项目、做私有化,导致盈利艰难。未来,AI大模型会经历一样的事情吗?

吴运声:我还是持乐观一点的态度,从现在的时间节点看,会有比较大的挑战。但不管往前看半年,还是往后预测半年,技术的发展非常快,包括底层算力、GPU芯片。大模型以前动不动千亿参数模型,但随着技术发展,模型参数越来越小,能力还是维持在很强的水平。同时,我们在训练加固、推理加固上有非常多进展,成本正在快速下降中。

另一方面,在应用上,我们看到更多的可能性,在应用和所能产生的价值趋势是不断上升的。

媒体:怎么看待底层能力建设与场景落地方面之间的平衡?

吴运声:我们一直不希望以单一的视角看待大模型。不管通用大模型,还是行业大模型,都需要底层的支撑能力,包括巨大的算力、数据等等,这是内功的维度。而场景是另一个维度,解决一个实际问题,用五成的内功,另外三成外功,再加另外两成,在大模型生态里,我们是从不同的视野看待问题。但是如果纯讲内功,肯定也没有问题。

媒体:很多CEO提过,大模型对计算行业是game changer。现在所有大厂都推出大模型,这个判断是不是不成立了?我们需要这么多通用大模型吗,是否已经冗余了?

吴运声:看怎么定义game changer。现阶段来看,大模型行业处于比较初级的阶段,诞生了非常多可能性。同时,我们看到大模型带来技术的变革,潜力非常大。

我个人的观点是,现在不需要太急于发表论断,我更希望看到,在行业百花齐放的阶段,通过技术和产业的结合,探索各种各样的可能性,提升产业和行业的效率。

媒体:模型与行业结合处于早期阶段,这个阶段当中会存在哪些问题?有观点认为,行业大模型相比通用大模型,未必在成本上有所优化,可能反而更高,怎么看这个观点?

吴运声:大模型技术出现的时间还很短,在快速发展中。行业对大模型的理解,也在早期阶段——不知道大模型能干什么,能与行业结合到什么深度。行业大模型和基础大模型的关系、成本的问题,确实都存在变化。

确实有观点认为,一个大模型如果解决所有问题,成本会更低,也有观点认为针对某个行业,不需要大模型,用小的模型就可以。

这个问题不能用单一维度判断,要客观完整地看待这个问题。我一直在强调,通用大模型可以解决通用的、与行业结合并不紧密的问题。但如果要再深入的话,就要在场景上进一步深化了。许多问题看上去是一样的,但深纠下去也许解决的不是同样的问题。这种情况下,判断解决的成本高低,没有太大的意义。

媒体:从行业的角度,怎么判断大模型技术变革对整个云计算市场带来的市场增量,和增量场景?

吴运声:可以看到,大模型时代来临后,对算力需求有非常大的推动,尤其是对于AI相关的算力。但在云计算的具体量化上,很难给出数字,还在持续发展过程中。

场景上,现在各行各业都在结合大模型,场景很丰富,既有通用场景,也有行业场景。通用的场景包括会议智能升级的工作,腾讯619发布的企点客服、企点分析,也在做智能工作,我们也做一些云上代码助手。在普世应用上,效率升级上,也有非常多应用。另外,各行业有各行业的应用,也会带来大量需求。

媒体:除了大模型落地场景侧之外,腾讯会不会为其他的大模型企业提供服务?火山引擎说七成大模型用户在火山,腾讯的数据是怎样的?

吴运声:我们对独角兽企业,或是其他大模型的方案,提供一系列的云的支持或能力。我们发布了高性能计算机HCC、向量数据库,提高了加速能力,这些都可以提供给厂商。

除了底层能力,我们还有一体化的基于TI平台大模型精调的解决方案,也有一系列的工具、流程和服务的支持。

媒体:很多SaaS服务商沉淀了很多年,我们的MaaS(模型即服务)是面向他们,还是面向头部的行业客户?  

吴运声:这些都是我们的客户。

媒体:与产业结合,是目前腾讯的打法,打不过就加入大企业的生态。昨天华为成立了联盟,是不是意味着竞争更容易形成巨头间的较量?

吴运声:我倒不这样看待这个问题。我觉得大模型时代,开放非常重要,所有人都要开放。底层技术变化太快,而且技术的外延能力非常广,结合到具体行业中,有大量的花费。这种情况下,只有开放才能发挥最大的价值,通过开放让更多行业专家、各类角色人员加入,才能让整个生态体系更加健康,产生更多可能。

媒体:对每个公司的开放是一样的吗?

吴运声:我说的开放是指能力建设上,还有生态的开放。比如建设金融大模型,不是一个人概括所有的金融大模型,不同人在不同领域有很深的经验,一起共建是一种开放。直接对行业客户开放,也是一种开放。

另外,合作伙伴基于大模型提供的能力,做效率工具的应用升级,或是行业解决方案的升级,不同形态的应用联合在一起。在大模型内功方面加强,合作伙伴百花齐放,大家呈现不同的应用,这也是一种开放。