文章转载来源:AI梦工厂
来源:见实
作者:唐露尧
图片来源:由无界 AI生成
如果仔细观察会发现,大家似乎很少再提“AIGC”,取而代之的是“生成式AI”、“LLaMA 2”以及“AI大模型”等新词。
这场由“Chat GPT”引发的内容生产力大革命,已经慢慢走出了单一的“对话式场景”,并迅速蔓延到商业应用的各个场景,尤其是“AI数字员工”的出现,更是打响了互联网大厂AI大模型应用第一枪。
“企业需要快速建立‘收入增长飞轮’并通过AI构建更加高效的组织协同和作战能力。”这是见实和360 集团副总裁、N 世界负责人梁志辉深聊时的一段话。
无独有偶,梅花创投创始人吴世春在同见实深聊时也曾说过类似观点,他认为AI 团队要想拿到融资,必须先挣到钱。
可见,面对这波新的AI大浪潮,行业似乎更加克制和理性,当然,这也和稍显窘迫的大环境密切相关。
作为一名互联网老兵,梁志辉经历了从PC互联网到移动互联网的完整周期,这波AI浪潮的出现,不由得让他找回了刚进入PC 互联网时代的感觉,只是这次变革的速度远比上次快。
对此,梁志辉喜忧参半。喜的是,能在几十年短暂的职业生涯中,同时经历两次行业大浪潮,并跟随360这家企业冲在时代最前沿;忧的是,一大波不行动的企业即将被加速淘汰,部分看似牢固的商业模式也在加速崩塌。
深聊中,梁志辉分享了大模型在企业数字化过程中的应用和未来发展趋势,并称这次不可逆的底层技术大变革充满了机遇和挑战:
无论企业大小,接入AI技术的门槛将越来越低,大模型可以为企业带来十倍速的提升,但这种提升并不会立即体现在营收上。因此,企业在接入大模型时需要权衡好ROI,确保大模型能够为企业带来实际的经济效益。
这也是为什么360会选择切入数字员工领域的原因,企业应该先打造一支具备数字化思维的“AI铁军”,率先建起一支懂AI的团队,或许才能在未来商业战场上提前占据有利地势。
一边是百年之未有之大变局;另一边,大模型应用也面临着一些挑战,如数据安全、成本控制和技术门槛等。
尤其对于中小企业而言,如何在保证效果的前提下降低使用成本是一个亟待解决的问题。基于此,360提出了“人工+大模型知识库+AI”的组合策略,确保数据安全的同时,还能大大降低企业自建大模型的成本。
如今的大模型已经成为企业提高效率的新利器,资本、用户和场景都发生了翻天覆地的变化,如果仍然坚持过去的产品和项目,那么回报率肯定会大打折扣。企业如何拥抱新技术,不断提升自身的数字化能力,以应对市场竞争带来的挑战呢?
接下来,让我们回到对话现场,听听360 AI大模型的落地与实践,或许会给您在AI布局上带来新的参考。如下,Enjoy:
360 集团副总裁、N 世界负责人梁志辉
梁志辉:市场对AI的欢迎程度实际上比我们想象的更强烈。今年3月,Chat GPT引发AI浪潮之初,大众对AI有一种科幻的想象。我们切身的体会是,因为大模型业务我们接触了很少遇到的化工企业客户。技术变革的同时,也涌现了一批在长尾端的高价值客户。
据观察,接入AI后,以前 4 个人的工作可能只需要1人就能完成,这意味着,企业可以吞吐更大规模的业务量。然而,实际情况可能并不乐观,更多老板可能会选择先优化员工,虽然没有通过AI接到更多订单,但起码可以通过AI降低企业员工成本。
我们内部有一种观点:AI是企业的发展优先权。
以前,采用数字化工具可以显著提高企业绩效和效率,现在轮到AI领域。
大模型让我们学会重新审视现有业务。在内容理解方面,AI可以帮我们提高十倍工作效率,但企业营收是否会因为局部10倍速增长而增长,依然需要一段时间检验。
梁志辉:诚然,技术壁垒已经被打破,很多开源软件和社区。企业如何快速建立“收入增长飞轮”以及如何通过AI构建更加高效的组织协同和作战能力变得非常重要。
一方面是商业模式的创新,另一方面则是向内看组织协同能力。
这也是为什么360会切入数字员工的原因,只有员工率先完成AI能力的升级,只有一支具备数字化思维的“AI铁军”才能在未来的商业战场上更快占领优势地位。
梁志辉:实际上,360很早就开始涉足人工智能领域,特别是深度人工智能领域,2016年开始组建360人工智能研究院。今年3月29号正式发布360AI大模型,按照我们创始人当时的说法——把刚出生的孩子抱出来让大家看看。
今年5月,360发布了针对to B市场的千亿通用大模型,并在多个行业成功落地应用,尤其是企业数字员工方面的应用,是当前的主营业务;到了六七月份,发布360大模型行业联盟以及企业大模型解决方案。
目前,以“企业数字员工”为出发点,我们已经组建了面向To B和To C两个不同领域的大模型团队进行研究。其中To B业务中的AI数字人和AI数字员工等生成式AI产品是当前开发的主力军。
不仅如此我们也有部分 To G 业务,也会有和合作伙伴共同完成一些垂直大模型,基本上覆盖了大模型领域的上中下游,但“安全”依旧是360的核心关键词。
梁志辉:一直以来,360占据着国内办公电脑最大的市场份额,具备C端应用场景与B端安全经验,如,360安全导航首页、浏览器搜索等这几个主要产品为我们带来了大量的关注量和使用量。
上周,我们发布了AI浏览器和AI搜索功能。在这个过程中,潜移默化的让 C 端用户通过低成本甚至免费的方式使用大模型的技术,B端企业也可以通过性价比更高的SaaS解决方案,选择月租的方式完成大模型商用。
梁志辉:确实会涉及到,但也要看企业的性质。我们会分三类企业来看:
一是,绝大多数中小企业,他们可能没有太多机密数据,也不会把销售数据放入大模型进行计算,这类企业,只要提供一个专有的数据空间,实现数据隔离即可。
二是,规模较大的企业,一般都有自己的信息安全管理规定和内部要求,他们不太可能将内部数据存储在公共云上,即使是专有云环境也有疑虑。
因此,我们会提供一个“大模型知识库”解决方案。企业可以将所有需要大模型处理和访问的数据放入这个知识库中,这个知识库可以在企业内部环境中部署为云服务,仅在提问时才与大模型进行部分交互。
从成本角度看,配置独立的大模型推理节点成本相对较高(一台约150万),并且一台推理节点通常无法满足所有需求,知识库的中转策略是相对而言“高质价比”的解决方案。
三是,高度保密的企业,原则上他们连简单的交互也是不允许的,在这种情况下,我们会提供一个相对低成本的独立大模型推理节点,并与大模型工具捆绑销售。
梁志辉:我们曾为一家对数据保密要求极高的企业提供服务,大约花费了一个半月时间,对于企业级的大项目而言,时间周期刚刚好。
数据量的需求因企业需求不同而异,对于某些具体任务,如营销写稿,可能提供3篇文章即可;但对于大型企业的数据协同,那可能就需要提供数万份文档。
梁志辉:国内大模型目前基本都是自研,备案制度也已经不允许套壳。所以,在具体应用中,你可能发现国内产品不如海外产品,这背后至少受三方面影响:
一是,缺乏对大规模超算中心的运营和管理经验。算法实际上是开源的,大家缺少的是实际经验,使用1000张显卡与1万张显卡会产生完全不同的问题,所需的基础计算中心架构也会有所不同,这些经验只能通过实践来积累。
因此,懂得如何构建硬件架构以支持上千甚至上万张显卡的人才就变得非常重要,这方面知识国内厂商仍然需要多交学费,多实践才能掌握,只要有一个人掌握了关键知识,国内的学习速度会很快。
二是,数据因素。Chat GPT的确有先发优势,他们的数据训练样本是国内厂商望尘莫及的,国内的优势是离用户场景更近。实际上,大模型训练数据量并不是越多越好,而是数据质量越高越好,一些高质量的文本,如代码、论文和法律文书,才是真正能提升大模型逻辑推理能力的内容。
有些人可能误以为百度贴吧或知乎上的内容是高质量数据,但在实际操作中,这些平台可能包含大量不相关的信息,对大模型的逻辑处理能力无益,即便是知乎内容,很多内容也算不上高质量。
还有一部分人会拿聊天对话来训练,也是非常低效的,聊天记录可以帮助大模型获得更加口语化的表达,但无法真正拿来解决问题。核心原因是人与人之间的对话往往是主观无逻辑的,AI很难梳理出背后的对话逻辑,除非单人的样本量足够大,但这依旧很难实现。曾经有一个AI聊天机器人在上线后,由于接受了推特和Facebook中大量负面评论的训练数据,几天后它学会了说不当言论并采取了不当行为。
三是,没有足够多的显卡资源,AI算法高度依赖高端显卡,设备采买的价格比以前从事计算和存储密集型数据中心的设备要高出大约5到10倍。所以,大家都在关注“国产高容量显卡”的研发进度,一旦研发出来,成本将大幅度降低,国内AI 大模型的进展将实现质的飞跃。
我们非常期待华为能降低这方面的价格,或者随着其他中国厂商加入,能否将价格降低一半或降至四分之一,这一天的到来令人期待。
梁志辉:大模型在内容生成和理解方面,比我们见过的所有技术方案都强大很多,但如果要让大模型完成一些类似信息抽取能力或者强大推理能力的工作,目前来说仅靠大模型的一次交互是无法实现的。
比如我让大模型编写一份行业研究报告,如果人工操作,大约能拆出1000 多步,如果让大模型通过Auto GPT的方式进行推理拆解,分步执行,可能处理一半时就会断掉,AI很难理解这1000多步的内在逻辑,以至于直接中断生成。
尤其在大模型“幻觉”问题上,当你问它一个问题时,它可能会“不懂装懂”,编一个新故事来回答你。例如,我尝试过让GPT帮我推荐北京饭馆,他就编了一些我从未听过的地方,实际上是杭州饭店,这里就出现了一种幻觉。
梁志辉:主要是大模型基于的是大量语料进行训练,但大量语料无法与搜索引擎相比。引擎是基于现实世界,有人真正写过。
尽管有很多事实信息,但我们会发现大模型在涉及到一些他不了解的事实信息时,会立即开始胡编。
想让大模型完成复杂任务,仅靠一个prompt 是无法实现的,即使给出一个可编程的解决方案,大模型在一次交互中仍然无法解决问题。所以,我们正在考虑通过AI Agent(人工智能代理,一种能够感知环境、进行决策和执行动作的智能实体。比如,告诉AI Agent帮忙下单一份外卖,它就可以直接调用 APP 选择外卖,再调用支付程序下单支付,无需人类去指定每一步的操作。)的解决方案,让大模型专注于他最擅长的事。
梁志辉:是的,如果无法解决“幻觉”问题,企业贸然接入大模型的风险会很大,360在对抗大模型幻觉或推理能力不足的方式是采用AI Agent的方式来处理,也就是先把整个项目“人为划分出详细的工作流”,让大模型执行工作流中每个子任务,我们只要教大模型学会调用外部搜索、计算以及其他工具即可,发挥了大模型最擅长的部分。
基于事实信息进行总结,提供更优质的语料,且是一件非常具体的事,那么99.9%的情况下,大模型的表现都会特别稳定,底层思维就是把大项目拆分成小项目,把小项目拆分成具体步骤来处理。
比如,做一份旅游规划,你可以让AI同时打开200个网页,让它快速理解,并同时让他总结涉及到的内容深层部分,包括搜索关键词,阅读网页内的所有内容,如携程、机票等。至于如何实时抓取动态的航班信息,我们可以通过调用第三方API,让大模型在规定的流程中执行准确的分支跳转即可。
这其实还催生了一个有趣的现象,就是企业内部可以自定义工作流,员工之间可以把做好的工作流分享给彼此。这意味着,以后AI Native APP可能不一定是现在移动端的APP,它可以是一个用于Agent 的工作流。
这个工作流已经把大模型要做的事的工作流程和框架稳定下来,那它就可以帮你很稳定处理需要几百步才能完成的任务,这在我们内部的测试效果非常好。
整个过程中,我们希望用户不要写 prompt,只有基于我的低代码平台,就能建立起自己的大模型。
就像是小学生使用的编程软件,在配置大模型工作流的过程中,您只需添加一些控件和框架,无需具体编写具体代码,通过拖拽几个逻辑运算点,大模型就可以按照指定步骤完成任务。
梁志辉:国内和国外要分开看,国外许多产品已经从流量和收入方面取得了很好的成绩;国内To B端则集中在营销和办公领域,To C个人付费用户的意愿相对较低,C端用户往往需要的是情感陪伴方向,真正实现这些需求还是有很大挑战的。
但依旧有两点建议:
一是,对于深处AI赛道的企业而言,不要舍本求末做一款强AI产品,而要学会用AI解决实际问题。AI提高效率有其优势,但必须确保与现有业务和需求结合,不脱离实际才是根本。
二是,积极拥抱新事物,从PC互联网到移动互联网的变革,当前整个市场正在发生大的变革,正如当初从塞班到安卓系统的转变,甚至很快就可能出现“iPhone时刻”,如果资本、用户和整个使用场景都发生了变化,企业仍然坚持过去的产品和项目,回报率肯定会大大折扣。
梁志辉:我不认为会一家独大,AI大模型的市场很大,国内C端市场竞争尤为激烈。未来,每个行业都可能会有自己的大模型,有各自的开源算法和数据,但仍需要时间来调优以确保数据算力和用户效果。
国内的厂商今年已经真正下场,需要时间来适应新技术。
梁志辉:实际上,尽管市面有大量数据可用于训练,但如果你无法获得垂直领域的精准数据,那么大模型仍然只是一个刚刚入行的新手,就像是一个刚毕业的高考状元,依旧不懂如何开中药。
如果对于某些特定领域的专业知识不足,很难真正产生价值,数据本身就是一个壁垒。
能够提供精确有效的高质量数据,这将成为大模型能力的一个关键因素。例如,一些法院的判例是否公开数据?如果你想建立一个法律大模型,如果这些案例数据不可获得,就会成为一个难以逾越的壁垒?
梁志辉:确实有可能发生重大变革,比如,订阅方式就是最直接的变化。过去,无论是销售软件还是订阅服务,都与时间相关。
现在,技术计价单位不再是按月定价,而是按照计算能量点和算力券等方式,如果你希望更快获得更多结果,需要支付更多费用,而不再像以前那样采用固定费用或存储空间来计费。
梁志辉:从实际情况来看,文生文的大语言模型,无论是训练工具还是相应的内容都不容乐观。GPT虽然在开源过程中表现良好,但中途又关闭了开源。
庆幸的是,今年7月18日,Meta发布了开源大模型 LLaMA 2,性能接近GPT3.5,预训练模型在2万亿tokens以上,精调Chat 模型是在100万人类标记数据上训练的。
目前,如果一家公司想要做成一个大语言模型,需要备案大约1000台服务器,还要高薪招聘工程师来撰写大型训练文件,成本实在太高了。不过,我们也看到一个向好的现象:
比如,自然语言处理和图像处理的领域,已经具备了足够多的工具和标准化云产品,几乎人人都能构建自己简易的大模型;再比如,现在最火的“炼丹师”(深度学习领域的AI研究员)还不是上班族,很可能是一群高中或初中生,他们愿意为自己热爱的二次元动漫深入研究,并常年活跃在QQ讨论群里。
一旦有一个开源工具或社区,发展速度就会超越由几个大公司垄断的状态,在这种情况下,行业发展会更加迅速,这个状态可能不需要一年,大约半年就可以实现,加上不断加强的开源大语言模型,未来可期!
来源:AI梦工厂
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com