文章转载来源:AIcore
图片来源:由无界 AI工具生成
来源:AI商业研究所
导读:
近日,美国著名投资机构A16Z发表了一篇文章,题为《Who Owns the Generative AIPlatform?(生成式AI平台,谁主沉浮?)》,里面包含几个月以来对AIGC领域内大厂与初创公司的访谈调研和数据分析,可能是最近看到对此类话题最客观且详实的讨论,下面将核心观点整理分享给大家。
为了理解生成式AI市场是如何形成的,我们首先需要定义当前的技术栈是如何构成的的。以下是我们的初步观点。该栈(自上而下)可分为三个层级:
第一阶段将专注于工具。
生成式人工智能将可能作为人类创作者的助手,使现有的UGC工作流程更加强大和方便。现有的UGC平台(如Roblox)将把生成型AI添加到他们现有的工具集中,而初创公司将出现,复制目前的UGC工作流程,但从一开始就针对生成型AI的特点进行优化。
这一过程类似于互联网最初是如何开始为政府提供次要的点解决方案(point solution),或者云技术是如何从点解决方案开始起步的,我们相信生成式人工智能也将从点解决方案工具开始,以协助创作者的当前工作流程。
第二阶段,会出现新的公司,从头开始重新打造创作工作流程。
第二阶段的产品很可能不太像工具或平台,而更像以生成式人工智能为基础的引擎或操作系统。这就类似于,最出众的网站并不是对报纸的模仿,或者获胜的移动应用并不是网站的模仿。
我们相信,AI将创造全新的创作范式,并将对从用户体验到渲染管道组成的基础架构进行深入改革。而未来它们将发展为何种形式,没有人能够真正预测。
在之前的技术周期中,人们普遍认为要建立一个独立的大企业,公司必须拥有终端客户——无论是个人消费者还是企业买家。因此人们更容易相信,生成式AI领域的最终赢家也会是面向终端的应用程序。
而目前,生成式AI的探索之旅依然迷雾重重。我们了解到至少有三类产品年营收已经超过了1亿美元,即图像生成、文案写作和代码编写。
然而,仅靠高增长还不足以建立经久不衰的软件公司。关键之处在于增长的背后必须有利可图——从某种意义上说,用户一旦注册,就会产生收益(高毛利),并长期留在应用中(高留存)。在技术缺乏差异化的情况下,B2B和B2C应用多数通过网络效应、数据沉淀和日益复杂的工作流来推动长期客户价值。
在生成式AI中,这些假设并不一定成立。
那些与我们交谈过的应用软件公司,毛利率落在一个很大的区间——少数情况下可高达90%,但更多数情况仅有50-60%,主要受限于模型推理成本。
虽然用户漏斗顶端的增长十分惊人,但鉴于我们已经看见付费转化和留存的开始下降,现有的获客策略是否可规模化尚未可知。
由于依赖类似的数据模型,许多应用软件在产品层面相差无几,并且它们均尚未找到友商难以复制的显著网络效应、数据积累或独特工作流。
目前还无法明确直接销售终端应用是否是构建生成式AI可持续商业模式的唯一甚至是最佳途径。随着语言模型的竞争加剧和效率提升,应用的利润空间将会提高,而后面“白嫖党”会逐渐离场,产品的留存也可能有所提升。
展望未来,生成式AI应用公司将面临的主要问题包括:
如果没有谷歌、OpenAI和Stability.AI等公司奠定了杰出的研究和工程基础,我们现在所说的生成式AI将无从存在。创新的模型架构和不断扩展的训练管道使我们均受益于大语言模型(LLMs)和图像生成模型的“超能力”。
然而,这些公司的收入规模在其用量和热度面前似乎不值一提。在图像生成方面,得益于其用户界面、托管产品和微调方法组成的操作生态,Stable Diffusion已经见证了爆炸性的社区增长。但Stability仍将免费提供其主要检查点作为核心业务宗旨(愿景是开源)。在自然语言模型中,OpenAI以GPT-3/3.5和ChatGPT占据主导地位,但到目前为止,基于OpenAI构建的杀手级应用仍相对较少,而且其API定价已经下调过一次。
这可能只是一个暂时的现象。Stability.AI仍是一家尚未专注于商业化的新兴公司,随着越来越多杀手级应用的构建——尤其当它们被顺利整合进微软的产品矩阵,OpenAI也有成长为庞然大物的潜力,届时将吃走NLP领域一块很大的蛋糕。当模型被大量使用,大规模的商业化自然水到渠成。
闭源模型是否可以长久地保持其优势目前还是未知数。我们看见由Anthropic、Cohere和Character.ai等公司自行构建的大语言模型开始崭露头角,这些模型和OpenAI基于类似的数据集和模型架构进行训练,在性能上已经逼近OpenAI。
开源模型可以由任何人托管,包括不承担大模型训练成本(高达数千万或数亿美元)的外部公司。Stable Diffusion的例子表明,如果开源模型拥有足够高的性能水平和充分的社区支持,那么闭源的替代方案将难以与其竞争。
如今,对专有API(如OpenAI)的需求正在迅速增长,托管可能是目前对模型提供商而言最明确的商业化路径。开源模型托管服务(如Hugging Face和Replicate)正在成为便捷地分享和集成模型的有效枢纽——甚至在模型提供者和消费者之间产生了间接的网络效应。模型提供商通过模型微调和与企业客户签订托管协议来变现,看上去是十分可行的。
模型提供商将面临的主要问题还包括:
生成式AI中的近乎一切都会在某个时刻通过云托管的GPU(或TPU)。无论是对于训练模型的模型提供商和科研实验室、执行推理和微调任务的托管公司或是两者兼顾的应用程序公司,每秒浮点运算(FLOPS)都是生成式AI的命脉。这是很长时间以来第一次,最具颠覆性的计算技术的进步严重受限于计算量。
因此,生成式AI市场里的大量资金最终流向了基础设施公司。可以用一些粗算数字加以说明:
我们估计,应用程序公司平均将约20-40%的年收入用于推理和定制化的微调,这部分通常直接支付给云服务提供商以获取实例或支付给第三方模型提供商——相应地,这些模型提供商将大约一半的收入投入于云基础设施。
据此我们有理由推测,生成式AI总营收的10-20%将流向云服务提供商。
除此之外,训练着自有模型的初创公司们已经筹集了数十亿美元的风险投资——其中大部分(早期阶段高达80-90%)通常也花在云服务提供商身上。许多上市科技公司每年在模型训练上花费数亿美元,它们要么与外部的云服务提供商合作,要么直接与硬件制造商合作。
迄今为止,生成式AI领域最大的幕后赢家,可能是运行了绝大多数AI工作负载的英伟达(NVIDIA)。该公司报告称,2023财年第三季度,其数据中心GPU的收入为38亿美元,其中相当一部分用于生成式AI用例。通过数十年对GPU架构的投资、产学研深入合作以及软硬件生态系统的构建,英伟达已围绕该业务建立了坚固的护城河。最近一项分析发现,研究文献中引用英伟达GPU的次数是顶级AI芯片初创公司总和的90倍。
我们已开始见证生成式AI(AIGC)技术栈的兴起。数以百计的初创公司正在涌入市场,开发基础模型,构建人工智能原生的应用程序,并建立基础设施和开发工具。
已有足够的早期数据表明范式转移正在发生,而我们尚未明确的关键问题是:这个市场中的价值将在哪里积累?
据我们观察:
创造最大价值的公司——即训练生成式AI模型并将其应用在新的应用程序中的那些公司——尚未获取最大的价值。
我们很难预测接下来将发生什么,但我们认为,核心是理解技术栈的哪些部分真正具有差异化和壁垒。
结合生成式AI的早期数据和我们关于AI/ML初创公司的经验,我们有以下直觉:
由于基于相似的模型构建应用,应用程序提供商缺乏显著的产品差异。其次,由于模型基于相似架构和相似的数据集训练而来,模型提供商长期可能会趋于一致。最后,由于运行同样的GPU,甚至硬件公司在相同的晶圆厂生产芯片,云服务提供商缺乏深度的技术差异。
强大的网络效应是否会在生成式AI技术栈中的任何一层占据上风?现在下定论,一切还为时过早。
根据现有数据,我们很难判断,生成式AI长期是否会形成赢者通吃的局面。
这很不寻常,但对我们而言是个好消息。这个市场的潜在规模难以把握——它介于所有软件和所有人类的努力之间——因此我们预计将有许多玩家参与到技术栈各个层级的有序竞争中。
我们也希望公司无论横向延展或是纵向深耕都能取得成功,为终端市场和终端用户提供最佳解决方案。举例来说:
无论如何,有一件事我们可以确定,生成式AI正在改变这场游戏,而我们都在与时俱进地学习着游戏规则。
大量价值将被AI释放,科技领域终将发生翻天覆地的变化。
此刻,我们正在这浪潮之上,拥抱生成式的新未来!
来源:AIcore
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com