公司倒闭、版权争议、架构更迭……人工智能角逐剩者为王

转载
288 天前
6800
AGIing

文章转载来源:AGIing

文章来源:智谷趋势

作者:朝阳

图片来源:由无界AI生成

2023年是科技大年。

在全球复苏滞缓、加息冲击、战争阴云等政经桎梏下,科技撬开一道缝隙,带来无穷变量。

ChatGPT与AI大模型、新能源汽车、大飞机、可控核聚变、星舰、芯片战争、室温超导技术、基因编辑……是2023年火出圈的科技话题。

但2023年的大环境却是“降本增效”,于是——

·全球科技公司在大规模裁员、调整业务;

·创业公司出现倒闭潮,新增独角兽企业数量下降85%;

·融资变得更贵,资本出手更加审慎;

2023年,也是分化加剧的一年。

·苹果、微软、谷歌、亚马逊、英伟达、Meta和特斯拉7家公司撑起美股涨幅

·AI等新技术红利仍将由大企业占有,典型代表如微软,已显出“赢家通吃”的迹象

·各国纷纷推出产业政策,加强了科技竞赛和贸易壁垒

·长期来看,AI与自动化将取代人口红利,改变全球化的进程

如果只选一个关键词总结2023年,我会选AI。

大众层面,OpenAI带来的冲击,比当初下围棋的AlphaGo强烈太多。

聊天机器人、AI作画、制作视频、编程等能力,是大众能直观感受,并迅速延伸个人能力的边界。

同时,这也引发了“人类被AI取代”的担忧。OpenAI论文指出80%的工作和收入被AI影响。AI替代的裁员潮,已引发监管和罢工的反应。

行业层面,几乎所有大型科技公司都加入了大模型的研发。截至10月,国内已出现238个AI大模型。5月时这个数字还是78。

AI不是第一次引发热潮,大模型也并非新事物。但这次AI真正通用化、普及,是云计算、大数据、网络等新一代基础设施的成熟,也是数字化向智能化的演进。

这一切,注定2024年也是一个科技大年。


1、GPT-5发布,闭源模型仍会继续领先


年初,谷歌将发布Gemini Ultra;

OpenAI发布GPT-4.5甚至GPT-5,更加接近通用人工智能。

那些还在努力对齐GPT-4的竞争对手,又将被拉开一个身位。

大公司更加青睐闭源模型,在技术和资金方面投入也会更大,将会保持对开源模型的领先。

与此同时,目前GPT、Gemini等大模型,主流使用的是Transformer架构,这是2017年谷歌发表的技术。

而像斯坦福大学、麻省理工等高校机构已在研发新一代的AI架构,对Transformer形成挑战。

中国的路,还有很长。


2、行业关注重点从大模型到AI应用,AIGC、AI+、智能助手等涌现成熟商业模式

大模型的高技术门槛和算力门槛,注定了研发通用大模型是少数科技巨头的游戏。

目前,大模型的推理成本仍然很高,落地AI的最大阻碍,除了技术成熟度之外,就是投资回报率的问题。即便在科技巨头内部,也仅覆盖了最有价值的产品业务。

今年,行业重点将是AI的落地问题,专注行业模型、AI应用的产品化和商业化。

例如,自动驾驶,预计2024年会迎来爆发式进步。特斯拉的Dojo超算和FSD加速落地。国内推广高级别自动驾驶。

由AI生成的视频和电影,在2024年也会形成完整的生产和商业模式。

其他如金融、教育、医疗等,也都是AI首先大规模落地的热门领域。


3、终端设备AI化,加速AI能力普及

2024年,你会为使用AI而购买新机吗?

2023年,华为、荣耀、小米、vivo、OPPO已尝试推出大模型手机;

谷歌Pixel手机已搭载Nano级Gemini;

三星预计在2024年初发布Galaxy S24,引入生成式AI;

苹果已公布多个AI大模型和技术成果,预计iOS 18会体现更多AI能力。;

微软明年发布Windows 12,也将结合AI大模型(甚至GPT-5);

高通、英伟达、联发科等芯片厂商,已推出适配AI算力的产品和平台;

同时,初创企业Humane的AI Pin(智能别针)也将于明年3月交付,这类想“替代手机”的全新智能穿戴设备也将涌现。

手机、电脑等智能设备的大厂,都在加速AI化。他们在系统层面,嵌入端侧AI能力;在硬件端,研发更新芯片技术,解决算力和存储问题。

这会催生一次AI换机潮,带领消费电子市场走出低谷。也会成为很多人实际感受AI能力的渠道。


4、AI公司出现倒闭潮,剩者为王


我们总是高估未来两年的变化,而低估未来十年的变革。

这一轮AI热,催生了上百家研发大模型的企业,以及更多基于开源模型,去做应用研发的创业公司。

其中存在巨大的泡沫。2023年已有AI企业,甚至明星独角兽在降低估值、裁员,甚至消失。

给与AI企业烧钱发展的周期将大幅缩短。到明年,AI公司将接受市场考验,没有成熟落地场景、商业模式的企业将迅速出清。

虽然新的AI创业公司仍将涌现,但资源和市场会迅速向少数巨头集中。

掌握成熟行业场景,积累垂直数据的企业,将有更高的壁垒。


5、AI大模型的算力饥渴,激化芯片战


AI大模型的算力需求,每年增长近10倍,远超GPU算力增速和数据中心的建设速度。

目前的数据中心,是以CPU为主导的,而AI算力更依赖GPU,以及各类NPU、TPU和AI专用芯片。

美国2023年修改芯片管制,对高端AI芯片的管控升级,“阉割版”GPU也被纳入管制,限制了国内AI算力扩张速度;

同时,英伟达垄断GPU市场,并推出云服务进行竞争;谷歌、亚马逊、微软、OpenAI、华为、阿里等科技大厂也都下场,加速研发AI芯片。


6、数据安全、合规和版权问题,恐成AI监管的首个爆点。


踩在2023年的尾巴,纽约时报将微软、OpenAI告上法庭,要求销毁所有包含其数据的大模型和训练集,索赔数十亿美金。

目前AI大模型使用的数据,多是从互联网上免费爬虫抓取。除了ChatGPT之外,包括Midjourney、Runway、Pika也是全网抓取图像和视频进行学习。

这些数据和作品的原作者,是否有权拒绝被使用?是否能获得收益?

AI新技术亟需法律和监管跟进,在2024年围绕数据隐私、版权问题的诉讼将首先到来。


7、AI大模型引发的碳中和、绿色问题将更加突显。


大模型动辄千亿万亿的参数规模,对算力要求极高。

并且随着AI需求扩大,算力需求还会指数型增加,可能成为最大耗电、碳排放的源头。

例如,国际能源署估计,数据中心的用电量占全球电力消耗的1.5%至2%,相当于英国的用电量。预计2030年,将占到4%。

为了服务器液冷,微软一年用掉17亿加仑(约64亿升)的水,相当于2500个奥运会泳池;谷歌用掉56亿加仑(约212亿升),8500个游泳池。

大型科技公司基本都有2030碳中和的承诺,想要AI不被拖垮,他们已在研究小模型、端侧模型,提升算力效率;通过采购绿电、自研芯片、自建绿色数据中心等方式解决。

微软已经在琢磨,建核电站给AI大模型供能。

2023年只是元年,一个开始。

2024年,能用AI规模化提供服务、知识的企业和个体将涌现;超出常识、基于AI的产品和新模式会出现;AI跨学科之后,也会推动更多创新涌现。

分化和差距,还会以更惊人的速度拉开。