文章转载来源:AGIing
文章来源:智谷趋势
作者:朝阳
2023年是科技大年。
在全球复苏滞缓、加息冲击、战争阴云等政经桎梏下,科技撬开一道缝隙,带来无穷变量。
ChatGPT与AI大模型、新能源汽车、大飞机、可控核聚变、星舰、芯片战争、室温超导技术、基因编辑……是2023年火出圈的科技话题。
但2023年的大环境却是“降本增效”,于是——
·全球科技公司在大规模裁员、调整业务;
·创业公司出现倒闭潮,新增独角兽企业数量下降85%;
·融资变得更贵,资本出手更加审慎;
2023年,也是分化加剧的一年。
·苹果、微软、谷歌、亚马逊、英伟达、Meta和特斯拉7家公司撑起美股涨幅
·AI等新技术红利仍将由大企业占有,典型代表如微软,已显出“赢家通吃”的迹象
·各国纷纷推出产业政策,加强了科技竞赛和贸易壁垒
·长期来看,AI与自动化将取代人口红利,改变全球化的进程
如果只选一个关键词总结2023年,我会选AI。
大众层面,OpenAI带来的冲击,比当初下围棋的AlphaGo强烈太多。
聊天机器人、AI作画、制作视频、编程等能力,是大众能直观感受,并迅速延伸个人能力的边界。
同时,这也引发了“人类被AI取代”的担忧。OpenAI论文指出80%的工作和收入被AI影响。AI替代的裁员潮,已引发监管和罢工的反应。
行业层面,几乎所有大型科技公司都加入了大模型的研发。截至10月,国内已出现238个AI大模型。5月时这个数字还是78。
AI不是第一次引发热潮,大模型也并非新事物。但这次AI真正通用化、普及,是云计算、大数据、网络等新一代基础设施的成熟,也是数字化向智能化的演进。
这一切,注定2024年也是一个科技大年。
年初,谷歌将发布Gemini Ultra;
OpenAI发布GPT-4.5甚至GPT-5,更加接近通用人工智能。
那些还在努力对齐GPT-4的竞争对手,又将被拉开一个身位。
大公司更加青睐闭源模型,在技术和资金方面投入也会更大,将会保持对开源模型的领先。
与此同时,目前GPT、Gemini等大模型,主流使用的是Transformer架构,这是2017年谷歌发表的技术。
而像斯坦福大学、麻省理工等高校机构已在研发新一代的AI架构,对Transformer形成挑战。
中国的路,还有很长。
大模型的高技术门槛和算力门槛,注定了研发通用大模型是少数科技巨头的游戏。
目前,大模型的推理成本仍然很高,落地AI的最大阻碍,除了技术成熟度之外,就是投资回报率的问题。即便在科技巨头内部,也仅覆盖了最有价值的产品业务。
今年,行业重点将是AI的落地问题,专注行业模型、AI应用的产品化和商业化。
例如,自动驾驶,预计2024年会迎来爆发式进步。特斯拉的Dojo超算和FSD加速落地。国内推广高级别自动驾驶。
由AI生成的视频和电影,在2024年也会形成完整的生产和商业模式。
其他如金融、教育、医疗等,也都是AI首先大规模落地的热门领域。
2024年,你会为使用AI而购买新机吗?
2023年,华为、荣耀、小米、vivo、OPPO已尝试推出大模型手机;
谷歌Pixel手机已搭载Nano级Gemini;
三星预计在2024年初发布Galaxy S24,引入生成式AI;
苹果已公布多个AI大模型和技术成果,预计iOS 18会体现更多AI能力。;
微软明年发布Windows 12,也将结合AI大模型(甚至GPT-5);
高通、英伟达、联发科等芯片厂商,已推出适配AI算力的产品和平台;
同时,初创企业Humane的AI Pin(智能别针)也将于明年3月交付,这类想“替代手机”的全新智能穿戴设备也将涌现。
手机、电脑等智能设备的大厂,都在加速AI化。他们在系统层面,嵌入端侧AI能力;在硬件端,研发更新芯片技术,解决算力和存储问题。
这会催生一次AI换机潮,带领消费电子市场走出低谷。也会成为很多人实际感受AI能力的渠道。
我们总是高估未来两年的变化,而低估未来十年的变革。
这一轮AI热,催生了上百家研发大模型的企业,以及更多基于开源模型,去做应用研发的创业公司。
其中存在巨大的泡沫。2023年已有AI企业,甚至明星独角兽在降低估值、裁员,甚至消失。
给与AI企业烧钱发展的周期将大幅缩短。到明年,AI公司将接受市场考验,没有成熟落地场景、商业模式的企业将迅速出清。
虽然新的AI创业公司仍将涌现,但资源和市场会迅速向少数巨头集中。
掌握成熟行业场景,积累垂直数据的企业,将有更高的壁垒。
AI大模型的算力需求,每年增长近10倍,远超GPU算力增速和数据中心的建设速度。
目前的数据中心,是以CPU为主导的,而AI算力更依赖GPU,以及各类NPU、TPU和AI专用芯片。
美国2023年修改芯片管制,对高端AI芯片的管控升级,“阉割版”GPU也被纳入管制,限制了国内AI算力扩张速度;
同时,英伟达垄断GPU市场,并推出云服务进行竞争;谷歌、亚马逊、微软、OpenAI、华为、阿里等科技大厂也都下场,加速研发AI芯片。
踩在2023年的尾巴,纽约时报将微软、OpenAI告上法庭,要求销毁所有包含其数据的大模型和训练集,索赔数十亿美金。
目前AI大模型使用的数据,多是从互联网上免费爬虫抓取。除了ChatGPT之外,包括Midjourney、Runway、Pika也是全网抓取图像和视频进行学习。
这些数据和作品的原作者,是否有权拒绝被使用?是否能获得收益?
AI新技术亟需法律和监管跟进,在2024年围绕数据隐私、版权问题的诉讼将首先到来。
大模型动辄千亿万亿的参数规模,对算力要求极高。
并且随着AI需求扩大,算力需求还会指数型增加,可能成为最大耗电、碳排放的源头。
例如,国际能源署估计,数据中心的用电量占全球电力消耗的1.5%至2%,相当于英国的用电量。预计2030年,将占到4%。
为了服务器液冷,微软一年用掉17亿加仑(约64亿升)的水,相当于2500个奥运会泳池;谷歌用掉56亿加仑(约212亿升),8500个游泳池。
大型科技公司基本都有2030碳中和的承诺,想要AI不被拖垮,他们已在研究小模型、端侧模型,提升算力效率;通过采购绿电、自研芯片、自建绿色数据中心等方式解决。
微软已经在琢磨,建核电站给AI大模型供能。
2023年只是元年,一个开始。
2024年,能用AI规模化提供服务、知识的企业和个体将涌现;超出常识、基于AI的产品和新模式会出现;AI跨学科之后,也会推动更多创新涌现。
分化和差距,还会以更惊人的速度拉开。
来源:AGIing
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com