文章转载来源: Anita
作者:Anita,Sentient亚太区高管
伊朗战争,把大模型从实验室一次性扔进了战场。
2026 年 2 月底的“Epic Fury”行动,不只是一次联合空袭,更像是一场在真实战区上进行的 AI 压力测试,谁能在分钟级甚至秒级压缩“传感器—决策—射手”的链路,谁就握住了下一轮地缘政治的定价权。

在这次行动中,美以官方消息人士声称,针对伊朗关键军事与核设施的集中打击“取得了战略成功”,并多次暗示伊朗最高领袖哈梅内伊极有可能在德黑兰北部的地下指挥设施中遇袭身亡——但伊朗方面长期拒绝给出清晰的生死确认,让这桩“斩首”更像是一场围绕权威叙事的博弈。
从操作层面看,Epic Fury 的特点不是时间拉得多长,而是密度:十余天内的高强度空袭、无人机蜂群突防、特种行动与网络战穿插推进,背后是一套高度软件化的作战栈——Palantir 的战场本体论与数字孪生平台、美国防务机构的情报融合系统、以色列的自动化目标生成工具,再叠加 OpenAI 等前沿大模型企业的新角色。

这场战争标记的,是一个象征意义上的转折点:从这里开始,“AI 参与军事决策”不再是五角大楼 PowerPoint 里的 buzzword,而是市场、监管与道德辩论都绕不开的、实实在在的现金流与政治风险来源。
短短两三年时间,OpenAI 的公开立场完成了一次华丽转身。
从对“军事用途”保持距离,到承认可以在满足安全原则的前提下支持国家安全与防务项目,并拿到了可能是本时代最敏感的一张大客户合同。
2026 年 2 月 27 日前后,Sam Altman 宣布公司与美国国防部达成协议,在机密网络上部署 GPT 系列模型,用于情报分析、翻译、作战推演等“防务相关场景”。 在部分公开材料与媒体报道中,这个传统意义上的国防部被刻意称作“Department of War”,象征性地回到了更具进攻意味的战争语言,尽管在法律上机构名称仍然是 Department of Defense。
公开报道梳理出的“红线”大致有三条:
不参与美国境内的大规模监控;
不直接驱动完全自主的致命武器系统,武力使用必须保持“人类在环”;
在高风险决策中保留人为监督与责任归属。
这些原则既是 OpenAI 对外的伦理姿态,也是合同谈判中的议价筹码——它向华盛顿传递的信号是:这家公司愿意合作,但希望在“可控范围内合作”。nytimes+1
这些模型在 Epic Fury 这样的实战中扮演了什么角色?公开信息只会停留在安全的描述——辅助情报处理、分析复杂数据、帮助决策者更快地形成态势图景。
但从技术特性来看,把海量卫星图像、信号情报与社交媒体流喂给大型模型,再让它对潜在“高价值目标”进行排序、路径预测和风险评估,本质已经非常接近“战场大脑”。
对华尔街来说,这份协议的意义很直接。
在 Anthropic 因为坚持更硬的红线而被五角大楼打上“供应链风险”标签之后,OpenAI 以一种“伦理上有限妥协、商业上极大获利”的姿态,接住了这张数亿美元量级、且极难被竞争对手撼动的国防大单。
与 OpenAI 的“务实”形成鲜明对比的,是 Anthropic 的处境:它原本也是五角大楼眼中最有价值的前沿模型供应商之一,却因为在红线上拒绝退步,被整套体系以极其粗暴的方式排除在外。
多家媒体报道,在与国防部的谈判中,Anthropic 对两点态度强硬:
Claude 不参与完全自主武器系统;
Claude 不参与针对美国公民的大规模监控与画像。
而五角大楼的诉求则更接近“任何合法用途都不应被模型供应商预先划线”。
谈判破裂后,国防部长 Pete Hegseth 在最后期限后宣布将 Anthropic 列为国家安全“供应链风险”,并要求所有与军方有业务往来的承包商在六个月内完成从 Claude 的迁移——这种标签此前主要用在来自对手国家的公司身上,比如华为,如今首次落在美国本土的 AI 创业公司头上,在硅谷引发了一轮“寒蝉效应”的讨论。
Pentagon 内部评估显示,完全替换已嵌入机密系统的大模型堆栈可能需要数月时间,这意味着禁令生效与 Epic Fury 的时间窗口高度重叠。
从技术现实推演,Claude 很可能在被行政命令“扫地出门”之前,仍以某种形式参与了美国的国家安全工作,只是没有任何人愿意在听证会上把这条链路讲清楚,这也是现代军工–科技复合体典型的“灰色带”。
资本市场读到的是一个简单却危险的教训,当“安全红线”与“最大化国防订单”发生冲突时,那家更愿意谈判的公司,往往也是更安全的投资标的;而坚持原则的企业,可能会在一夜之间被打上“供应链风险”的烙印,被投资人按下“重新估值”的按钮。
如果说 OpenAI 和 Anthropic 是战争里的“头脑”,那么 Microsoft 和 Google 才是这套体系真正的中枢神经:
没有它们的云,所有大模型与本土 AI 工具都只能停留在 PowerPoint 上。
AP 和多家机构调查显示,自 2023 年 10 月以来,以色列军队在 Azure 上使用机器学习工具的规模在数月内激增至此前的几十倍,最高可达 64 倍,整体 AI 功能调用接近 200 倍。
同时,大规模数据存储也达到了相当于国会图书馆级别的数量级。
这些算力被用于转录和翻译大量通信、处理来自监控基础设施的信号情报,并与以色列本土的 AI 系统(例如 Lavender 与 Gospel)联动,自动生成目标列表和风险评估,显著提高了“目标生产线”的吞吐量。
虽然微软后来在舆论与员工压力下削减了对部分以军单位(尤其是监控相关部门)的服务,但主干的云与 AI 合同仍在运行,这让公司在商业上收获了大额订单,同时在声誉层面付出了不小的代价。
2021 年开始,Google 与 Amazon 通过 Project Nimbus 为以色列政府和军队提供价值约 12 亿美元的统一云基础设施,涵盖计算、存储与机器学习工具。 员工、学者与人权组织则持续警告:
Nimbus 的通用云与 AI 能力极易被用于监控和军事目标选择,尽管 Google 官方一再强调合同“不包括进攻性军事用途”。
到了 Epic Fury 这一阶段,外界普遍认为 Nimbus 类型的云平台是支持以军复杂目标规划、战场仿真与实时情报融合的关键算力底座,只是具体调用路径和战例细节仍处于保密状态。
从风险视角看,这意味着 Google 正在以“略高的政治风险溢价”换取来自中东安全客户的稳定收入,而公司内部围绕该项目的抗议和辞职潮,则在提醒投资者:这不是一笔可以简单视作普通企业云合同的业务。
如果想理解 AI 如何改变战场,人们不妨从一套最具争议的以色列系统说起:Lavender、Gospel 和 Where’s Daddy。

+972 Magazine 与 Local Call 的调查显示:
“Lavender” 通过对加沙几乎所有成年男性进行行为与关系图谱分析,为每个人打出 1–100 的“疑似武装分子评分”,在短时间内标记出多达 3.7 万名被怀疑为武装组织成员的目标;
“Gospel” 则专注于建筑与基础设施,自动标记被认为用于军事目的的楼宇,形成可供空军批量消耗的轰炸清单;
“Where’s Daddy” 负责时间维度的优化:追踪已列入清单目标何时回到家中,并在其与家人一同在住所时触发打击——这极大提高了“成功击杀”的概率,同时也将家庭成员与邻居置于高度致命的风险之中。
前线以军情报官员在受访时承认,对 Lavender 推荐的目标,人类审核往往只是几十秒的“形式主义打勾”;
而人权组织与联合国专家则将这套体系形容为“高度自动化的大规模暗杀工厂”,指出它在放大算法偏见、压缩人类判断空间、推高平民伤亡风险方面的结构性问题。
需要强调的是,公开报道更明确地将这套系统与加沙战争关联起来,而对于其在伊朗战场的具体应用,官方长期保持沉默。
但从技术可移植性看,只要掌握伊朗境内足够规模的通信数据、位置轨迹与社交图谱,把 Lavender 逻辑“翻译”到德黑兰权力精英身上,并不是一件难以想象的事情——这也是为什么许多分析人士认为,Epic Fury 更像是“加沙式算法杀伤工厂”向一个主权国家首都的外溢实验。
把这些碎片拼在一起,你会得到一幅很不“硅谷”的图景:
一端,是以 OpenAI 为代表、愿意在红线上做出有限妥协的大模型公司,在国防预算中迅速站稳脚跟;reuters+2
另一端,是坚持更严格安全原则的 Anthropic,被国防部长以“供应链风险”之名一脚踢出局,给整个行业上了一课“不要和唯一买家硬碰”的现实课;axios+5
底层,则是 Microsoft 与 Google 这样的云巨头,用 GPU 集群与机密云网络搭建起现代战争的“操作系统”,承接了绝大多数来自战时 AI 的现金流,同时承担着越来越高的声誉与监管风险。
从资产定价的角度看,这不再只是“科技股 vs 国防股”的二元对立,而是一种新的 AI–Cloud–Defense 复合体:
战术上,低成本无人机群、自动化目标生产与 AI 决策系统正在侵蚀传统大国威慑,让昂贵的第五代战机和航母战斗群显得像上一代资本密集资产;
产业上,大模型与云厂商通过军方获得了极少数玩家才能享有的逆周期现金流,并以“安全与机密”为理由,进入了一个监管难以完全透明的利润黑箱;
政治上,当“谁更配合国家安全议程”成为获得关键合同的决定性变量时,企业对伦理红线的坚持会被系统性打折,而这类激励结构会被未来所有创业者与投资人默默记在心里。
伊朗战场可能只是序章。无论下一次爆发在台海、东欧,还是在中东的另一块地板砖上,真正决定战争节奏的,不再只是坦克数量和火炮口径,而是训练于多少 PB 机密数据之上的模型、连接在多少 GPU 机架上的云。
问题是,在我们把越来越多的杀伤链路外包给少数几家大模型与云公司之前,全球监管与民主政治,是否还有时间认真回答一个问题——当算法的建议在实战中变成一串爆炸坐标时,到底谁来为这些决策负责。
来源:Anita
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com