人类首次AI战争:斩首行动与小学被炸
2026年2月28日凌晨,美以联军对伊朗发动了代号"史诗之怒"(Operation Epic Fury)的大规模联合打击行动。在最初的12小时内,美以联军对伊朗境内超过900个目标实施打击,规模几乎是2003年美军入侵伊拉克"震慑行动"的两倍。
这场战争中最具标志性的事件,是对伊朗最高领袖的"斩首"。这是一次发生在白昼的“明目张胆”式打击,由以色列国防军实施,美国情报支援。这套针对伊朗领导层的精准定位系统花费了逾十年时间建立,依赖一支包含技术专家、数据分析师和工程师在内的团队来验证这个打击目标的“推荐系统”。情报工作的惊人细节逐渐浮出水面——以色列利用黑入的德黑兰交通摄像头网络,结合美国情报资产,锁定了哈梅内伊在其官邸内的精确位置。以色列国防军宣称此次打击消灭了伊朗最高领袖和近50名高级指挥官。
然而,就在华盛顿和特拉维夫庆祝"情报成功"的同时,也传来了悲剧的消息。在伊朗南部靠近霍尔木兹海峡的城市米纳布,一所女子小学惨遭到打击,伊朗国家媒体报道称有148人遇难,其中包括数十名女学生,现场画面显示一排排小小的裹尸袋被摆放在受损建筑外。美国中央司令部随后表示正在对可能造成平民伤亡的事件展开调查。AI在这次具体打击中究竟扮演了何种角色,成为关注的焦点之一。
这个令人心碎的对比,正是AI军事化时代最核心的张力所在:算法赋予了战争前所未有的精准性,却同时造就了人类难以预料的灾难性误差。

(德黑兰一处IRGC情报机构遭到夷平。来源:Institute for the Study of War)
Palantir与AI如何重构"杀伤链"
要理解AI在这场战争中的具体运作,需要了解一个关键概念"杀伤链"(kill chain),即从发现目标到完成打击之间的一整套决策流程。
美军使用的是由Palantir公司研发的"Maven智能系统",这一数字任务控制平台能够接入超过150个不同数据源,识别并优先排列潜在打击目标。
这套系统的能力远超传统的情报分析工具。AI算法能够同时处理海量数据,涵盖卫星图像、雷达信号、电磁波、声音、无人机画面乃至实时视频,极大压缩了信息处理时间。
更关键的是,Anthropic公司的Claude模型被整合进了这套作战架构,已成为美军针对伊朗作战行动及推进Maven AI能力的核心工具之一。
在伊朗战事中,这套AI系统的作用已被中央司令部发言人公开承认,主要体现在对海量传入数据进行初步筛选,从而让人类分析师能够专注于更高层次的分析与核验工作。
这套系统还在更早的一次行动中得到验证。在2026年初美军捕获委内瑞拉总统马杜罗的行动中,通过Palantir部署的Claude提供了情报分析和目标定位支持。当时Claude是整个五角大楼保密网络中运行的唯一AI大语言模型。
然而,批评者的警告愈发响亮。Stop Killer Robots等由270个人权组织组成的联盟认为,AI赋能的决策支持系统已将"建议打击"和"执行打击"之间的界限压缩至"危险的极细程度",存在引入"自动化偏差"的风险——即人类操作者过度信任机器输出的倾向。
AI First:美军的战略转型
AI在伊朗战场上的表现,是美军数年来系统性战略转型的具体呈现。
2026年1月9日,美国国防部发布了两份关键备忘录:一份是《战争部人工智能战略》,明确了可量化的进程,设定项目和数据访问授权;另一份则是《转型国防创新生态系统以加速作战优势》。这标志着五角大楼正式以"AI优先"作为全军转型的核心战略。
这一战略的加速努力聚焦于三大任务领域:作战、情报和企业运营,并将通过七个"步伐设定项目"来驱动执行。例如,作战领域包括:
Swarm Forge(蜂群锻造):将精英作战单位与顶尖技术创新者对接,快速测试和规模化AI赋能战术。
Agent Network(智能体网络):开发AI智能体,支持指挥官进行战场管理、规划和实时决策,从战役规划延伸至"杀伤链"全程。
Ender's Foundry:聚焦AI驱动的模拟对抗与战争推演。
Open Arsenal(开放武器库):在情报领域,目标是将从情报发现到可部署能力的时间从"数年"压缩至"数小时"。
Project Grant(格兰特项目):通过AI支持的实时数据信号,让威慑更加动态化。
五角大楼的文件明确指出:"2026年将是美军军事AI主导地位大幅提升的一年。"此外,美军还大力推进GenAI.mil平台,使每一位军事人员和国防部文职雇员都能访问生成式AI工具。
战争部将应用人工智能、生物制造、对抗环境中的后勤技术、量子与战场信息主导权、规模化定向能源和规模化高超音速武器列为六大关键技术领域,并通过快速"冲刺"推进原型到量产的转化。
美军AI项目全景:从情报到后勤
美军在AI领域的投入已经覆盖战争全链条,形成了系统性应用格局。包括以下主要项目:
Maven智能系统(Maven Smart System):由Palantir公司为美国中央情报局和军方研发,最初源自2017年的"Project Maven"计划(此后Google因内部员工抗议而退出)。现在已演化为接入150余个数据源、集目标识别、情报融合和任务指挥于一体的综合平台,在伊朗战役中直接参与了目标选择和打击协调。
GenAI.mil:五角大楼推出的企业级生成式AI平台,目前已整合xAI公司的Grok模型,允许在处理敏感受控信息的保密等级下运行。此前还整合了Claude,直至Anthropic被列入供应链风险名单。
CDAO AI快速能力单元(AI Rapid Capabilities Cell):由首席数字和人工智能办公室设立,专门加速先进AI能力在整个国防部的落地部署。
TurbineOne边缘AI:陆军斥资9890万美元与TurbineOne签约,帮助士兵在无可靠云端连接的条件下,于设备本地处理战场数据,实现即便在强电磁干扰环境中也能快速识别威胁和辅助决策。
Replicator无人机项目:旨在快速大批量生产低成本AI自主无人系统,以形成非对称数量优势,并为未来与中国的潜在冲突做准备。
Thunderforge(霹雳锻造):这一专注于AI军事规划和行动的智能体开发计划,将Scale AI和Anduril纳入合作伙伴,探索AI在作战规划和实时决策中的应用。
NIPRGPT和保密级AI:空军原有的生成式AI聊天机器人NIPRGPT于2025年底关闭,被新的GenAI.mil系统取代,后者能够在更高保密等级上运行。
Ender's Foundry战争推演:利用AI进行大规模战争模拟,在真实冲突爆发前测试各类战略战术选项,并对抗手的可能反应进行建模。
这一全景显示,美军已从"AI辅助"转向"AI整合"——AI不再是可选工具,而是战争决策链条上不可缺少的基础设施。
五角大楼将Anthropic列为"供应链风险",这是巧合吗
在伊朗战事硝烟升起的同时,另一场没有炮声的战争也在华盛顿和硅谷之间激烈展开。
Anthropic拒绝了五角大楼的要求,不同意"任何合法目的"这一宽泛授权条款,因为它认为这不符合其关于大规模监控和自主武器的底线原则。五角大楼随即将Anthropic列为供应链风险。
这一决定的时间节点耐人寻味——恰好发生在美伊战争打响的同一天,即2月28日。这究竟是巧合,还是有意为之的战略部署?
答案很可能是两者兼有。从一方面看,五角大楼与Anthropic的谈判已拖延数周,双方的核心分歧早已清晰:国防部要求"一切合法用途"的全面授权,而Anthropic坚守两条红线:禁止将Claude用于对美国公民的大规模监控,以及禁止其用于无需人类最终授权的全自主武器系统。
但另一方面,战时节点的选择显然不是偶然的。正当美军在伊朗战场最依赖AI情报能力之时,将Anthropic突然驱逐出保密网络,这本身就是一种压力测试,也是一个政治信号:在战争状态下,国家安全逻辑将凌驾于一切其他考量之上。
五角大楼内部官员私下承认Claude在其核心任务中表现优于竞争对手,替换它将是一项"庞大而困难"的工程。这恰恰解释了为何局面如此戏剧化:难道战争部会在战争进行期间,仓促将Claude替换为OpenAI的模型吗?AnthropicCEO阿莫迪(Dario Amodei)公开表示将在法律上挑战五角大楼。
为什么许多AI研究人员支持Anthropic
在这场争议中,硅谷内部出现了深刻的价值观分裂,而众多AI研究人员选择站在Anthropic一侧,这并非偶然。
Anthropic本身的起源就根植于对AI安全的深度关切,由一群前OpenAI研究人员于2021年创立,正是因为他们与OpenAI就公司发展方向产生分歧而出走的,他们将自己定位为"安全优先"。
OpenAI与五角大楼签约的消息宣布后,引发了远比预期更强烈的反应。在合同宣布之前,已有91名OpenAI员工签署了一封内部公开信,敦促公司领导层拒绝军事AI合同,警告此类合作可能无可挽回地损害公司的公众使命和道德立场。
OpenAI机器人部门负责人凯特林·卡林诺夫斯基宣布辞职,并在X上写道:"AI在国家安全中有重要角色。但在没有司法监督的情况下监视美国人,以及在没有人类授权的情况下实施致命自主行动——这些都是值得更多审慎权衡的底线,而不是应该被草率越过的。"
在市场层面,反应同样剧烈。数据显示,OpenAI合同宣布后的一天内,ChatGPT移动端应用的卸载量暴涨295%,而Anthropic的Claude则一跃登上美国苹果应用商店免费榜首位。这一市场信号清晰表明:有相当规模的用户群体愿意用"钱包投票",支持其认同的AI伦理立场。
分析人士警告,AI领域可能正在迎来持续性的"人才流失"。顶级AI研究员和工程师,尤其是在机器人和AI安全等敏感领域工作的人才,高度认同使命和伦理。Anthropic与OpenAI之间公开化的立场分裂,为这些人才提供了一个清晰的选择。
硅谷与战争部的AI军民融合
在主流上,整个硅谷已深度嵌入美国军事机器。传统上对国防合同保持距离的科技公司,如今几乎都在不同程度上参与其中。
Palantir:美国AI军事化最早的践行者之一。这家彼得·蒂尔(Peter Thiel)创办的数据分析公司,长期为美国情报界和军队提供数据融合和情报分析服务,Maven智能系统正是其代表作。Palantir已被纳入标普500指数,其与军方的深度绑定使其成为防务技术股的标杆。
微软:通过Azure政府云和JEDI云合同(后被取消,改为JWCC),深度介入五角大楼的数字基础设施建设。微软将OpenAI的GPT模型整合进其政府云服务,并向军方提供AI辅助网络安全能力。
亚马逊(AWS):美国情报界和军方最重要的云服务提供商之一,其C2S(商业云服务)合同长期为CIA和其他情报机构提供保密云计算服务。巴林和UAE数据中心在此次冲突中遭到伊朗攻击,恰恰证明了其在军事行动中的实际角色。
谷歌:尽管2018年因Project Maven引发内部抗议而未续约,Google此后又通过多个渠道重新参与国防工作,包括为国防部提供数字转型服务,以及旗下DeepMind在军事相关研究领域的潜在应用。
OpenAI:2025年6月签署了其有史以来第一份五角大楼合同,价值2亿美元。在Anthropic被踢出局后,OpenAI迅速填补了空缺,将其模型部署进五角大楼的保密网络,但其CEO奥特曼后来承认这一操作"看起来机会主义且草率",并随即修改合同以增加监控限制条款。
xAI(马斯克):在GenAI.mil平台上整合了Grok模型,并毫无条件地接受了五角大楼的"任何合法用途"条款,成为当前获得最广泛军事授权的前沿AI模型。
英伟达:作为AI芯片垄断者,英伟达的GPU是整个军事AI基础设施的物理基础。其H100和GB200系列芯片不仅驱动商业AI,也是军事AI系统的核心算力来源。
硅谷的战争创业者们
与此同时,硅谷内部正在崛起一批全然不同的"战争创业者",他们喊出自由与安全的口号,以为国开发武器为荣。
Anduril Industries:由Oculus VR创始人帕尔默·拉基创建,估值已达305亿美元,被视为新一代国防科技公司("neo-prime")的旗帜。其核心产品Lattice OS是一套将多种自主系统整合进统一战场网络的AI操作系统,并已开发出Roadrunner可重复使用拦截无人机、Barracuda巡航导弹等系列装备。在此次伊朗战事中,Anduril的系统性能得到了实战检验。
Shield AI:估值28亿美元的自主无人机公司,专注于开发能在无GPS、无通信条件下自主飞行作战的智能无人机。
Saronic Technologies:专注于无人水面舰艇的研发,估值已达40亿美元,代表着无人作战系统从空中向海洋的延伸。
Scale AI:已与国防部首席数字和人工智能办公室签署里程碑式合同,推进军用AI能力,还与Anduril共同参与Thunderforge项目,探索AI军事规划智能体。
Rebellion Defense:专注于AI驱动的战场软件,与多个军种合作开发作战决策支持系统。
TurbineOne:面向陆军士兵开发边缘AI工具,允许在网络中断的战场环境下进行本地数据处理。
Mach Industries:由22岁MIT辍学生伊桑·桑顿创立,专注于为现代战场设计自主无人机和火箭系统。
2025年,这一领域共融资创纪录的491亿美元,同比几乎翻倍。这些公司都在不同层面上为美以联军的伊朗行动提供了技术支撑——无论是目标识别、无人机拦截还是作战网络联通。随着战事持续,它们的实战价值正在被迅速验证,资本市场也可能进一步的追捧。
中东数据中心烽火
当美国三大云巨头在海湾地区大举布局数据中心时,没有人预料到它们会如此迅速地成为战争目标。
伊朗对美以联军的报复行动,将矛头直接指向了这些数字基础设施。亚马逊AWS宣布,其在阿联酋的两处数据中心遭到无人机直接打击,巴林的一处设施则因附近的无人机爆炸而遭受物理冲击,相关设施全部下线。
伊朗国家通讯社法尔斯通讯在Telegram上明确表示,此次打击亚马逊巴林数据中心,是"为了查明这些中心在支持敌方军事和情报活动中扮演的角色"。
这是首次针对美国超大规模云服务商基础设施的军事打击,数据中心开始受到重新审视,是否应当像军事资产一样受到保护。
打击的连锁效应迅速蔓延。阿联酋的多项数字服务出现中断,包括外卖打车平台Careem、支付公司Alaan和Hubpay,以及ADCB、阿联酋国家银行等银行业务,甚至企业软件平台Snowflake都受到波及。
与此同时,以色列和美国也对德黑兰的数据中心发动了打击——其中包括至少两处与伊朗革命卫队有关联的设施。这标志着一个新的战争逻辑:数字基础设施已从民用转变为战略目标。
分析人士警告,随着AI变得越来越重要,针对(数字基础设施的)物理攻击只会变得更加普遍。政府和企业将不得不将数据中心纳入国家安全规划框架,与能源设施、电信网络和交通枢纽并列。
这场冲突还深刻揭示了美国中东云扩张战略的地缘政治风险。OpenAI的星门项目正在与阿联酋G42合作在阿布扎比建设大型数据中心,在2025年末的阿布扎比国际石油展上,这一合作项目还作为AI基础设施战略而高调展示。如今,它的战略价值与安全脆弱性同时暴露在战争与冲突面前。
会有国际护栏吗
在AI军事化的趋势面前,国际社会的雷声不大,没有雨点。
联合国秘书长古特雷斯和红十字国际委员会主席已多次紧急呼吁,要求在2026年前谈判达成监管自主武器系统的国际规则。联合国大会第一委员会的行动力展现了全球共识的广度:2025年11月通过的关于致命自主武器系统的决议,获得了164票赞成,但美国、以色列和俄罗斯均投票反对。
这一投票结果本身,就是当前局势最有力的注脚:那些最积极研发和部署AI武器的国家,同时也是最坚决阻止国际监管的国家。
美国的立场一贯如此,在CCW(《特定常规武器公约》)框架内始终反对对自主武器系统实施预防性禁令,主张现有国际人道主义法足以约束其发展和使用。俄罗斯的立场如出一辙。中国作为AI大国,在这一问题上的立场,亦为国际社会所关注。
巴基斯坦国防部长在联合国安理会会议上表示,在最近的印巴冲突中,"自主弹药和高速双用途巡航导弹首次被一个核武器国家用于针对另一个核武器国家的军事行动,这充分体现了AI可能带来的危险"。
在私人技术公司的层面,Anthropic与五角大楼的博弈引发了一个根本性问题:如果缺乏具有强制力的法律约束,AI公司通过合同条款建立的"护栏"是否足够可靠?正如法律专家指出的,情报和国家安全机构历来会对合同条款做出极其宽泛的解读,远超普通人的预期。
当前,国际社会在AI军事化问题上面临的最核心困境在于:有能力制定有效规则的国家,正是那些最不愿意接受规则约束的国家。而与此同时,伊朗战场正在以实战速度演进,算法正在以人类治理难以追及的速度,将战争推向新的维度。