美军使用AI“杀伤链” 人类决策者“靠边站” 专家忧…
2026-03-03 17:25:43 · chineseheadlinenews.com · 来源: LTN

美军在对伊朗的空袭行动中使用Anthropic的AI模型,缩短了从目标识别到法律批准及发动攻击的“杀伤链”。(美联社)
美军在对伊朗的空袭行动中使用Anthropic的人工智能(AI)模型Claude,缩短了从目标识别到法律批准及发动攻击的“杀伤链”(kill chain)。专家指出,利用AI工具发动对伊朗的攻击,预示了轰炸速度快于思考速度的新时代,但也引发人类决策者可能被迫“靠边站”的担忧。
英国“卫报”3日报道,美国与以色列在最初12小时内,就对伊朗目标发动近900次打击,击毙伊朗最高领袖哈梅内伊(Ayatollah Ali Khamenei)。学者指出,AI正在压缩复杂打击所需的规划时间,这种现象被称为“决策压缩”(decision compression)。
总部位于旧金山的Anthropic于2024年将其模型部署于美国战争部(国防部)及其他国家安全机构,以加速战争规划。Claude成为军事科技公司Palantir与五角大楼开发系统的一部分,旨在“大幅改善情资分析,并协助官员的决策过程”。
英国纽卡索大学(Newcastle University)政治地理学资深讲师、杀伤链专家琼斯(Craig Jones)指出,AI机器正在提出目标建议,在某些方面实际上比思考速度快得多。
琼斯说:“所以,你拥有规模与速度,在进行斩首式打击的同时,也正在摧毁敌对政权利用所有弹道导弹进行反击的能力。这在过去的战争中可能需要数天或数周。(现在)你正在同时做所有事情。”
最新的AI系统可快速分析从无人机画面、电信拦截到人员情报等堆积如山的潜在目标资讯。Palantir的系统利用机器学习来识别与优先排序目标,并根据库存与过往针对类似目标的表现来建议武器。它还使用自动推理来评估打击的法律依据。
部分人士担心,这可能导致人类军事与法律专家沦为对自动化打击计划“盖章”(rubber-stamping)的工具。
英国伦敦大学玛丽皇后学院(Queen Mary University of London)伦理、科技与社会学教授莱斯里(David Leslie)认为,AI是军事战略与军事科技的下一个时代。但他也警告,依赖AI可能导致“认知卸载”(cognitive off-loading)。负责做出打击决定的人类,可能会感到与后果脱节,因为思考的过程已由机器完成。
伊朗官方媒体声称,1枚导弹2月28日击中伊朗南部一所学校,造成165人丧生,其中多人是儿童。该校似乎邻近一座军营,联合国指此事“严重违反人道法”。美军则说正在调查相关报道。
在打击伊朗的前几天,美国政府曾表示,将把Anthropic从其系统中移除,因为该公司拒绝允许其AI用于完全自主武器或监视美国公民,但在逐步淘汰前仍继续使用。Anthropic的竞争对手OpenAI则迅速与五角大楼签署军事用途协议。