当AI学会了扣动扳机,这个世界准备好了吗?
2026-03-05 10:26:30 · chineseheadlinenews.com · 来源: 冰川思想库
美伊冲突不断升级,中东地区再次成为全球瞩目的焦点。美国总统川普誓言在伊朗问题上将“不惜代价”,不料后院突然起火。
就在美国对伊朗发动袭击的前一天,美国国防部与知名AI初创公司Anthropic的合作正式破裂。随后,川普将Anthropic列为“国家安全供应链风险”,全面封杀其在联邦政府及军方的应用。
Anthropic的Claude大模型是此前唯一能在五角大楼机密云环境中运行的AI系统,曾被用于支持美国在委内瑞拉的行动。这次双方撕破脸皮,是因为美国军方提出,涉密环境下,AI模型应当可用于“所有合法用途”,不得受“政策约束”而限制其在军事领域的应用空间。
然而,Anthropic始终坚持两条红线:不得用于“对美国人进行大规模监控”,不得用于“完全自主武器”。
由此,Anthropic成为第一家被列入“国家安全供应链风险”管制的美国公司。美国政府正在向硅谷科技公司释放明确信号,与政府合作只能无条件服从,否则就要面临被行政手段打压的重大风险。
01
川普政府对于AI行业的监管要求,正在由此前拜登政府的“安全第一”全面转向“主导地位第一”。
2025年1月23日,川普就曾签署《消除美国AI领导力障碍》行政令,核心恰恰在于放松监管,促进AI创新。行政令由美国总统单方面签署,本身不是法律,却也能够通过指导联邦机构产生广泛的实际影响,所有联邦机构都必须审查并废除与此新政策不符的规定。
事实上,在现代战争中,AI技术加持下的杀伤性武器已得到使用。
2月28日,美以袭击伊朗的“史诗怒火行动”中,首次在实战中使用了自杀式无人机LUCAS。这种无人机具备AI自主飞行控制、GPS信号失效时自行导航,以及蜂群协同能力。相比于造价昂贵的战斧导弹,LUCAS单价在1万美元至5.5万美元之间,不到战斧导弹的五十分之一。
现阶段LUCAS在执行目标打击时,会将AI筛选后的高价值目标画面实时传输到后方的控制终端,最终由人类决定是否进行攻击。在AI辅助进行目标识别后,操作员的识别效率得到了极大地提升。
机器永不疲劳,在面对大量数据处理时,决策响应速度远超人类生理极限。仅从执行效率的角度来看,完全由AI操控的无人机无疑是更高效的选择。
只是,现阶段AI技术存在许多明显漏洞,一旦完全由AI自主控制的武器系统出现判断失误,对错误的目标进行打击,后果不堪设想。
Anthropic作为全球头部AI企业,对AI技术的局限性比美国军方应有更深刻的认识。因此,哪怕与五角大楼翻脸,Anthropic也要坚持为AI在军事领域的应用划定红线。
02
Anthropic固然是全球AI行业内的领军人物,可对于美国军方来说也不过是优选项,并非必选项。美国其他AI企业在面对美国军方压力时,立场则显得更为灵活。
五角大楼本次计划分别和Anthropic以及马斯克旗下的xAI展开合作,在前者还在因为AI的适用范围与美国军方争的面红耳赤时,后者已经全盘接受了五角大楼的协议,让Grok按“所有合法用途”进入涉密体系。
xAI旗下的Grok大模型自诞生之初就走上了一条饱受争议的差异化竞争路线,在技术层面致力于精简传统的安全护栏,让模型更加敢于回答用户的敏感话题。各家AI大模型时至今日还都对色情内容严加限制,xAI却早就大胆上线伴侣模式,以虚拟女友的数字人身份与用户畅聊擦边内容。
在第三方机构SaferAI的评级中,xAI在5分制的综合安全评估中仅获得0.8分,安全风险评级被划为“非常弱”等级。
xAI本身的安全限制相对宽松,近期又被整合进SpaceX准备上市。在这个关键节点,选择对五角大楼高度配合完全符合商业逻辑。
在全球AI大模型性能的排行榜上,Grok处于偏后的位置。而常年霸榜的AI领先企业OpenAI,对于如何与美国军方合作,此刻正在百般纠结当中。
五角大楼与Anthropic的谈判破裂后,OpenAI的CEO山姆·奥尔特曼很快在社交媒体上表示,已经与美国国防部达成协议,将替补Anthropic的位置。OpenAI宣称,该协议拥有“迄今任何机密AI部署协议中最严格的护栏,包括优于Anthropic的条款”。
在OpenAI披露的与美国军方签订的合同中,OpenAI也和Anthropic类似,为AI的使用划定了红线,却如美军所愿保留了“在符合适用法律”下使用AI的权利。奥尔特曼随后对OpenAI的员工表示,公司无权决定美国国防部如何使用其 AI软件。
事实上,即便OpenAI与Anthropic站在同一阵营,也无力阻止另一家与美国军方交往甚密的AI巨头——Palantir为五角大楼提供AI技术支持。
成立于2003年的Palantir,原本就是一家服务于美国政府和国防部门的数据分析平台,早期还获得了美国中央情报局(CIA)旗下的风投机构注资。这样一家公司,毫无疑问会坚定地与美国军方意愿同向而行。
Palantir的CEO亚历克斯·卡普对AI操控的武器持开放态度,他曾公开表示:“对AI进一步发展的担忧并非毫无道理。我们正在开发的软件可以用于部署致命武器。武器系统与日益自主的AI软件的整合必然会带来风险,但停止开发这些技术的建议是错误的。”
03
OpenAI与五角大楼合作后,ChatGPT美国移动端卸载量较前一天增加295%,一星评分暴增775%。美国社交媒体中掀起了退订ChatGPT转而购买Claude会员的浪潮。
人们在Anthropic旧金山办公楼街道上,用粉笔涂鸦画满爱心,有人直接写下“感谢不造天网”的标语。
迫于舆论压力,奥尔特曼不得不在内部会议上承认,与五角大楼仓促签约显得有些机会主义且草率。同时,他也表示:“这是一个复杂但正确的决定。”
Anthropic拒绝与五角大楼合作,损失的并非仅仅是这2亿美元的国防合同,还可能就此被排除在所有政府采购合同之外。在商业前景与道德抉择面前,Anthropic与OpenAI就此分道扬镳。
OpenAI早年曾将“安全”列为公司核心价值之一,现在这个词早已从使命声明中被悄然抹去,“始终以人类利益为出发点行事”的口号显得无比讽刺。
AI技术代表着先进生产力的发展方向,人类文明正在由信息时代迈向AI时代。历史车轮滚滚向前,只是人类自己也看不清前路在哪里。就连掌握着AI核心技术的硅谷科技公司们,也无力完全把控技术的应用方向。
物理学家尼尔斯·玻尔在曾对原子弹之父奥本海默说:“你赋予了人类自我毁灭的力量,而这个世界却毫无准备。”
内燃机被发明的那一天,坦克的诞生就只是时间问题。无人机LUCAS划过天空,AI军事化的进程已经势不可当。
街道上的粉笔涂鸦终会被雨水和脚步抹去,社交媒体上抵制OpenAI的声浪也很快会被新的热点取代。只是谁也不知道,当AI学会扣动扳机,这个世界最终会被带往何方。