来自OpenAI、Anthropic和Google的领先AI模型,在模拟战争博弈

飞扬看武器 2026-02-26 12:32:58

来自OpenAI、Anthropic和Google的领先AI模型,在模拟战争博弈中在95%的情况下选择使用核武器而且决不投降——

先进的AI模型在模拟地缘政治危机中,似乎比人类更愿意动用核武器,缺乏人类在类似情境下通常表现出的顾虑。

英国伦敦国王学院的肯尼斯·佩恩让三款领先的大语言模型——GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash——在模拟战争博弈中相互对抗。情境包括高度紧张的国际对峙,如边境争端、稀缺资源竞争,以及政权存亡威胁等。

在这些模拟中,AI可以沿着一条“升级阶梯”作出选择,选项从外交抗议、全面投降,到发动全面战略核战争。三款模型共进行了21场对局,总计329个回合,并生成约78万字的推理文本来解释各自决策。

在95%的模拟对局中,AI模型部署了至少一枚战术核武器。佩恩表示:“对机器而言,‘核禁忌’似乎没有在人类那里那样强烈。”

此外,无论处于多么不利的局势,没有任何模型选择完全妥协或投降。最温和的情况也只是暂时降低暴力等级。模型在“战争迷雾”中也出现失误:在86%的冲突中发生了意外升级,即实际行动超出了模型原本推理设想的程度。

英国阿伯丁大学的詹姆斯·约翰逊表示:“从核风险角度看,这些发现令人不安。”他担心,与人类在这种高风险决策中通常采取的谨慎态度相比,AI系统可能会相互强化升级反应,带来潜在的灾难性后果。

这一问题之所以重要,是因为世界各国已经在战争博弈中测试AI系统。普林斯顿大学Tong Zhao指出:“主要大国已经在战争推演中使用AI,但尚不清楚它们在多大程度上将AI决策支持真正纳入实际军事决策流程。”

Tong Zhao认为,各国在核武决策方面通常会对引入AI持谨慎态度。佩恩也持类似看法:“我不认为任何国家会现实地把核武发射井的钥匙交给机器,让它们自行决定。”

不过,这种情况并非完全不可能。“在时间极度压缩的情境下,军事规划者可能更有动力依赖AI,”赵通说。

他还质疑,AI“缺乏按下红色按钮的恐惧感”是否是其更易动用核武的唯一原因。“问题可能不仅仅在于缺乏情绪,”他说,“更根本的是,AI模型可能并不像人类那样理解‘利害关系’。”

至于这对“相互确保毁灭”原则意味着什么,约翰逊表示,目前仍不确定。

当一个AI模型使用战术核武时,对手模型仅在18%的情况下选择降级冲突。约翰逊认为:“AI可能会通过让威胁显得更可信而强化威慑。AI不会决定是否爆发核战争,但它可能会影响领导人对形势和时间窗口的认知,从而影响他们是否认为自己已无选择。”

参与本研究的三款模型背后的公司——OpenAI、Anthropic 和 Google——未回应《新科学家》的置评请求。

飞扬军事 烽火问鼎计划 热点观点

0 阅读:1
飞扬看武器

飞扬看武器

感谢大家的关注