“全球战场上,谁才是真正扳下扳机的人?” 2026年春,美以联军对伊朗的“史诗狂怒”就像给这个问题上足了电。夜空下,无人机蜂群破云而下,炮弹精准顶着沙尘暴砸向目标。 你以为屏幕里至少有个人咬牙按下OK键?现实却更冷淡——绝大多数的杀伤判断,其实早已在AI算法的冷静扫视中,被毫不留情地下了结论,数据只用秒做单位。 AI彻底融入战争流程,可不是哪部爆米花大片的爽文设定。Claude Gov这类大模型落地到战场,优势一目了然:短短几秒,百万个目标扫描、优先级筛选,按下去的指令流畅得像军企流水线。 人类指挥官还没反应过来,摆在面前的建议基本都由算法“推荐”。其实,真正意义上的权力早已转移:哪怕最后有人拍板签字,“选择”也只是顺势而为,一层皮罢了。 打错目标、误炸平民,一旦追查责任,算法、军事单位、外包企业间只会踢皮球,“签字”者成了替罪羊。 越来越多环节的人工干预,正在剧烈收缩,数据概率推演取代了人性临门一脚。 美军在中东高调应用Lavender、人称“基数”的The Gospel和Where’s Daddy等AI战场系统,指哪打哪,动作简直像顶配电子游戏。 以色列更绝,把AI赋予导弹“破冰者”项目,不仅是锁定,更是将全流程自动化。 全球呼吁规则,却始终难以落地。中国态度鲜明,代表新兴大国主张,把人类裁决权守在杀伤链开关门口;联合国反复拉锯,结论仍不清晰。 实际操作层面,美以等依赖“自愿原则”,各搞各的“红线”,战场伦理沦为纸面文本。 AI取代传统指挥,这不只是效率的革命,也是危险的加速。空间距离、语言壁垒全线瓦解,误判风险溢价飙升。 面对算法推演下的杀伤任务,若社会与制度没有前瞻设计、监管兜底,每一场冲突都可能是下一个——“决策权由书签滑动完成”的伊朗试验场。 而AI杀伤链的蔓延,绝非中东一家独吼的命题,它加速搅动的,是全人类对主权与安全的新想象力边界。
