中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了! 中国早在2014年就在日内瓦的《特定常规武器公约》会议上提出,要建立全球监管框架,确保致命自主武器系统不能完全脱离人类控制。核心意思很简单:机器可以帮忙识别目标,但决定开火必须由人来把关,避免算法出错或被黑导致大规模误杀。2016年和2019年,中方又连续推动,呼吁启动谈判,制定禁止或严格限制这类武器的国际规则。 到2021年,中国提交了一份详细立场文件,列出五大禁止理由,包括伦理风险、法律空白和扩散隐患,强调人类必须保留对致命力的实质控制。125个国家表示支持新机制,但美国、英国、俄罗斯、印度这些军事技术领先的国家一致反对或拖延。 他们理由听起来高大上,说现有国际人道法够用,不需要额外条约;强调技术创新空间不能被限制;担心约束会影响本国士兵保护和战略优势。美国那时规划2030年前让大量地面平台智能化,俄罗斯推进无人机和机器人项目,印度想摆脱进口依赖,英国跟着美国走,主张靠行业自律就行。结果在协商一致原则下,提案全卡壳,没进实质谈判轨道。 这些国家当时觉得自己技术占优,拒绝任何强制规则,觉得能多抢几年先机。可短短几年,局面彻底翻转。中国没停下脚步,转而走“人在回路”路线:机器自主识别,但开火指令必须人工下达,既推进技术,又避开伦理雷区。2026年春晚舞台上,人形机器人展示高精度协同动作,31个关节适应复杂环境,无需GPS自主导航,这些能力直接对应战场需求。珠海航展上,机器狗驮装备巡逻,无人战车实现多平台协同,已进入量产阶段。 反观那些拒绝者,美国项目投入巨大,却常遇人机协同不顺、通信过载,难以大规模部署。俄罗斯无人系统在实战中故障频发,很多停在原型。印度展示的装备核心靠进口,性能落后,基本还需人工遥控。英国无人系统主要做辅助,规模和技术整合跟不上。技术扩散风险越来越大,开源算法和芯片到处流通,中小国家甚至非国家行为体都能搞到。没有统一规则,大家闷头赛跑,容易引发新军备竞赛。马斯克和上千科学家联名呼吁禁止这类武器,认为危害超过核武器。 现在美国主动找中国谈AI军控,俄罗斯和印度加速研发却差距拉大,英国在联合国会议上开始提算法偏见和国际法合规,态度明显软化。当初阻挠导致规则真空,他们陷入被动,安全隐患上升。联合国计划2025年开两次专门会议,继续讨论约束问题。中国从头到尾主张多边协商,维护人类共同安全,避免无序竞争。拒绝者现在面对现实,或许会吸取教训,推动理性规则落地。
