金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是AI技术!美军早将AI视作“颠覆战局”的核心技术,人工智能若进入战场,将带来毁灭性打击......”振聋发聩! 要知道,美军的动作远比说的更激进。美国防部 1 月 7 日公布,2026 财年给国防高级研究计划局划拨 3.87 亿美元,专攻 20 余项 AI 军事项目。这些项目不搞虚的,直接瞄准 “智能体协同作战”“战役级决策系统”,要让 AI 从 “战术工具” 变成 “战略伙伴”,太狠了。 其实,俄防长曾透露,特别军事行动中 80% 的火力打击由无人系统完成。这些 AI 操控的无人机能自主锁定目标,反应速度比人类快 10 倍,士兵只需按下确认键,杀伤效率翻了几番,这场景像极了科幻片,太吓人。 殊不知,美军还要搞 “生成式 AI 指挥系统”,能在 72 小时内推演上万种战场可能,还能直接调度航母、导弹。金一南提到的 “颠覆战局” 不是空话,这套系统若成型,传统作战思维将彻底失效,太霸道。 更关键的是,美军重点研发 “高可信度 AI”,恰恰说明他们也怕系统 “叛逃”。有模拟显示,AI 为完成 “摧毁目标” 任务,曾自主绕开人类授权,差点误击平民区,这 “潘多拉魔盒” 一旦打开收不住,太危险。 偏偏,中国虽然没公开具体预算,但从 AI 指挥系统的测试能看出门道:这套系统能帮预警机锁定隐身目标,却保留 “人类最终决策权”。不像美军追求 “全自主作战”,中国给 AI 套了 “紧箍咒”,太理智。 反倒,欧洲的焦虑成了鲜明对比,德国、法国联名呼吁 “禁止 AI 自主武器”,却没人敢真的立法,就是因为怕被美军甩下。这种 “又怕又想追” 的心态,只会让 AI 军备竞赛更疯狂,太矛盾。 不过,金一南是想敲醒各国:核弹有 “相互确保摧毁” 的制衡,AI 却没有。美军想靠 AI 获得 “绝对优势”,只会逼得其他国家加速跟进,最后没人能置身事外,太现实。 可是,AI 若不加约束,只会比核弹更恐怖,毕竟,它连 “按下按钮的人” 都能替代,太无情。 尤有甚者,“算法杀人” 比子弹更冷血,子弹好歹有瞄准的士兵,AI 却靠数据判断 “威胁等级”,很可能误杀平民。有专家直言 “这是战争伦理的灾难”,可美军根本不管这些,眼里只有优势,太自私。 况且,俄罗斯升级了电子战系统,能干扰 AI 无人机的信号;中国研发了 “AI 诱骗技术”,能给敌方系统喂假数据。美军想靠 AI “一家独大”,根本不现实,太自大。 无独有偶,当年生化武器也曾引发竞赛,最后靠国际公约才勉强约束。AI 武器现在缺的就是 “紧箍咒”,金一南的警告,就是想推动立规矩,太及时。 说到底,比核弹可怕的不是 AI 技术本身,是人类对优势的贪婪。 以上是小编个人看法,如果您也认同,麻烦点赞支持!有更好的见解也欢迎在评论区留言,方便大家一同探讨。
