最近AI圈和军事圈都在疯传那层被彻底撕掉的“遮羞布”:为了不让自家AI变成毫无底线的“杀人机器”,Anthropic竟然直接把白宫和五角大楼给告了。 这事儿表面看是2亿美元合同谈崩了,深层逻辑却让人后背发凉,最值得我们深思的观点是:AI正沦为战争中推卸责任的“完美替罪羊”。 Anthropic顶着压力拒绝了军方“移除所有限制”的要求,就是怕AI接管了生死大权。 你看那套在实战中露过脸的“薰衣草”系统,给一个人定罪只需要20秒,AI打个分,炸弹就落下去了。这种“高效”背后全是平民的血。 最可怕的是,一旦杀错了人,指挥官可以两手一摊:“这是算法的错误,不是我的错。” 这就是现在的困局:硅谷有的公司像Anthropic一样死守红线,认为技术不能完全剥离人的参与;而有的公司像OpenAI,在竞争对手被踢出局后几小时就忙着站队拿订单。 说白了,强权者并不在乎AI有没有灵魂,他们只想要一个听话且能帮自己背锅的“高效镰刀”。 当“杀人链”实现了自动化,责任也就被稀释成了0。如果未来的战争连点火的人都不再有心理负担,那我们面对的恐怕不只是技术的进步,而是文明的崩塌。 你觉得,在这种金钱与霸权的夹击下,AI巨头们标榜的“技术伦理”还能撑多久?

一壶满城春
只要有利可图,没有资本不敢做的