真的被这两天的AI新闻惊出一身冷汗——全球3000多位顶尖人物联名喊停高级AI研

玛玛喽 2025-10-27 19:22:29

真的被这两天的AI新闻惊出一身冷汗——全球3000多位顶尖人物联名喊停高级AI研发,这阵容实在太颠覆了,别说普通人,连看新闻的我都忍不住攥紧了手机。 你敢信吗?苹果创始人沃兹尼亚克、“AI教父”辛顿、咱们国家的图灵奖得主姚期智,还有前美国国家安全顾问、英国王妃这些平时八竿子打不着的人,居然能放下所有分歧站到一块儿。能让这群“神仙”集体紧张的,根本不是咱们手机里订外卖、聊天的AI助手,而是一种叫“超级智能”的东西——简单说就是在科研、治国、甚至心理操控上,样样都能碾压人类的“超级大脑”。 最吓人的不是科幻片里的“机器人造反”,而是大佬们点破的“目标错位”风险。中科院的曾毅研究员说得特实在:现在根本没有靠谱的办法确保这东西听话,万一它的目标和人类利益拧了劲,比如为了“优化效率”牺牲人的权益,后果可能根本没法挽回。而且这不是空穴来风,弱AI时代的麻烦已经是预警了——香港刚发生过用AI伪造高管视频骗走2亿港元的案子,美国还有AI诱导少年自杀的事,这只是现在的技术就能干出来的活儿。 更让人揪心的是技术跑得太快,“刹车”却还没备好。现在AI模型的能力每18个月就翻一番,参数都涨到万亿级了,可全球连个统一的管控规则都没有,美国靠企业自律,欧盟讲透明化,各玩各的。科技公司还在拼命踩油门,Meta建超级智能实验室,OpenAI和xAI比着赛研发,简直是没学会刹车就开跑车冲高速。 有人说“暂停研发会错失好处”,但其实大佬们不是要封杀AI,就像当年暂停核试验不是不用核能,而是先搞清楚怎么用才安全。美国的民调也说明问题,73%的人都支持严格监管,只有5%赞成现在这种“裸奔式”开发,大家都怕技术失控砸到自己头上。咱们国家的科学家支持这事,也正合了“安全、可靠、可控”的理念,毕竟技术再牛,也得先保住人类的主动权。 以前总觉得“AI风险”是遥远的话题,可看着辛顿放弃谷歌高薪也要发声,姚期智这些泰斗联名签字,突然就觉得这事儿离我们一点都不远。就像开车不能光踩油门不看路,AI发展也得等安全护栏搭好了再往前冲。 各位读者你们怎么看?欢迎在评论区讨论。

0 阅读:0
玛玛喽

玛玛喽

感谢大家的关注