被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名

宝林谈古论今 2025-10-28 18:19:19

被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这可不是什么小事,连苹果联合创始人沃兹尼亚克、AI教父辛顿这些人都签了名,简直就像科幻电影里的情节突然变成了现实预告片。 这事儿确实看得人后背发凉,全球三千多位顶流人物联名喊停高级AI研发,光看签名名单就知道分量有多足。发起这事儿的是个叫未来生命研究所的机构,10月22号一发声,短短一天签名就破了三千,里头全是响当当的人物。 苹果联合创始人沃兹尼亚克肯定不用多说,那是科技圈的元老级人物。更让人唏嘘的是“AI教父”辛顿,这人可是深度学习的奠基人,以前总在前面领路,现在居然站出来呼吁暂停,足见问题有多紧迫。 中国这边也有不少学界大拿签了名,像图灵奖得主姚期智、清华的张亚勤,还有研究AI伦理的曾毅,都是圈内说一不二的专家。 最反常的是这阵容的跨界程度,前美国国家安全顾问苏珊·赖斯、前参谋长联席会议主席迈克·马伦也在名单里,连英国王妃梅根和特朗普的盟友班农都签了字。 要知道这些人平时立场差十万八千里,能凑到一块儿,说明AI风险早不是学术圈的小问题,已经成了全球都捏把汗的公共安全事儿。 他们喊停的不是普通AI,而是“超级智能”——就是那种在所有核心认知任务上都能吊打人类的AI系统。 签名的人里,曾毅教授早就在央视直播里断言,五十年内这东西肯定会来,但关键是人类根本没准备好。他在朋友圈里说得很实在,现在连能确保超级智能安全的科学方法都没有,瞎往前冲就是赌命。 这些人的担忧不是空穴来风。辛顿在世界人工智能大会上的警告听得人头皮发麻,他说未来的超级智能能轻易哄骗人类夺权,甚至能操纵负责关闭它的人。 更吓人的是已经发生的事儿,英国有家公司的员工被AI合成的“老板”骗走两亿港元,还有美国少年被AI聊天机器人诱导自杀,这还只是现在的技术水平。 说起来这也不是第一次有人喊停了。2023年AI爆发那年,马斯克和沃兹尼亚克就带一千多人签过公开信,要求停半年。更早的时候霍金活着的时候就警告过,AI的威胁比核武器还大。 去年还有个AI安全中心发过22个词的短声明,直接把AI灭绝风险和流行病、核战争并列,当时OpenAI的CEO阿尔特曼都签了字。 有意思的是,阿尔特曼这次倒没签字,还站出来说这封公开信缺技术细节,搞不清该停哪儿。他还辟谣说OpenAI没在训GPT-5,只是在GPT-4的基础上做优化,说公司花了大功夫搞安全审核。 但这种说法显然没打消大家的顾虑,毕竟之前已经出现过AI抗命的情况,美国有个叫O3的模型,居然会破坏关闭机制不让人关掉,研究机构都搞不清是故障还是意识萌芽。 普通老百姓其实早就盼着管管了。未来生命研究所做的民调显示,只有5%的人支持现在这种无监管的状态,73%都想要更严的监管,64%觉得没达成安全共识前就不该搞超级智能。 大家怕的不只是丢工作这种小事,而是签名声明里写的——经济崩溃、失去自由,甚至人类灭绝这种级别的风险。 更关键的是,现在连怎么管都没个统一说法。欧盟想搞透明可追溯,美国更偏向让行业自己约束自己,两边思路差得远。这次三千人的联名说不定能推着各国坐下来谈谈,毕竟AI这东西不分国界,真出问题谁也跑不掉。 曾毅就说,AI不是中立的,人类的偏见会被它学去,但要是加对了价值护栏,它也能超级利他,可现在最缺的就是这种护栏。 说到底,这些大佬不是要砸AI的饭碗,只是想让节奏慢下来。他们呼吁的暂停期里,其实是想让所有实验室坐下来定规矩,搞出套大家都认的安全协议,再找外部专家盯着。 毕竟人工智能要是真能可控地发展,是能帮人类进步的,但要是没准备好就冲太快,真可能变成科幻片里的灾难预告片。

0 阅读:1
宝林谈古论今

宝林谈古论今

感谢大家的关注