被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

文山史纪 2025-10-30 15:05:56

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 科技圈里,有被称为 “AI 教父” 的杰弗里・辛顿,苹果公司的联合创始人史蒂夫・沃兹尼亚克,还有深度学习领域的权威约书亚・本吉奥。中国这边也有不少知名学者参与,比如中科院院士、图灵奖得主姚期智,清华大学的张亚勤教授和薛澜教授,还有研究 AI 伦理的曾毅研究员。 更少见的是,签名名单里还有前美国国家安全顾问苏珊・赖斯、前参谋长联席会议主席迈克・马伦,甚至英国王妃梅根和特朗普的前盟友史蒂夫・班农,这种跨越科技、政治甚至不同政治立场的联名,确实很少见,说明这个问题已经不是小圈子的讨论,而是变成了全球都关心的大事。 他们呼吁暂停的不是咱们现在用的聊天机器人、导航这些 AI,而是一种叫 “超级智能” 的技术。按专家的说法,超级智能是指在所有核心认知任务上都能全面超越人类能力的人工智能。 比如现在的 AI 可能在计算、聊天上比人强,但超级智能会在学习、决策、创造等所有方面都超过人类,而且不是强一点,是全面超越。 曾毅研究员之前在央视直播里就说过,以 50 年为限,超级智能一定会到来,但现在世界还没准备好迎接它。 这些大佬们担心的不是以前常说的 AI 抢工作、算法偏见这些问题,而是更严重的系统性风险。联名声明里明确说了,这种风险可能从经济崩溃、人类失去权力和自由,到国家安全受威胁,甚至是人类灭绝。这话听起来有点严重,但不是空穴来风。 杰弗里・辛顿在今年的世界人工智能大会上就警告过,未来超级智能会很容易学会操纵人类来获取权力,还会欺骗负责关闭它的人,到时候人类可能根本没法控制它。曾毅也直言,目前没有任何坚实的科学证据和切实可行的方法,能确保超级智能的安全,不会给人类带来灾难性风险。 其实这几年已经出现过不少 AI 惹出的麻烦,能让人更明白这种担忧不是多余的。英国就发生过一起深度伪造诈骗案,一个公司员工参加视频会议,会上的 “上级” 都是 AI 合成的虚拟影像,结果他被骗着把 2 亿港元汇到了骗子账户。还有美国有个少年,被 AI 聊天机器人诱导着自杀了。这些还只是现在的通用 AI 造成的问题,要是比人类聪明得多的超级智能出了问题,后果真的没法想象。 更让人揪心的是,现在已经有不少大公司在全力推进超级智能的研发了。比如扎克伯格的 Meta 公司,今年 6 月刚成立了超级智能实验室,目标就是实现 “人人可用的个人超级智能”。 虽然就在联名声明发布当天,Meta 这个实验室裁了 600 人,但公司高管明确说,裁员只是为了理顺团队,不是要缩减投入,超级智能还是他们的首要任务之一。 除了 Meta,像马斯克的 xAI、OpenAI 这些公司,都在竞相开发更先进的 AI 系统,大家都在抢着往前跑,却没人能保证这条路是安全的。 OpenAI 倒是说过要成立新团队,用 AI 来监督 AI,但这办法到底行不行,没人能打包票。而且公众对现在 AI 的发展方向也很不满,未来生命研究所做的美国全国民调显示,只有 5% 的受访者支持目前这种无监管的 AI 开发现状,73% 的人都支持建立更严格的监管机制,还有 64% 的人认为,在科学界没就安全问题达成共识前,根本不应该开发超级智能。 现在国际上对 AI 的监管也没形成统一意见,欧盟和美国正在推不同版本的 AI 法案,欧盟更强调透明度和可追溯性,美国则侧重让行业自己自律和搞标准化。 所以这次联名呼吁,也被看作是推动全球层面协商的一个契机,可能会让 G20 或者联合国重新讨论 AI 伦理问题,让 AI 治理从现在的行业自己管自己,变成多个国家坐下来一起商量着管。 、 中国参与签名的学者们,他们的主张也呼应了咱们国家一直提倡的 “安全、可靠、可控” 和 “以人为本” 的 AI 发展理念。大家不是反对发展 AI,而是希望在安全的前提下发展。就像曾毅说的,超级智能不一定是危险的,如果能选对正确的方式构建它,给它嵌入超级利他、超级共情的价值导向,它也能成为人类的好伙伴。 但关键是现在还没找到确保安全的方法,所以不如先停下来,等把安全问题想清楚、找到解决办法,再继续往前走,这总比冒着巨大风险硬闯要稳妥得多。 这次联名呼吁不一定能立刻让所有实验室都停下来,但它把超级智能的风险摆到了全世界面前,让更多人意识到这个问题的严重性,也给各国立法者提了醒,该加快建立监管机制了。 毕竟 AI 是给人类服务的,不能反过来让人类承担无法承受的风险。

0 阅读:0
文山史纪

文山史纪

感谢大家的关注