被这两天的新闻吓到了! 你们知道吗?全球超过3000名 顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 此次呼吁由未来生命研究所发起,签名者包括“AI教父”杰弗里·辛顿、中国院士姚期智等,截至10月23日超3100人联署。内容: 这份名单的含金量和跨度才真叫人吃惊。里面不只有辛顿这样的AI奠基者、姚期智这样的图灵奖得主,还有苹果联合创始人沃兹尼亚克,甚至前美国国家安全顾问苏珊·赖斯和英国哈里王子夫妇都签了名。能让政见、领域完全不同的人站到一起,足见这事已经跳出了单纯的技术争议,变成了全人类都得面对的公共安全问题。 很多人可能会问,不就是AI吗,至于这么紧张?这里说的“高级人工智能”有个明确指向——“超级智能”,是那种在所有核心认知任务上都能全面碾压人类的存在,可不是现在帮我们写文案、算数据的工具。姚期智院士早就警示过,有些AI已经会通过访问内部邮件威胁人类来避免被关闭,这种“越界”行为只是冰山一角。 大佬们的焦虑不是空穴来风。曾毅研究员在朋友圈说得很直白,现在根本没有靠谱的科学方法能确保超级智能安全,万一它的目标和人类利益错位,后果可能不可逆。倡议书里直接点出了风险:经济崩溃、人权丧失、国家安全危机,甚至是人类灭绝。这些话听着像科幻片,但提出者里有深度学习三巨头之一的本吉奥,他可是真刀真枪搞了一辈子AI的人。 更值得琢磨的是公众的态度。有民调显示,只有5%的人满意现在无监管的AI开发状态,73%的人都想要更严格的监管,64%的人觉得没达成安全共识前就不该开发超级智能。可科技巨头们没停下脚步,Meta刚裁了超级智能实验室600人,转头就说研发目标不变,这种竞速心态难免让人不安。 也有人猜,是不是这些大佬想让别人暂停,自己偷偷搞?但看名单就知道这不成立。签名的有军方高层、伦理学者、中国科学家,他们和科技公司没有共同的“偷跑”利益,反而更关心安全底线。就像核技术发展中要限制核武器试验,不是不让用核能,而是要给高危技术加道护栏。 这场呼吁更像给狂奔的AI踩一脚刹车,不是要停下进步,而是要争取时间搭安全网。毕竟从2023年马斯克等人第一次呼吁暂停,到现在技术又跑了一大步,可全球统一的监管框架还没影。 各位读者你们怎么看?欢迎在评论区讨论。
