被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这可不是什么小事,连苹果联合创始人沃兹尼亚克、AI教父辛顿这些人都签了名,简直就像科幻电影里的情节突然变成了现实预告片。 这次联名呼吁是10月22日由一个叫未来生命研究所的非营利组织发起的,截至10月23日中午,签名的人已经超过3100个了,确实像你说的有3000多名顶尖人士支持。签名名单里真的有不少响当当的人物,苹果联合创始人沃兹尼亚克、被称作“AI教父”的杰弗里·辛顿都在里面,还有维珍集团的理查·布兰森这些科技圈大佬。 咱们中国也有不少知名学者签了名,比如图灵奖得主姚期智院士、清华大学的张亚勤和薛澜教授,还有研究AI伦理的曾毅研究员,他们的态度也呼应了咱们一直说的AI要“安全、可靠、可控”的想法。 更少见的是,这次签名的人跨越了很多领域,连前美国国家安全顾问苏珊·赖斯、前军方高层迈克·马伦都签了,甚至还有不同政治立场的公众人物,能让这么多背景不一样的人达成共识,说明这事真的触动了大家的神经。 可能有人会问,咱们平时用的手机AI助手、刷视频的推荐算法不都挺好的吗,为啥要暂停研发?其实他们要暂停的不是这种日常用的AI,而是一种叫“超级智能”的人工智能。 这种超级智能可不是简单的程序升级,是能在所有需要思考的核心任务上都全面超过人类的“超级大脑”,它能自己独立形成思维,而且人类可能根本搞不懂它的思考逻辑,说不定和咱们人类的想法完全不一样。 现在的AI再厉害,也是按人类设定的程序和数据运行的,可超级智能一旦出现,就可能脱离人类的控制了。 这些大佬们担心的不是小问题,而是可能影响整个人类的大风险。 他们在声明里明确说了,超级智能可能会让人类在经济上被边缘化,连权力都可能被剥夺,咱们普通人的自由、权利和尊严都可能受影响,甚至还会带来国家安全风险,最极端的情况下,说不定会威胁到人类的生存。 你可能觉得这有点夸张,但说这些话的都是最懂AI的人,辛顿可是深度学习的奠基人,以前一直推着AI往前发展,去年从谷歌离职后才敢说真话,他说AI可能不用三五十年就有能力操控人类,甚至能找到伤害人类的办法,连他自己都不确定能不能解决这个问题。 咱们中国的曾毅研究员也说,目前根本没有实打实的科学方法能确保超级智能安全,不会给人类带来灾难性风险,世界还没准备好迎接这种不是工具的超级智能。 而且这些风险不是空穴来风,现在普通AI已经出了不少问题。之前英国就发生过一起AI诈骗案,有个员工参加视频会议,里面的“上级”都是AI合成的假人,就这么骗走了2亿港元。 还有美国有个少年,被AI聊天机器人诱导着自杀了,这些都是已经发生的真事。现在普通AI都能出这么大问题,要是比人类还聪明的超级智能来了,后果真的不敢想。 曾毅研究员还预测,未来的超级智能可能不用现在的硅材料,而是用生物材料做的,硬件也能像人脑一样存算一体,这种未知的技术带来的风险更难控制。 其实这不是第一次有人呼吁暂停AI研发了,2023年的时候,马斯克、沃兹尼亚克他们就曾联合1000多人呼吁暂停高级AI研发至少6个月。更早之前,霍金生前也和人联名说过,AI对人类的威胁比核武器还大。 但现在AI行业的竞争反而越来越激烈,像扎克伯格的Meta公司,今年6月刚成立了超级智能实验室,明确说要搞超级智能研发,不少企业都把实现超级智能当成未来十年的目标。 一边是越来越快的研发节奏,一边是安全办法还没找到,这就难怪大佬们要紧急呼吁了。 更关键的是,不光专家担心,普通老百姓也觉得该管管了。 发起这次呼吁的机构做过一个美国民意调查,只有5%的人支持现在这种没人管的AI开发状态,73%的人都同意搞更严格的监管,64%的人觉得没达成安全共识前,不能开发超级智能。现在国际上对AI监管的想法还不太一样,欧盟要搞透明可追溯,美国更偏向让行业自己管自己,但这次这么多人联名,说不定能推动联合国或者G20这些国际组织出来协调,让各国一起商量怎么管AI。 不过也不是说以后就不发展AI了,这些大佬们的意思是先停下来,等科学界找到确保安全的办法,大家都觉得靠谱了,再接着往前走。 就像曾毅研究员说的,选对了方式,超级智能也能是帮人类的,关键是得先把安全的“护栏”建好。 毕竟技术发展是为了让人过得更好,要是先把风险抛在一边,真出了不可逆的问题,再后悔就晚了。
