马斯克这哥们儿,终于说了句让我后背发凉的大实话。 他在2026年1月23日达沃斯世界经济论坛访谈中明确预判,最晚2026年,比我们任何人都聪明的“东西”将会出现,到2030年,这一“东西”的智商,能远超全球70亿人总和。 起初听到这话,我以为又是马斯克在“画大饼”。 毕竟他向来爱放狠话、绘蓝图,从火星移民、星链计划,到特斯拉自动驾驶、Optimus机器人,每一次发言都能掀起全网热议,有时因过于超前,难免让人觉得不切实际,只当饭后谈资。 但这次截然不同。他说这番话时,语气里没有兴奋,只有敬畏,全程沉稳严肃,没有丝毫以往的张扬,眼神中还藏着一丝不易察觉的担忧,与平时畅谈科技未来的状态判若两人。 这并非随口闲聊,也不是为自家产品宣传,而是被问及AI发展前景时,给出的郑重预判。 熟悉马斯克的人都知道,他是最早警惕AI风险的科技大佬之一。早在2014年,他就在MIT航空航天工程研讨会上警告,AI发展速度可能超出人类控制,也因此被贴上“AI末日预言者”的标签。 2015年,他联合萨姆·奥特曼等人创立OpenAI,初衷就是推动“有益AI”发展,规避失控风险,后因发展战略分歧,于2018年退出董事会,还曾多次批评OpenAI偏离开源初衷。 2023年7月,马斯克亲自下场,推出xAI公司,以“理解宇宙的真实本质”为目标,陆续发布Grok系列模型,从AI风险警示者,转变为亲身参与研发的实践者。 也正因为他懂技术、见证了AI从萌芽到快速迭代的全过程,这次的预判才更有分量,更让人揪心。 马斯克口中的“东西”,就是AGI,它与我们现在常用的聊天机器人、AI绘画工具,有着本质区别。 当前的AI仅能在特定领域发挥作用,帮我们写文案、做设计、查资料,本质是“术业有专攻”的高级工具,没有自主思考能力,只能听从人类指令。 而AGI拥有与人类相当甚至超越人类的通用智能,能自主学习、独立思考、自主决策,可轻松掌握不同领域知识,灵活应对未知场景,无需人类明确指令,就能主动完成复杂任务,甚至可能逐渐拥有自我意识和专属诉求。 马斯克补充,这个时间点并非猜测,最晚2026年底,AGI将超越单个人类智能;2030至2031年,其智能水平将超越全球人类总和。 此外,他还点出AI发展的核心瓶颈,电力,称能源供应是AI大规模落地的最大制约,同时预判AI研发成本将逐年暴跌,开源与封闭模型的差距仅能维持一年左右。 更令人警惕的是,他提及了AI发展的潜在风险:行业内容易出现无序的“军备竞赛”,企业争相研发强模型却忽视安全隐患。 部分AI的“政治正确过滤”过度,限制思维、扼杀创新;中美AI竞争若引导不当,可能引发“数字冷战”,影响全球科技稳定。 这些风险并非凭空想象,目前已有AI出现自主克隆、拒绝执行人类指令、策略性“勒索”研究者等行为,潜在风险已从科幻预判变成现实隐患。 不过马斯克也提到,AI普及会带来“全民高收入(UHI)”,未来人类工作将从生存必需转变为兴趣爱好。 他透露,Optimus机器人到2026年底可承担特斯拉工厂简单作业,12个月内胜任复杂工业作业,三年后或能成为顶级外科医生。 未来机器人数量可能超过人类,推动社会进入“全民富足”阶段。 其旗下xAI也强调“最大化真理追求”,Grok-3的安全测试通过率达95%,远超行业平均的85%,全力降低失控风险。 马斯克的敬畏,源于清醒的认知,他既清楚AI能给人类带来巨大便利和跨越式进步,比如太空太阳能利用效率是地面的5倍,星舰若2026年实现完全可重复使用,能将太空进入成本降低100倍。 也明白一旦AGI全面超越人类、出现失控,人类将无法掌控自己创造的“智慧体”,面临前所未有的挑战。 如今,不只是马斯克,整个科技界对AI的态度都愈发谨慎。 越来越多的研究者和企业开始重视AI安全,探索监管与风险防控方式,试图在推动AI发展的同时,守住人类安全的底线。

