记者问:“中美AI差距到底有多大?”梁文锋毫不避讳、一针见血地回答:“表面上中国

亨克孤独 2025-12-22 11:51:18

记者问:“中美AI差距到底有多大?”梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。”   现在中国AI应用搞得风生水起,刷视频的智能推荐、办公用的AI写作、马路上的安防监控,到处都能看到AI的影子,短视频AIGC渗透率高达70%,比美国的45%还高出一截,论落地能力咱们确实不弱。   很多人看了这些数据可能会觉得,咱们的AI已经跟美国不相上下,甚至在某些领域还实现了反超,但梁文锋这话算是点透了核心,热闹的应用背后,藏着的原创短板才是真正的分水岭。   其实说起来,咱们现在市面上的不少AI产品,看着功能花哨、用着顺手,但追根溯源会发现,核心的底层架构大多还是借鉴了美国的技术。   就像现在主流的大模型,基本都绕不开美国提出的Transformer架构,咱们做的更多是在这个架构上修修补补,优化参数、适配场景,真正从0到1搞出来的原创架构少得可怜。   反观美国那边,不管是OpenAI的GPT系列,还是谷歌的Gemini系列,都是基于自己原创的核心技术迭代,这就是最本质的差距。   可能有人会说咱们的开源模型下载量都超过美国了,截至2025年10月,中国开源模型累计下载量达到5.5亿次,美国才4.75亿次,新增下载量占比更是冲到了65%,这难道不算优势吗?   不可否认这确实是进步,但要注意的是,咱们的开源模型能快速崛起,很大程度上是因为走了降本增效的路线。   就像梁文锋团队搞的DeepSeek系列,研发出一种叫NSA的原生稀疏注意力机制,能让模型训练和推理速度提升好几倍,训练成本却大幅降低,DeepSeek-V3的训练成本只有美国同类模型的几分之一,这才吸引了全球大量开发者使用。   这种降本增效的创新很重要,毕竟美国对咱们的芯片出口管得严,咱们拿不到最先进的H100、H200芯片,只能在算法优化上另辟蹊径。   但话说回来,这也是被逼出来的无奈之举,美国的AI公司就没这个顾虑,马斯克的Grok3大模型直接用20万张H100芯片训练,走的是“力大砖飞”的路线,虽然成本高得离谱,但在顶尖性能上确实暂时领先。咱们现在是在别人设定的赛道上做到了极致,但赛道规则还是人家定的,这就是追随者和引领者的区别。   更关键的是原创能力的差距还体现在生态构建上。美国的AI生态是围绕原创技术搭建的,从芯片、框架到应用,形成了完整的闭环,而且能持续吸引全球顶尖人才。   咱们这边则更多是在应用层发力,阿里的Qwen、字节的豆包这些产品虽然用户量大、场景覆盖广,但底层的芯片还得依赖进口,2025年咱们的AI芯片自给率刚超过40%,还没实现完全自主。一旦上游的芯片或者框架出点问题,下游的应用就可能受影响,这种依赖关系不打破,就永远成不了真正的引领者。   当然这不是说咱们的AI发展没亮点,毕竟能在短期内在应用落地和开源生态上追上美国,已经很不容易了。   而且这种追赶过程也催生了不少实用的创新,比如DeepSeek的NSA机制、Kimi的块状混合注意力机制,都是咱们自己摸索出来的好技术。但梁文锋的提醒很有必要,这些创新还是在现有技术框架内的优化,真正的原创突破还得靠长期探索。   现在中美AI竞争已经从参数规模的比拼,转向了效率和专业化的较量,这对咱们来说是个机会。但要抓住这个机会,就不能满足于在应用层做模仿和优化,必须沉下心来搞原创。毕竟应用再热闹,没有原创技术做支撑,就像建在沙滩上的房子,风一吹就容易出问题。梁文锋说有些探索逃不掉,大概就是这个意思,只有把原创的根基打牢,咱们的AI才能真正从追随者变成引领者。  

0 阅读:0
亨克孤独

亨克孤独

感谢大家的关注