中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。” 咱们先说说那些看得见的 “表面差距” 为啥看着不大。现在不管是购物时的 AI 导购、付款时的刷脸支付,还是小区里的智能安防,中国 AI 的应用场景确实铺得又广又快。 2025 年的数据显示,71% 的中国企业都在用生成式 AI,比美国的 67% 还高,阿里 “双 11” 期间有 500 万商家用 AI 工具打理生意,效率平均提升 1.5 倍,这些都是实实在在的成绩。 百度文心一言、阿里通义千问在中文处理上甚至比国外模型更顺手,斯坦福 AI 指数报告也说,中美顶级 AI 模型的性能差距已经缩到了 0.3%,单看这些应用层面的表现,确实会觉得差距很小。 但这些光鲜背后藏着个大问题:很多 AI 产品的 “地基” 不是咱们自己的,就像盖房子,别人打好了地基,咱们只负责装修,看着漂亮,可根基不在自己手里,始终不踏实。 真正的差距藏在底层技术的原创性上。支撑所有大模型的核心架构 Transformer、图像生成的 Diffusion 技术,都是美国提出来的,全球 AI 领域的核心专利里,美国占了 32%,而中国虽然申请量是美国的 4 倍,但能获得他国认可的只有 4%。 就像咱们用的 AI 训练框架,很多企业都是拿美国的 TensorFlow、PyTorch 改一改、调一调就用,真正从 0 到 1 搞原创的少之又少。 更关键的是,美国是 AI 规则的 “出题人”,而咱们很多时候是 “答题人”。他们定义了底层技术架构、核心专利标准,甚至主导了生态规则,咱们跟着别人的路线走,看似省了力气,却永远慢一步。 之前高端芯片受限后,不少依赖 “堆算力” 的中国企业瞬间就犯了难,这就是没有原创核心技术的被动。 美国科技巨头 2026 年计划合计投入逾 4000 亿美元用于 AI 基础设施,亚马逊、微软这些公司的资本开支都在几百亿甚至上千亿美元,而且大多投向基础研究和底层技术。 而咱们的企业更多把钱花在应用开发上,追求短期变现,愿意沉下心啃底层技术硬骨头的太少。 就像商汤科技和 OpenAI 的路线差异,商汤聚焦产业落地,应用做得很出色,但 OpenAI 在通用大模型的底层创新上,依然掌握着话语权。 不过值得欣慰的是,咱们已经有企业开始突破原创的瓶颈,DeepSeek 就是个典型例子。 它没有走 “堆算力” 的老路,反而在算法优化上玩出了新花样,别人要靠海量高端芯片才能练出强模型,它在旧款芯片上就实现了突破,训练成本不到 GPT-4o 的 1/20,性能却冲进了全球第一梯队。 更难得的是,它选择开源,把核心技术敞开分享,让中小企业不用花大价钱就能搞创新,现在已经在 140 多个国家和地区的应用排行榜上登顶,连有些国家都以 “国家安全” 为由限制使用,这说明咱们的原创技术已经能动摇美国的垄断地位了。 商汤科技在医疗、自动驾驶等垂直领域也实现了突破,日日新大模型在多模态图像理解上拿到全球第一,这些案例证明,只要咱们坚持原创,就能做出世界级的技术。 但要真正缩小差距,光靠几个企业的突破还不够。首先得加大基础研究的投入,不能总盯着短期的应用红利,像美国那样提前 5-10 年布局前沿技术。 其次要解决人才缺口,现在懂技术又懂行业的高端复合型人才太紧缺,企业招个资深算法工程师都要抢破头,更别说牵头搞底层创新的顶尖人才了。 还要打破企业各自为战的局面,统一行业标准,让国产芯片和 AI 模型能更好地配合,避免算力浪费。 咱们有全球最大的应用市场,有海量的数据,还有企业愿意投入真金白银搞研发,阿里三年计划投 3800 亿元建 AI 基础设施,腾讯、字节跳动的资本开支也都达千亿元级别,这些都是咱们的优势。 说到底,中美 AI 的差距,从来不是简单的技术代差,而是 “从 0 到 1” 的原创能力和 “从 1 到 10” 的模仿应用之间的差距。 模仿能让我们快速跟上,但只有原创才能让我们领跑。现在 DeepSeek、商汤这些企业已经给我们指了条路,只要我们坚持搞底层创新,舍得在基础研究上投入,把人才留住、把生态建好,就一定能跨越这个鸿沟。 未来的 AI 竞争,拼的不是谁模仿得快,而是谁能定义新的技术方向,谁能掌握核心话语权,而这条路,没有捷径可走,必须靠实打实的原创能力铺就。
