记者问:“中美 AI 差距到底有多大?” 梁文锋毫不避讳、一针见血地回答:“表面上中国 AI 与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。 梁文锋作为手握千亿量化盘子的幻方量化创始人,又打造出能比肩 OpenAI o1 模型的 DeepSeek-R1,这样一位在 AI 领域既懂资本又懂技术的实干家,他对中美 AI 差距的判断远比纸上谈兵的分析更有分量。 现在咱们日常用的 AI 助手、生成文案或视频的工具,感觉和美国的产品用着差别不大,有时候处理中文内容还更顺手。 高盛最新的研报说,中国 AI 模型和美国顶尖模型的差距已经缩到 3 到 6 个月,斯坦福大学的 AI 指数报告更指出,两国顶级模型的性能差距只有 0.3%,像 DeepSeek 的模型在数学推理、写代码这些核心任务上,已经能和 OpenAI 的顶尖模型掰手腕。 国内的百度、字节、阿里、腾讯这些公司,每隔一段时间就会推出新的模型,在视频生成、多模态交互这些应用层面,进步速度非常快,字节跳动的豆包大模型每天的使用量都超过 50 万亿 token,在全球都排第三,这些表面现象确实让人觉得中美 AI 差距已经很小了。 但剥开这些表面的繁华,核心的问题就暴露出来了:支撑这些 AI 模型的底层基础技术,大多不是我们原创的。 就像盖房子,美国先造出了钢筋水泥这些核心建材,还搭好了房子的主体框架,比如现在所有大模型都离不开的 Transformer 架构、生成图像视频的 Diffusion 技术,都是美国的企业和研究机构先提出来的。 我们现在做的很多工作,其实是在别人搭好的框架里装修,优化参数、提升使用体验、适配中文场景,虽然做得不错,甚至在某些细节上更贴心,但本质上还是在别人的基础上做改进,没有真正跳出别人设定的技术路线。 这种原创和模仿的差距,背后是硬实力的差距在支撑。首先是芯片这种核心硬件,AI 模型训练就像盖大楼需要重型机械,美国的 OpenAI 训练 GPT-4 用了 2.5 万块最顶级的 H100 芯片,马斯克的新模型更是用了 20 万张同类芯片,而中国企业受限制,只能用到性能打了折扣的 H800 或 H20 芯片 就算像 DeepSeek 团队那样想尽办法优化,用 2048 块 H800 就做出了比肩美国的模型,把训练成本降到了对方的二十分之一,但硬件上的天花板始终存在,就像用普通货车去和大卡车比拉货,再怎么优化也难突破天生的局限。 资金投入的差距也很明显,2024 年美国私营企业在 AI 领域的投资达到 1091 亿美元,而中国只有 93 亿美元,还不到美国的十二分之一。 美国的科技巨头愿意花几百亿美元建数据中心、搞基础研究,哪怕短期看不到回报也坚持投入,而国内很多投资更倾向于见效快的应用层项目,对需要长期投入、风险高的基础研究兴趣不大。 这种投入结构的差异,导致美国在原创技术上有持续的动力,而我们的原创土壤相对贫瘠。 专利和学术研究的质量也能反映差距,中国的 AI 专利申请量是美国的四倍,论文发表数量也全球领先,但能得到国际认可的高质量专利只有 4%,远低于美国的 32%。 全球引用率最高的 AI 基础研究成果里,美国占了一半以上,而中国寥寥无几,这说明我们的研究更多是在现有理论上做延伸,真正能开创一个新领域、提出新理论的原创性成果还太少。 不过值得欣慰的是,中国 AI 已经开始意识到这个问题并付诸行动。像梁文锋的 DeepSeek 不仅做出了比肩国际顶尖的模型,还把训练技术全部公开,发表的论文深入分享自己的架构创新,这就是在从模仿走向原创的尝试。 华为等企业在国产芯片上不断突破,虽然和顶尖水平还有差距,但已经能满足部分场景需求。国内 71% 的企业都在使用生成式 AI,应用场景的广泛普及也在反过来推动技术创新,比如智能工厂让生产效率大幅提升,自动驾驶出行服务的规模已经超过美国同行。 说到底,中美 AI 的差距远不是表面那几个月或一两年的技术代差,而是底层原创能力的差距。别人定规则、搭框架,我们跟着做优化、搞应用,就算做得再快再好,也始终摆脱不了追随者的身份。 就像当年的手机行业,一开始我们也是模仿国外技术,后来在原创研发上发力,才有了今天的全球竞争力。 AI 领域也是一样,只有像梁文锋说的那样,勇敢投入到别人没走过的基础探索中,在核心架构、底层算法、关键硬件上做出自己的原创成果,才能真正摆脱依赖,从追随者变成引领者。 现在已经有越来越多的企业和团队开始走这条路,虽然过程会很艰难,需要长期坚持,但这是中国 AI 实现真正超越的必经之路,也是唯一的出路。

