DeepSeek创始人梁文峰再次语出惊人!他说:“我们经常说中国AI和美国有一两年差距,但真实的差距是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。”
DeepSeek创始人梁文峰最近把话挑明了,他说中美AI的差距,根本不是时间上差个一两年,而是“原创和模仿”这两种玩法的天壤之别。这话挺扎心的,因为它撕开了参数竞赛和模型数量的虚假繁荣,让我们看到中国AI正面临着一场残酷的双线战争。
一边,要硬扛美国已经建好的、几乎滴水不漏的技术生态高墙;另一边,还要跟自己内部那个由商业环境和思维惯性拧成的泥潭搏斗。
先说说外头那堵墙。美国的厉害,绝不只是出了几个明星模型,而是一整套从硬件、平台到开发者社区的立体封锁。硬件的命脉攥在英伟达手里,光是2024年,它就在中国AI芯片市场吃掉了超过八成的份额。这还不是最绝的。
更让人头疼的是软件生态。你看亚马逊,自己搞芯片(Trainium),自己搭模型平台(Bedrock),再用家里5亿台Echo设备当入口,从头到尾给你安排得明明白白。而英伟达花了15年养起来的CUDA生态,那400万开发者就像一张天罗地网,就算你芯片性能追上了,也挤不进这个圈子。这种生态的底气,就是斯坦福的AI实验室每年能从企业口袋里拿到数亿美元投资,大家真心觉得这玩意儿值钱。
再回头看我们自己内部的泥潭,那就更复杂了。搞模仿,不是说没能力原创,而是在我们这个环境里,这似乎是个“最理性”的选择。辛辛苦苦搞原创,钱烧得像流水,周期又长,结果模仿者几个月就拿出个廉价版,上来就把你的市场搅黄了。
更要命的是那个“付费怪圈”。大家觉得硬件值钱,但对软件和服务总想白嫖。项目招标时,“基础版永久免费”这种要求简直是标配,让你连运维的本都回不来。这种土里,谁还敢把钱砸给遥遥无期的研发?最后就是“模仿-低价-更没钱原创”的死循环。各地一窝蜂搞同样的AI产业园,还有那三百多个大模型挤在一个框架里内卷,都是这种资源内耗的真实写照。
所有问题的核心,说到底还是人。我们每年培养的AI人才占了全球一半,这数量很吓人,但能带头搞原创的顶尖高手却少得可怜。大学里的课本更新速度跟不上技术迭代,评价体系又只认论文,搞得很多毕业生理论一套一套的,真上手解决问题就抓瞎。美国那边,中学生都开始在GitHub上发开源框架了。
这种人才基因也体现在团队上。像DeepSeek这样的团队,普遍年轻得吓人,平均年龄比OpenAI小了快10岁。好处是执行力爆表,敢想敢干,但坏处也明显,在基础理论这种需要时间熬的东西上,底子可能就薄了点。看看专利数据就更清楚了,我们的申请量是美国的4倍,可海外认可度却低得可怜,这差距不是数字能弥补的。
那是不是就没戏了?也不是。在这么大的压力下,反而逼出了一条“非对称”的破局小路。我们不跟你正面硬刚,而是从应用、成本和生态这些你看不上的地方找机会。
比如成本,DeepSeek用不到美国同行二十分之一的钱,就训出了一个能跟顶尖模型掰手腕的开源模型,这就是算法创新的胜利。再比如场景,中科院把基因编辑、AI和机器人拧在一起搞智能育种,初创团队不追什么高大上技术,就踏踏实实为听障人士做言语训练工具。这些都是从我们自己的真实需求里长出来的东西,是美国巨头还没顾得上的角落。
更关键的是,像DeepSeek这样的公司开始用开源来构建自己的“原创基础设施”,想用开放去对抗别人的封闭。而我们最大的底气,其实是那些遍布全国的智能工厂和跑在路上的自动驾驶车队。它们日积月累下来的海量真实数据,才是我们最宝贵的土壤。说不定,下一个颠覆性的AI架构,不会诞生在硅谷的实验室里,而是从这片数据沃土中破土而出,为这场艰难的双线战争,带来真正的希望。