路透社报道,DeepSeek 打破以往惯例,并未把新版大模型的访问权限提交交给英伟达,用以优化适配,而是交给了华为。看起来 DeepSeek 已经做好准备,把未来的算力搭建交给华为了。 过去这些年,大模型行业有个不成文的规矩:新模型要想跑起来、跑得顺,优先找英伟达做优化适配。 不是不想选别人,是英伟达的CUDA生态太成熟,全球150万个AI模型都跑在上面,向下兼容性强,不管是老芯片还是新架构,软件都能适配,这就形成了行业依赖。 而且之前英伟达的芯片性能确实能打,训练速度和算力密度长期领先,大模型开发者要抢时间出成果,自然会优先选成熟可靠的方案,DeepSeek之前也没跳出这个圈子。 但现在情况不一样了。首先是供应端越来越不踏实,美国对AI芯片的制裁一再加码,今天禁这个型号,明天给那个产品打补丁,政策反复无常。 英伟达的高端芯片要么买不到,要么是“特供版”,性能打折扣,还得给美方缴25%的收入分成,性价比越来越低。 更让人没底的是安全隐患,有消息说英伟达的算力芯片有远程关闭、追踪定位的技术,之前还因为安全漏洞被监管部门约谈。 对于要长期发展的大模型企业来说,把核心算力搭在随时可能被卡脖子的进口芯片上,就像走钢丝,不知道什么时候会断。 再看华为这边,已经不是当年只能做替代选项的水平了。昇腾910系列芯片的算力早就追上来,半精度算力能到320 TFLOPS,整数精度更是达到640 TOPS,相当于50个顶级CPU的能力,训练速度比国际顶尖芯片还能提升50%到100%。 更关键的是配套生态赶上来了,之前国产芯片最大的问题是适配麻烦,不同芯片要写不同代码,周期长还容易出问题。 现在中国电信联合华为搞出了跨架构推理框架,一套代码能在英伟达、昇腾等芯片上无缝运行,适配周期从周级压缩到天级,性能损耗还控制在10%以内,10多款主流开源模型都验证过,精度误差不到0.5%,这就解决了大模型适配国产芯片的核心痛点。 而且华为的算力集群也够能打,昇腾384超节点集群融合了高性能NPU和鲲鹏CPU,训练性能提升3倍,推理性能是业界平均水平的4倍,完全能支撑万亿参数、百万token上下文窗口的大模型运行。 DeepSeek选华为,早就有铺垫,不是突然跨界。 之前就和华为云在金融领域深度合作,推出的解决方案已经在银行、证券的智能客服、风控场景落地,跑通了实际应用,知道华为的算力能满足商用需求。 这次把新版模型优先交给华为适配,相当于给了国产算力数周的优化时间。按照行业规律,提前适配能让模型性能提升30%以上,这对追求极致体验的大模型来说,是实打实的优势。 更重要的是,这是在搭建长期稳定的算力体系,华为的供应链完全在国内,不受外部制裁影响,能保证芯片和技术服务的持续供应,不用再担心因为外部政策变化,导致模型研发或部署中断。 现在的行业趋势也在变,全球芯片市场的增长动力已经从手机、电脑转向汽车、工业领域。这些领域对芯片的要求更看重稳定性,而非最顶尖的制程,这正好是国产芯片的强项。 国产算力生态也越来越成气候,昇腾已经汇聚了665万开发者、8800多家合作伙伴,23900多个解决方案通过认证,形成了从芯片到框架再到应用的完整链条,不再是单点突破,而是系统成型。 DeepSeek加入这个生态,不仅能拿到稳定的算力支持,还能和整个国产产业链协同优化,反过来推动模型和硬件一起进步,形成良性循环。 英伟达的生态护城河确实还在,但优势正在被慢慢稀释。美国的制裁反而成了国产算力的“磨刀石”,倒逼国内企业在技术和生态上快速突破。 DeepSeek的选择,本质上是放弃了“美国芯片配中国模型”的旧模式,转向“中国芯片配中国模型”的闭环生态。 这不是简单的合作更换,而是战略层面的长远布局。它清楚,未来大模型的竞争,不只是模型本身的性能,更是背后算力供应链的稳定性和自主性,谁能掌握自主可控的算力基础,谁就能在长期竞争中站稳脚跟。 这种转变也给行业带了个好头。之前很多企业不敢轻易放弃英伟达,怕适配麻烦、性能不达标,现在DeepSeek用实际行动证明,国产算力已经能支撑世界级大模型的研发和部署。 接下来可能会有更多企业跟进,加速国产替代的进程。这不是要完全排斥进口芯片,而是形成“多元采购+自主为主”的格局:短期用进口芯片弥补部分短板,长期把核心算力扎根在国产体系上,这才是最稳妥的发展路径。 说到底,DeepSeek把未来算力搭建交给华为,是综合了供应安全、性能匹配、适配效率和生态前景后的理性选择,既顺应了行业趋势,也抓住了自主可控的核心需求。 这步棋看似打破惯例,实则踩准了行业发展的脉搏,为自身长远发展铺好了更扎实的路。
