刚刚确认!AI 大模型强势不改,节后或将走超级大周期大年三十晚上,很多人正看着春晚节目,突然听到“上豆包,抽大奖”这句话,就顺手打开手机应用,这次活动不是抢普通红包,而是直接送出8888元现金、宇树机器人,还有一年奥迪电车的使用权,这件事有点特别,因为以前发布新模型只在程序员圈子里引起讨论,现在却通过春晚直接进入家家户户的饭桌,字节跳动在2月14日刚推出豆包大模型2.0版本,第二天就利用春晚机会把这项技术推广到普通人的手机上,简单来说,人工智能不再只是实验室里的东西,它开始陪大家一起过年守夜了。豆包2.0的定价让人很惊讶,输入内容每百万字只要三块二,输出部分收十六块,比GPT-5.2和Gemini 3 Pro便宜了十倍左右,不过价格低不代表能力差,它在数学竞赛模拟题中拿到金牌成绩,编程题目也能排到前面去,更贴心的是它分成三个版本,Lite版每百万字才六毛钱,Mini版响应速度特别快,Code版专门用来写代码,企业不用再买很多种工具,一个模型就能处理多种任务,我看了测试数据,它能自动执行任务,不只是回答问题,而是把整件事做完才停。今年推理算力需求增长了超过60%,第一次超过了训练算力,以前大家拼命堆参数、训练大模型,现在发现训练好了也没用,关键是要能跑得快、跑得稳,云上大模型慢慢退场,轻量版反而更受欢迎,手机装AI越来越普遍,现在全国有6亿台AI手机,占手机总数三分之一还多,AI电脑卖出了1亿台,每两台电脑就有一台带本地推理能力,连眼镜都开始加AI芯片,增长速度达到64%,这背后是NPU芯片普及了,加上模型压缩技术成熟,体积缩小了四分之三,速度提高了三倍多,准确率只掉了不到2%,这个水平已经够用了。芯片这个领域变化特别快,专门用来做推理的ASIC芯片,今年的出货量预计要翻一倍以上,现在手机、汽车、家电这些设备,如果没有NPU都不好意思说是智能的,地平线和黑芝麻这些公司主要做车规级芯片,瑞芯微和全志科技则把重点放在学习机和机器人座舱方面,存储这边也在跟着升级,DRAM不够用就开始采用新型内存,麦克风阵列、陀螺仪这类感知元件也在批量换代,终端设备正在经历一次重新设计,这不是简单增加功能,而是从逻辑上彻底重构。模型能力差不多以后,拼的就是行业经验了,银行用AI处理八成客服和风控工作,工厂里视觉检测的漏检率减少了一半以上,医疗、教育和法律这些领域,专用AI落地特别快,那些懂业务流程的公司反而更值钱,光有模型没用,得知道客户卡在哪个具体环节上。基础设施也在慢慢变化,800G光模块已经铺开,1.6T的也快要商用,CoWoS封装技术成了提升算力密度的关键环节,工具链越来越重要,比如把大模型压缩变小、跨平台部署这些事,豆包现在能跑在华为昇腾和摩尔线程这类国产芯片上,从模型到芯片再到终端和应用,整条链条基本可以自己运转起来,国产替代不是单点突破,而是芯片、存储、设备一起往前推进。资本方向已经转变了,现在看三个领域,端侧芯片和NPU厂商,垂直行业的AI服务商,还有底层算力基建,大家不再比拼参数高低,而是比较效率如何、体验是否顺畅,用户不在乎模型规模多大,只在意点击一下能否立即完成工作,这轮春节期间的爆发就是一个信号,AI的竞争焦点已从实验室转向日常生活场景。
刚刚确认!AI大模型强势不改,节后或将走超级大周期大年三十晚上,很多人正看着春
疯狂打板
2026-02-16 00:22:25
0
阅读:1