OpenAI算力预算砍掉一半,1.4万亿变6000亿,他们到底在怕什么? 最近刷

吉米传记 2026-02-24 00:05:30

OpenAI算力预算砍掉一半,1.4万亿变6000亿,他们到底在怕什么? 最近刷到一堆消息,说OpenAI把未来几年的算力投入从1.4万亿美元直接压到6000亿。不是预测,是真金白银的计划调整。我查了下时间,这些数字都是基于他们刚公布的2025财年业绩——收入131亿,比预期多出30%;支出80亿,还省了11%。钱没少赚,但花得更抠了。 以前大家觉得AI公司就得拼命买卡、建机房、烧电,越大越牛。现在一看,光堆硬件不赚钱,反而让毛利率从40%掉到33%。掉的这部分,基本全被推理成本吃掉了——用户每次提问、每调一次API,背后服务器都在狂转,比训练模型还烧钱。这不是技术不行,是服务跑太快,成本没跟上。 他们开始换思路。模型变小了,比如用MoE(混合专家)结构,不用每次都调全部参数;压缩模型大小,降低单次响应耗电;还和微软、英伟达一起搞自研芯片,不靠堆A100/H100硬扛。芯片稳了,电费省了,机房也敢自己建在得州——那边电价便宜,风能多,绿电配套也能跟上。 企业端这块,进展比想象中顺。Azure里直接嵌ChatGPT,Stripe用它自动审单,Salesforce拿它写邮件……API调用量涨得猛,单次收费也提了。消费端也不赖,ChatGPT Pro用户多了,GPT Store里开发者卖工具能分到钱,平台开始靠生态赚钱,不全指着订阅费。 6000亿不是随便砍的。它和2030年2800亿营收目标配在一起,算下来大概2.14块投入换1块收入。这个比值,是第一次被明着写进战略——不再喊“不惜代价”,而是“算清楚再干”。别人还在比谁卡多,他们已经在算每瓦电力挣多少钱。 有人问是不是AI不行了?不是。是以前太野,现在落地了。服务器还是在跑,但不再为“可能有用”而建,只建“已经能收钱”的那部分。英伟达供货稳了,电费压住了,客户付费意愿也验证过了,才敢把预算砍掉快六成。 这事儿没那么玄乎。就是一家公司干了三年,发现光拼算力赚不到钱,得让模型更省、服务更准、客户更愿意掏腰包。省下的8000亿,不是不投,是留着等真正能赚钱的活儿出现。 挺现实的。 也没啥好说的。

0 阅读:77
吉米传记

吉米传记

感谢大家的关注