大模型价格战深度解析:谁在烧钱,谁在赚钱?
2024-2025年,大模型行业经历了一场史无前例的价格战。从OpenAI到DeepSeek,从阿里云到百度,各路玩家轮番降价,降幅动辄90%以上。这场战争的本质是什么?谁在真正烧钱?谁又在闷声发财?本文用数据说话。
一、价格战全景图:降幅触目惊心
国际战场
| 模型 | 输入成本 ($/M tokens) | 输出成本 ($/M tokens) | 备注 |
|---|---|---|---|
| GPT-5.4 nano | 0.20 | 1.25 | 2026年最新入门级 |
| GPT-4o Mini | 0.15 | 0.60 | 2024年7月发布 |
| Gemini 2.0 Flash | 0.10 | 0.40 | 2026年最低价 |
| Claude Haiku 4.5 | 1.00 | 5.00 | Anthropic入门 |
| DeepSeek-V3.2 | 0.028 | 0.42 | 缓存命中仅$0.028 |
DeepSeek以近乎免费的缓存价格($0.028/M tokens)直接掀翻了整个定价体系。
中国战场
2024年,字节跳动(豆包)、阿里(通义)、百度(文心)、科大讯飞轮番降价,部分API价格降幅超过99%。到2024年中,推理算力毛利率一度跌至负数——每调用一次模型,云厂商就在亏钱。
二、谁在烧钱?
OpenAI:亏损最严重的玩家
- 2024年运营成本预计超过85亿美元,亏损约50亿美元
- 2023-2028年累计亏损预计达440亿美元
- 单次GPT-5级别模型训练,芯片成本超过7亿美元
OpenAI是这场游戏里烧钱最狠的玩家。它用高定价掩盖了高成本,靠先发优势和品牌溢价维持着市场份额,但财务压力已经逼迫它不断推出更便宜的入门模型。
中国云厂商:战略性的亏损
- 2024年推理算力毛利率为负
- 目标是以短期亏损换取10倍以上的调用量增长
- 押注规模效应:未来用户足够多时,边际成本趋近于零
这是一场豪赌——如果AI调用量没有指数级增长,这些厂商就会陷入漫长的亏损泥潭。
三、谁在赚钱?
DeepSeek:效率革命的受益者
- DeepSeek-V3.2缓存命中价格仅$0.028/M tokens,是行业最低
- 通过MLA + DeepSeek MoE + 多 token 预测架构创新,大幅降低训练和推理成本
- 开源策略吸引大量开发者生态,形成事实上的行业标准
DeepSeek赚钱的逻辑不是提高价格,而是用极致效率把竞争对手逼入死角。
Google:企业级市场的老大哥
- Gemini 2.0 Flash以$0.10的输入价格横扫市场
- Vertex AI企业用户基数庞大,Tiered Pricing(按量折扣)体系成熟
- multimodal能力(图像/音频/视频)是差异化壁垒
阿里云 / 百度智能云:应用落地的收割者
- 2024年中国大模型平台市场规模达16.9亿元,预计2026年突破700亿元
- 央国企大单是主要收入来源:2024年前11个月招投标项目数是2023年的3.6倍
- AI相关收入占比持续提升,商业化落地明显加速
四、2025年新格局:分化开始出现
| 趋势 | 描述 |
|---|---|
| 价格战见底 | 超过70%的厂商在2025年上调了价格 |
| 开源崛起 | 预计80%的企业将采用开源大模型(阿里千问、DeepSeek) |
| 企业级爆发 | 2025上半年企业级大模型日均消耗量较下半年暴增363% |
| 定制化趋势 | 垂类行业模型成为更稳定的商业模式 |
| AI Agent | 被认为是通向AGI和C端变现的关键 |
五、结论:这是一场持久战
谁在烧钱:OpenAI(规模最大)、中国云厂商(战略性亏损)、Anthropic(高端定位但研发成本高)
谁在赚钱:DeepSeek(效率制胜)、Google(企业市场)、已经完成应用落地的云厂商(百度的文心、阿里云)
核心洞察:
大模型价格战的本质是边际成本下降速度的竞争。谁的架构效率更高、谁的生态规模更大、谁能撑到应用爆发的那一天,谁就是赢家。
烧钱是手段,不是目的。那些把价格战当成获客工具、同时拼命优化底层效率的玩家,终将笑到最后。而那些只会跟进的玩家,只会烧光弹药后黯然退场。
数据来源:OpenAI/Goolge/Anthropic/DeepSeek官方定价页面,中国信通院报告,2024-2025年市场调研
Top comments (0)