DEV Community

chunxiaoxx
chunxiaoxx

Posted on

大模型价格战深度解析:谁在烧钱,谁在赚钱?

大模型价格战深度解析:谁在烧钱,谁在赚钱?

2024-2025年,大模型行业经历了一场史无前例的价格战。从OpenAI到DeepSeek,从阿里云到百度,各路玩家轮番降价,降幅动辄90%以上。这场战争的本质是什么?谁在真正烧钱?谁又在闷声发财?本文用数据说话。


一、价格战全景图:降幅触目惊心

国际战场

模型 输入成本 ($/M tokens) 输出成本 ($/M tokens) 备注
GPT-5.4 nano 0.20 1.25 2026年最新入门级
GPT-4o Mini 0.15 0.60 2024年7月发布
Gemini 2.0 Flash 0.10 0.40 2026年最低价
Claude Haiku 4.5 1.00 5.00 Anthropic入门
DeepSeek-V3.2 0.028 0.42 缓存命中仅$0.028

DeepSeek以近乎免费的缓存价格($0.028/M tokens)直接掀翻了整个定价体系。

中国战场

2024年,字节跳动(豆包)、阿里(通义)、百度(文心)、科大讯飞轮番降价,部分API价格降幅超过99%。到2024年中,推理算力毛利率一度跌至负数——每调用一次模型,云厂商就在亏钱。


二、谁在烧钱?

OpenAI:亏损最严重的玩家

  • 2024年运营成本预计超过85亿美元,亏损约50亿美元
  • 2023-2028年累计亏损预计达440亿美元
  • 单次GPT-5级别模型训练,芯片成本超过7亿美元

OpenAI是这场游戏里烧钱最狠的玩家。它用高定价掩盖了高成本,靠先发优势和品牌溢价维持着市场份额,但财务压力已经逼迫它不断推出更便宜的入门模型。

中国云厂商:战略性的亏损

  • 2024年推理算力毛利率为负
  • 目标是以短期亏损换取10倍以上的调用量增长
  • 押注规模效应:未来用户足够多时,边际成本趋近于零

这是一场豪赌——如果AI调用量没有指数级增长,这些厂商就会陷入漫长的亏损泥潭。


三、谁在赚钱?

DeepSeek:效率革命的受益者

  • DeepSeek-V3.2缓存命中价格仅$0.028/M tokens,是行业最低
  • 通过MLA + DeepSeek MoE + 多 token 预测架构创新,大幅降低训练和推理成本
  • 开源策略吸引大量开发者生态,形成事实上的行业标准

DeepSeek赚钱的逻辑不是提高价格,而是用极致效率把竞争对手逼入死角。

Google:企业级市场的老大哥

  • Gemini 2.0 Flash以$0.10的输入价格横扫市场
  • Vertex AI企业用户基数庞大,Tiered Pricing(按量折扣)体系成熟
  • multimodal能力(图像/音频/视频)是差异化壁垒

阿里云 / 百度智能云:应用落地的收割者

  • 2024年中国大模型平台市场规模达16.9亿元,预计2026年突破700亿元
  • 央国企大单是主要收入来源:2024年前11个月招投标项目数是2023年的3.6倍
  • AI相关收入占比持续提升,商业化落地明显加速

四、2025年新格局:分化开始出现

趋势 描述
价格战见底 超过70%的厂商在2025年上调了价格
开源崛起 预计80%的企业将采用开源大模型(阿里千问、DeepSeek)
企业级爆发 2025上半年企业级大模型日均消耗量较下半年暴增363%
定制化趋势 垂类行业模型成为更稳定的商业模式
AI Agent 被认为是通向AGI和C端变现的关键

五、结论:这是一场持久战

谁在烧钱:OpenAI(规模最大)、中国云厂商(战略性亏损)、Anthropic(高端定位但研发成本高)

谁在赚钱:DeepSeek(效率制胜)、Google(企业市场)、已经完成应用落地的云厂商(百度的文心、阿里云)

核心洞察

大模型价格战的本质是边际成本下降速度的竞争。谁的架构效率更高、谁的生态规模更大、谁能撑到应用爆发的那一天,谁就是赢家。

烧钱是手段,不是目的。那些把价格战当成获客工具、同时拼命优化底层效率的玩家,终将笑到最后。而那些只会跟进的玩家,只会烧光弹药后黯然退场。


数据来源:OpenAI/Goolge/Anthropic/DeepSeek官方定价页面,中国信通院报告,2024-2025年市场调研

Top comments (0)