这份报告深入探讨了及其在人工智能领域的竞争和市场动态,内容涵盖发布影响、技术进步、用户使用趋势、token经济学、硬件限制、竞争格局等。先把原文的内容大概总结一下。
SemiAnalysis原文总结
1. DeepSeek R1 的发布与市场影响
DeepSeek R1 自 2025 年 1 月 20 日推出已超过 150 天,其性能被认为与 OpenAI 的推理模型相当,但其定价策略极具颠覆性:输入/输出token价格仅为 10 美元。这一低价策略震撼了全球 AI 市场,引发了广泛讨论。许多人担心 DeepSeek(及其背后的中国 AI 生态)可能会通过低定价将 AI 模型商品化,从而压低整个行业的价格水平。
事实证明,这种担忧并非空穴来风。DeepSeek R1 的发布后,推理模型的价格普遍下降,例如 OpenAI 的输出token价格下降了 8 美元以上,迫使其调整旗舰模型的价格。这种价格战可能对行业的可持续发展构成挑战,因为过低的定价可能无法覆盖高昂的研发和计算成本。
根据 Reuters(2025-05-29)的报道,DeepSeek 的低成本和短开发时间震惊了全球市场,导致美国科技股价值蒸发数十亿美元,投资者重新评估 AI 巨头的估值。
2. 技术进步与强化学习
模型通过扩展强化学习(RL)得到了显著升级,尤其在编码领域表现突出。强化学习被视为 AI 模型发展的新范式,它不仅提升了性能,还使模型更加高效和实惠。
SWE-Bench显示,DeepSeek R1 在降低成本的同时,性能得到了显著提升。2025 年 5 月 29 日,DeepSeek 发布了 R1-0528 升级版,通过增加计算资源和算法优化,显著提升了推理深度。在 AIME 2025 测试中,准确率从 70% 提升至 87.5%,每题平均使用token从 12K 增加至 23K,显示了更强的推理能力。
然而,这种改进并非没有代价。报告指出,DeepSeek 通过增加延迟和降低吞吐量来实现低成本,这在一定程度上损害了用户体验。
3. 用户使用趋势
尽管 DeepSeek 的模型(如 R1 和 V3)在第三方托管平台上的使用量激增,自首次发布以来增长近 20 倍,但其自托管模型的用户增长却较为乏力。这可能是因为用户更倾向于使用其他开源提供商的服务,尽管 DeepSeek 的定价看似非常便宜。
这一现象反映了用户对服务质量、稳定性和体验的重视超过了单纯的价格因素。根据 TechTarget的报道,DeepSeek 的移动应用曾短暂超越 OpenAI 的 ChatGPT 成为 Apple App Store 排行榜第一,但其直接用户增长随后放缓,更多用户转向第三方托管服务。
4. token经济学(Tokenomics)
AI 模型的token经济学,即模型提供者在定价和性能之间的权衡。关键性能指标包括:
DeepSeek 的策略是通过高批量处理(在单个 GPU 上同时处理更多用户)来降低每token成本,但这导致了较高的延迟和较低的吞吐量。相比之下,其他提供商在相同价格下提供了更好的用户体验,这可能是 DeepSeek 自托管模型用户增长缓慢的原因。
以下是关键性能指标的对比表:
5. 硬件与计算限制
DeepSeek 的低成本策略依赖于高批量处理,这减少了推理计算资源的使用。报告指出,这种策略反映了 DeepSeek 的主要目标:不是追求盈利或提升用户体验,而是通过开源策略扩大全球影响力,推动通用人工智能()的发展。
然而,中国在规模化推理模型方面面临出口管制的限制。DeepSeek R2 的延误传闻被认为与出口管制有关。尽管如此,其训练能力并未受到太大影响,最新版本 R1-0528 在编码领域表现显著提升。这表明中国在 AI 训练方面仍有较强的技术能力,但推理规模化可能需要克服硬件和政策上的障碍。
分析两个问题
下面我们来聊两个问题。
在这篇报告中,这两个图,虽然大家没有SemiAnalysis这种定量的数据,但我们也能感受到。
Deepseek的使用量其实是越来越低的,这个问题文中只是从token经济学的角度进行了分析,而且是跟其他几个国外的大模型进行对比。但我认为其实少了很重要的一部分。
就笔者而言,自从豆包和腾讯元宝接入Deepseek后,我就再也没用过Deepseek官方的工具。既然都是一样的模型,腾讯和字节服务器响应又快,没必要跟大家去挤Deepseek的服务器,后面习惯了豆包和元宝后,甚至Deepseek的手机app也给删了,再也没用过。
而且笔者绝对算是AI的重度用户,除了平时代码中可能会用到个别AI平台的api需要费用之外,豆包和元宝从来没有花过钱。即便是豆包和元宝,我用的依然还是Deepseek的模型,但这部分的token,SemiAnalysis的数据中不会统计。
SemiAnalysis的这篇分析还提到了Deepseek R2,之前the information的消息说Deepseek R2的delay是由于出口管制,这个问题在星球中也讨论过。
我当时认为R2 delay跟出口管制关系不大。 在Deepseek刚爆火的时候,网上就很多机构分析过Deepseek之前通过合规渠道买到的用于训练的高端服务器的数量,当初合规渠道能买到的最高端的就是H20,也主要是用于推理,而且R2的训练早就开始了,从开始下单H20,再到部署、跑起来,都是需要时间的。当然还有些这边不方便说的原因,大家应该也都能想到。
SA认为出口管制对Deepseek训练的影响不大,而且影响了推理能力,也就是他们有没有足够的GPU,无法提供更好的服务。R1 - 0528 相较于之前的模型有显著进步,尤其在编码领域。此外,还有很多与计算约束无关的原因可能导致其训练进度放缓,比如遵守额外的审查和安全要求。