DeepSeek市占率下滑 流量大跌 用户流失
2025-07-07 14:26:04 · chineseheadlinenews.com · 来源: 大纪元
日前人工智能研究公司SemiAnalysis的报告显示,中国人工智能(AI)公司DeepSeek(深度求索)用户留存和官网流量双双遇冷,市场份额持续下滑。
报告指出,由于算力有限,DeepSeek在提供低价的同时,至少在两方面牺牲了性能,造成用户体验下降、流失。
DeepSeek市占率下滑 流量和用户呈僵尸化
Semianalysis于7月3日发布研究报告称,DeepSeek R1模型发布后,用户流量激增,市场份额最高到7.5%左右,但随后开始下降,到了5月份已经跌到5%左右的水平。但128天后,其流量和用户呈现僵尸化(不活跃)。
此外,来自DeepsSeek官网的流量数据更糟,与2月相比,5月的流量下降了29%。而同期其它大模型如ChatGPT增长了40.6%,美国公司Anthropic的Claude增长了36.5%,谷歌的Gemini增长了85.6,马斯克的Grok增长了247.1%。
数据显示,由DeepSeek自己托管的那部分Token流量,占DeepSeek全部Token的份额呈现逐月下降趋势,从3月的42%下降到了5月的16%。
不过尽管DeepSeek自家托管模型的用户增长乏力,但在第三方托管平台,其推理模型R1和通用模型V3的总使用量一直在持续快速增长。
在人工智能领域,“Token”通常是指“词元”,指在语言处理过程中用来表示处理文本的最小单元或基本元素,Token可以是单个字符,也可以是多个字符组成的序列。
DeepSeek流量为什么大跌?
在第三方托管平台上DeepSeek大模型并未遇冷的情况下,为什么用户从DeepSeek自家官网流失,转向了其它开源提供商呢?
报告指出,DeepSeek在提供低价的同时,至少在两方面牺牲了性能,造成用户流失。
其一,首个Token输出时间(Time-to-First-Token)。DeepSeek强制用户等待数秒,模型才会给出第一个Token。而用户只需花费2—4美元,就能从第三方托管平台,如Parasail或Friendli这类服务商那里,获得近乎零延迟的体验。此外,微软云计算Azure的服务价格虽比DeepSeek高2.5倍,但延迟却减少了整整25秒。
此外,DeepSeek采用的64K上下文窗口,几乎是主流模型服务商中最小的,较小的上下文窗口限制了编程等场景的发挥。若花费同样的价格,用户可以从Lambda和Nebius等服务商那里获得超过2.5倍的上下文窗口大小。
上下文窗口(Context Window),指在模型“遗忘”对话的早期部分、并清除旧的Token之前,其“短期记忆”中能够容纳的Token数量。
在AMD(超微)和英伟达(NVIDIA,或译为辉达)芯片上对DeepSeek V3模型的基准测试显示,模型服务商会通过在单个GPU或GPU集群上同时处理更多用户的请求(即“批处理”),来降低单位Token的总成本。
这意味着,用户需要承受更高的延迟和更慢的吞吐量,从而导致用户体验急剧下降。
DeepSeek为什么不关心用户体验?
报告指出,通过采用极高批处理方式,DeepSeek可以最大限度地减少用于模型推理和对外服务的计算资源消耗,从而将尽可能多的算力保留在公司内部,从而用于研发。DeepSeek公司关注的焦点是AGI(Artificial General Intelligence,通用人工智能),而非从终端用户身上赚钱。
对英伟达中国专供芯片H20 美国实施出口管制
4月15日美国商务部声明,针对此前可以出口到中国的英伟达的H20芯片和AMD的MI308芯片等,正在发布新的出口许可要求。这形同禁止该芯片销往中国。
H20芯片是英伟达专为中国市场量身设计的“降规”产品,旨在符合美方出口管制规定——这些规定已禁止其最先进芯片销往中国。DeepSeek的模型中就使用了大量的H20芯片,但这并非英伟达算力最强的芯片。
DeepSeek自今年1月推出AI应用程序以来,其安全政策和数据保护在国际社会受到了越来越多的审查。到目前为止,已有美国和德国等多个国家禁止在政府设备中使用DeepSeek应用程序。