DeepSeek 还在搞事。
DeepSeek 被官方钦定为“开源周”,本周已陆续开源四个项目,星期四最新发布了实现计算与通信双向并行的 DualPipe(直译为“双向管道”)。并且,DeepSeek 还做了一个事,即整了一个不大不小的活——错峰定价。
周三(2 月 26 日),DeepSeek 发文称,从当天开始,在北京时间每日 00:30 至 08:30 的夜间空闲时段,DeepSeek 开放平台推出了错峰优惠活动。并且在前一天,DeepSeek 刚刚恢复了官方的 API 充值服务。
但说优惠方面,DeepSeek 是很给力的。从官方公告来看,DeepSeek 的 API 调用价格在夜间空闲时段会有大幅下调。其中,DeepSeek-V3 价格降到了原价的 50%;DeepSeek-R1 价格更低,仅为原价的 25%,相当于降低了 75%。
图/ DeepSeek
具体价格调整情况可参考图,在此就不再详细说明啦,总之就是给兄弟们进行了一次降价优惠,就像是“自砍一刀”一样。
值得一提的是,DeepSeek-V3 发布之初的“优惠体验期”有明确时间期限,而这次的错峰优惠只有“时段限制”,没有“期限”。也就是说,我们可以直接把错峰优惠看作是长期的:
「错峰定价」。
另外还有一点要提及,两款模型优惠时段是相同的,并且优惠之后的价格也变得完全相同了。
输入(缓存命中)为 0.25 元 / 百万 tokens;
输入(缓存未命中)为 1 元 / 百万 tokens;
输出为 4 元 / 百万 tokens。
这可能也是 DeepSeek 有意为之。
推理模型已成为大模型厂商的共识。DeepSeek 通过在优惠时段拉齐定价,一方面能够降低开发者使用 DeepSeek-R1 的成本顾虑,另一方面也模糊了两种模型的边界,还能鼓励开发者根据自身需求灵活调用两种模型。
这就像前两天 Anthropic 推出的全球首款混合推理模型,即 Claude 3.7 Sonnet。它结合了传统模型“迅速回答”的优势以及推理模型“高级推理”的优势,从而实现了更灵活的计算以及更适合的 AI 体验。
图/ Claude
不过 DeepSeek 这次调整最核心的变动在于采用了“错峰定价”这种运营策略。这种运营策略的优势是“肉眼可见”的,很有可能会引起豆包、通义千问等其他大模型的跟进,甚至有可能成为又一场大模型价格战的导火索。
2024 年初 DeepSeek-V2 发布之后,掀起了一场价格战。
DeepSeek-R1 杀价!比豆包们便宜吗?
需要说明的是,DeepSeek-V3 曾有过降价的情况。雷科技此前报道过,DeepSeek-V3 的优惠体验期在本月初已结束。在优惠体验期结束之前,全时段的优惠价要比现在优惠时段的价格更低。
输入(缓存命中)为 0.1 元 / 百万 tokens;
输入(缓存未命中)为 1 元 / 百万 tokens;
输出为 2 元 / 百万 tokens。
2 月初结束了,图/ DeepSeek
不同之处在于,DeepSeek-R1 自发布以来,其价格始终保持不变。输入(缓存命中)时价格为 1 元 / 百万 tokens,输入(缓存未命中)时价格为 4 元 / 百万 tokens,输出时价格为 16 元 / 百万 tokens。
相对而言,这使得这次 DeepSeek-R1 以高达 75 折的方式进行“错峰降价”,这一情况更加令人惊喜。
首先,从能力方面来看,我认为如今无需再强调 DeepSeek-R1 的表现。无论是在产品层面的思维链创新方面,还是在工程层面实现的极致成本方面,都使得 DeepSeek-R1 成为了当下最为成功的模型。
降价是降低开发者调用成本和门槛的有力策略之一,这毫无疑问。同时,降价也会间接将更好的 AI 体验推广到更多的 AI 应用(通过接入 DeepSeek)中。
事实上,标准时段的 DeepSeek 价格比其他厂商的不少大模型都要便宜。在优惠时段,DeepSeek 比起很多主力大模型都更为便宜。
单位为每百万 tokens,图/雷科技
以字节跳动旗下的豆包通用模型为例,火山引擎平台显示的价格情况如下:doubao-pro-32k,其输入价格是 0.8 元 / 百万 tokens,输出价格是 2 元 / 百万 tokens;doubao-pro-128k 以及 doubao-pro-256k,输入价格为 5 元 / 百万 tokens,输出价格为 9 元 / 百万 tokens。
我们甚至可以看到,火山引擎上的 deepseek-r1-distill-qwen-32b(蒸馏版),其价格为:输入每百万 tokens 是 1.5 元,输出每百万 tokens 是 6 元。
也就是说,DeepSeek-R1 官方满血版在优惠时段的价格比 32b 蒸馏版的价格更低。
这是在国内的情况。DeepSeek-R1/V3 在海外推出了相同的运营策略,进行了 50%和 75%的大幅降价,并且优惠时段直接对应北京时间 00:30 至 08:30。伦敦时间在 16:30 到 00:30 这个时间段内,可以直接享受到 DeepSeek 官方的优惠时段价格。纽约时间在 11:30 到 19:30 这个时间段内,也可以直接享受到 DeepSeek 官方的优惠时段价格。
DeepSeek 对于一些面向部分海外用户市场的开发者而言,吸引力更强,就如同在高峰时段享受到了优惠时段的价格一样。
错峰优惠很动人,豆包们将如何迎战?
错峰定价并非稀奇之事。例如我们最为熟悉的错峰电价,在不同的时段用电,其价格会存在不小的差异。
国内设置了峰谷电价,目的是尽可能避免在用电高峰时段出现用电紧张的情况,同时避免在用电低谷时电能空置。通过峰谷价差,能够鼓励用户错峰用电,这样既可以最大程度地配置电网资源,又能帮助用户节省用电成本,还能挖掘出更多的经济效益和生态效益。
事实上,DeepSeek 官方在新闻稿中提到了相似的说法,其表示推出错峰优惠活动的目的是:鼓励用户把这一时段充分利用起来,以享受更经济且更流畅的服务体验。
从开发者角度而言,这种错峰定价的运营策略几乎可说是益处众多而毫无害处。从大模型厂商和云计算平台的角度来看,实际上也是好处比坏处多,能够更充分地利用服务器资源。
所以目前而言,大模型跟进错峰定价的运营策略是题中应有的内容。具体策略会有不同调整,例如前文提到的不同时区(不同用户市场)的问题。
DeepSeek 这次是否会引发行业连锁反应呢?它是否会复刻一年前的大模型价格战呢?这些可能还有待观察。
不少关注 AI 的读者或许还有印象。2024 年 5 月初,在大众的认知里“名不见经传”的 DeepSeek 发布了第二代 MoE 大模型 DeepSeek-V2。它首次引入了多头潜在注意力(MLA)机制,拥有 2360 亿参数,每个 token 有 210 亿个活跃参数,可称得上是当时最强的开源 MoE 模型。
DeepSeek V2 技术论文摘要,图/雷科技
更重要的是,DeepSeek-V2 的价格情况是:输入的价格为 1 元每百万 tokens,输出的价格为 2 元每百万 tokens。
现在看起来或许不是很惊艳。这个价格呢,仅仅是当时 GPT 主力模型 GPT-4 Turbo 的近百分之一。在性价比方面,它直接把国内外的一众大模型给秒杀了。也让很多人记住了这家名为「DeepSeek(深度求索)」的大模型厂商,还被冠以「AI 界拼多多」的称号。
更令人印象深刻的是,在 DeepSeek-V2 出现之后,中国大模型领域的价格战开始了。字节、腾讯、百度、阿里等大厂都纷纷降低了价格。通义千问的主力模型 Qwen-Long 对标 GPT-4,其 API 输入价格从 20 元 / 百万 tokens 降低到了 0.5 元 / 百万 tokens。
“错峰定价”的运营策略单独推动或许较难。然而,鉴于 DeepSeek 在开源周展现出了一系列能力,像长上下文有了突破,芯片利用效率得到了提升等,它未必不会成为又一轮大模型价格战的“新开端”。
写在最后
DeepSeek 无疑是今年 AI 行业中最大的鲶鱼,业界的领头羊 OpenAI 也不得不做出了许多回应。从多家媒体的爆料来看,OpenAI 近期有计划推出“酝酿了很久”的 GPT-4.5。
当然,其他大模型厂商在进行追赶甚至超越的动作。这也在促使 DeepSeek 加快自身的节奏。路透社的最新报道明确指出,新一代 R2 推理模型即将到来。原本 DeepSeek 计划在 5 月推出该模型,但最近它已经在考虑提前推出了。
这些变化都在推动 AI 的迭代和进步,也在改变今日的世界。
本文来自“雷科技”,36氪经授权发布。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/274580.html