要证明自家的模型是行业一流水平,可以与 DeepSeek 进行比较。
DeepSeek 爆火之后,在 2025 年的大模型市场中,DeepSeek 如同手机圈的 iPhone 那般,成为了各家模型厂商在发布新品时的最新对标对象。
上述对标更直观的表现在价格上,并且除了在模型能力方面号称超过 DeepSeek 之外。
今天百度文心大模型 4.5 Turbo 和文心大模型 X1 Turbo 发布了,在这个时候,百度创始人李彦宏吐槽说 DeepSeek 也不是万能的。李彦宏认为,DeepSeek 存在诸多问题。其一,它在能力方面只能处理文本,无法理解和生成图片、音频、视频等多媒体内容;其二,它的幻觉率较高。此外,使用 DeepSeek 更大的问题是慢和贵,因为中国市场上绝大多数的大模型 API 调用价格都比 DeepSeek 满血版要低,并且速度也更快。
其中包含最新发布的文心 4.5 Turbo 以及文心 X1 Turbo。据官方数据表明,文心 4.5 Turbo 每百万 token 的输入价格是 0.8 元,其输出价格为 3.2 元。
对比之下,在打五折后的优惠时段,也就是 00:30 到 8:30 这段时间,DeepSeek V3 每百万 token 的输入价格为 1 元,而输出价格是 4 元。
在推理模型方面,百度模型的性价比更为突出。文心大模型 X1 Turbo 每百万 token 的输入价格是 1 元,输出价格是 4 元,这与 DeepSeek R1 在优惠时段的价格相同。然而,它比 DeepSeek R1 在标准时段(8:30 - 00:30)要便宜很多,因为 DeepSeek R1 在标准时段每百万 token 的输入价格是 8 元,输出价格是 16 元。
不止一家想要用性价比来顶住 DeepSeek 的竞争压力。4 月 17 日字节发布的豆包 1.5·深度思考模型,它每百万 token 的输入价格是 4 元,输出价格是 16 元,在综合成本方面依旧比 DeepSeek R1 标准时段便宜。
这样的性价比策略不仅仅局限于国内的大模型玩家。在国外,情况也是一样的。
4 月份谷歌发布的首个混合推理模型是 Gemini 2.5 Flash,它主打低成本。在关闭思考模式时,Gemini 2.5 Flash 每百万 token 的输出成本大幅下降 600%,能够达到 0.6 美元/百万 token,其输入价格为 0.15 美元,并且远低于 DeepSeek R1 标准时段的价格。
稍微偏离性价比策略的模型玩家是OpenAI。
2 月底发布了 GPT-4.5 之后,它的 API 价格为 75 美元每百万 token 输入,150 美元每 token 输出。这个价格是 GPT-4o 的 30 倍,如此高昂的价格使它饱受争议。
OpenAI 很快对自己的“错误”进行了纠正。在 2 个月后的 4 月份,OpenAI 专门为开发者推出了三款全新的模型,分别是 GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano。其中最便宜的 GPT4.1 nano,其每百万 token 的输入价格急剧下降到 0.1 美元,输出价格为 0.4 美元。
但仅靠性价比显然无法打开市场。DeepSeek 能够出圈,一方面是因为成本低,另一方面其重要前提之一是模型能力有了创新,首次向外界展示了思维链奇妙的存在。
01
模型降本是趋势,但国外比国内更贵
大模型降本之争延续至今,其源头是 DeepSeek。2024 年 5 月,DeepSeek 通过大模型价格战而声名远扬。在那时,DeepSeek 发布了 DeepSeek V2 开源模型,并且在行业内率先降低价格,把推理成本降至每百万 token 仅 1 块钱,大概相当于 GPT - 4 Turbo 的七十分之一。
字节、腾讯、百度、阿里等科技大厂接着纷纷开始降价并跟进。中国大模型的价格战在此刻拉开了帷幕。
DeepSeek 创始人梁文锋在接受“暗涌”采访时解释说,DeepSeek 降价并非主要为了抢用户。他表示,一方面,由于正在探索下一代模型的结构,成本先降低了;另一方面,他认为无论是 API 还是 AI,都应该是普惠的,人人都能够用得起的东西。
有云厂商高管曾向直面 AI(ID:faceaibang)进行解释,此前就有降价的情况存在,而且只要摩尔定律还在,降低计算成本就会一直是模型行业的趋势。
李彦宏等部分大佬认为,降本会成为推动 AI 应用爆发的重要前提。 部分大佬觉得,降本是推动 AI 应用爆发的重要前提,其中包括李彦宏。 这些大佬认为,降本对于推动 AI 应用爆发有着重要的前提作用,李彦宏也在其中。 大佬们认为,推动 AI 应用爆发的重要前提之一是降本,李彦宏也认同这一观点。 部分大佬持有这样的观点,即降本是推动 AI 应用爆发的重要前提,李彦宏也持有此观点。
在降本的全球趋势之下,值得注意的是不同现象,即国外同类型、同尺寸的模型,其调用成本依然比国内的更贵。
4 月份刚发布的 OpenAI o3 新推理模型中,每百万 token 的输入价格是 10 美元,输出价格为 40 美元。然而从输入价格来看,o3 比文心 X1 Turbo 超出 70 倍。
造成这种差异的原因之一,或许与国外模型厂商的多种商业变现方式有关。
目前国外除了国内那种只能靠 B 端 API 调用收费的方式外,还有来自 C 端的销售订阅服务。并且后者的商业变现能力比前者更强。The Information 有爆料称,OpenAI 今年的订阅销售额有望达到 80 亿美元,这远远超过了销售其 API 接口的约 20 亿美元。
OpenAI 的 CEO 奥特曼近期在接受采访时表示,他更关注的是弄清楚怎样为一个真正优秀的自动化软件工程师或者其他类型的代理向人们收取高额费用,而不是通过基于广告的模式去赚取一些微薄的钱财。
此前,外界有消息传出,OpenAI有可能推出月度订阅制,价格高达 2000 美元,甚至 2 万美元。目前,OpenAI设置了每月 20 美元和 200 美元这两种订阅模式。
02
只有性价比还不够,关键在于模型是否有特色
商业变现受到限制,国内模型厂商陷入了价格战之中,它们还可能面临更大的成本压力,甚至有可能跌入互联网时代那种烧钱补贴的竞争逻辑之中。
更大的挑战还在于,仅靠性价比也并不能彻底留住用户。
DeepSeek 在去年开启价格战之后,于行业内开始有了突出表现,然而在大众层面却未引起关注。直至 DeepSeek R1 模型的出现,DeepSeek 才真正开始广泛传播,成为一款被大众熟知的 AI 产品。
奥特曼在点评 DeepSeek 爆火这一现象时认为,模型的能力并非是使 DeepSeek 获得病毒式传播的关键所在。其关键在于 DeepSeek 将 OpenAI 隐藏起来的思维链进行了免费开放。
但当下的一众新模型产品,它们在各项数据方面能够比肩或者赶超 DeepSeek 以及 OpenAI 。然而,它们在产品体验和功能上尚未有创新的举动 。
谷歌在这方面做过反面示例,豆包也在这方面做过反面示例。豆包 1.5 Pro 大模型晚于 DeepSeek R1 近两天发布,它的预训练和推理成本低于 DeepSeek V3,但由于模型体验不如 DeepSeek R1,所以在舆论场上没有激起太多水花。
谷歌 Gemini 2.0 系列大模型同样赶在 DeepSeek R1 之后发布。它的 Gemini 2.0 Flash-Lite 版本调用价格比 DeepSeek V3 更低。然而,仅凭借价格优势,依然难以俘获用户的芳心。
这在一定程度上解释了,为何顶着全球最贵大模型名号的 Claude 能够俘获一批开发者的喜爱。例如,继 DeepSeek 之后,另一个出圈的通用 AI Agent 产品 Manus,就是基于 Anthropic 的 Claude 3.5 模型开发而成的。
一切竞争的原点,都又回到了底层模型的技术创新和突破上。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/275655.html