1. 首页>>分享

2025年DeepSeek崛起引发AI行业变革:中国科技巨头如何应对大模型竞争新格局

2025 年初 DeepSeek 开始被大众关注。它一方面促使 AI 推理和应用加快发展步伐,另一方面也导致此前模型巨头们之间的竞争门槛迅速消失。

这显示出,字节跳动的“大力出奇迹”不具备明显护城河;阿里巴巴的“开源战略”不具备明显护城河;百度文心大模型的早发优势也不具备明显护城河。

中国科技巨头围绕大模型技术展开布局,此布局早已不再是单纯的模型技术参数比拼,而是升级为基座、算力、场景、生态等方面的全方位较量。

在 Create 2025 大会上,百度发布了文心大模型 4.5 Turbo 以及深度思考模型 X1 Turbo。文心大模型 4.5 Turbo 每百万 token 的输入价格为 0.8 元,输出价格为 3.2 元,其价格相比文心 4.5 模型下降了 80%。深度思考模型 X1 Turbo 相比文心 X1,在性能提升的同时,价格又降低了 50%。

百度的创始人兼首席执行官李彦宏在演讲里说,当前对于开发者而言,做 AI 应用存在一个很大的阻碍,那就是大模型的成本比较高,他们用不起。只有当成本降低了,开发者以及创业者们才能够毫无顾忌地进行开发,企业也才能够以较低的成本去部署大模型,最终促使各行各业的应用实现爆发。

全栈护城河

围绕基座模型本身的竞速还在持续。

李彦宏指出,多模态将会成为未来基础模型的标准配置。纯文本模型的市场会逐渐变小,而多模态模型的市场则会逐渐变大。基于此判断,文心大模型 4.5 Turbo 和 X1 Turbo 都进一步提升了多模态能力。在多个基准测试集中,文心 4.5 Turbo 的多模态能力与 GPT 4.1 相同,并且优于 GPT 4o。

文心大模型 X1 Turbo 是以 4.5 Turbo 为基础的深度思考模型。它在性能提升的同时,拥有更先进的思维链。其问答能力、创作能力、逻辑推理能力、工具调用能力和多模态能力都进一步得到了增强。整体效果在 DeepSeek R1、V3 最新版中处于领先地位。

李彦宏表示,有了这样极为能干的基础模型后,我们便能够打造出极为有用的 AI 应用,同时也能打造出极为有趣的 AI 应用。

由此,大会期间,百度发布了一系列新应用,先打了个样。

2025 年最令人激动的突破性应用当中有一项是 AI 数字人。李彦宏进行了介绍,他说百度发布的高说服力数字人具备声形超拟真的特点,也具备内容更专业的特点,还具备互动更灵活的特点,在电商直播领域、游戏领域以及消费领域,都有着巨大的应用空间。

传统数字人存在明显缺点,如文案枯燥、动作少、机器音重等,而高说服力数字人则不同,其表现力能够超越真人。“剧本生成”能力是支撑其落地的一个重要基础,借助多模态大模型,高说服力数字人能做到表情、语气、动作都与台词内容实时匹配并进行调整,情绪转折和动作切换也十分顺畅。

智能体已然成为 AI 应用的代称。在其中,代码智能体 Coding Agent 属于最近半年 AI 应用中进展最为迅速且最为热门的赛道。全球陆续有 cursor、devin、lovable 等一系列代码智能体涌现出来。

用一句话生成应用

李彦宏称,全球的程序员数量接近 3000 万,而世界人口有 80 亿。随着技术门槛逐渐降低直至消失,那么每个人都有机会具备成为程序员的能力。

文心大模型的能力得以拓展且效率得以提升,这得益于飞桨文心的联合优化。百度首席技术官王海峰在现场进行了介绍,飞桨框架 3.0 不但延续了动静统一以及训推一体的技术特色,而且在自动并行、神经网络编译器、高阶自动微分等方面持续取得突破。到目前为止,飞桨文心的开发者数量已经超过 2185 万,为超过 67 万家企业提供了服务,创建的模型达到 110 万。

百度是国内最早布局大模型的厂商,不止于此。其核心优势体现在“芯片 - 框架 - 模型 - 应用”四层架构的全栈自研能力上,同时还通过大规模算力集群构建了成本与效率壁垒。

进入人工智能时代,算力有着重要的地位。在大会进行期间,李彦宏在发布了一系列大模型基座和应用产品之后,宣告了“One more thing”,即正式将国内首个全自研 3 万卡集群点亮。

这是一种 XPU 架构,其基于昆仑芯第三代芯片 P800。据悉,此集群能够同时承载 5 至 6 个千亿参数的大模型全量训练,还能支持 1000 个客户进行百亿参数模型的微调。

_百度再加码,巨头竞速大模型生态_百度再加码,巨头竞速大模型生态

一个三万卡集群的建设,从硬件到软件,技术挑

战是全方位的。据悉,该集群构建了超大规模的 HPN 高性能网络,使得通信带宽的有效性提升到了 90%以上;为了提高 GPU 的有效利用率(即“MFU”),百舸持续对模型的分布式训练策略进行优化和完善,让训练主流开源模型的集群 MFU 提升到了 58%;而昆仑芯作为百度自主研发的 AI 芯片,凭借百舸 4.0 的助力,能够协助企业解决算力供应方面的问题。

巨头齐竞速

大模型产业持续迭代竞速,中国科技巨头的战略路径逐渐清晰。百度希望凭借全栈布局与自研基础设施来抢占身位。阿里巴巴的业务正加速从电商向 AI 进行转型。字节跳动在基座模型的基础上推动应用实现全方位覆盖。

谁能够在模型与应用之间寻找到生态闭环的那把钥匙,谁就拥有更多的竞争力。

其中,阿里巴巴正努力撕掉“电商公司”这一标签,朝着 AI 驱动的技术公司方向转变。它主要从以下三个维度来完善战略布局:一是云计算方面;二是模型方面;三是应用方面。

阿里的云计算网络是其主要的技术基础。然而,公司尚未公布大规模自研算力集群的相关进展。其旗下通义千问开源模型的能力已经达到了能够跻身全球第一梯队的水平。在应用方面,钉钉以及夸克是其典型的落地场景。

字节跳动的 AI 战略依托了云计算平台火山引擎,也依托了豆包基座模型,还依托了应用构建整体逻辑。在应用层,B 端有飞书,C 端有即梦作为典型。此外,还面向诸多场景推进应用落地,这种做法被业内称为“全面平推”。

百度在核心算力基础设施方面构建了较为坚实的基础,这使它在大模型竞争中拥有更充足的底气。

海通证券认为,若受到贸易环境的影响,部分美国的 GPU 厂商无法在中国市场正常开展业务。那么,预计中国数据中心的 AI 芯片市场将会重构,形成由华为、寒武纪、昆仑芯这三家公司主导的格局。

在开发者大会期间,百度智能云还发布了昆仑芯超节点。

百度集团执行副总裁、百度智能云事业群总裁沈抖进行介绍。他指出,昆仑芯超节点能够将 64 张昆仑芯 AI 加速卡放置于同一个机柜内。这样一来,一个机柜的性能相当于过去的 100 台机器。与以往的方案相比,昆仑芯超节点通过用更快的机内通信来替代机间通信,从而可以有效地降低带宽成本。最终,实现了卡间互联带宽提升 8 倍,单机训练性能提升 10 倍,单卡推理性能提升 13 倍。

沈抖认为,未来三年,推理降本,一定是企业最重要的工作。

2025 年被称作 AI 应用爆发的年份。基于此,百度搜索开放平台公布了“AI 开放计划”(sai.baidu.com)。该平台通过构建多种内容与服务的分发机制,向智能体、H5、小程序、独立 App 等应用开发者给予流量和收益方面的支持。

MCP 出现后,有助于开发者和企业在开发 Agent 时,能更有效地利用行业数据与工具。在本次大会期间,百度智能云推出了国内首个企业级 MCP 服务,首批已有超过 1000 个 MCP Servers 可供企业及开发者进行选择。开发者能够在百度智能云千帆平台开发自己的 MCP Server ,之后可将其发布到 MCP 广场 ,这里支持免费托管 。同时 ,百度搜索会对这些 MCP Server 进行索引 ,以便它们能被更多开发者引用 。

当前大模型竞争的本质在于生态能力的比拼。基础设施与场景渗透成为了关键的变量。百度凭借全栈布局、自研算力以及开放生态,在当前处于暂时领先的地位。然而,它能否持续保持这种优势,关键在于能否在行业场景中实现更为深度的标准化输出。随着新玩家如 DeepSeek 加入进来,中国大模型市场的“混战”会持续地升级。而真正的赢家,是那些既能够仰望技术的星空,又能够脚踏产业的实地的长期主义者。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/275676.html

联系我们

在线咨询:点击这里给我发消息

微信号:13588888888

工作日:9:30-18:30,节假日休息