1. 首页>>分享

百度世界 2024 大会:李彦宏强调大模型应用的重要性及真需求的爆发

面对全球大车型热潮,是一场新的科技革命,还是新一轮的泡沫灵魂质疑?

百度再次指出了应用的答案——“如果没有基于基础模型构建的丰富的AI原生应用生态,大模型就没有价值”。

11月12日,百度世界2024大会的主题是应用。在长达一小时的演讲中,李彦宏42次提到了应用。他认为“依靠检索增强(RAG)技术,大型模型会利用检索到的信息来引用”基于此,李彦宏觉得,过去24个月AI行业最大的变化在于“大型模型基本上消除了幻想”——这也是应用程序的爆炸式增长。的基础.

基础模型能力到位后,他观察到应用层的真实需求逐渐爆发:

截至11月初,百度文信大模型日均调用量突破15亿次,较5月份披露的2亿次增长7.5倍,较一年前首次披露的5000万次增长约30倍。

在产业方面,百度智能云已经拥有国内规模最大的大规模模型产业落地。超过60%的国企和大量民企正在联手百度智能云开展AI创新。百度智能云千帆大模型已帮助用户微调3.3万个大模型,开发77万个企业级应用。

事实上,百度对待应用的态度一直比较激进。去年的百度世界大会上,李彦宏喊道:“百度要成为第一家对现有所有产品进行重构和重做的公司。”

今年的大会上,百度在应用方面的布局更加大胆。

似乎很难将大胆与百度这家公司联系起来,但立志做应用的百度也透露出一些与以往不同的端倪。

利用AI重构产品矩阵只是第一步,一些剧烈的变化正在发生。

最大的变数?

这样的变化就发生在百度的“基础市场”——搜索业务上。

作为PC时代的搜索巨头,百度在AI搜索应用方面的动作一直备受关注。随着战火逐渐蔓延至AI搜索,百度也不能坐以待毙。

目前,百度搜索引擎总搜索量的18%是通过智能问答的快速思维方法进行回答的,这意味着百度AI每天的搜索量已突破1亿。

智能问答的思维敏捷,主要针对简单问题,答案明确,例如:百度大会举办多少年了?

百度搜索向虎嗅透露,近期,百度在AI搜索方面开辟了更多新路径——内部测试了深度推理搜索的慢思维模式。

该模型支持更复杂的问题,需要基于整个网络的信息进行推理和集成。例如:近两年国内新能源汽车的发展趋势如何?

目前OpenAI的O1和Kimi的探索版都采用了这个应用思维链的深度推理搜索能力。据国内某AI公司高管刘小虎透露,目前国内有更多厂商正在投资这条路线。百度的优势在于其积累的用户数据和全网数十亿的搜索溯源库。

与此同时,作为分发门户,百度也在将更多其他人工智能应用融入到搜索中。例如,依赖百度搜索获取流量的座席平台——用户可以通过百度搜索场景直接进入座席触发对话。

在业界非常关心的AI搜索成本方面,百度移动生态集团(MEG)搜索平台负责人肖扬曾对虎嗅表示,单看搜索,用文欣的话说,“最终的满足感,推荐刺激,“多轮互动”的搜索成本并没有那么可怕。与普通搜索相比,集成生成式AI的搜索成本仅“略高”。

极端的变化

此外,在C端应用方面,百度也在探索基于AI重构产品的更多可能性。

这里我们以李彦宏展示的工具代理——“自由画布”为例。与去年相比,其形式更倾向于探索新的应用边界。

事实上,去年它仍然采用了业界主流AI原生应用的产品形态——对话框交互,用户输入不同的指令,生成所需的AIGC内容。这里支持的内容可以是视频、文档、图片。

今年的“自由画布”不再是对话框的形式,而是支持不同模态限制的画布。用户可以将各种形态的视频、文档、图片等文件同时拖拽到画布中,生成用户需要的内容。

高自由度还体现在用户可以在所需的文档材料中标记某些句子并输入更精确的指令,例如“以更严肃的风格重写此段落”或“在报告中保留此段落”。

百度副总裁、百度事业部及网盘事业部负责人王瑛向虎嗅透露,该产品的设计理念源于两个阶段。

首先,当她在2023年3月重构应用程序时,她在思考图书馆应该以什么形式作为内容创建(输入)的起点。当时她发现问题在于不同平台上存在不同的编辑器。因此,我逐渐开始产生了做一个更加一体化的跨模态产品形态的想法。

第二,2024年3月,我们开始同时考虑输入、处理、输出三个维度,产品形态变得更加清晰——在这个平台上,用户可以输入和输出任何格式的内容。

库侧重于创作、编辑等内容生产端,而网盘则侧重于共享、存储等内容消费端。这两种形式自然形成了内容创作的闭环环节。

因此,他们决定将百度文库和网盘进行整合,打破文库中的公共领域信息与个人授权的网盘上的私域内容之间的壁垒,实现内容创作和消费的闭环。

变革之后,王莹发现他们“实施了全新的内容操作系统”。

极端变化之下,百度文库目前月活跃用户超过7000万,位居国内AI应用月活跃用户第一。百度文库AI产品负责人钟浩表示,截至2024年10月,文库AI累计用户数将突破2.3亿。

不想要超级应用程序吗?

尽管业界讨论AI超级应用的声音没有改变,但李彦宏表示,“百度不会推出‘超级应用’,而是会继续帮助更多人、更多企业打造数百万个‘超级好用’应用。”应用。”

同时,百度发布了基于大模型的百强行业应用,涵盖制造、能源、交通、政务、金融、汽车、教育、互联网等多个行业。

对此,百度智能云事业群总裁沉斗判断,“AI应用在B端率先爆发”。

百度智能云技术委员会主席孙科告诉虎嗅,应用层的优势还体现在百度上下层的连接和基础设施的支撑上。 “我们一直提倡的是从底层芯片层、基础云设施、平台、应用四层开始。架构全打通,客阅等应用基本构建在百歌、千帆等底层平台上。这是我们的基本逻辑。”

在底层算力方面,由于《暴力美学》大模型的算力要求已经突破了十万卡门槛,百度也提前做好了规划,是业内最早打磨十万卡的厂商之一集群能力。

百度AI计算部负责人王彦鹏告诉虎嗅,虽然需要10万张卡的大型模型初创公司只有一两家,但他们对成本的要求非常高。 10万卡的意义在于,通过跨区域RDMA技术、多核混合训练技术、容错技术的技术储备,可以提供更好的云平台。随着整体云成本的降低,可以为客户提供更好的计算能力。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/271464.html

联系我们

在线咨询:点击这里给我发消息

微信号:13588888888

工作日:9:30-18:30,节假日休息