1. 首页>>分享

国内大模型创业公司独角兽竞争激烈,MiniMax副总裁刘华谈未来发展方向

图片

国内已涌现出六家独角兽大型创业公司。尽管头脑已经清晰,但关于哪家创业公司有更好的路线、未来谁能留在牌桌上的讨论却一直没有停止。

12月初,第一财经记者在上海见到了MiniMax副总裁刘华。他的判断是,基础大模型赛道将仅限于个位数公司,包括大型制造商和初创公司。此外,很多人想转向人工智能应用。

MiniMax 是六家独角兽公司之一。在布局上,有的独角兽放弃了做视频模型,有的在B端和C端应用之间进行选择。 MiniMax覆盖范围更广,布局语言、视频大模型、B端和C端应用。产品包括Conch AI、Talkie以及相应的国内版本产品Hoshino。

MiniMax此前很少面对媒体。在这个一个多小时的采访中,刘华谈到了初创企业的商业化思路、对O1路线的判断以及目前的行业格局。他和算力提供商讨论了算力需求的变化。腾讯云北区云原生总经理田丰渡认为,并不是所有的模型训练都需要10万卡集群。

图片

“前提比Meta的开源模式更好”

“国内人工智能产业总体上没有太多泡沫。”刘华告诉记者,之前行业内之所以存在一些资源浪费的情况,是因为太多企业认为自己可以做基础的大尺寸模型。跳过泡沫,更好的情况是让大家认识到能够做基础模型的公司并不多,更多的人有兴趣做大规模的模型应用。

过去一年,大模型的浪潮已经从文本转向多模态。除了能够在多个领域同时出击的大厂商之外,六大独角兽还需要根据自身能力做出是否做大型视频模型、重点关注什么类型的应用等决策。 ,其中一些已经做出了选择。其中,月之暗面是专注于C端应用的代表,智普AI相对专注于B端应用,百川智能则决定不再走Sora视频大模型的路线。 MiniMax也进入了文本和视频大模型领域,并部署了C端和B端应用。其中C端产品已进入180多个国家和地区。 AI产品榜单数据显示,11月AI社交产品Talkie全球月活跃用户为2519万,位居全球榜单第9位。

刘华告诉记者,对于初创公司来说,更好的路线是打造大模型,多做B端标准化产品,而在C端只做少量应用。做To B和To C产品的目的是让大模型技术接触到更多用户,并通过用户反馈知道如何改进模型。盈利问题需要慢慢审视。公司会对产品做少量的推广和推广,但目前来看,单纯为了扩大用户群而投入的价值不大。通过这种方式获得的用户粘性较差,仅30天后留存率就“不可能”。

在应用变现方面,刘华判断,中国市场的优势在于用户规模大。国内C端产品最终还是靠流量变现。广告是一种方式。海外C端用户有较好的付费习惯,付费会员也是一种合适的方式。 。

目前业界有一个争论,B端应用的大模型是定制化好还是标准化好。某大型模型定制厂家负责人告诉记者,定制模型推理成本较低,客户可以完全控制和调整模型。刘华的判断是,初创公司做B端产品更好的出路是通过标准化。

“国内做一个AI定制项目最快要半年,最慢也要一年多。如果做一个定制项目需要一年半,也许我们的模型可以满足(要求) “迭代两个版本,那就多花点时间。”刘华解释道,针对客户对数据安全的担忧,可以通过与腾讯打造云专区来保证企业数据的安全。预计会有更多的国内企业接受标准化。调整API(接口)方式。

基于公司商业化和获得大厂商支持这两种方式,刘华认为初创公司能够留在大模型赛道并持续迭代模型的可能性很大。

在做应用和做大型模型之间,刘华也认为,大型模型玩家必须提供商业服务并产生收入,这意味着为客户提供其他厂商无法提供的服务,尤其是拉开与开源模型的差距。 。 “比开源模型好是最基本的门槛,如果基础大模型做不到这一点,你就不用玩了,可以转做AI应用。在中国商业化最基本的前提是比现在的Meta Llama模型更好,不然别人怎么会花钱用你的模型呢?”刘华说道。

“o系列的方向可以降低模型错误率”

在技​​术道路上,大模型行业也在迭代。北京时间周五凌晨,OpenAI推出“满血版”推理模型o1。该模型于今年 9 月作为预览版推出,在 AI 行业掀起了波澜。国内多家大型模型创业公司纷纷表达了自己的看法。月之暗面创始人杨志林表示,o1标志着人工智能范式转变,百川智能创始人王小川认为,这标志着人工智能范式升级。然而,虽然o1指出了AI的新路径,但并不是所有大型模型厂商都在改变研发范式。

“O系列模型是一个重要的发展方向,可以降低模型错误率,让大型模型能够应用于严肃的生产、研发、科研、设计领域。这与我们减少模型的目标是一致的。”错误率。”刘华告诉记者,上一代GPT系列机型的一个问题是错误率比较高,在30%左右。要进入这些严肃的领域,错误率必须至少降低到2%到3%。

不过,刘华认为,O系列模型只是开辟了一个方向,未来可能会引发一些场景,比如大型模型思考一个问题数周或数月来回答人类社会的重大问题。对于MiniMax来说,该公司不会因为其他厂商的影响而轻易调整自己的开发模式或技术路线。除了降低错误率之外,该公司的研发方向还包括制作多模态模型,以确保大型模型能够以更低的输入和输出成本处理复杂问题。计算。

大模型厂商在技术迭代的同时,计算能力也在适应大模型提出的新要求。田华告诉记者,MiniMax早期使用的是数千张卡的集群。现在需要扩大几千张、几万张卡。未来对算力会有更大的需求,这对算力提供商的组网和集群运维都会产生很大的影响。能力提出了很高的要求。以网络为例,在万亿参数的大模型下,训练通信的比例基本可以达到50%。传统的网络协议很容易造成拥塞,导致训练效率下降。腾讯云为此对星脉网络进行了优化,使其能够支持10万卡的超大规模训练集群。

海外厂商也在部署大规模算力集群。此前,特斯拉CEO马斯克旗下的AI公司xAI初步打造了拥有10万个H100 GPU算力的超级AI训练集群Colossus。当地时间12月5日,大孟菲斯商会表示,xAI计划增加Colossus的算力。扩大十倍。

从万卡到十万卡集群,田华告诉记者,除了模式本身之外,还需要解决更多集群的网络和运维问题。并非所有培训制造商都需要 10,000 张卡或 100,000 张卡。同时,模型使用100,000卡路里的效率并不一定大于10,000卡路里。这不是一个前向叠加过程。

刘华告诉记者,10万卡集群在美国还是极少数公司追求的。

(本文来自第一财经)

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/273041.html

联系我们

在线咨询:点击这里给我发消息

微信号:13588888888

工作日:9:30-18:30,节假日休息