随着AI大模型赛道进入“深水区”,苹果智能(AI)选择中国AI大模型合作引人关注。
据12月19日消息,有报道称,苹果正在与腾讯和字节跳动谈判,将两家公司的AI模型混元(元宝)和豆宝大模型整合到在中国销售的iPhone设备中,但谈判仍在进行中。早期阶段。此前,苹果AI与百度合作的消息不胫而走,但现在表明两家公司的合作存在一定障碍。
对此,腾讯“不予置评”。 18日,钛媒体AGI就相关问题向字节跳动旗下火山引擎总裁谭代进行询问。他回应称“安卓手机的国内份额高于苹果”,并没有更进一步。直接回应这个问题。
值得一提的是,12月19日,北京致远人工智能研究院(致远院研究员)发布了国内外100多个开源和商业闭源模型的多项评测结果。作为今年NVIDIA全球第二大买家,字节跳动的23万GPU的豆宝大模型排名第一,语言模型结果字节跳动的豆宝Pro和百度ERNIE 4.0 Turbo模型分列第一和第二;在视觉语言模型方面,OpenAI GPT-4o和刚刚发布的豆宝视觉理解模型Doubao-Pro-Vision分列第一和第二,能力排名第一梯队,远超大型模型“六小虎”,百度、腾讯等公司开发了AI大模型。
“字节豆宝太强大了,无论是投资还是自身(流量)资源,都给‘六小虎’(智浦、百川、零一、月之暗面)的大车型带来了巨大的利益。 、MiniMax、Step Stars)压力。”某大型AI模型公司内部人士向钛媒体AGI透露了目前的看法。
在OpenAI o1大模型的压力下,各大互联网公司纷纷聚焦AI大模型技术和商业化,这给AI行业带来了一定的压力。
对此,19日下午,致远研究院副院长兼总工程师林永华向钛媒体AGI表示,字节豆宝和快手在大模型能力上有两个优势:一是语言模型本身需要不断“数据化”。 “飞轮”用于训练,大厂商有着天然且强大的流量优势,因此其模型能力无疑更强,尤其是在主观评价上。其次,在文森图片和文森视频模型领域,字节快手的优势在于高品质。在短视频数据层面,相比非互联网厂商优势明显。
林永华强调,未来大模型平台将分为两类,即“基础通用大模型”和“代理开发平台”。其中,通用基地模式存在一定的投资挑战,需要较多的资源。但国内有实力的机构包括阿里巴巴同易前文、清华的公司(智普、月之暗面等)、上海AI Lab等,他们都在不断迭代底层模型平台,这对于发展非常重要的AGI。
截至12月19日收盘,百度(9888.HK)跌4.16%,腾讯(0700.HK)涨2.27%。
字节豆宝、腾讯先行,苹果正在测试中国大模技术
目前,苹果正在对字节跳动、腾讯、百度等公司进行全面审查,重点测试中国大型AI模型的技术实力,并从“舆论场”进行筛选和评估。
据路透社12月19日报道,苹果正在与腾讯和字节跳动进行谈判,将其人工智能模型整合到在中国销售的iPhone中,但相关讨论仍处于非常早期的阶段。
此前,苹果曾尝试与百度合作,积极探索通过百度“文心一言”大模式向中国用户引入AI功能。然而,双方的合作并非一帆风顺。有报道称,苹果在将百度大机型适配国行版iPhone时遇到不少问题。例如,AI无法在常见的使用场景中给出准确的响应。
事实上,本月,苹果开始在其设备上推出 OpenAI 的 ChatGPT,作为其 Apple Intelligence 产品的一部分,它允许 Siri 语音助手利用聊天机器人的专业知识,包括处理用户对照片和演示文稿等文档的查询。询问。
不过,由于ChatGPT在中国无法使用,苹果需要寻求本地合作伙伴来实现其AI功能,但苹果聪明的中国合作伙伴不断发生变化。
一旦苹果iPhone能够内置字节跳动的“豆宝”和腾讯的“混元”大模型技术,将对这两家公司的AI业务发展产生非常重要的影响。
今年3月,苹果财报显示,其活跃苹果设备已超过22亿台,较去年增加近4亿台。摩根士丹利的一份报告称,苹果智能功能将成为苹果设备多年升级周期的“重要催化剂”。未来两年,iPhone出货量将超过5亿台,预计2025财年和2026财年出货量分别为2.35亿台和2.62亿台。
在苹果看来,中国大规模AI模型的技术能力和投入是非常重要的“两个环节”。其中,字节跳动和腾讯都具有较强的市场竞争力。
其中,在大型模型技术能力方面,字节跳动的“豆宝”率先到来,排名第一。
林永华坦言,国内AI大模型行业已经开始出现“分层”,更多企业的模型训练能力已经达到了“应用的可能性”;一些公司也在向AGI、更大规模、开源的方向发展。今年的两次评估中,2024年5月大型语言模型公司有56家,到年底12月下降到46家。 5月份多式联运公司数量为32家,12月份增加至42家。
12月19日,基于全球800多个开源和闭源模型,智源研究院发布了最新大型模型评估平台FlagEval的结果,其中包括20多个任务、90多个评估数据集等超过 200 万个评估问题。结果表明,主要包括语言、视觉语言、Vincentian图片、Vincentian视频、语音和语言大模型合成及专项评价9个方面。
其中,语言模型:字节跳动豆宝-pro-32k-preview和百度ERNIE 4.0 Turbo排名第一和第二;在语言模型的客观评价中,OpenAI o1-mini-2024-09-12 和 Google Gemini-1.5 -pro-latest 排名第一和第二,阿里巴巴 Qwen-max-0919、字节跳动豆宝-pro-32k-preview 排名第三、第四,Meta Llama-3.3-70B-Instruct 排名前五。
视觉语言多模态模型:OpenAI GPT-4o-2024-11-20和字节跳动Doubao-Pro-Vision-32k-241028领先于Anthropic Claude-3-5-sonnet-20241022、Alibaba Qwen2-VL-72B-Instruct而谷歌Gemini-1.5-Pro紧随其后。
混元图像多模态模型:腾讯混元图像排名第一,字节跳动豆宝图像v2.1和Ideogram 2.0分别排名第二和第三,其次是OpenAI DALL·E 3和快手刻图。
文森特视频多模态模型:快手科灵1.5(高画质)排名第一,字节跳动梦幻P2.0 pro、爱视科技PixVerse V3、MiniMax海螺AI、皮卡1.5排名第二至第五。
语音语言模型:专项评测结果显示,阿里巴巴 Qwen2-Audio 排名第一,香港中文大学 & 微软 WavLLM、清华大学 & 字节跳动 Salmon 排名第二、第三,Nvidia Audio-Flamingo、MIT & IBM LTU 均进入前五。
K12科目考试:综合成绩较半年前上升12.86%。在英语和历史文科试题的表现方面,一些模型已经超过了人类考生的平均分数。总体来说,阿里巴巴、OpenAI、步星模型的表现还不错。
此外,FlagEval大型模型竞技场是致远研究院今年9月推出的向用户开放的模型对战评测服务。共有29个语言模型、16个图文问答多模态模型、7个基于文本的图解模型、14个葛文胜的视频模型参与评测,最后是OpenAI、快手、字节跳动、腾讯的大型模型名列前茅;模型辩论平台FlagEval Debate方面,Anthropic Claude-3-5-sonnet-20241022、零一物Yi-Lighting、OpenAI o1-preview-2024-09-12位列前三;金融量化交易测评结果显示,Deepseek-chat和OpenAI GPT-4o -2024-08-06、Google Gemini-1.5-pro-latest位列前三。
显然,在与美国OpenAI的竞争中,从模型层到软硬件协同推进,字节跳动已经牢牢确立了自己在大型AI模型领域的领先者地位。
今年11月全球月活跃排名中,豆宝App的MAU(月活跃用户)接近6000万,位居全球第二,仅次于OpenAI的ChatGPT;截至目前,豆宝大模型日均代币使用量超过4万亿,发布7个月内增长超过33倍。
12月18日,火山引擎总裁谭岱宣布,豆宝视觉理解模型的输入价格仅为0.003元/千代币,1元可处理284 720P图片,比行业价格便宜85%。
谭代向钛媒体AGI透露,目前国内大部分安卓手机都在与豆袋配合。对于手机厂商来说,在某些场景中会使用豆袋,在某些场景中会使用其他大型模型,或者在某些场景中混合使用。对于企业用户来说,肯定需要多云或多模型策略。 “最终,谁的能力更好,成本更低,谁就使用,账就好算了。”
谭代强调,字节目前不关注市场竞争,因为大机型市场还处于早期阶段,更多的是场景和需求是否得到满足。从长远来看,大模型C端和B端、虚拟场景和现实场景应该齐头并进。
“这个市场还处于早期阶段,可能千分之一才刚刚开发出来。这个时候,你其实不用担心竞争,你需要担心的是用户的需求没有得到满足。” ”。谭代说,最重要的是能够把事情做好,把计划落实好。 “我们有时会告诉客户,每一种都尝试一下,你就会知道该和谁合作。这是一种自然现象,不涉及声音高低的问题。”
林永华表示,2024年下半年,大型AI模型的发展将更加注重综合能力提升和实际应用。多式联运模式发展迅速,涌现出许多新制造商、新模式。语言模型的发展相对放缓。在模范开源生态中,除了持续致力于开源的国内外机构外,还涌现出新的开源贡献者。同时,得益于大文本模型的进步,语音语言模型的能力得到了大幅提升,覆盖范围更加全面。但在具体任务上它与专家模型还存在一定的差距。总体来说,性能好、通用能力强的开源语音语言模型太少了。
林永华强调,一些大型AI模型公司已经转向Agent应用层的方向。未来如果要提高效率、实现更广泛的应用,人工智能公司就需要在推理端下功夫。
OpenAI首席执行官Sam Altman曾断言:“我们将会有越来越好的模型,但我认为下一个重大突破将是AI Agent智能。”
今年GPU卡采购量达46万张,大型AI模型公司加速“内卷化”投入
除了技术能力,字节跳动和腾讯还在“量”算力。两人总共购买了46万颗NVIDIA GPU芯片,成为NVIDIA全球第二大买家。要知道,英伟达今年的AI GPU计算卡总销量才达到200万张。
具体来说,研究机构 Omdia 的一份报告显示,微软今年采购了大约 48.5 万张 NVIDIA Hopper 架构 H100/H200 GPU 计算卡,这是其 2023 年采购的同代 NVIDIA AI 处理器数量的三倍多,排名并列第三位。其次,字节跳动和腾讯两家中国公司各采购了约23万颗Nvidia GPU芯片,超过了Meta、亚马逊和谷歌等美国科技巨头。
上述报告显示,到2024年,全球科技公司将在服务器上花费约2290亿美元,其中微软的资本支出为310亿美元,亚马逊的资本支出为260亿美元。数据中心基础设施前十大买家的投资占比高达60%。
Omdia 云计算和数据中心研究总监 Vlad Galabov 表示,到 2024 年,大约 43% 的服务器支出将流向 Nvidia,“我们已经接近峰值了”。
微软Azure全球基础设施高级总监阿利斯泰尔·斯皮尔斯(Alistair Speirs)表示,“良好的数据中心基础设施非常复杂,是一个资本密集型项目,需要多年的规划。因此预测我们的增长方向,并留下一点点缓冲空间,这很重要。”
谭大泽认为,AI的出现让所有基础设施从CPU转向以GPU为核心,使得“云原生”的概念变得非常重要。 “我们相信AI云原生会是未来10年更重要的事情,未来基础设施领域可能会发生很大的变化,从云原生到AI云原生,霍山希望成为这个领域的领先公司”。
谭代强调,AI大模型的场景非常重要。它们不仅需要平台和算法,还需要服务来帮助企业识别AI大模型的使用场景,从而更好地落地AI技术。
林永华指出,现在优秀的开源语言模型已经发展到了基础的能力,想要再出现大幅增长肯定不是特别容易的事情。并不意味着使用更大的参数或更多的数据,而是需要更深入的创新能力。现在,语言模型已经进入了“深水区”,因为“深水区”利润更大,创新难度也更大。但在多模态模型层面,一些基础能力仍有明显的成长空间,明年多模态模型将层出不穷。
展望未来,林永华强调,对于大型AI模型来说,不存在所谓“数据”的“枯竭”。十年前,互联网数据占全球数据量的近5%。现在到2021-2024年已降至1.3%。然而,全球使用中文上网的人数一直保持在19%左右不变,因此庞大的中文互联网数据已经形成了“数据孤岛”,因此打破AI模型训练的数据孤岛将变得非常关键,而“合成”数据将变得非常关键。 “数据”解决了更复杂的问题和方向,是一种更高效地生成数据的方式。
“目前国内的AI视频生成模型的性能其实和国外(sora)相差无几。”林永华表示,2025年FlagEval评估体系的开发将进一步探索动态评估和多任务能力评估体系。
(本文首发于钛媒体App,作者|林志佳,编辑|胡润峰)
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/273445.html