1. 首页>>分享

AI龙头科大讯飞2024年报及一季报发布,营收增长亮眼

AI领域的龙头企业科大讯飞(002230.SZ),在近日发布了2024年报。这份年报显示,该公司全年达成的营业收入为233.43亿元。与上一年相比,增长幅度达到了18.79%。这意味着时隔两年后,公司再次回归到双位数增长状态。其毛利方面,同比增长了18.7%,达到了99.5亿元。在同一时期,归母净利润为5.6亿元。

同一天公布的一季报表明。公司在2025年第一季度取得营收。营收为46.58亿元。与去年同期相比增长了27.74%。

从业务角度看,公司核心赛道业务表现出色。消费者业务营业收入保持较高两位数增长。教育业务营业收入保持较高两位数增长。汽车业务营业收入保持较高两位数增长。医疗业务营业收入保持较高两位数增长。并且收入结构持续优化。

详细来说 开放平台及消费者业务是公司第一大业务板块 实现收入78.86亿元 同比增长27.58% 在平台消费者业务里 开放平台实现收入51.72亿元 同比增长31.33% 智能硬件实现收入20.23亿元 同比增长25.07%

在教育领域,智慧教育业务取得了收入。其收入为72.29亿元,与上一年相比增长了29.94%。投资者调研记录有所呈现,在2024年前三季度期间,科大讯飞AI学习机的销量增长幅度超过了100%。

此外 汽车业务保持快速增长势头 实现收入9.89亿元 同比增长42.16% 医疗业务同样保持快速增长势头 实现收入6.92亿元 同比增长28.18% 企业AI解决方案业务也保持快速增长势头 实现收入6.43亿元 同比增长122.56%

需要指出的是,在2024年年底的时候,讯飞医疗(02506.HK)成功于港股实现分拆上市。根据此前披露的年报可知,讯飞医疗在2024年时,G端收入同比增长了10%。B端收入同比增长了103%。C端收入同比增长了57%。

回顾科大讯飞2024年营收与盈利数据。有一个表现值得外界关注与思考。即它在保持高速增长。且有较高盈利能力的同时。还大力投入建造自身技术壁垒。

短期营收增长和盈利承压存在矛盾。长期技术壁垒蕴含潜力。这两者一直是科技公司面对研发投入时要平衡的难题。而这也决定了一家公司的长线规划能力。还决定了一家公司的未来战略高度。

AI大模型是其中尤为重要的一环。

2024年,科大讯飞研发投入达到45.8亿元。其占营收比例为19.62%。其中,公司在大模型研发方面新增研发投入7.4亿元。在核心技术自主可控方面新增研发投入7.4亿元。在大模型应用落地方面新增研发投入7.4亿元。

实际上在2023年行业历经百模大战后通用大模型话语权迅速向互联网大厂头部创业公司及一批有实力的上市公司集中在商业化压力和预训练阶段Scaling Law曲线放缓等多种因素影响下坚持基座模型训练已不再是所有人必然的选择

于是 要不要放弃基座模型训练 然后大力转向应用层竞争 成了在场玩家的关键抉择 对科大讯飞来说 答案很明显 公司还是要坚持技术与应用双轮驱动

论及坚持基座模型训练的必要性 公司董事长刘庆峰对市场如此回应 即“坚持1+N 我们有能力 国家有需求” 其中“1”是底座模型 “N”是教育 医疗 金融 汽车 能源 司法 安全 工业互联网及AI for Science等N个关键领域的行业大模型

科大讯飞和行业里的其他竞争对手相比。科大讯飞对基座模型及行业模型的投入更具针对性。在预训练阶段就加入了对业务协同的考量。在预训练阶段就加入了对产业落地的考量。

刘庆峰透露,公司训练行业模型时,考虑到了教育、医疗、司法等相关方面需求。所以训练底座时,基本数据资源有更高质量清洗。

在基座模型的具体表现方面,讯飞自主研发的推理模型星火X1,参数量为70B,能达到对标OpenAI o1的效果。这使讯飞成为未被美国技术甩开的中国厂商之一。其技术壁垒,在央企、医疗等安全敏感领域形成了差异化竞争力。还通过讯飞开放平台,吸引了820万开发者,构建了生态黏性,形成了自己的平台经济效应

在行业落地方面的表现上 讯飞的底座模型成了其业务增长的技术基础 是业务增长所依赖的技术根基

在C端,讯飞AI学习机2024年收入实现翻倍增长。到了25Q1,收入近乎翻倍。在B端,它与各领域头部企业合作打造行业大模型。该模型中标项目数量以及金额在行业中均位居第一。上述财报还表明,2024年其智慧汽车营收增长42.16%。医疗营收增长28.18%。企业AI解决方案营收增长122.56%。这证实了底座模型对垂直场景具备适配能力。

科大讯飞有面向长期的独特竞争力。这体现在其对底座模型研发投入坚定。还体现在其技术全栈国产化的决策上。

4月20日,讯飞星火X1实现全新升级。它是当前业界唯一基于全国产算力训练的深度推理大模型。在70B参数大模型里,它是最好的深度推理模型。其效果能与国际顶尖模型水平(如DeepSeek-R1 671B)同级别相媲美。

这证明国产算力训练的全栈自主可控大模型有实力登顶业界最高水平。这也证明该模型有持续创新的潜力。

刘庆峰称科大讯飞有能力在当前基于预训练和强化学习的算法基础上利用全国产算力将底座模型做到业界最好。并且基于自主研发的底座模型训练出的行业模型在尺寸灵活性上比基于开源模型训练出的行业模型好。在适配深度上也比基于开源模型训练出的行业模型好。最终效果同样比基于开源模型训练出的行业模型好。

美国对中国实施芯片禁售。在此背景下。科大讯飞和华为携手合作。共同打造了“飞星一号”国产算力平台。国产算力生态在软件生态方面存在短板。为完成华为昇腾910B算力的适配与优化,大幅提升训练效率。训练效率相比英伟达A100,从55%提升到85%。讯飞自主研发的大模型迭代比业界一流水平晚2至3个月。即便算力更小,讯飞也进入了底座大模型的第一阵营。

科大讯飞以更宏观和长期的视角看待这一有限挑战。

刘庆峰指出 在国产算力平台建设底座大模型 对国家有战略意义 在市场上有独特应用需求 像央国企 还有安全等重要行业 对自主可控底座大模型需求迫切 讯飞基于国产算力训练 各方面可靠性更优 更受相关客户和国家主管部门信任

当然,即便这样。科大讯飞也没办法回避开源模型给闭源模型带来的行业冲击。

科大讯飞认为,开源模型提升了市场对AI应用的热度。各行业愈发迫切地想用大模型推动行业发展与变革。然而国产自主可控的闭源系统才契合真正的需求。

一旦开源模型达不到行业模型所需的高可靠度。比如在幻觉控制方面、安全漏洞方面、行业场景高准确率方面等。就会使其难以深入规模化行业落地。所以在国产算力自主可控性上。讯飞坚持做业界最好的闭源系统。这也符合未来产业发展的刚性需要

公司觉得,在极为重要的关键领域,讯飞得在自身闭源系统里实现落地。不能产生幻觉,且要朝着高精度方向发展,还要采取高可靠度举措。与此同时,公司积极接纳开源及第三方模型,一起为客户供给更完备更丰富的应用落地解决办法。

面向未来,在技术全栈国产化领域,自主可控的通用底座大模型会持续获得国家的大力扶持。

公司称,在国家大力推进人工智能自主可控算力建设的战略背景下,“飞星二号”一期项目成果于2025年初已投产。随着国家对人工智能自主可控的支持持续落实,未来一段时间,星火大模型在模型训练投入方面,算力投入不会有大幅增加。

在全球竞争的视野下 国产自主可控市场需求愈发迫切 讯飞在全栈自主可控方面付出额外努力 这会成为先发优势

本次关税战过后,美国对中国的技术封锁很可能持续升级。要是国外高端算力芯片彻底停止供应中国,其他厂商凭借英伟达算力的优势或许难以维持。科大讯飞坚持在国产算力上开展训练,虽说付出了额外的算力成本以及时间代价,然而在未来战略竞争愈发激烈、美国完全断供的情形下,这些付出会转化为优势。

可以推断出,科大讯飞的底座模型战略,其本质是构建一个闭环。这个闭环是“技术-生态-商业”的。而国产化路线能确保科大讯飞,在供应链安全方面占据先机。同时,在政策红利方面也能占据先机。

短期内,科大讯飞处在“高投入换增长”的阶段。此时盈利面临压力,不过现金流得到改善,营收结构也实现了优化,这为技术攻坚提供了缓冲。从长期来看,底座模型具有技术壁垒,存在生态协同效应,还有政策红利,这些将支撑科大讯飞成为AI 2.0时代的核心平台级企业。

正如刘庆峰所说:“要是如今不让自身企业与生命依托大模型运行。那么很有可能当下所有依靠人力与市场的商业模式。会在一两年内被完全颠覆。”

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/275704.html

联系我们

在线咨询:点击这里给我发消息

微信号:13588888888

工作日:9:30-18:30,节假日休息