今年 1 月底,DeepSeek 发布了 R1 模型。这个消息在整个科技圈引起了巨大轰动。英伟达因此应声下跌 16.79%,市值蒸发了 5900 亿美元,创下了美国金融史的记录。
英伟达发言人曾表示:“DeepSeek 是一项极为出色的人工智能方面的进步。”“同时,它也是测试时间缩放的一个非常完美的例子。”尽管英伟达的状况已经有所好转,但是其 CEO 黄仁勋一直都没有对这件事情进行公开的回应。
周四,黄仁勋在一场访谈里首次对 DeepSeek 作出回应。他称投资者对 DeepSeek 在人工智能领域取得的进展存在误解,而这致使市场对英伟达在股市出现了错误反应。DeepSeek 因低成本高性能而受到关注后,投资者开始对科技公司投入巨额成本建设 AI 基础设施的必要性产生质疑。黄仁勋指出,市场的剧烈反应是由投资者的误读导致的。R1 的开发似乎减少了对算力的依赖,然而人工智能行业仍需强大的算力来支持模型后训练处理方法,这种方法能让 AI 模型在后训练时进行推理或预测。从投资者的角度而言,他们觉得世界分为预训练和推理两个阶段,且推理就是向 AI 提问并即刻得到答案。我不知道这种误解是由谁造成的,但很明显这种观念是错误的。黄仁勋指出,预训练有着重要性。而后处理则是“智能最重要的部分”,同时也是“学习解决问题的关键环节”。此外,他还认为 R1 开源之后,在全球范围内所展现出的热情让人难以相信,“这是一件极为令人兴奋的事情”。以下是黄仁勋访谈的主要环节实录:
黄仁勋:
世界上第一个开源的推理模型,R1 开源后在世界范围内引发了令人难以置信的兴奋和能量,这实在是太了不起了。
真正令人兴奋的是,你或许已经留意到了,DeepSeek 发生的情况。世界上首个开源的推理模型,这着实令人惊叹。因为 R1 变为开源的了,整个全球都因此被注入了活力,实在是不可思议。
访问者:
人们为何认为这可能是一件坏事?我认为这是一件很棒的事情。
人们为何会认为这或许是一件坏事呢?在我看来,这是一件美妙的事情。
黄仁勋:
我不知道这是谁的过错,但显然那种范式是错误的。那种范式是预训练,因为我们想要有基础,就需要对信息有基本的理解水平。为了做第二部分即后训练。所以预训练需要继续保持严谨。
首先,从投资者的角度出发,过去有一种思维模型,即世界是预先训练好的,接着进行推理。推理意味着你向 AI 提出一个问题,它会立刻给你一个答案,且是一次性给出。我不知道这究竟是谁的过错,但很明显这种模式是不正确的。
正确的模式应当先进行预训练,因为我们期望拥有一个基础,这就需要对信息具备基本的理解水平,只有这样才能进行第二个部分,即后期训练。所以预训练需要继续保持严谨。第二部分实际上是智能很关键的部分,我们将其称作后训练。这里是你学习解决问题的地方。你已经掌握了基础知识,知晓词汇是如何运作的,句法是如何运作的,语法是如何运作的,也明白了基本数学是如何运作的。所以,你现在必须运用这些基础知识去解决实际问题……
因此存在一系列多种不同的学习模式。在这种模式下,技术在过去五年中取得了巨大进步,且计算需求非常大。所以人们曾认为,哦天那,预训练要少得多。但他们却忘记了,后训练其实是相当大的。
现在的第三条缩放定律表明,进行的推理越多,在回答问题前思考得越多,推理就会越出色,这是一个计算量很大的过程。所以我觉得市场对 R1 的反应是“哦我的天哪,AI 到极限了”,仿佛它突然出现,让我们无需再进行任何计算,然而实际情况完全相反。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/274400.html