目前在拉斯维加斯举行的re:Invent大会上,亚马逊云科技发布了一系列超级AI全家桶。
作者 |郑轩
生成式AI在提升生产力效率方面展现出巨大潜力,这也让企业生产力场景成为近两年生成式AI增长最快的应用领域之一。然而,在企业初步经历了这项技术的“尝鲜”之后,如何保证员工在工作中继续使用生成式AI而不是把它搁置一边,成为所有争夺AI基础设施的云计算巨头必须思考的问题。重要问题。
这需要回答一个核心问题:“当今企业在使用生成式人工智能时面临哪些挑战?”在这个话题上,亚马逊云科技无疑是最有发言权的公司之一。
在正在进行的re:Invent大会上,亚马逊云科技推出了数十款与生成式AI相关的新产品,涵盖从最底层的AI计算芯片、模型训练和基础模型,到中层的Agent开发,再到顶层的AI应用,技术栈涉及各个领域。
这些新产品和工具并不是技术团队随意定义的,而是源于过去一年数万客户提出的各种需求。通过这些反馈,亚马逊云技术可以准确识别客户面临的挑战,并推出满足其需求的创新产品。如今企业引入生成式人工智能面临的主要挑战可以概括为五点,按重要性顺序排列如下:
丰富的选择
降低部署成本
培养更敏捷、更专业的小模特
消除幻觉
解决更复杂的任务
极客公园总结了为什么这五个需求成为当今企业引入生成式AI的关键挑战,并梳理了亚马逊云技术在本次大会上发布的全新生成式AI产品和服务如何帮助企业应对这些关键问题。
01
选择比什么都重要
在当地时间周二上午的主题演讲中,马特·加曼(Matt Garman)和安迪·贾西(Andy Jassy)在谈论企业部署生成式人工智能时都强调了“丰富的选择(Choice Matters)”对客户的重要性。重要性。
这一点在亚马逊云技术的大模型战略中表现得尤为突出。与微软云、谷歌云等厂商更喜欢依赖自有大模型或顶级合作伙伴不同,亚马逊云科技自主研发了Titan、Nova系列大模型,并斥巨资聘请了Anthropic等顶级大模型开发商。但其整体策略更侧重于为开发者提供多样化的大模型选择平台来构建AI应用。
亚马逊CEO Andy Jassy公布Amazon Nova系列大机型丨来自:极客公园
Garman指出,丰富的大型号选择是吸引客户来到Amazon Bedrock的关键因素之一。 “我们发现并非所有客户都想使用单一型号,”他说。 “他们更喜欢根据自己的需求选择多种不同的型号。一些客户更喜欢使用开源模型,例如 Llama 或 Mistral,这使他们能够自行微调;客户的应用需要图像处理模型,例如Stability或Titan提供的模型;许多客户特别喜欢最新的 Anthropic 模型,因为许多人认为它们在一般智能和推理能力方面是市场上最好的。 ”
作为亚马逊云技术最重要的“客户”,亚马逊深知这一点。亚马逊过去的内部构建项目中使用的模型的多样性令人惊讶。亚马逊赋予开发者自主选择的权利。原本以为大家都会选择像Claude这样的顶级模型——虽然很多内部开发者确实选择了Claude,但他们也会使用Llama、Mistral,以及一些自研的模型。
这其实并不奇怪。因为一直以来,一个工具很难在某个领域称霸天下。就像数据库领域已经讨论了10年一样,大家还在使用各种关系型数据库或者非关系型数据库。
在今年的re:Invent上,亚马逊云技术进一步扩大了其大型模型供应库。
一方面,亚马逊云技术发布了自研大型模型Amazon Nova,并宣布与擅长视频生成模型的Luma AI、擅长代码生成的Poolside等大型模型开发商合作,不断丰富模型库的供应商合作伙伴。
另一方面,亚马逊云技术宣布推出Amazon Bedrock Marketplace,提供来自全球供应商的100多种基础型号产品。现在用户可以在Amazon Bedrock上选择和测试这些新模型,结合Bedrock、FT、Guardrails等功能上的知识库,将其部署到AI应用程序中。
02
降低部署成本
对于企业部署生成式AI应用来说,计算成本一直是一个无法回避的问题。尽管如今传统行业很少有企业投入数千万甚至上亿美元用于预训练基础模型,但当生成式AI应用达到一定规模时,推理成本就成为企业必须衡量的投资。
今年早些时候,亚马逊云科技发布了第二代自主研发的人工智能计算芯片Trainium 2。在re:Invent大会上,亚马逊云科技正式推出了Amazon EC2 Trn2实例。与GPU实例相比,性价比提升30%-40%。该计算实例包含16个Trainium 2芯片,每组应用实例可达20.8 PFlops。计算能力;另外还有Trainium 2,包含4组包含64颗Trainium 2芯片的超级服务器(UltraService)实例,浮点计算能力可达84.2 PFlops。
更重要的是,Trn 2芯片单位算力的成本更低。在生成式AI计算领域,NVIDIA的GPU占据全球95%以上的市场份额。当全球所有的生成式AI应用基本都构建在一颗芯片上时,大家都渴望获得更高的性价比,这也是业界对Trainium 2感到兴奋的原因。
亚马逊云技术首席执行官 Matt Garman 宣布推出 Trainiums 3 |来自:亚马逊云技术
此外,亚马逊云科技还在会上展示了下一代计算芯片Trainium 3。据悉,该芯片将采用3nm先进制程技术,提供Trainium 2两倍的计算能力,单位能效提升40%。
除了更具性价比的算力供应外,亚马逊云技术还致力于通过工具和架构层面的优化,减少企业开发的AI应用在调用大型模型过程中消耗的计算资源。
此外,亚马逊云技术还在大会上发布了Prompt Caching,这是一项在大型语言模型中存储和重用提示词的技术。即当用户提出相应问题时,Agent可以直接调用之前存储的结果,从而减少计算开销、延迟和成本,特别是在需要频繁使用相同提示的应用中。 Prompt Caching可以节省AI应用近90%的推理成本。
03
培养更敏捷、更专业的小模特
尽管生成式人工智能是一个快速创新的领域,但企业仍然很难找到在成本和功能方面完全适合其用例的模型。
AI应用开发者希望找到一种低延迟、低成本、能满足专业要求的模型,但实现起来并不容易。有时,开发人员会找到与专业知识相匹配的模型。很智能很好,但是价格太高,运行速度慢;有时,开发人员会找到更快、更高效的模型。成本较低的型号,但它同样不具备满足当今需求的功能。
人们解决这个问题的方法之一称为模型蒸馏。简单来说,具体方法就是将一个特定的问题集发送到一个能力更大的更大的模型(比如Llama 405B模型),然后用所有的数据、答案和问题来训练一个更小的模型(比如Llama 405B模型)。 Llama 8B 模型)成为特定领域的专家,从而产生更小、更快并且知道如何准确回答一组特定问题的专门模型。
这种方法对于生成专家模型确实有效,但是需要机器学习专家来操作。实际操作起来还是比较困难的。必须管理所有数据工作流程,必须处理训练数据,必须调整模型参数,并且必须考虑模型权重。 ,挑战不小,亚马逊云技术希望让这个过程变得更简单、更容易。
模型蒸馏功能丨来自:极客公园
为此,亚马逊云技术在会上宣布在Amazon Bedrock中推出模型蒸馏功能。与蒸馏模型相比,新模型的运行速度提高了 500%,成本降低了 75%。用户只需将应用程序示例发送到Amazon Bedrock,它将为用户完成剩下的所有工作。
然而,获得合适的模型只是第一步。用户的最终目标不是获得一个好的模型,而是让AI应用能够输出足够有价值的结果。完成这一步不仅需要一个好的模型,还需要公司过去积累的数据。这才能真正让公司在未来建立差异化的竞争优势。
Amazon Bedrock此前已经推出了相关的RAG(检索增强生成)功能,最近又发布了进一步的GraphRAG(图像检索增强生成)。
但要真正实现这一目标,企业首先需要做好数据治理工作。这是一个先决条件。只有在保证数据质量和完善管理的基础上,各类数据才能在提升大模型能力方面发挥出最佳效果。
为此,亚马逊云技术今年在数据治理领域推出了许多新产品,包括新的数据管理工具Amazon S3 Tables和方便数据搜索的元数据工具Amazon S3 MetaData。此外,亚马逊云技术还进一步加强了数据系统与Amazon Bedrock、Amazon SageMaker等开发系统的集成,让开发者只需在内部进行简单的拖放操作,即可轻松实现RAG(检索增强生成)等功能一个系统。功能。
04
没有幻觉,连1%都没有
第四个是大模型的通病——错觉。事实上,阻碍人们将生成式AI引入当今真实生产环境(尤其是关键任务应用场景)的另一个问题是很多人担心的,那就是模型的幻觉现象。
尽管今天的模型表现非常好,但有时仍然会出错。当您去年或前年进行概念验证时,90% 的准确度可能是可以接受的,但当涉及到生产应用程序并深入到具体细节时,这种准确度是不可接受的。
以保险业为例。假设你早上走进浴室,发现漏水,地板上全是水。然后你去保险网站查询一下这是否属于保险赔偿范围。作为保险公司,如果客户询问这样的事件是否可以赔偿,你必须给出准确的答案,这是不能出错的情况。
于是亚马逊云技术召集了一群专业人士来思考是否有技术可以帮助他们以新的方式解决这个问题。该小组研究了各种不同的技术,其中之一就是自动推理。
自动推理实际上是人工智能的一种形式,可以从数学角度证明某些事物是正确的。通常用于验证系统是否按照既定的要求运行。当系统覆盖范围非常大时,太大而无法手动一一查看,并且有相关的自动推理在构建系统如何运行的知识库时非常有用,并且当答案必须准确时尤其重要。
自动推理检查功能丨来自:极客公园
会上,亚马逊云技术宣布推出自动推理检查,可以防止模型幻觉导致的事实错误。当您启用这些自动推理检查时,Amazon Bedrock 可以对模型所做的事实陈述执行准确性检查,所有这些检查都基于可靠的数学验证,并向您显示结论的基础。
例如,如果一家保险公司决定启用自动推理检查,只需上传所有保单,然后 Amazon Bedrock 内的自动推理系统就会自动生成相应的规则,然后经过一系列迭代过程,约20至30分钟。要调整和确定正确的应对措施,要通过向开发商提问,真正了解政策的具体运行机制。
回到之前浴室漏水的例子,自动推理系统会查看反馈结果。如果模型不确定答案,它会返回相关情况并给出其他提示和建议,或者告诉客户如何向模型添加信息。只有当自动化推理检查确保答案准确时,才会将结果发送给客户。这样,您就可以 100% 确定发送给客户的结果是准确的。这是其他地方无法获得的功能。这将有效帮助企业用户使用推理功能。避免集成到关键任务应用程序时出现问题。
05
能够解决复杂的任务
企业部署生成式AI应用的最终门槛是能否开发出能够解决复杂任务的应用。
这在过去几个月逐渐成为全行业的共识。智能代理的出现让企业用户可以非常轻松地构建AI应用。这就是 Amazon Cloud Technology 推出 Amazon Bedrock Agents 的原因。
Amazon Bedrock 可以轻松构建代理并创建可以跨公司所有系统和数据执行任务的代理。通过使用 Amazon Bedrock,业务用户只需用自然语言描述他们希望代理完成的任务,它就可以快速构建一个,然后代理可以处理诸如处理销售订单、准备财务报告或分析客户等任务保留。
目前,这些代理在处理简单任务(单个独立任务)时表现非常好,客户已经从 Amazon Bedrock 代理中获得了很多好处。然而,亚马逊云技术团队收到的反馈表明,客户的期望更高。他们希望能够跨多个代理执行复杂的任务,这可能涉及数百个并行操作的代理。但目前来说,协调这么多代理人几乎是不可能的。不可能的。
例如,如果您经营一家全球咖啡连锁店,并希望创建一些代理来帮助分析开设新店的风险,您可能会创建一系列代理,例如分析全球经济因素的代理、查看相关代理的代理市场动态,您甚至可以创建一个代理来为独立商店进行财务预测。
总的来说,您可能会创建十几个代理来分析位置并返回相关信息,这本身就很有价值。但当这些智能体返回信息时,你还需要对它们进行整合,分析它们之间的相互关系,然后将它们与不同地区的情况进行比较。
一般情况下,这样的操作是相当可控的,但操作者可能不仅仅检查一个位置,而是可能想要分析数百个潜在的商店位置,并且这些位置也分布在不同的地理区域。这样做时,您会发现这些代理可能无法独立工作。代理 A 持有的信息可能对代理 B 有价值,因此您实际上希望他们相互交互并共享信息。但一旦涉及上百个Agent,交互、返回数据、共享信息、返回运营,整个管理系统的复杂度就会急剧上升,变得完全难以控制。
Matt Garman公布多智能体协作能力丨来自:极客公园
但实现这样的功能具有巨大的商业价值,因此亚马逊云技术推出了多代理协作,可以处理更复杂的工作流程。就像前面的例子一样,操作员可以创建一系列针对特定个性化任务设计的代理,然后创建一个监督代理,负责管理代理访问信息的权限,并确定任务是顺序启动还是并行启动。对各代理商返回的信息进行协调处理,保证代理商之间的有效协作。
金融数据分析公司穆迪评级已与亚马逊云合作试用该应用程序的早期版本,开发出一款允许客户生成全面的财务风险报告的应用程序。从结果来看,以前一个员工需要一周左右的时间才能完成这样的工作,但是采用多智能体协作后,同样的任务只需一个小时就可以完成,效率得到了极大的提高。
06
结论
今年的re:Invent无疑是一场令人惊叹的盛会。不少参加过多次会议的企业客户、技术人员和工程师都用“震惊”来形容。就连离开亚马逊云技术数年的传奇CEO安迪·贾西(Andy Jassy),曾经带领亚马逊走出困境的关键人物,时隔多年再次出现在re:Invent的舞台上。
在活动的前三天,亚马逊云技术发布了数十种与生成式人工智能和云基础设施领域相关的新产品和技术。在这些新产品中,往往仅靠一两个就足以成为一家云服务公司。大型会议的核心内容。亚马逊云科技选择在发布会上推出如此多的新功能,主要原因有二:一是当前AI应用企业面临的问题极其复杂,需要多维度、多场景的解决方案;二是亚马逊云技术长期坚持的“客户至上”文化,驱动其以全面创新满足客户需求。
此次高密度发布也彰显了亚马逊云科技在生成AI领域的巨大资源投入和坚定的战略意图,彰显了其在这个快速发展的领域占据领先地位的决心。
即将到来的2025年无疑将成为生成式AI在企业市场大规模部署的关键节点。从今年re:Invent上发布的诸多应用和新功能可以看出,经过几年的尝试和探索,生成式AI的发展已经从早期实验阶段走向产业落地。这个阶段不再仅仅关注技术的可行性,而是开始关注如何解决公司的具体业务需求和实际问题。
这些问题正在迅速得到解决,标志着生成式AI不仅被验证为生产力工具,而且具备了充当核心生产力的能力。换句话说,生成式人工智能已经接近“真正可用性”的临界点,即从概念验证走向大规模应用的边缘。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/272996.html