摘要:美国东部时间 2025 年 12 月 2 日上午(北京时间 12 月 3 日凌晨),在拉斯维加斯举行的 re:Invent 大会上,亚马逊云科技宣布了一系列围绕 AI Agent 的重大更新:一方面是面向客户的 Agent 应用和平台工具,如 Amazon Connect、Kiro 等;另一方面是面向未来的底层基础设施,包括新一代 Trn4 AI 芯片以及 Trn3 超级服务器等。今年以来,AI Agent 的爆发正在深刻影响企业工作流和生产力模式。亚马逊云科技的这些新产品和发布,似乎在回答两个关键的行业问题:如何确保 Agent 安全合规地「用好」,以及如何让 Agent 以经济可行的方式「跑起来」。正如亚马逊云科技 CEO Matt Garman 在主题演讲中所强调的,最终目标是实现「将 Agent 投入工作」(Put Agent into Work)。
有意思的是,在长达 2 个小时的主题演讲中,Matt Garman 用了 1 小时 50 分钟的时间介绍 AI 基础设施和全新的 Agent 产品,而只用了 10 分钟的时间提及传统云产品升级(如实例、存储、数据库等)。11:1 的时间分配对比,也印证了 AI Agent 及其背后的基础设施,已成为当下云厂商们最重要的战略核心。AI Agent 的价值不再是传统的「聊天」,而在于「行动」。今年 re:Invent 期间,AWS 发布了一系列围绕 Agent 构建的产品和应用。一方面,在企业服务领域,AWS 将 Agent 融入到各类传统的平台和工具之中,对后者实现技术升级从而提高生产效率。今年,针对企业数字化经营中最耗时、最复杂的三个领域:代码运维、应用现代化和客户服务,AWS 推出了一系列 Agent 产品。
首先是在代码和运维领域,AWS 发布了多个 Agent 产品。其中 Kiro Autonomous Agent 值得关注。以前的 AI 编程工具虽然能写代码,但往往把开发者变成了忙于搬运上下文和协调工具的「助理」。而 Autonomous Agent 解决的就是这个问题,它可以被视为团队中一位 24 小时待命、过目不忘的「影子开发者」。开发者只需专注于核心难题,把修 Bug、跨库变更等繁琐任务直接丢给它。它不仅能在后台自主规划并执行,还能像真人一样记住跨会话的上下文,通过连接 Jira 和 Slack 深度学习团队的业务逻辑与协作规范。随着每一次代码审查,它会越来越懂你们的产品和标准,真正成为团队共享的「超级大脑」,让开发者只做决策,不再打杂。还有 DevOps Agent。从国内的「双 11」到海外的「黑五」,大型数字营销活动背后,技术运营人员熬夜加班已经成为常态。当下的模式是系统监测预警,技术人员需要随时待命处理每一个问题。而 AWS DevOps Agent 像是一个永不眠的运维员工,可以 24 小时调查事故和识别运营问题,从而大幅减少需要提报告给运营人员的警报数量,让后者可以更轻松更高效地处理那些真正有价值的问题,而非一直被一些没什么意义的警报轰炸。
同时,Agent 还在重塑企业的核心资产 —— 传统应用。今天很多企业面临沉重的「技术债务」,很多传统应用的工作负载都运行在大型机、VMware 等传统服务器上,云迁移虽是趋势,但也是巨大的负担。而 Amazon Transform Agent 就像一位专业的「全能代码重构工程师」,能够对任何代码、API、语言、甚至企业自有的编程语言或框架进行定制化转换。这种能力将传统应用现代化的速度提升至 5 倍,减少 80% 的时间和成本。在客服领域,Amazon Connect 的新 Agent 也帮助这个产品实现了能力飞跃。此次 Amazon Connect 一口气发布了四项更新,包括用更先进的语言模型提供更加自然、类人的对话体验;同时让 AI 掌握工具从而完成整理材料、执行常规流程等工作,让其与真人员工更好地协作;以及基于历史行为和点击流等构建客户画像,让 AI 可以提供更加个性化的推荐。另外,随着企业部署越来越多 AI Agent 参与客户交互,理解其决策过程对保障服务质量与合规至关重要。Amazon Connect 还新增 AI Agent 可观测性功能,为企业提供高度透明度 —— 清晰呈现 AI 的理解内容、使用的工具以及决策过程。这种可见性帮助企业优化性能、确保合规,并增强对 AI 交互体验的信心。除了在已有的服务场景中引入 Agent 能力,另一方面,AWS 也对构建 Agent 的平台工具进行了升级。其中最核心的是加强了 Agent 的治理与评估,让客户可以为 Agent 行为设置「红线」。
随着 Agent 获得执行企业操作的权限,可控性和可信赖性成为其规模化落地的首要前提。AWS 本次发布的重点在于:对 Agent 的约束,必须从传统的「内容安全」转向更高级的「行为治理」。AWS 推出的 Policy in AgentCore 功能,正是针对 Agent 行为治理的新工具。它允许用户使用自然语言来设定 Agent 的行为边界。这与传统安全护栏(Guardrails)仅过滤语言内容不同,Policy 可以简单地创建和管理 Agent 运行策略,并在 Agent 工作流中进行实时检查,确保 Agent 的操作始终在预设的权限范围内。此外,为了确保 Agent 在实际工作中的表现,AWS 还推出了 AgentCore Evaluations。这项服务允许基于真实世界的行为对 Agent 的工作质量进行持续检查和评估,为企业规模化部署 Agent 提供了可靠的性能衡量标准。通过这一系列治理工具,AWS 试图告诉企业:AI Agent 是可以信任的。只要设置了明确的「红线」,平台就能保证 Agent 的行为始终在安全边界之内。如果说 Agent 是台前的「数字员工」,那么支撑它们日夜运转的基础设施就是幕后的「超级工厂」。今年 AWS 在基础设施层面的动作,似乎在向行业传达一个信号:要让 Agent 真正普及,不仅要让它变得聪明,更要让企业「用得起」且「不论用什么模型都能跑得好」。首先是算力层面。Agent 时代对算力的消耗模式发生了根本改变。过去,企业关注的是「训练」一个大模型需要多少张卡;而在 Agent 时代,成千上万个 Agent 需要 24 小时在线,进行持续的推理、规划和工具调用。推理成本如果居高不下,Agent 就无法大规模落地。
Matt Garman 在会上宣布,AWS 正式推出了由第四代 AI 芯片驱动的 Amazon EC2 Trn3 UltraServer。作为 AWS 首款采用 3nm 工艺制造的 AI 芯片,Trainium3 实际上是在构建一种比通用 GPU 更具性价比的算力替代方案。每颗芯片提供 2.52 PFLOPs 的 FP8 计算能力,配合 144 GB 内存(比上一代提升 1.5 倍),它完美契合了 Agent 应用中长上下文架构和多模态推理的需求。Trn3 UltraServer 服务器最多可以集成 144 颗 Trn3 芯片,并可以通过 EC2 UltraClusters 扩展至数十万颗。而对于企业最关心的成本问题,Trn3 在 Bedrock 上的表现是:相比 Trn2,性能提升 3 倍,每 MW 能耗的输出 Tokens 数提升超过 5 倍。对于目前 AI 算力昂贵的挑战,Trn3 的推出可以起到明显的降低作用。而在模型层面,AWS 再次证明了自己是「最开放的 AI 平台」。通过 Amazon Bedrock,AWS 打出了一套「自研强模型 + 全球全明星模型托管」的组合拳。自研模型方面,AWS 正式发布了下一代 Amazon Nova 2 模型家族。其中包括了针对 Agent 语音交互优化的 Nova 2 Sonic—— 这是一款新一代的 speech-to-speech 模型,它不仅具备行业领先的对话质量和更低延迟,还能实现实时、人类般的语音对话。此外,AWS 还推出了 Amazon Nova Forge,首次引入了「开放式训练模型」理念。它解决了企业「既想深度定制又怕灾难性遗忘」的痛点。与今天大多专有模型依赖后训练的精调或者接入专用数据库不同,Forge 允许开发者访问 Nova 训练检查点,并在训练的每一个阶段将自有数据与 Amazon 精选的数据集深度融合,从而训练出既理解业务又保留大模型智能水平的专属模型。
另外值得关注的是,今年 AWS 展现出对中国本土 AI 模型前所未有的拥抱。在 Bedrock 新增的 18 个完全托管模型名单中,三家中国公司的四个模型名列其中:过去,全球云厂商往往更倾向于绑定少数几家欧美头部模型厂商。而 AWS 此次将 Kimi、MiniMax、Qwen 等中国顶尖模型纳入核心库,不仅是因为这些模型在性能上已经具备了全球竞争力,更显示了 AWS「互联互通」的生态格局。对于企业而言,这意味着选择权的极大丰富。无论是需要 Mistral Large 3 这样的长文档处理专家,还是需要中国本土的优秀模型,AWS Bedrock 正在变成一个打破地域和技术栈隔阂的「万能转换插座」,让算力和模型真正成为像水电一样的资源。乍看之下,今年的 re:Invent 似乎显得有些「波澜不惊」。这里没有令人瞠目结舌的参数大跃进,也没有颠覆认知的「黑科技」突袭。Trn3 的性能提升固然强悍,但基本也在预期之内;更有性价比的 Nova 2 和首次推出的语音模型,虽然让人眼前一亮,但在如今 SOTA 模型遍地跑、参数竞赛白热化的行业背景下,似乎也算不上「核弹级」的重磅发布。即便是最受关注的 AI 编程工具 Kiro 和 Agent 开发平台 AgentCore,也多是基于既有产品的更新 —— 这些关于安全性、可观测性或辅助功能的修修补补,难免让人产生「没什么大动作」的错觉。然而,这种「平淡」或许正是 AWS 最厉害的地方。当我们将视线从单个产品移开,投向整个产业,会发现 AWS 其实在定义下一代基础设施的路上,迈出了极为关键的一步。AWS 做对的第一件事,是率先打破了 Agent 的「空谈」阶段。在大多数平台还在比拼 Agent 框架的灵活性、推理速度时,AWS 敏锐地意识到:企业需要的不是一个能聊天的机器人,而是一个能干活的员工。于是我们看到,Transform Agent 被用来解决棘手的技术债务,DevOps Agent 被用来处理繁琐的运维报警。AWS 不再只是提供一个简单的 LLM 接口,而是将行业 Know-how(如 19 年的运维经验、代码迁移经验)封装进 Agent,将其打造成了真正能解决具体业务痛点的「成品工具」。这种「将能力封装为产品」的思路,标志着 Agent 从技术玩具正式迈向了商业实战。更深层的变革在于 Agent 治理。Agent 的运行范式与过去的 Chat 类应用和传统的云计算业务有着本质区别。传统的云关注「资源」,Chat 应用关注「内容」,而 Agent 关注的是「行动」。将一个拥有自主决策权的 Agent 放入企业的核心业务流,其风险不亚于招聘一名不受控的员工。难点不在于如何让 Agent 跑起来,而在于如何让它不乱跑。
AWS 在本次大会上展示的 Policy 功能,实际上是在尝试重新定义一套 Agent 时代的治理范式。这种用自然语言设定边界的方式,不再是死板的代码约束,而更像是给数字员工颁布一套「法律」。它让管理者可以用人类的逻辑(如「退款金额不得超过 1000 元」)来约束 AI 的行为。这种治理模式的建立,比单一模型的性能提升更具战略意义 —— 因为只有解决了「可控性」和「合规性」这两个拦路虎,企业才敢真正让 Agent 接入核心业务。最终,当我们重新审视这次 re:Invent,会发现它的意义不在于某个单品的参数碾压,而在于生态位的抢先占领。当大多数玩家还沉浸在解决架构优化和算力堆叠的「基建期」时,AWS 已经通过一系列真实的落地案例和完善的治理技术栈,开始为行业「打样」—— 它展示了一个 Agent 在真实企业环境中,应该如何被构建、如何被管理、以及如何产生价值。这或许不是一场充满噱头的发布会,但对于渴望用 AI 提效的实体产业而言,AWS 正在构建的那套让 Agent「可用、可控、可信」 的基础设施,可能是通往未来的真正门票。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。
