(由多段落组成):
2025年12月3日凌晨,亚马逊云科技(AWS)在拉斯维加斯举行的re:Invent大会上,发布了一系列围绕AI Agent的重大技术更新。这场发布会虽无炫目的“黑科技”噱头,却精准切中了企业智能化转型的核心痛点——如何让AI真正落地、可用且可控。从面向客户的智能应用到底层算力架构的全面升级,AWS正以系统化布局推动AI Agent进入规模化商用阶段,为实体产业提供通往未来的“数字员工”解决方案。
此次大会最引人注目的是其战略重心的明显转移:CEO Matt Garman用近两个小时的主题演讲,将超过90%的时间聚焦于AI基础设施与Agent产品生态,仅留10分钟提及传统云计算服务的迭代。这种11:1的时间分配,清晰传递出一个信号——AI Agent已成为AWS当前乃至未来几年的核心战略方向。其目标明确:“把Agent投入工作”(Put Agent into Work),不再停留在演示或实验层面,而是深度嵌入企业的实际业务流程中。
在应用场景方面,AWS推出了多个垂直领域的智能体产品,涵盖代码开发、运维管理、客户服务和传统应用现代化等关键环节。其中,Kiro Autonomous Agent作为“影子开发者”,能够自主完成Bug修复、跨库变更等重复性任务,并通过连接Jira、Slack等工具学习团队协作规范,逐步进化为团队共享的“超级大脑”。而DevOps Agent则像一位永不疲倦的运维专家,可全天候监控系统异常,自动排查问题,大幅减少无效警报,释放技术人员精力用于高价值决策。
针对企业长期面临的“技术债务”难题,Amazon Transform Agent应运而生。它具备跨语言、跨框架的代码重构能力,甚至支持企业私有编程体系,能将老旧系统迁移上云的效率提升5倍,节省高达80%的时间与成本。在客服领域,Amazon Connect也迎来全面升级,新引入的AI Agent不仅能实现更自然的人类级对话,还可调用工具完成材料整理、流程执行等操作,并基于用户行为构建个性化推荐模型。更重要的是,新增的AI可观测性功能,让企业能清晰追踪Agent的思考路径、使用工具及决策依据,显著增强对AI交互的信任度与合规保障。
为了确保AI Agent在企业环境中的安全运行,AWS还强化了治理与评估机制。通过AgentCore平台推出的Policy in AgentCore功能,用户可用自然语言设定行为边界,例如“退款金额不得超过1000元”,从而实现从“过滤”到“行为约束”的跃迁。同时,AgentCore Evaluations服务支持对Agent的实际表现进行持续评估,为企业大规模部署提供可靠的质量衡量标准。这一系列举措标志着AI治理已进入精细化运营时代,为Agent在金融、医疗等高敏感行业的落地铺平道路。
在底层支撑方面,AWS同步发布了新一代Trn4 AI芯片与Trn3 UltraServer服务器,构建起高效能、低成本的推理基础设施。Trn3采用先进的3nm工艺,单颗芯片提供2.52 PFLOPs的FP8算力,配合144GB内存,专为长上下文与多模态推理优化。整台UltraServer最多集成144颗Trn3芯片,并可通过EC2 UltraClusters扩展至数十万级别,满足海量Agent并发运行需求。实测数据显示,在Bedrock平台上,Trn3相较前代性能提升3倍,每兆瓦能耗产出Token数增长超5倍,显著降低企业AI运营成本。
模型生态方面,AWS进一步巩固其“开放AI平台”的定位。Amazon Bedrock不仅上线了自研的Nova 2系列模型,包括专为语音交互优化的Nova 2 Sonic和首创“开放式训练”的Nova Forge,还首次大规模引入中国本土顶尖模型。月之暗面的Kimi K2、MiniMax的M2以及阿里巴巴通义千问的Qwen3-VL均被纳入托管名单。这些模型各具特色:Kimi擅长深度推理,M2专注代码自动化,Qwen3-VL则能将截图直接转为可执行代码并模拟点击操作,极大提升了UI自动化效率。此举打破了欧美主导的模型格局,使Bedrock成为真正意义上的全球AI模型“万能插座”。
纵观本次re:Invent大会,AWS并未追求参数上的极致突破或概念炒作,而是选择了一条更为务实的道路:将AI Agent从技术探索推向商业落地。无论是封装行业经验的成品化工具,还是建立在自然语言策略之上的治理体系,都体现出AWS对企业真实需求的深刻理解。当行业还在争论“谁的模型更强”时,AWS已在构建让AI“可用、可控、可信”的完整基础设施。对于渴望借助AI提升效率的传统产业而言,这或许不是最热闹的一场发布会,但却是最具实践意义的技术指南,预示着智能体经济时代的真正开启。
AI Agent, 亚马逊云科技, 智能体治理, Trn3芯片, Amazon Bedrock
本文来源:
IT之家【阅读原文】

