Anthropic 突破性方案:AI Agent 效率提升 98.7% 的技术解析

深入解析 Anthropic 通过代码执行与 MCP 协议结合,实现 AI Agent Token 使用量降低 98.7% 的革命性技术方案

Anthropic 突破性方案:AI Agent 效率提升 98.7% 的技术解析

在浏览 Anthropic 的工程博客时发现了一篇关于代码执行与 MCP 协议结合的技术文章,其中的优化思路让人印象深刻。文章提出通过让 AI Agent 编写代码与工具交互,而非传统的直接调用方式,能够将 Token 使用量降低 98.7%。这种回归软件工程基本原理的设计哲学,提醒我们在 AI Agent 快速发展的今天,可能过于关注模型能力的提升,而忽视了架构层面的优化空间。

AI Agent 遭遇效率瓶颈

当让 AI Agent 连接数千个工具时会发生什么?答案可能出乎意料:在真正处理用户需求之前,Agent 可能已经消耗了数十万个 Token,仅仅用于加载工具定义。这就像一个工人在开工前,需要先阅读数千页工具说明书,效率低下且成本高昂。

根据最新数据,全球 AI Agent 市场规模已突破 320 亿美元,IDC 预测该市场将保持高速增长。然而,随着 Agent 能力的提升,一个严峻的技术挑战正在浮现:上下文窗口的 Token 开销正在成为制约 AI Agent 大规模应用的核心瓶颈。

Anthropic 工程团队在技术博客中揭示了问题的严重性,并提出了一套革命性的解决方案。

传统 MCP 架构的效率陷阱

Model Context Protocol(MCP)作为 2024 年 11 月由 Anthropic 推出的开放标准,正在成为连接 AI Agent 与外部工具的核心基础设施。OpenAI、Google DeepMind、阿里云、腾讯云等国内外大厂在 2025 年已全面采纳 MCP 协议。

但传统 MCP 实现存在致命问题:所有工具定义必须预先加载到模型的上下文窗口中。这意味着当 Agent 连接到数千个工具时,可能需要处理数十万个 Token 的工具描述,然后才能开始阅读用户的实际请求。

更严重的问题在于中间结果的重复传输。每次工具调用的结果都必须完整地流经模型的上下文窗口。实际案例显示,从 Google Drive 获取一份 2 小时会议的文字记录,然后将其附加到 Salesforce 的客户记录中时,这份可能超过 50,000 个 Token 的会议记录需要在上下文中流转两次。

Anthropic 团队指出,这种中间结果膨胀问题在复杂任务中尤为突出。研究显示,单次任务平均可能触发 50 次工具调用,如果所有结果都存入上下文,窗口会被迅速填满。

代码执行重新定义交互方式

Anthropic 提出的解决方案核心在于一个简单但强大的理念:让 Agent 通过编写代码与 MCP 服务器交互,而不是直接调用工具。

开发者可以使用工具构建文件系统层次结构,Agent 可以像探索代码库一样浏览文件系统,只加载真正需要的工具定义。这种方法带来的效果令人震撼:Token 使用量从 150,000 降至 2,000,节省 98.7%。

五大核心优势深度解析

渐进式披露允许模型高效导航文件系统,按需加载工具定义,大幅降低初始 Token 开销。传统方式就像强制参会者记住所有人的名字,而新方式允许在需要时再查找通讯录。

上下文高效过滤是最具革命性的特性之一。Agent 可以在执行环境中对数据进行过滤、转换和处理,只将最终结果返回给模型。实际案例显示,处理一个 10,000 行的电子表格时,Agent 可以在沙盒环境中筛选出待处理订单,然后只返回筛选后的 100 行数据,而不是让整个表格占用上下文窗口。研究数据表明,这种方法可以将 Token 使用量降低 75% 以上。

控制流的本地执行让整个循环作为代码运行,无需每次迭代都与模型交互。这不仅降低了 Token 成本,还显著改善了延迟表现。

隐私保护通过让中间结果默认保留在执行环境中实现。敏感数据如 PII 个人身份信息可以自动进行 Token 化处理,在系统间流转而无需进入模型的上下文窗口。安全研究显示,AI Agent 沙盒环境需要强隔离机制来避免越权与数据外泄。

状态持久化让 Agent 可以将中间结果写入文件,实现工作的恢复和进度跟踪。更重要的是,Agent 还可以将可复用的代码保存为技能,供未来任务使用。这种机制类似于人类的学习过程,让 Agent 真正具备了经验积累的能力。

技术实现的关键考量

尽管代码执行方案带来了显著的效率提升,但 Anthropic 团队也坦承,这种方法并非没有成本。代码执行需要安全的沙箱环境。主流方案包括 E2B 开源基础设施、AIO Sandbox 国内首个兼容 E2B 接口的 Agent 沙盒,以及基于 Docker 的容器化架构。

沙箱环境需要实现资源限制、动态熔断和监控体系。资源限制包括 CPU、内存、网络带宽的配额管理,动态熔断对高危操作实施实时拦截,监控体系跟踪上下文窗口 Token 占比、工具调用频次等关键指标。

相比直接工具调用,代码执行方案增加了运维复杂度。企业需要在效率收益与实施成本之间做出权衡。Anthropic 建议,对于需要处理大量工具或涉及敏感数据的应用场景,代码执行方案的长期收益将远超初期投入。

从协议兼容到标准化时代

Anthropic 的技术突破标志着 AI Agent 发展正在进入新阶段。2025 年第一季度,全球 MCP 相关投融资额同比增长 470%。阿里云百炼平台已集成 50 多款 MCP 服务,腾讯云大模型知识引擎也完成了 MCP 接入。

E2B 沙箱的月创建量在一年内从 4 万增长到 1500 万,增长 375 倍,充分印证了市场对高效 Agent 基础设施的迫切需求。

2025 年正在成为 AI Agent 执行元年。模型不再局限于问答和内容生成,而是可以跨多个工具进行实时推理、行动和协助,真正承担起执行者的角色。

软件工程经典模式的回归

Anthropic 团队特别强调,他们并非创造了全新的技术范式,而是将成熟的软件工程模式应用到 AI Agent 领域。这种回归经典的思路,恰恰体现了技术演进的智慧:真正的创新往往来自于对基本原理的深刻理解和灵活应用。

对开发者的启示

Anthropic 的方案为 AI Agent 开发者提供了清晰的技术路线图。开发者需要重新审视工具架构,不要简单地将所有工具暴露给模型,考虑通过文件系统进行组织。对于复杂数据处理任务,让 Agent 编写代码比链式调用工具更高效。

尽早投资安全隔离环境是生产级 Agent 的必备条件。将上下文窗口视为稀缺资源,建立完善的监控和优化机制至关重要。从最耗费 Token 的场景入手,逐步应用代码执行方案是推荐的渐进式优化策略。

正如 Anthropic 所说:MCP 提供了连接 Agent 与工具的协议,但要实现大规模落地,必须解决 Token 效率问题。代码执行方案正是这个问题的最优解之一。


有问题?联系客服微信:iweico

需要帮助?

如果您在使用过程中遇到问题,请联系我们的客服: