MCP峰会1200人到场,Uber每周跑出万次Agent:这协议进企业了

4月2日到3日,MCP开发者峰会北美场在纽约举办,1200人到场,95个以上的议题。这是Model Context Protocol有了自己的「年度大会」之后第一次真正意义上的正式集会。

议题密度和到场人数说明一件事:MCP已经不只是个开发者玩具了。

从协议到基础设施

MCP最初由Anthropic在2024年提出,初衷是解决AI工具调用混乱的问题——每个AI应用和每种工具之间都要单独对接,成本极高。MCP给了一个统一的通信标准。

到2026年4月,这个协议的Python和TypeScript SDK每月下载量合计超过9700万次,Anthropic、OpenAI、Google、微软、亚马逊都已经采用,Linux基金会去年12月成立了专门的Agentic AI Foundation(AAIF)来维护它。

峰会上最受关注的技术提案是SEP-1442,由MCP联合创始人David Soria Parra(Anthropic)提出:把协议从有状态会话架构改成无状态请求架构。

听起来像是底层细节,但影响不小。有状态的协议要维持长连接,在企业环境里运维成本高、故障恢复复杂。改成无状态之后,每次请求独立处理,更容易水平扩展,也更容易接入现有的微服务体系。

Uber、亚马逊的实际部署

峰会上让人印象最深的不是协议本身,而是几家大公司的实际部署数据。

Uber 建了一套MCP Gateway和Registry,把内部的Thrift、Protobuf、HTTP接口统一暴露给AI Agent。整套平台用Go写的,Gateway层会在请求发往外部模型之前做PII脱敏处理。现在每周通过这个平台跑出的Agent执行次数已经达到数万次。

亚马逊 在内部建了MCP工具发现基础设施,并且开始把MCP工具、Agent技能和标准操作流程(SOP)打包成可复用的配置模块,方便不同团队直接取用。

这两个案例说明的是:MCP在大公司的落地方式不是一个Agent连一个工具,而是Gateway集中管控所有Agent的工具调用,加上Registry作为工具目录的控制平面。Docker、Kong、Solo.io的方案也都走的这个路子,几家不约而同收敛到了同一个架构模式。

Claude Code省了85%的token

Anthropic在峰会上展示的一个数据值得单独提:Claude Code通过渐进式工具发现,把因工具描述占用的token量降低了约85%。

做法是:如果一个工具的描述会超过当前上下文窗口的10%,Claude Code就先不加载这个描述,等真正需要用的时候再拉取。

这不只是工程优化,背后是一个设计取舍:在上下文资源有限的情况下,宁可懒加载工具,也不要让一大堆可能用不上的工具描述占满窗口。效果明显的话,这个做法大概率会推广到更多MCP客户端实现里。

生态数字

截至峰会,AAIF的会员数量超过100家,涵盖多个等级。峰会期间,Linux基金会同步宣布成立x402 Foundation,专门管理AI Agent的支付层协议。

MCP本身定位是「工具和资源的接入层」,A2A协议负责「Agent之间的协调层」,x402管「支付层」。这三层加在一起,基本上是在给Agentic AI搭一套完整的基础协议栈。

大公司愿意在生产环境里跑这套东西,是MCP从「概念协议」变成「工程标准」最直接的证明。

参考来源:AAIF's MCP Dev Summit: Gateways, gRPC, and Observability Signal Protocol Hardening(InfoQ);Linux Foundation Announces the Formation of the Agentic AI Foundation(Linux Foundation)