Anthropic Code Mode:解 MCP Vs CLI 之争:工具住 Runtime、tokens 从 150K 压到 2K

2025 年整年 AI 工程社群在「MCP vs CLI」哪个更适合 Agent 工具呼叫的问題上爭論不休、Anthropic 2025 年 11 月发表的「Code execution with MCP」论文从第一原則重新定義了问題。akshay_pachaar 5/10 整理 thread 说明:问題从来不在協议本身、而在「session 开始时把所有工具描述塞进 context」的旧习惯;Anthropic 的解法是让模型寫程式码呼叫工具、运行时负责管理工具細节。新模式被称为「Code Mode」。

旧模式的问題:150K tokens 中模型大部分用不到

旧 MCP 模式的浪费结构:

Playwright MCP:13.7K tokens(一次塞滿)

Chrome DevTools MCP:18K tokens

5 个 server 设定:尚未开始工作就燒掉 55K tokens

單一 workflow 完整执行:可膨胀到 150K tokens

模型实际用到的:絕大部分都用不上

批評者主張改用 CLI、但 CLI 在多租户 app 容易出错、缺乏 typed contract、agent 在不熟悉 API 上要花轮次解析输出文字。两派各有理、但都把问題定位错。

解法:模型寫 code 呼叫工具、不再从 context 直接 call

Anthropic 提出的「Code Mode」核心:

翻转模型角色:不是模型透过 context 呼叫工具、而是模型寫程式码、由 runtime 呼叫工具

工具住在 runtime 裡、模型只看到自己 import 的部分

type 跟著 import 走、模型 import 哪个工具就拿到哪个的型別合约

用 Bash 呼叫已安装的二进位檔(git、curl 等)

用 typed module imports 呼叫專有 API

Anthropic 样例:Google Drive 文字記錄流入 Salesforce CRM 更新。旧作法加载两边工具 schema、把整段文字記錄透过模型传两次;新作法 10 行 TypeScript 只 import 需要的、同样任務从原本的 150K 压到 2K tokens、減 98.7%。

Cloudflare 推到极限:2,500 个 endpoint API、从 1.17M tokens 压到 1K

Cloudflare 做了最激进的版本:

原始 API 规模:2,500 个 endpoint、schema 合计 1.17M tokens

新作法:只暴露两个函式 search 与 execute、總计 1K tokens

Agent 寫程式碼先 search 工具目录、再 execute 对应的工具

压缩比:超过 1,000 倍

「MCP 已死」的说法错了—Anthropic 公布 MCP SDK 下载量已达 3 亿、年初为 1 亿、是当前成长最快的 Agent 基礎建设之一。死的是「session 开始时把所有工具一次載入」这种写法、而那本来就是壞主意。对 2026 年写 Agent 的开发者、規則简单:工具定義屬於 code、不屬於 context;模型寫几行程式码呼叫、runtime 处理其余部分。

后续可追蹤的具體事件:MCP SDK 下载量从 3 亿继续攀升的速度、Anthropic 是否将 Code Mode 標準化为 MCP 规範的官方推荐模式、以及 OpenAI、Google、Cursor 等其他 Agent 平台对 Code Mode 的採纳进度。

这篇文章 Anthropic Code Mode 解 MCP vs CLI 之爭:工具住 runtime、tokens 从 150K 压到 2K 最早出现於 链新聞 ABMedia。

© 版权声明
THE END
喜欢就支持一下吧
分享