乐于分享
好东西不私藏

当 AI 助手需要掌控一切:MCP 正在重塑智能体的能力边界

当 AI 助手需要掌控一切:MCP 正在重塑智能体的能力边界


你可能已经习惯了和 AI 助手聊天。但你有没有想过——这个”助手”能真正替你操作你的工具、数据和系统?

说到底,AI 能聊,但真正有用的,是它能做到。

让 AI 从”能聊”变成”能做”,靠的是一座叫 MCP 的桥——Model Context Protocol。

三条路,殊途不同归

把 AI 助手连接到真实世界,目前有三条路:

直接调 API。 写段 HTTP 请求,AI 在沙箱里直接发起调用。最原始,适合少量一对一集成。但问题是,每对”AI-服务”组合都是独立的定制方案,认证、描述、边界情况各自为政,团队一大就成了维护噩梦。

CLI。 AI 在 shell 里调用现成的命令行工具,轻量、快速。但它依赖本地文件系统,一旦目标是网页、移动端或云服务,CLI 就鞭长莫及。

MCP。 Anthropic 在 2024 年底开源的协议。核心思路是用协议本身充当公共抽象层——AI 连接到 MCP 服务器,服务器暴露系统全部能力,认证、发现、语义全部标准化,一次实现,任何兼容客户端(Claude、ChatGPT、Cursor、VS Code……)随时调用,云端本地通吃。

当 AI 进入云端、走向生产环境,MCP 是那条让投入持续产生回报的路。

数字不会说谎

说 MCP 是趋势,不只是感觉。

MCP SDK 的月下载量已突破 3 亿次,今年初才刚过 1 亿。背后不只是个人开发者在玩——企业级采纳在加速,主流 Agent 平台全面跟进。

Anthropic 自己的产品线也在印证这一点:Claude Cowork、Claude Managed Agents、Claude Code 的 Channels 功能,底层都跑在 MCP 上。

换句话说,MCP 不是备选方案,它是 AI 公司自己的选择。

构建优秀的 MCP 服务器

既然 MCP 已经是事实标准,问题就从”要不要用”变成了”怎么用好”。

Anthropic 自己的服务器目录里有 200 多个 MCP 服务器,每天服务数百万人。他们总结出了几个设计模式。

远程优先。 远程服务器才能真正实现分发——只有这种配置,才能让 AI 在网页端、移动端、云端同时访问你的系统。

按意图分组工具,而非按接口罗列。 这是最常见的误区:把 API 1:1 映射成 MCP 工具,一个接口一个工具,端到端全暴露。结果是 AI 要调用十几甚至几十次才能完成一个任务。

正确做法是围绕用户意图分组——create_issue_from_thread 一个工具,远比 get_thread + parse_messages + create_issue + link_attachment 四步走高效。

大面积 API 的解法:代码编排。 如果你的服务有几百种操作——Cloudflare、AWS、Kubernetes——那意图分组也不够用了。

MCP 的参考模式是:暴露一个薄工具表面,接受代码。AI 写一段短脚本,服务器在沙箱中执行,只返回结果。Cloudflare 的 MCP 服务器是两个工具(search 和 execute)覆盖约 2500 个接口,控制在 1K token 左右。

让服务器”长出”交互界面。 MCP Apps 是官方首个协议扩展,允许工具返回可交互的界面——图表、表单、仪表盘,直接渲染在对话窗口里。

支持 MCP Apps 的服务器,用户采纳率和留存率显著高于纯文本返回的服务器。原因很直接:把产品的 UI 在关键时刻推到用户面前,比让他们跳转到一个设置页面体验好太多。

认证这事,别再自己造轮子。 MCP 规范已经支持 CIMD(Client ID Metadata Documents),解决了 OAuth 场景下的快速首次认证和频繁重新授权两大痛点。

客户端优化:让 AI 用更少,办更多

协议是双向的。服务器在暴露能力,客户端在消费能力。

工具搜索(Tool Search)。 不是在启动时把全部工具塞进上下文,而是让 AI 在运行时按需搜索工具目录、按需加载。测试数据显示,这种做法将工具定义的 token 消耗削减 85% 以上,同时不损失选择准确率。

编程式工具调用(Programmatic Tool Calling)。 工具返回的结果不在对话中直接展开,而是送入代码执行沙箱处理——AI 在代码里循环、过滤、聚合,最终只有聚合结果进入上下文。在复杂多步骤工作流中,将 token 消耗再降约 37%。

两者组合使用,效果是叠加的。

技能(Skills)+ MCP:1+1 > 2

这是 MCP 生态里最有想象空间的组合。

MCP 解决的是”能力”问题——AI 能调用什么工具、访问什么数据。但会用和用好之间,还隔着一层:流程性知识。

这正是 Skills 的价值所在。MCP 赋予 AI 一组扳手,Skills 则教 AI 什么时候用哪把、怎么组合使用。

两条协同路径:

打包成插件分发。 Claude 的插件机制允许将 Skills、MCP 服务器、Hooks、LSP 服务器打包成一个可分发单元。Anthropic 给出的 Cowork 数据插件案例,包含 10 个 Skills 和 8 个 MCP 服务器,覆盖 Snowflake、Databricks、BigQuery、Hex 等工具。

从 MCP 服务器直接分发技能。 越来越多的服务商在发布 MCP 服务器时同步发布配套 Skill,AI 连接服务器的同时获得一整套”最佳实践手册”。Canva、Notion、Sentry 等已经在这样做了。

MCP 社区还在推进一个更激进的方向:让 Skill 直接从服务器端下发,客户端自动继承与当前 API 版本匹配的技能包,且版本同步。这将使”连接即获得最佳实践”成为可能。

写在最后

回到开头的问题:AI 助手能从”能聊”变成”能做”吗?

答案是肯定的,路径就是 MCP。

三条路在实践中并非互斥——API 是底座,CLI 适合本地优先场景,而 MCP 是那个让一切在云端生产环境里持续增值的层。每构建一个优秀的 MCP 服务器,你不只是服务了自己的 AI——整个生态都在因此变好。每个兼容客户端、每新增的协议扩展,都不需要你再做任何额外工作。

MCP 正在成为 AI 世界的 USB 接口——一次连接,万能通用。


如果你对 MCP 的具体实现感兴趣,下一篇可以深入讲讲如何从零构建一个生产级的 MCP 服务器。


相关阅读

  • • MCP 官方文档
  • • Anthropic 官方博客原文