乐于分享
好东西不私藏

MCP 协议:AI 编程工具的下一场革命

MCP 协议:AI 编程工具的下一场革命

前言

2023 年,我们讨论 AI 编程工具时,核心词是”补全”。

你写一行,AI 补一行。你写函数签名,AI 写实现。你遇到 bug,AI 帮你解释原因。那时候的 AI 编程工具,本质上是一个更聪明的代码搜索引擎——它从海量代码中学习模式,然后预测你接下来想写什么。

2024 年,核心词变成了”生成”。

你描述需求,AI 生成完整模块。你上传截图,AI 生成前端代码。你给它一个文档,AI 生成测试用例。AI 的角色从”补全”升级到了”创造”。

2025 年,核心词是”代理”。

Claude Code 的 Autonomous Mode、Cursor 的 Agent、Copilot 的 Next Level——它们不再只是响应你的指令,而是开始自主规划、分解任务、执行操作。你说”帮我把这个单体应用拆成微服务”,AI 自己分析依赖、创建服务、修改配置、更新接口。

2026 年,故事来到了一个新节点:工具和协议的进化

MCP(Model Context Protocol,模型上下文协议)从 Anthropic 内部的一个实验性项目,走向了整个 AI 行业的事实标准。它解决了一个根本问题——AI 编程工具如何可靠地、操作你的开发环境里的各种资源?

本文用 SCQA 框架,聊聊这场革命到底是什么,以及它对普通开发者意味着什么。


Situation(现状):AI 编程工具已经摸到了天花板

工具很强,但扩展性极差

当前最强的 AI 编程工具——Claude Code、Cursor、Windsurf、Copilot——都有一个共同特点:它们很强,但强得很封闭。

以 Claude Code 为例:

– 它能读写你的本地文件

– 它能运行 shell 命令

– 它能浏览 GitHub 仓库

– 它能搜索网页获取信息

但如果你想让它:

– 读取你们团队 Notion 里的架构文档

– 查一下你们 Jira 里的某个 ticket 状态

– 操作你们的 AWS 环境部署一个服务

– 读取你们数据库里的 schema 定义

它做得到吗?理论上做得到,实际上做不到。

因为这些工具和你的开发环境之间,没有一个标准化的连接层。

每做一个新集成,就要重写一次

当前的 AI 编程工具和外部系统的集成方式,本质上是这样的:

1. 工具厂商决定要做某个集成(比如让 AI 能查 Jira)

2. 工具厂商自己开发这个集成功能

3. 集成上线,用户才能用

这意味着:

用户没有选择权:工具厂商决定支持什么,不支持什么

集成速度极慢:每家工具厂商都要自己重复造轮子

质量参差不齐:厂商自己做的集成,不一定比专业工具做得好

维护成本极高:外部 API 变了,所有工具都要同步更新

这是一个极度低效的生态。

AI 能”读”世界,但很难”操作”世界

更大的问题是:当前的 AI 编程工具主要是只读的

它们可以读取你的代码、读取你的文档、读取网页内容。但当它们需要执行操作时——比如帮你提交一个 PR、帮你创建一个数据库表、帮你发一封邮件——它们的选择极其有限:

– 要么依赖工具内置的几个固定操作

– 要么通过 shell 命令间接操作(不可靠,不安全)

– 要么告诉你”我做不到”

这种”能读不能做”的局限,严重制约了 AI 编程工具的实际价值。


Complication(困境):没有标准,AI 和工具之间无法对话

MCP 出现之前的世界

要理解 MCP 的价值,先要理解在它出现之前,AI 编程工具是怎么和外部世界打交道的。

方式一:内置工具(Built-in Tools)

每个工具自己内置一套能力。Claude Code 内置了文件操作、shell 执行、Git 操作。Cursor 内置了自己的方式来操作代码。它们各自为政,没有共享。

方式二:Function Calling / Tool Use

这是 OpenAI 在 2023 年推出的标准。AI 模型可以调用外部函数,函数返回结果,AI 根据结果继续行动。这是一个巨大的进步——它让 AI 从”纯响应”变成了”交互式决策”。

但这个标准有一个根本缺陷:它只定义了”怎么调用”,没有定义”怎么连接”

具体来说:

– Function Calling 定义了 AI 怎么调用一个函数

– 但这个函数是谁提供的?怎么找到它?如何保证安全?

– 如果你的公司有一个内部的 Jira 工具,你怎么让 AI 调用它?

– 如果你想让 Cursor 和 Claude Code 共用同一个 Jira 集成,怎么办?

这些问题 Function Calling 没有回答。

方式三:定制化 MCP(Custom Integrations)

Anthropic 在 2024 年底推出了 MCP(Model Context Protocol),来解决这个问题。

MCP 的核心思想是:定义一个标准协议,让 AI 工具可以连接到任何外部数据源和工具,而不需要为每个 AI 工具单独开发集成。

MCP 的架构有三个核心组件:

1. MCP Host(主机):你正在使用的 AI 编程工具(如 Claude Code、Cursor)

2. MCP Client(客户端):运行在主机侧的轻量级客户端,负责和 Server 通信

3. MCP Server(服务器):提供特定能力的服务(如 Jira MCP Server、AWS MCP Server)

只要你电脑上运行了一个”Jira MCP Server”,所有支持 MCP 的 AI 编程工具都可以连接它,读取你的 Jira 数据。

这就是标准化的力量。

MCP 解决了什么问题

MCP 解决的是”连接标准化”问题。具体来说:

1. 一次开发,到处可用

Jira 的 MCP Server 开发一次,Cursor、Claude Code、Windsurf、所有支持 MCP 的工具就都能用。不需要每个工具单独集成。

2. 安全可控

MCP Server 运行在本地,AI 需要读取你的 Jira 数据时,必须经过你的 MCP Server。MCP Server 可以控制哪些数据可以访问,哪些操作可以执行。

3. 上下文共享

如果你的公司有一个内部的代码规范文档,存在 Notion 里。一旦配置好 MCP,所有支持 MCP 的 AI 编程工具都可以读取这份文档,把它们纳入代码生成的上下文。

4. 工具的可被发现性(Discoverability)

MCP 定义了一套标准的”能力发现”机制。AI 连接到 MCP Server 后,可以自动发现这个 Server 提供哪些能力,不需要人工配置。


Question(核心问题):MCP 能否成为 AI 编程工具的”USB 接口”?

类比:USB 接口的故事

在 USB 出现之前,每个设备都有自己专用的连接器:

– 打印机有打印机的接口

– 鼠标有鼠标的接口

– 键盘有键盘的接口

– 摄像头有摄像头的接口

你买了一个新鼠标,对不起,你的电脑可能没有对应的接口。你需要转接头,需要驱动,需要配置。

USB 出现之后,所有设备有了统一的标准接口。鼠标、键盘、打印机、摄像头、硬盘、摄像头——全部通过同一个接口连接。

MCP 正在做同样的事情。

AI 编程工具就是你的”电脑”,外部的工具和数据就是”设备”。MCP 就是那个”USB 接口”。

但问题是:这个类比完美吗?

MCP 面临的挑战

挑战一:碎片化

MCP 现在面临的最大问题是:它还处于非常早期的阶段。不同的 MCP Server 实现质量参差不齐,有的维护积极,有的已经停止更新。有的 MCP Server 安全做得好,有的存在明显的安全隐患。

这和 USB 早期的情况很像——不同厂商的 USB 实现标准不统一,有时候会出现兼容性问题。

挑战二:安全风险

MCP Server 运行在本地,可以执行操作。这意味着如果一个恶意的 MCP Server 被安装,它可能会:

– 读取不应该读取的文件

– 执行不应该执行的操作

– 在你的开发环境里埋下后门

如何验证一个 MCP Server 是可信的?这是 MCP 生态需要解决的重要问题。

挑战三:AI 模型的支持

MCP 的价值取决于 AI 模型对它的利用程度。如果 AI 模型不能很好地理解 MCP 提供的能力,不能很好地利用这些能力做决策,那 MCP 的价值就大打折扣。

好消息是,Claude 3.5+ 的模型对 MCP 的支持已经相当成熟。但其他模型呢?GPT-4o、Gemini 是否会支持 MCP?这些决定了 MCP 能否成为全行业标准。

挑战四:商业利益的分歧

Google、Microsoft、OpenAI、Anthropic——每家都有自己的生态利益。如果 MCP 成为事实标准,谁来主导这个标准?每个公司都会想把自己的利益纳入标准之中。

MCP 的未来,某种程度上取决于这些大厂之间的博弈。


Answer(我的答案):MCP 值得关注,但不要 All-in

MCP 是正确の方向

作为一个长期关注 AI 编程工具的开发者,我的判断是:MCP 是正确の方向,值得关注和尝试。

原因如下:

1. 它解决的是真实痛点

每个用过 AI 编程工具的人都遇到过这个问题:”AI 能不能帮我查一下我们内部的文档?”答案是”很难”。MCP 直接解决了这个问题。

2. 生态正在快速成熟

截至 2026 年初,已经有超过 500 个 MCP Server 开源或商业化发布,覆盖了 Jira、GitHub、Slack、Notion、Figma、AWS、GCP、数据库、设计工具等主流开发资源。这个生态的成熟速度,比任何人预期的都快。

3. 标准的力量是巨大的

一旦连接标准确立,整个生态会加速进化。开发者不需要重复造轮子,AI 工具厂商不需要各自开发集成,创新会从”做底层重复建设”转向”在上层做真正的价值创造”。

但不要盲目 All-in

尽管如此,我认为现在对 MCP All-in 是有风险的。

1. 标准还没有完全收敛

MCP 还在快速迭代中,协议的细节还在变化。如果你现在投入大量资源构建 MCP 基础设施,要做好未来可能需要重构的准备。

2. 安全问题还没有标准答案

MCP 的安全模型还没有完全成熟。企业在采用 MCP 时需要格外谨慎,确保 MCP Server 的来源可信,权限控制到位。

3. 替代方案也在演进

MCP 不是唯一的方向。OpenAI 的 Agents SDK、Google 的 Agent Space、Microsoft 的 Copilot Extensions——每家都在探索自己的路。未来哪个标准会胜出,现在还不确定。

我的建议是:保持关注,小范围尝试,但不要把核心基础设施押注在 MCP 上。

开发者现在可以做什么

如果你想尝试 MCP,以下是我的建议:

第一步:了解并体验

在本地安装 Claude Code(原生支持 MCP),配置几个常用的 MCP Server(如 GitHub、Jira、文件系统),亲身体验一下 MCP 是什么感觉。

第二步:在个人项目中尝试

不要一上来就在公司核心项目里用 MCP。先在个人项目或 side project 里试试,感受它的价值,也感受它的局限。

第三步:关注生态,但控制投入

每周花 20 分钟浏览一下 MCP 生态的最新动态——新出了哪些 Server?协议有什么更新?但不要投入大量时间构建 MCP 基础设施,除非你已经确定它解决了你的核心痛点。

第四步:评估企业级需求

如果你在公司负责开发工具链,关注 MCP 对你们现有工具链的潜在价值。但评估时要把安全、成本、维护考虑进去。


尾声:协议战争刚刚开始

MCP 的出现,某种意义上代表了 AI 编程工具发展的一个新阶段——从”能力竞争”转向”生态竞争”。

过去几年,各家 AI 编程工具竞争的核心是模型能力和产品体验。谁的模型更强,谁的 UX 更好,谁就更受欢迎。

未来,竞争的核心会变成:谁能更好地连接开发者的整个工作流

在这个新的竞争维度里,协议和标准的重要性会凸显。谁的协议更开放、更安全、更易用,谁就能吸引更多的工具和数据提供者,形成正向飞轮。

MCP 现在领先半个身位。但这场战争才刚刚开始。

作为普通开发者,我们的策略应该是:保持开放,保持关注,保持试验,但不盲目押注。

技术的世界没有永久的赢家。真正有价值的,是你对这个领域底层逻辑的理解,以及你根据这些理解做出的灵活应对。

这是 AI 时代,开发者最重要的能力。