乐于分享
好东西不私藏

AI Skill 工具包全面解析

AI Skill 工具包全面解析

技术科普 · AI工具链

AI Skill 工具包

全面解析

从定义到实战,彻底搞懂 Skill、MCP、Function Calling 三大工具体系

2025-2026年最新资料整理|阅读约15分钟|含完整示例代码

目录导航

01

什么是 AI Skill 工具包?

02

三大工具体系:Skill vs MCP vs Function Calling

03

使用场景全景图

04

如何调用 Skill?

05

本地工具包 vs 云端工具包的核心区别

06

各大模型的 Skill 生态对比

07

完整示例:从零搭建一个 Skill

08

总结与选型建议

01

什么是 AI Skill 工具包?

如果你在 2024-2025 年关注过 AI 行业动态,你一定见过 Tool Use、MCP、Skill、Function Calling 这些词汇反复出现。它们是同一回事儿吗?并不完全是。

一个最简单的比喻:原始的大语言模型(LLM)就像一个博学的顾问,但他被关在小黑屋里,只能靠脑子里的知识回答你的问题。AI Skill 工具包,就是给这位顾问配上一套外部工具箱——计算器、网络连接、数据库访问、文件读写……从此他不只是会说,而是会做。

▌ SKILL 定义

AI Skill(技能包)是一组可复用的任务执行规范,通常以结构化文件(Markdown + 元数据)的形式存在,用于告诉 AI 模型在特定场景下应该按照怎样的工作流程、调用哪些工具、遵循哪些约束来完成任务。它本质上是把专家经验封装成可被 AI 随时取用的知识模块。

2025 年 10 月,Anthropic 正式推出了自家的 Claude Skills 系统。Skills 是以文件夹为单位的模块化任务包——包含一个带 YAML 元信息的 SKILL.md 文件,外加可选的脚本和资源。Claude 在启动时只扫描元信息(保持上下文高效),等用户提出需求时才按需加载完整内容。

引用

Skills 是对 MCP 缺陷的一种补充方案——它通过渐进式信息披露(Progressive Disclosure)来控制 prompt 的膨胀,同时提升 Agent 的可靠性。

— Medium, LLM Tools, MCP, and Skills — A Practical Guide, January 2026

// 一句话总结

Skill = 把专家经验打包成 AI 可自动调用的知识模块;MCP = 给 AI 安装标准化插件接口;Function Calling = 让 AI 调用你写好的具体函数。三者层次不同,功能互补。

— — — — — — —

02

三大工具体系:横向对比

截至 2026 年初,AI 工具扩展领域存在三个主要技术路线,我们逐一拆解。

① Claude Skills(Anthropic,2025年10月)

Skills 以 Markdown 文件为核心,配合可选脚本。Agent 只加载技能名称和描述进入上下文,需要时才读取完整内容。优势:token 消耗极低、可移植性强、无需运行服务器

② Model Context Protocol(MCP,Anthropic,2024年11月)

MCP 是一个开放标准协议,基于 JSON-RPC 2.0,定义了 AI 应用如何与外部工具、数据源通信。2025 年 12 月,Anthropic 将 MCP 捐赠给 Linux 基金会旗下的 Agentic AI Foundation(AAIF),目前 OpenAI、Google DeepMind 均已跟进采纳。

③ Function Calling / 平台插件(各厂商)

OpenAI 于 2023 年推出 Function Calling,允许 GPT 系列模型发起结构化 API 调用。Google Vertex AI 也有类似的 Gemini Extensions 机制。这些方案都是厂商私有实现,无法跨平台通用。

维度

Claude Skills

MCP

Function Calling

诞生时间

2025年10月

2024年11月

2023年(OpenAI)

开放标准

⚠️ 厂商主导

✅ 开放(Linux基金会)

❌ 厂商私有

定义方式

Markdown + YAML 元数据

JSON-RPC 工具定义

JSON Schema 函数签名

需要服务器

❌ 不需要

✅ 需要

⚠️ 视实现而定

上下文开销

极低(渐进加载)

较高(全量加载元数据)

中等

跨模型兼容

⚠️ Claude系列为主

✅ Claude/GPT/Gemini均支持

❌ 各平台不通用

网络延迟

无(本地执行)

有(网络调用)

执行确定性

LLM解释执行,可能有幻觉

确定性API调用

确定性API调用

引用

MCP 的 GitHub 官方工具定义单独就可以消耗数万 token,严重压缩上下文空间。Skill 的渐进式加载机制正是为此而设计的解决方案。

— IntuitionLabs, Claude Skills vs. MCP: A Technical Comparison, October 2025

— — — — — — —

03

使用场景全景图

AI 工具包并非万能胶,不同场景适合不同方案。下面梳理六大典型应用场景:

💻代码开发辅助

Claude Code、GitHub Copilot 等 IDE 插件通过 MCP 获取实时项目上下文,配合 Skill 提供特定框架(如 React、FastAPI)的编码规范。

🗄️数据库查询

通过 MCP PostgreSQL 服务器,AI 可以直接生成并执行 SQL,将自然语言问题转化为数据查询,无需手动写代码。

📝文档处理自动化

Skills 封装 Word、PDF、Excel 等文档处理的最佳实践,告诉 AI 正确的库调用顺序和输出规范,避免生成错误代码。

🌐实时信息获取

Web Search 工具包(Function Calling 类)允许 AI 打破训练数据截止日期的限制,获取最新新闻、股价、天气等实时信息。

🔗SaaS 系统集成

MCP 服务器已覆盖 Slack、GitHub、Salesforce、Notion、Linear 等主流 SaaS,AI 可以直接操作这些系统,实现跨平台工作流自动化。

🤖多 Agent 协作

复杂任务可拆分为多个 Agent,每个 Agent 挂载专门的 Skills 或 MCP 服务器,通过协调层完成端到端的业务流程。

💡 选型原则

需要调用外部API或实时数据优先 MCP

需要封装专家知识和工作流优先 Skills

需要与现有代码库集成优先 Function Calling

— — — — — — —

04

如何调用 Skill?手把手教学

以 Claude 的 Skills 系统为例,完整调用流程分为四个阶段:

01

创建 Skill 文件结构

在指定目录下建立一个以技能命名的文件夹,内含 SKILL.md 主文件和可选的辅助脚本。

02

编写 YAML 元数据(frontmatter)

在 SKILL.md 开头声明 name、description、trigger 等字段,供 Agent 快速判断该 Skill 是否与当前任务相关。

03

Agent 扫描 & 渐进加载

Agent 启动时将所有 Skills 的元数据注入系统上下文。当用户请求触发相关场景时,Agent 使用 view 工具读取完整 SKILL.md,获得详细指令。

04

按指令执行任务

Agent 依照 Skill 中的步骤说明,调用 bash、file_create 等底层工具完成实际工作,并输出规范的结果。

一个典型的 SKILL.md 文件格式如下:

my-skill/SKILL.md

name: excel-report

description: 生成专业 Excel 数据报告,支持图表、格式化和多工作表

triggers:

Excel 报表

.xlsx 文件

数据可视化

version: “1.2”

author: your-team

# Excel Report Skill

## 适用场景

当用户需要生成 .xlsx 文件、处理 Excel 数据时使用本 Skill。

## 执行步骤

1. 安装依赖:pip install openpyxl –break-system-packages

2. 使用 openpyxl 创建工作簿

3. 输出文件到 /mnt/user-data/outputs/

## 注意事项

– 文件名使用下划线,不用空格

– 必须调用 present_files 工具展示给用户

MCP 的调用方式

MCP 的调用方式略有不同。需要先配置 .mcp.json,声明要挂载的 MCP 服务器,AI 客户端(如 Claude Desktop、Cursor)启动时自动连接:

.mcp.json

{

“mcpServers”:{

“github”:{

“command”:“npx”,

“args”:[“-y”, “@modelcontextprotocol/server-github”],

“env”:{ “GITHUB_TOKEN”: “ghp_xxxxxxxxxxxx” }

},

“postgres”:{

“command”:“npx”,

“args”:[“-y”, “@modelcontextprotocol/server-postgres”],

“env”:{ “DATABASE_URL”: “postgresql://localhost/mydb” }

}

}

}

— — — — — — —

05

本地工具包 vs 云端工具包

从 MCP 协议规范来看,工具包的运行位置决定了通信方式和安全边界:

对比维度

本地工具包(stdio)

云端工具包(HTTP+SSE)

传输协议

stdio(标准输入输出)

HTTP + Server-Sent Events(2025年3月规范更新)

典型用途

读写本地文件、访问本地数据库

调用 SaaS API、共享企业数据源、跨团队协作

数据安全

数据不离开本地,安全级别高

数据经由网络传输,需要 Auth + 加密

响应延迟

几乎为零

取决于网络和服务器响应速度

部署难度

本机安装即可

需部署服务、配置域名/证书/鉴权

可共享性

仅限本机

团队/组织内所有成员可共用

安全风险

若受恶意Prompt注入,可能拿到本机控制权

需防MITM、token泄露、权限越界

⚠️ 安全警示(Red Hat 2025年分析报告)

MCP 服务器的安全风险不容忽视——未知来源的 MCP 服务器可能获得本机文件访问、网络访问和命令执行权限。就像浏览器扩展一样,只安装来自可信来源的 MCP 服务器,有条件时应沙箱隔离运行。

Skills 与本地/云端的关系:Claude Skills 自身不需要运行服务器,Skills 文件存放在本地文件系统(如 /mnt/skills/ 目录),AI 直接读取文件内容,因此天然是本地方案,兼具高安全性和零延迟的优势。

— — — — — — —

06

各大模型的 Skill 生态对比

截至 2026 年初,主流 AI 模型在工具调用生态上已形成差异化格局。以下数据来自各厂商官方文档及独立研究报告:

🤖Claude(Anthropic)

claude-opus-4 / claude-sonnet-4

• Claude Skills(原生 Markdown 技能包)

• MCP 客户端(完整 stdio + HTTP+SSE 支持)

• Computer Use(桌面操作能力)

• Web Search(内置网络搜索)

• Code Execution(代码解释器)

💬GPT-4o / o3(OpenAI)

gpt-4o / o3 / o4-mini

• Function Calling(结构化函数调用)

• MCP 客户端(2025年3月起官方支持)

• Responses API(文件搜索 + 代码执行)

• Web Search(Bing 集成)

• ChatGPT Actions(GPTs 自定义工具)

Gemini 2.0(Google)

gemini-2.0-flash / pro

• Gemini Extensions(垂直场景插件)

• Vertex AI Function Calling

• MCP 客户端(Google DeepMind 官方采纳)

• Google Workspace 工具(Docs/Sheets/Gmail)

• Code Execution(Python 沙箱)

🦙Llama 3(Meta)

Llama-3.3 / 3.2 系列

• Function Calling(自定义格式)

• 通过 LangChain / LlamaIndex 间接支持 MCP

• 开源生态:自定义工具扩展灵活

• Ollama + MCP 本地集成方案

// 关键事实

MCP 已成为事实上的行业标准。2025 年 3 月 OpenAI 正式采纳,Google DeepMind 跟进,2025 年 12 月 MCP 被捐赠给 Linux 基金会,标志着它已从 Anthropic 的私有协议升级为整个 AI 行业的开放基础设施。

(来源:Wikipedia, Model Context Protocol 词条)

— — — — — — —

07

完整示例:从零搭建一个 Skill

下面通过一个完整的实战示例,演示如何制作一个数据分析报告生成 Skill,并通过 MCP 方式调用外部数据库。

示例一:Claude Skill 文件(本地方案)

data-analysis/SKILL.md

name: data-analysis

description: |

CSV/Excel 文件分析数据并生成图文报告。

当用户上传数据文件并要求分析、可视化或洞察时触发。

version: “2.0”

# 数据分析报告 Skill

## 触发关键词

“分析数据”、”生成报告”、”数据可视化”、”.csv 文件”

## 执行流程

### Step 1:环境准备

pip install pandas matplotlib seaborn openpyxl –break-system-packages

### Step 2:读取并探索数据

import pandas as pd

df = pd.read_csv(‘/mnt/user-data/uploads/data.csv’)

print(df.head())# 预览前5行

print(df.describe())# 基础统计

### Step 3:生成可视化(保存到 /home/claude/)

– 数值型列 → 直方图 + 箱线图

– 时间序列 → 折线图

– 类别对比 → 柱状图

### Step 4:输出报告

– 将图表和分析结论整合为 HTML 报告

– 使用 present_files 展示给用户

示例二:通过 Anthropic API 调用 Function Calling

function_calling_demo.py

import anthropic, json

client = anthropic.Anthropic()

# 定义工具(Function Calling)

tools = [{“name”: “get_weather”,

“description”:“获取指定城市的实时天气信息”,

“input_schema”:{“type”: “object”,

“properties”:{“city”: {“type”: “string”}},

“required”:[“city”]}}]

# 第一轮:让模型决定是否调用工具

response = client.messages.create(

model=”claude-sonnet-4-20250514″,

max_tokens=1024,tools=tools,

messages=[{“role”:“user”, “content”: “北京今天天气怎么样?”}])

# 解析工具调用

if response.stop_reason == “tool_use”:

tool_call= next(b for b in response.content if b.type == “tool_use”)

city= tool_call.input[“city”]

weather_data= {“city”: city, “temp”: “18C”, “condition”: “晴天”}

#第二轮:将工具结果返回给模型(省略完整代码)

示例三:自定义本地 MCP 服务器(Python)

my_mcp_server.py

from mcp.server import Server

from mcp.server.stdio import stdio_server

from mcp.types import Tool, TextContent

import asyncio, json

app = Server(“my-data-server”)

# 声明工具

@app.list_tools()

async def list_tools():

return[Tool(

name=”query_sales”,

description=”查询销售数据库中的月度销售额”,

inputSchema={“type”:“object”,

“properties”:{“month”: {“type”: “string”}},

“required”:[“month”]})]

# 实现工具逻辑

@app.call_tool()

async def call_tool(name: str, arguments: dict):

ifname == “query_sales”:

result= {“month”: arguments[“month”], “revenue”: 1250000}

return[TextContent(type=’text’, text=json.dumps(result))]

if __name__ == “__main__”:

asyncio.run(stdio_server(app))

— — — — — — —

08

总结与选型建议

看完全文,我们用一张决策树来帮你快速选型:

// 选型决策树

我需要封装重复使用的工作流和专家经验用 Claude Skills

我需要连接外部 SaaS 服务(Slack、GitHub 等)用 MCP(云端)

我需要访问本地文件系统或本地数据库用 MCP(本地 stdio)

我在 OpenAI / Azure 生态下开发用 Function Calling

我需要跨模型、跨平台的通用方案优先 MCP(已成行业标准)

从产业趋势来看,这三种方案并非非此即彼,而是分层协作

底层:MCP 提供标准化的工具连接基础设施

中层:Function Calling 提供精确的函数级接口调用

上层:Skills 提供面向任务的专家知识封装

随着 MCP 在 Linux 基金会的开放治理下持续演进,以及 Anthropic、OpenAI、Google 三大巨头的共同加持,AI 工具调用正在经历从各自为政到统一标准的关键转型。对于开发者而言,现在正是入场学习的最佳时机。

引用

MCP 的快速被 OpenAI、Google DeepMind 采纳,以及 Zed、Sourcegraph 等工具链的跟进,表明围绕其实用价值的行业共识正在快速形成。

— Wikipedia, Model Context Protocol 词条(2025)

// 给读者的行动建议

① 在 Claude Desktop 中尝试挂载一个 MCP 服务器(推荐从 GitHub 或 Slack 开始)

② 把自己最常用的工作流整理成一个 SKILL.md 文件,体验渐进加载的效率提升

③ 关注 MCP Registry(2025年9月预览版)—— 这将是 AI 工具的应用商店

参考资料来源

Anthropic Engineering Blog (Oct 2025)

IntuitionLabs Claude Skills vs MCP (Oct 2025)

Medium: LLM Tools, MCP, and Skills (Jan 2026)

LlamaIndex Blog: Skills vs MCP (2025)

Armin Ronacher: Skills vs Dynamic MCP Loadouts (Dec 2025)

Wikipedia: Model Context Protocol

Google Cloud / IBM Think / Red Hat: MCP Security Risks (2025)

Towards Data Science: Deep Dive into MCP (Dec 2025) | MCP Official Spec (2025-06-18)

本文内容基于公开资料整理,供学习参考。相关产品特性以各厂商官方文档为准。

本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » AI Skill 工具包全面解析

猜你喜欢

  • 暂无文章