当你和朋友聊AI时,是不是经常被这些词搞晕?Token、Prompt、Agent、Context……这篇文章用大白话帮你彻底搞懂它们。

01 Token:AI的「字」
人类读书认字,AI读书认 Token。
一个 Token 是语言模型处理文本的最小单位。英文里通常:
1个单词 ≈ 1~2个 Token 1个标点符号 ≈ 1个 Token
中文更简单:一个汉字 ≈ 1个 Token。
所以当你给 AI 发「你好」,大约是 2 个 Token。
为什么这很重要?因为 AI 对外收费,通常按 Token 计费。1000 个 Token 大约相当于 750 个英文单词或 500 个汉字。你跟 AI 聊得越多,费用就越高——本质上是算力的消耗。
记住:Token 就是 AI 吃的「字」,它按「字」收费。
02 Prompt:给AI的「指令」
Prompt 就是你发给 AI 的那段话——你让它做什么,它就做什么。
比如:
「请帮我写一封请假邮件,语气要诚恳,不要太长」
这就是一个 Prompt。
Prompt 是门艺术。好的 Prompt 能让 AI 输出高质量内容,差的 Prompt 只会得到废话。这两年有个专门的研究方向叫 Prompt Engineering(提示词工程),本质上就是研究「怎么说话 AI 才听得懂」。
Prompt 决定输出质量。你可以把 Prompt 理解为「咒语」——念对了,魔法生效;念错了,AI 给你一通不知所云的废话。
03 Context:AI的「记忆」
Context 就是上下文,也叫「语境」。
AI 模型本身是不记事的——每次对话,它只能看到本轮对话的内容。但现代 AI 有一种能力:在一次对话里,把之前的聊天记录一起「喂」给它,这就形成了 Context(上下文)。
举例:
你:请帮我翻译「hello」AI:你好你:改成法语AI:Bonjour第二句里,AI 之所以知道「hello」指的是第一句的内容,就是因为有 Context 在起作用——它记得你们聊到哪了。
但 Context 有容量限制,就像人的短期记忆一样。模型有「上下文窗口」大小,超过了就「忘」了早期的内容。这也是为什么长对话有时会「失忆」。
Context 就是 AI 的「短期记忆」,它决定 AI 能「同时记住」多少东西。
04 MCP:让AI长出「手脚」
MCP = Model Context Protocol,模型上下文协议。
这是 Anthropic 在 2024 年推出的开放协议,目的是让 AI 模型能更方便地连接外部工具和数据源。
打个比方:
没有 MCP 的 AI,就像一个「只有脑子、没有手脚的人」——它很聪明,但什么都做不了。 有了 MCP 的 AI,就像装上了各种工具的手臂——可以查资料、操作软件、调用真实世界的数据。
举个例子:没有 MCP 时,AI 只能「纸上谈兵」;有了 MCP,AI 可以帮你:
查实时天气 操作文件 访问网页 控制你的电脑
Anthropic 推出这个协议的核心思路是:让 AI 与外部世界的连接标准化,就像 USB 接口让所有设备都能互通一样。
MCP 就是 AI 世界的「万能接口」,让 AI 能真正「动手做事」而不是只会「动嘴说话」。
05 Skill:AI的「技能包」
Skill 就是 AI 的技能,类似人学会的一项专业能力。
比如:
一个「写作 Skill」可以让 AI 专门写公众号文章 一个「代码 Skill」可以让 AI 专门写程序 一个「数据分析 Skill」可以让 AI 专门处理表格
在 Claude Code 这类工具里,Skill 被组织成可复用的模块——你可以理解为一个「技能盒子」,需要什么技能就调用什么盒子,不用每次从头教 AI。
Skill 解决的是「通用 AI 太泛、专用 AI 太窄」的问题。通过组合不同的 Skill,AI 可以变成一个「多面手」,既懂写作、又懂编程、还能做数据分析。
Skill 就是 AI 的「专业技能」,按需加载,随时调用。
06 Agent:会「自主决策」的AI
Agent = 智能体,能自主理解目标、规划步骤、执行任务的 AI 系统。
普通 AI 是「你问它答」的模式,而 Agent 是「你告诉它目标,它自己想办法完成」。
Agent 的核心能力有三:
自主规划:把大目标拆成小步骤 工具使用:调用搜索、代码执行、文件操作等 自我反思:做错了能回头调整
现在热门的 AI Coding 工具(Cursor、Claude Code 等),本质都是 Agent——它们不只是回答问题,而是真正帮你「干活」。
Agent 就是「能自己动手完成任务」的 AI,不只是脑子好使,手也跟得上。
07 Harness:让AI在生产环境跑起来的「驾驭体系」
Harness 是 AI 智能体的「工程支撑体系」——不拼模型本身有多强,而是把模型跑通、跑稳、用起来的那套系统工程。
用一句经典定义来说:
「每当 AI 犯错,就工程化一个方案,让它永远不再犯同样的错。」
Harness 到底包含什么?
用骑马做比喻:你有一匹千里马(模型),光靠蛮力骑是骑不稳的,你还需要:
| Prompt Engineering | |
| RAG(检索增强) | |
| 闭环执行环境 | |
| 记忆系统 | |
| 工具服务器 |
这些加在一起,就是 Harness——让模型在真实业务里跑起来的完整工程底座。
为什么 Harness 突然火了?
因为 2025~2026 年,主流模型的推理能力差距已经越来越小。大家发现:同一个模型,换一套 Harness,效果能差出几倍去。
腾讯汤道生说:「在同样的模型能力下,不同的 Harness 设计都将影响 AI 落地的实际效果。」
模型差不多的情况下,谁能把「驾驭体系」搭得更扎实,谁就能赢。
Harness 和 Agent 的关系
Agent = 智能体本身,Harness = 智能体跑起来的底座。
没有 Harness 的 Agent,像一辆没有悬挂系统的跑车——马力足,但一上路就散架。有了 Harness,Agent 才能真正稳定地帮你干活。
Harness 就是 AI 智能体的「工程底座」——让模型从「能说话」变成「能干活」的那套系统。
一张图总结

写在最后
这些概念听起来高大上,本质都是为了让 AI 更强、更实用:
Token 是 AI 吃东西的单位 Prompt 是你和 AI 说话的方式 Context 让 AI 记得你们聊过什么 MCP 让 AI 能连接真实世界 Skill 让 AI 有专业能力 Agent 让 AI 能自主行动 Harness 搭好工程底座,让 AI 能稳定干活
记住:技术名词的背后都是常识。AI 再怎么发展,都是在模仿甚至超越人类的能力——只是速度快到让人不适应而已。
下次有人在你面前蹦出这些「黑话」,你可以淡定地说:「哦,不就是 X 嘛,我懂。」
数据来源:本文基于 2026 年 5 月主流 AI 技术生态整理
夜雨聆风