乐于分享
好东西不私藏

AI 核心技术速查手册 · Token篇

AI 核心技术速查手册 · Token篇

1️⃣ Token(令牌/词元)

🔵 核心定位:AI 最小理解单元

📝 通俗解释:大模型无法直接读懂整句文字,会把汉字、字母、标点拆分最小语义碎片,这个基础碎片就是Token

✨ 关键特点:模型输入输出基础单位,计费、上下文容量均按Token统计。

💡 一句话记忆:Token = AI 读懂文字的最小碎片

2️⃣ Tokenizer 分词器

🟡 核心定位:AI 文字拆分转换器

📝 通俗解释:专门把人类自然语言,自动切割、编码成模型能识别的Token序列。

✨ 关键特点:拆分规则决定理解精度,直接影响Token消耗数量。

💡 一句话记忆:分词器 = 把人话转成AI能读的单元

3️⃣ 上下文窗口 Context Window

🟢 核心定位:AI 短时记忆上限

📝 通俗解释:模型单次最多能承载、记忆、处理的Token总量,窗口越大能读越长文档、续越长对话。

✨ 关键特点:决定长文本处理能力,窗口越大算力与成本越高。

💡 一句话记忆:上下文窗口 = AI 一次能装下的记忆容量

4️⃣ 输入 Token

🟠 核心定位:AI 接收信息载荷

📝 通俗解释:用户发送的提问、指令、参考文档、知识库内容折算后的Token总量。

✨ 关键特点:接口计费核心项,内容越长消耗Token越多。

💡 一句话记忆:输入Token = 你发给AI的全部内容当量

5️⃣ 输出 Token

🟣 核心定位:AI 生成信息载荷

📝 通俗解释:AI 作答、续写文案、写代码、总结文档所生成产出的Token数量。

✨ 关键特点:创作类场景主要消耗项,可控设置最大生成长度。

💡 一句话记忆:输出Token = AI 为你生成的全部内容当量

6️⃣ Token 计费规则

⚫ 核心定位:AI 接口标准计价单位

📝 通俗解释:主流大模型均按「输入Token单价+输出Token单价」计费,不按纯汉字字数算;以OpenClaw为例,其本身免费,仅收取所调用AI模型的Token费用,计费逻辑与模型绑定,且支持缓存优化降低成本:比如调用OpenAI GPT-4o,输入Token单价为$5/1M、输出Token单价为$15/1M,若在OpenClaw中用该模型处理任务,发送1000字中文指令(约1300个输入Token)、生成2000字中文结果(约2600个输出Token),则需支付(1300÷1000000×5+2600÷1000000×15≈$0.0455;若启用缓存,缓存读取的输入Token仅需原价10%,可进一步降低费用,且可通过OpenClaw/usage命令查看实时Token消耗与费用估算,还能设置月度预算限制避免超额。

✨ 关键特点:中文1≈1.3Token,英文单词约1TokenOpenClaw支持多模型计费适配、缓存优惠及费用监控,不同模型定价差异显著。

💡 一句话记忆:AI收费不按字数,按Token个数结算,OpenClaw按所调用模型的输入输出Token双向计费。

7️⃣ 文本分片拆分

🟤 核心定位:Token 超限兼容方案

📝 通俗解释:超长文档超出上下文窗口时,切割成多段分批输入AI,再整合统一答案。

✨ 关键特点:长文档问答、本地知识库、RAG检索必备流程。

💡 一句话记忆:超长文本拆小块,分批喂给AI处理

8️⃣ BPE 子词编码

🔴 核心定位:Token 底层通用拆分算法

📝 通俗解释:GPT等主流模型标配编码方式,自动合并常用词、拆分生僻字符,平衡效率与精度。

✨ 关键特点:兼顾中英文适配、压缩字符冗余、行业通用标准。

💡 一句话记忆:BPE = 大模型统一拆词编码标准