都在养虾养马,可 AI、OpenClaw、爱马仕到底是啥关系?
一篇给所有「跟着养、但没搞清楚养的是个啥」的人看的大白话指南。
━━━━━━━━━━━━━━━━━━━━
最近不管打开哪个技术群,话题基本就两个:
「你养虾了没?」
「我马刚跑通,准备喂点新技能。」
外行听了一头雾水——养虾不是去夜市的事吗?怎么变成程序员茶余饭后的主业了?
「养虾」指的是 OpenClaw,那个 Logo 是只红色小龙虾、2026 年初炸穿 GitHub 的开源 AI Agent;「养马」指的是 Hermes Agent,Nous Research 出品、因为发音被中国开发者戏称为「爱马仕」的另一款明星 Agent。
这俩东西火到什么程度?OpenClaw 已经 34 万+ Star、阿里云腾讯云都上架了一键部署;Hermes 11 万+ Star、背后公司估值 10 个亿。中国云厂商和地方政府都在出补贴鼓励大家「养」。
但是——
我观察了一圈,发现一个挺普遍的现象:很多人嘴上天天养虾养马,其实根本没搞清楚一件事——
OpenClaw 不是 AI,Hermes 也不是 AI。它们是 AI 之上的”壳子”。
你以为你在养一只 AI,其实你养的是一个能让 AI 真正干活的「身体」。这个差别看上去咬文嚼字,理解之后却能让你少踩八成坑。
这篇文章我打算把这件事一次讲清楚。顺手把大模型、提示词、Agent、MCP、Skills 这些常被混着说的词,按从底到上的顺序梳理一遍。
不堆术语,不抄维基百科。能用一句话讲完的,绝不写两句。
━━━━━━━━━━━━━━━━━━━━
❶ 大模型 / LLM
━━━━━━━━━━━━━━━━━━━━
LLM 全称是 Large Language Model,中文叫「大语言模型」,简称「大模型」。
最简单的理解方式:它是一个「超级文字接龙机器」。
你给它一句开头,它会根据自己读过的几乎全互联网的文字,去猜「下一个字最可能是什么」,然后一个字一个字接下去。
听起来很弱对吧?但当这个「猜字」的能力强到一定程度,它就开始表现得像在「思考」、在「理解」、在「对话」。
「大」体现在两件事上:
▸ 读过的资料大(动辄几万亿字)▸ 自己的「脑容量」大(也就是后面要讲的「参数」)
ChatGPT、Claude、Gemini、DeepSeek、Qwen、Kimi——这些你听过的名字,本质上都是大模型,区别只在于谁家训练得更聪明、更听话、更便宜。
━━━━━━━━━━━━━━━━━━━━
❷ 参数 / 7B、70B、671B
━━━━━━━━━━━━━━━━━━━━
经常看到「DeepSeek-V3 671B」「Qwen3-32B」「Llama-70B」这种写法。
后面那个 B 是 billion,十亿。所以 7B 就是 70 亿参数,70B 就是 700 亿参数。
参数你可以粗暴地理解成「模型大脑里的神经元连接数」。数量越多,大脑越大,理论上越聪明,但同时——
▸ 越费显卡(跑起来要更贵的硬件)
▸ 越费电(推理一次成本更高)
▸ 越慢(吐字速度可能更慢)
所以业界一直在玩一个游戏:怎么用更小的模型,做到更大模型的效果。这就是为什么你会看到「7B 打平 70B」「我们小模型在某些任务上反超 GPT-4」这种新闻。
参数不是越多越好,匹配场景才是王道。
━━━━━━━━━━━━━━━━━━━━
❸ Token
━━━━━━━━━━━━━━━━━━━━
这是个会让你充值时心痛的概念。
Token 是大模型处理文字的「最小计费单位」。它不是「字」,也不是「词」,而是介于两者之间的东西。
举几个例子你就懂了:
▸ 「你好」大概是 2 个 token
▸ 「ChatGPT」大概是 2-3 个 token
▸ 「人工智能」大概是 2 个 token
▸ 一段 1000 字的中文,大概是 1500-2000 个 token
为什么要发明这个东西?因为模型不认识「字」,它只认识被切碎重新编码后的数字片段。
为什么要关心它?因为:
▸ 你调用 API,是按 token 收费
▸ 模型的「上下文窗口」,是按 token 算
▸ 你写 prompt 写得啰嗦,token 飙升,钱包飙降
记住这个换算就够了:「中文 1.5 个字 ≈ 1 个 token,英文 1 个单词 ≈ 1.3 个 token」。
━━━━━━━━━━━━━━━━━━━━
❹ 上下文窗口 / Context Window
━━━━━━━━━━━━━━━━━━━━
你和模型聊天时,它能「记住」多少内容,就叫上下文窗口。
单位是 token。你会看到「128K 上下文」「200K 上下文」「1M 上下文」这种宣传语。
128K token 大概等于 一本中等厚度的小说。1M token 大概是 七八本《三体》。
这个数字越大,意味着:
▸ 你能一次喂给它一整本书让它总结
▸ 你能让它读完几百页 PDF 后再回答
▸ 长对话不容易「失忆」
但有个坑要提醒你:「能放进去」不等于「能用好」。
很多模型号称 1M 上下文,但实测放到 30 万 token 之后,它对中间那段内容的记忆就开始稀里糊涂——这种现象有个名字,叫「Lost in the Middle」(中间内容丢失)。
所以看广告别看上限,要看「实际可用区间」。
━━━━━━━━━━━━━━━━━━━━
❺ 提示词 / Prompt
━━━━━━━━━━━━━━━━━━━━
就是你打给模型的那段话。仅此而已。
但它被神化了一阵子,曾经还出现过「提示词工程师年薪百万」的招聘。现在这个泡沫已经破了一半,但「会写 prompt」依然是普通人和专业玩家之间最大的差距。
差距在哪?
普通人写:「帮我写一篇文章」。
会写的人写:「你是一个写了五年公众号的老编辑,请用平实但有钩子的语气,针对 28-35 岁的职场女性,写一篇关于 XX 主题的文章,控制在 1500 字以内,开头不要用「在这个 XX 的时代」这种烂梗,结尾要有一句金句」。
模型还是那个模型,结果天差地别。
━━━━━━━━━━━━━━━━━━━━
❻ 幻觉 / Hallucination
━━━━━━━━━━━━━━━━━━━━
大模型最让人头疼的毛病:一本正经地胡说八道。
它会给你编一个不存在的论文、虚构一个根本没说过这话的名人、引用一段 GitHub 上从未存在过的代码。
而且语气特别自信。
为什么会这样?回到第一节——它本质是「猜下一个字」。它不知道自己「不知道」,它只是在按概率生成最像答案的东西。
幻觉永远不会被 100% 消除,但可以降低。降低的办法主要是:
▸ 让它去查资料再回答(也就是后面要讲的 RAG)
▸ 让它先「思考」再回答(也就是推理模型)
▸ 你自己学会交叉验证,别全信
最朴素的一条建议:凡是涉及具体数字、人名、引用、链接的,一定要自己再搜一下。
━━━━━━━━━━━━━━━━━━━━
❼ 推理模型 / 思维链 / CoT
━━━━━━━━━━━━━━━━━━━━
去年开始出现的新物种。
代表选手有 OpenAI 的 o1 / o3,DeepSeek 的 R1,Claude 的 Thinking 模式,Gemini 的 Thinking。
普通模型是「问完就答」,推理模型是「问完先在心里盘算一通,再答」。
它会在脑内(其实是写在你看不到的地方,或者折叠起来给你看)展开一长串「让我想想……如果是这样……不对,应该……」的推理过程。这个过程被称为「思维链」(Chain of Thought,CoT)。
效果是什么?数学、逻辑、代码这种需要「步骤推演」的任务,准确率大幅提升。
代价是什么?慢,贵。一个推理模型的响应可能需要几十秒甚至几分钟,token 消耗也是普通模型的好几倍。
所以现在的用法是:日常聊天用普通模型,遇到复杂问题切换到推理模型。
━━━━━━━━━━━━━━━━━━━━
❽ RAG / 检索增强生成
━━━━━━━━━━━━━━━━━━━━
全称 Retrieval-Augmented Generation。听起来很学术,做的事其实非常直白。
就是「让模型在回答你之前,先去某个资料库里翻翻」。
举个例子:你做了一个企业内部知识问答机器人。你不可能把所有公司文档都塞进 prompt(太长了,也太贵了)。
那怎么办?
▸ 提前把公司所有文档切成小块,转成向量存起来
▸ 用户提问时,先用问题去「最相关的几小块」里搜
▸ 把搜到的内容塞给模型,让它基于这些内容回答
这就是 RAG。它解决了三个问题:
▸ 模型本身不知道你公司的私有数据 → 现在它知道了
▸ 模型容易瞎编 → 现在它有依据了
▸ 长文档塞不下 → 现在按需取用了
今天市面上 80% 的「企业 AI 应用」「智能客服」「文档问答」,底层都是 RAG。
━━━━━━━━━━━━━━━━━━━━
❾ 微调 / Fine-tuning
━━━━━━━━━━━━━━━━━━━━
如果说大模型是一个读完了全互联网的「通才大学生」,那微调就是「让他再去某个行业实习几个月,变成专才」。
举几个真实场景:
▸ 一家律所拿自己积累的几万份合同,微调一个专门审合同的模型
▸ 一家医院拿病历数据,微调一个能写诊断初稿的模型
▸ 一个个人 IP 拿自己几年的写作风格,微调一个能模仿自己语气的模型
微调和 RAG 的区别经常被搞混。粗暴对比:
▸ RAG:让模型「现场翻书」,资料是外部的
▸ 微调:让模型「把书读进脑子」,知识是内化的
▸ RAG:擅长处理频繁变化的事实性内容
▸ 微调:擅长固化某种风格、格式、决策习惯
实际项目里,往往两个一起用。
━━━━━━━━━━━━━━━━━━━━
❿ 多模态 / Multimodal
━━━━━━━━━━━━━━━━━━━━
「模态」就是信息的类型:文字是一种模态,图片是一种,音频是一种,视频是一种。
「多模态」意思是模型同时能处理好几种。
具体表现就是:
▸ 你扔给它一张照片,它能看懂里面是什么
▸ 你给它一段音频,它能转写成文字、还能听出情绪
▸ 你描述一个画面,它能直接画出来 / 拍出来一段视频
GPT-4o、Claude、Gemini、Qwen-VL,这些主流模型现在基本都是多模态的。
为什么这事重要?因为人类本来就是多模态生物——我们读字、看图、听话、看脸色,是同时进行的。模型只有也能这样,才能真正进入更多场景,比如:
▸ 拍一张冰箱照片,问它今晚能做什么菜
▸ 上传一段会议录音,让它生成纪要
▸ 截一张报错图,让它告诉你怎么修
━━━━━━━━━━━━━━━━━━━━
⓫ Agent / 智能体
━━━━━━━━━━━━━━━━━━━━
今年最热的词,没有之一。
普通模型只会「对话」——你说一句,它答一句,结束。
Agent 不一样。它能:
▸ 自己规划「为了完成这个目标,我需要分几步」
▸ 自己调用工具(搜索引擎、计算器、代码解释器、外部 API)
▸ 看到结果不对会自我纠正、再来一次
▸ 多轮循环,直到任务真的完成
举个具体场景:
你说「帮我订一张下周三去上海的高铁,下午三点之后的,二等座,靠窗」。
普通模型:「好的,请问您要哪个车次?」——废话文学。
Agent:自己打开 12306、查时刻表、筛选符合条件的车次、提示你确认、调用支付接口、返回订单号。整件事一气呵成,你只看结果。
Agent 是「让 AI 真正干活」的关键一跃。从「能回答」到「能完成」。
但目前的 Agent 还远远不完美——容易在长任务里走偏、容易卡在某一步、容易调用工具失败。它处于「demo 很惊艳,生产环境一塌糊涂」的尴尬阶段。
但这一定是未来一两年最重要的方向。
━━━━━━━━━━━━━━━━━━━━
⓬ MCP / 模型上下文协议
━━━━━━━━━━━━━━━━━━━━
MCP 全称 Model Context Protocol,由 Anthropic(Claude 背后的公司)在 2024 年底提出。
要理解 MCP,得先理解一个痛点:
Agent 需要调用各种工具——查日历、读邮件、操作 GitHub、查询数据库……每个工具的接口都不一样。每对接一个,开发者就要写一套适配代码。
工具有一万个,就要写一万套。这就像电脑刚发明那会儿,每个外设都自带一根独家接口的线,鼠标插不上键盘的口。
MCP 干的事,就是「USB-C 接口」之于硬件——它定义了一套统一的协议,让任何工具只要按照这个协议「自我介绍」一次,任何模型都可以即插即用。
具体来说:
▸ 一边是「MCP Server」:把某个工具或数据源(比如你的 Notion、Figma、GitHub)封装成符合 MCP 标准的接口
▸ 一边是「MCP Client」:模型这边的接入端,能识别并调用任何符合 MCP 的服务
只要你装一个 Notion 的 MCP Server,Claude、Cursor、各种 AI 客户端就都能直接读写你的 Notion,不用每家分别开发。
它现在的火热程度可以参考:2025 年上半年,MCP Server 已经从几十个长到了几千个。OpenAI、Google 也都已经宣布支持。
可以理解为,AI 世界的「应用商店」雏形,正在通过 MCP 长出来。
━━━━━━━━━━━━━━━━━━━━
⓭ Skills
━━━━━━━━━━━━━━━━━━━━
这个词最近因为 Anthropic 推出「Agent Skills」机制,又被拎出来重新定义了一次。
Skills 是什么?最朴素的解释:「教模型一项专门技能的小教程包」。
每个 Skill 是一个文件夹,里面通常包含:
▸ 一段说明(这个技能是干嘛的、什么时候该用)
▸ 一些配套的脚本或工具
▸ 必要的参考资料
模型在遇到任务时,会自动判断「我现在该不该掏出某个 Skill 来用」。
比如:
▸ 一个「写公众号」的 Skill,里面有排版规范、字号建议、Unicode 符号速查
▸ 一个「做 PPT」的 Skill,里面有模板、配色、字体规则
▸ 一个「读 PDF」的 Skill,里面是专门解析 PDF 的脚本
Skills 和 MCP 的区别?
▸ MCP 解决的是「模型怎么连到外部系统」
▸ Skills 解决的是「模型怎么具备专业领域的工作方法」
一个偏「连接」,一个偏「能力沉淀」。两者经常配合使用。
━━━━━━━━━━━━━━━━━━━━
⓮ 等一下——AI、OpenClaw、爱马仕,到底是啥关系?
━━━━━━━━━━━━━━━━━━━━
讲到这里,必须先把开头那个最容易被混淆的问题讲清楚。
很多人以为「养虾」「养马」就等于「自己装了一个 AI」。这话听上去没错,仔细想其实差着一层。
我用一个不太严谨但很直观的类比:
如果把 AI 想象成一个人——
▸ 「大模型」(GPT、Claude、DeepSeek 这些)= 这个人的「大脑」
▸ 「Agent 框架」(OpenClaw、Hermes Agent)= 给这个大脑配的「身体 + 工作台 + 记事本」
▸ 「MCP」 = 身体上的标准接口,能随时插上各种外设
▸ 「Skills」 = 工作台上一本本积累下来的工作手册
你「养虾」「养马」——养的不是大脑本身,而是这套「身体 + 工作台 + 记事本」的成长。
具体一点:
▸ 你给 OpenClaw 接哪个大模型,是你自己选的——可以是 Claude、可以是 DeepSeek、也可以是本地跑的 Ollama
▸ 你给 Hermes 用什么模型,明天换一个也无所谓,它会自动适配
▸ 真正在「成长」的,是它们的记忆库、技能库、调用工具的熟练度
所以一个常见的认知错误是:
「我装了 OpenClaw,等于我有了一个免费 AI!」
不是的。OpenClaw 本身不会思考,它只是一个能让 AI 干活的「执行框架」。它背后还是要接一个大模型——可能是免费的(本地模型),可能是付费的(Claude / GPT 的 API)。
这就是为什么有些人养着养着发现 API 账单飞涨——因为「身体」在不停地让「大脑」工作,每一次思考都在烧钱。
反过来另一个误区是:
「我有 ChatGPT 就够了,要 OpenClaw 干嘛?」
也不是。ChatGPT 是「能聊天的应用」,OpenClaw 是「能干活的框架」。一个偏「问答」,一个偏「执行 + 记忆 + 自动化」。各有各的场景。
把这个分层关系搞清楚之后,你再看市面上各种 AI 产品,就会一眼分辨出:
▸ 谁是模型层(GPT / Claude / DeepSeek / Qwen)
▸ 谁是框架层(OpenClaw / Hermes / LangChain / Dify)
▸ 谁是应用层(ChatGPT / Cursor / 各种 GPTs)
「养」这件事,养的永远是中间那层——框架和它积累的记忆/技能。
底层的大脑,按需替换;上层的应用,按场景挑选。
━━━━━━━━━━━━━━━━━━━━
⓯ OpenClaw / 小龙虾
━━━━━━━━━━━━━━━━━━━━
来说说开篇被我差点错过的第一个名字。
OpenClaw 是 2026 年初炸穿 GitHub 热榜的一个开源 AI Agent 框架。Logo 是一只红色小龙虾,所以中文圈直接喊它「小龙虾」或「龙虾 AI」,安装部署的过程被网友戏称为「养龙虾」。
它的官方 slogan 只有一句:「The AI that actually does things」——真正会动手的 AI。
这句话是有所指的。市面上大多数 AI 应用还停留在「跟你聊天,告诉你该怎么做」的阶段,OpenClaw 直接跳到了「我自己来」:
▸ 自己读你的文件、操作你的浏览器、运行你的脚本
▸ 接收来自飞书、Telegram、WhatsApp、Discord 的指令
▸ 每隔 30 分钟主动检查待办任务(自带「心跳」)
▸ 全程本地运行,数据不出你的机器
它的来历也挺有故事。开发者是奥地利程序员 Peter Steinberger,最早在 2025 年 11 月以 Clawdbot 之名发布,因为名字像 Claude 被 Anthropic 发律师函,改名 Moltbot(龙虾蜕壳的意思),又因为「不顺口」最终改成了 OpenClaw。
然后就一发不可收拾——2026 年 1 月底 GitHub Star 破 10 万,2 月份创始人本人加入 OpenAI,项目交给独立开源基金会管理。3 月起阿里云、腾讯云、火山引擎纷纷推出一键部署服务,国内多个城市出台扶持政策。
到 4 月,GitHub Star 已经 34 万+,是 GitHub 历史上增长最快的开源 AI 项目之一。
为什么火?一句话:它把「Agent 真的能干活」这件事,第一次做到了普通人也能在自己电脑上装起来跑通。本地优先、免费开源、对接你天天在用的聊天工具——门槛低到了「会复制一行命令」就能上手的程度。
━━━━━━━━━━━━━━━━━━━━
⓰ Hermes Agent / 爱马仕
━━━━━━━━━━━━━━━━━━━━
另一个被错过的名字,更冤——它确实和奢侈品牌 Hermès 同名同音,所以中国开发者直接戏称它「爱马仕」。
Hermes Agent 出自 Nous Research,2026 年 2 月发布,几个月时间 GitHub 攒了 11 万+ Star。这家公司刚拿了 Paradigm 领投的 5000 万美元 A 轮,估值 10 亿美元,背景非常硬。
它的 slogan 是:「The agent that grows with you」——会跟你一起成长的智能体。
如果说 OpenClaw 解决的是「能干活」,那 Hermes 解决的是另一个更深的痛点:「干完活之后能不能把经验留下来」。
你有没有这种感觉——每次开新对话,都要把背景重新讲一遍?昨天告诉它你的项目用 tab 缩进,今天它又给你 spaces 了?
Hermes 的核心架构就是冲这个去的,三件套:
▸ 持久记忆:维护 MEMORY.md(项目环境、踩坑记录)和 USER.md(用户偏好),跨会话不丢
▸ 自动技能沉淀:完成一项复杂任务后,自动生成一个 SKILL.md,下次同类任务直接复用
▸ GEPA 自我进化:UC Berkeley、Stanford、MIT 的研究者联合开发的优化系统,让 Agent 用得越久越聪明
底层支持 200+ 个模型(Claude、GPT、DeepSeek、Ollama 本地模型都行),上层接 15+ 个聊天平台(Telegram、Slack、飞书、钉钉、企业微信都覆盖)。MIT 协议,自托管,永久免费。
OpenClaw 和 Hermes 现在常被放在一起比较——一个偏「开箱即动手」,一个偏「越用越懂你」。它们俩的火,其实标志着一件事:
Agent 终于从「demo」走到了「人民群众装机必备」的阶段。
━━━━━━━━━━━━━━━━━━━━
⓱ 蒸馏 / Distillation
━━━━━━━━━━━━━━━━━━━━
师徒制。
把一个大模型当老师,让它去教一个小模型——大模型回答问题,小模型在旁边学,慢慢学出八九分像。
为什么要这么做?
▸ 大模型太贵、太慢,不适合大规模部署
▸ 但大模型确实更聪明
▸ 那就用它来「带出」一个又便宜又快、还不太笨的小模型
DeepSeek-R1 蒸馏出的几个小模型,就是非常典型的例子。一个 7B 的小模型,因为是从 671B 的「师父」那里学出来的,效果远超同尺寸的其他模型。
蒸馏让 AI 变得更平民化。
━━━━━━━━━━━━━━━━━━━━
⓲ 开源 vs 闭源
━━━━━━━━━━━━━━━━━━━━
这是一个隐藏的「站队」话题。
闭源代表:GPT、Claude、Gemini。模型权重不公开,你只能通过 API 用。
开源代表:DeepSeek、Qwen、Llama、Mistral。模型权重直接放出来,你可以下载、本地跑、二次微调、商用。
各有各的好:
▸ 闭源:通常效果更顶、更新更快、不用自己部署。但有数据安全顾虑、依赖供应商
▸ 开源:可控、可定制、可私有部署。但要自备硬件、要懂运维、效果通常比顶级闭源稍弱半步
2025 年最有意思的现象,是开源模型已经追到了闭源模型的腰部以上。差距还在缩小。
━━━━━━━━━━━━━━━━━━━━
⓳ 几个常被混着用、其实不太一样的小词
━━━━━━━━━━━━━━━━━━━━
最后一节,扫一遍几个容易混的:
▸ AI vs 大模型:AI 是大伞,包括所有「让机器具备智能」的技术;大模型只是当下最成功的一种 AI
▸ AGI vs 大模型:AGI 是「通用人工智能」的简称,指能在所有任务上都达到甚至超过人类水平的 AI——目前没有任何模型达到 AGI
▸ 训练 vs 推理:训练是「教模型学」,烧的是钱和算力;推理是「让模型答」,烧的是 token
▸ 模型 vs 应用:ChatGPT 是「应用」,GPT-4 是「模型」。一个是产品,一个是引擎
▸ Embedding:把一段文字变成一串数字(向量),是 RAG 的底层基础。它不直接产生答案,只负责让「相关的内容」在数学上「靠得近」
━━━━━━━━━━━━━━━━━━━━
写在最后
━━━━━━━━━━━━━━━━━━━━
写到这里,回头看一下「养虾养马」这件事,其实没那么玄。
它就是 AI 这两年发展到一个新阶段的自然产物——
模型越来越聪明了(大脑准备好了),但单纯的聊天框已经盛不下它的能力(大脑没地儿放)。于是有人开始造身体、造工作台、造记事本,让大脑能动起来、记住事、自己干活。
OpenClaw 和 Hermes 就是目前最火的两个「身体方案」。一只虾,一匹马,长相不同,但本质都在做同一件事——把 AI 从聊天工具,变成能落地干活的同事。
所以你看,整个图谱其实很清晰:
▸ 大模型是大脑
▸ 提示词是给大脑下指令的方式
▸ 幻觉是大脑容易犯的毛病
▸ RAG 和微调是给大脑补课
▸ Agent 是大脑配上身体之后的新形态
▸ MCP 和 Skills 是身体的接口和工作手册
▸ OpenClaw、Hermes 是目前最火的两套「身体 + 工作台」整体方案
▸ 「养虾养马」就是把这套整体方案在自己机器上跑起来、慢慢调教成熟
把这张图存在脑子里,再看市面上各种新名词,基本都能对号入座。
不需要焦虑,也不需要把每个词都背得滚瓜烂熟。
只要分得清——
▸ 哪些是「大脑」(模型)
▸ 哪些是「身体」(框架)
▸ 哪些是「装备」(工具 / Skills / MCP)
▸ 哪些是「应用」(最终给用户的产品)
下次再有人在群里甩出一个「我用 OpenClaw 接 DeepSeek 的 R1,配了几个 MCP,养了一周已经能自动跑财报了」——你能微微一笑,知道他每一句在说什么。
这篇文章的目的就达到了。
「养什么不重要,搞清楚自己在养什么,才重要。」
━━━━━━━━━━━━━━━━━━━━
如果这篇文章帮你把哪个一直没搞懂的词理顺了,欢迎点个「在看」,转给那个总在群里发奇怪缩写的朋友。
我们下一篇见。
夜雨聆风