乐于分享
好东西不私藏

都在养虾养马,可 AI、OpenClaw、爱马仕到底是啥关系?

都在养虾养马,可 AI、OpenClaw、爱马仕到底是啥关系?

一篇给所有「跟着养、但没搞清楚养的是个啥」的人看的大白话指南。

━━━━━━━━━━━━━━━━━━━━

最近不管打开哪个技术群,话题基本就两个:

「你养虾了没?」

「我马刚跑通,准备喂点新技能。」

外行听了一头雾水——养虾不是去夜市的事吗?怎么变成程序员茶余饭后的主业了?

「养虾」指的是 OpenClaw,那个 Logo 是只红色小龙虾、2026 年初炸穿 GitHub 的开源 AI Agent;「养马」指的是 Hermes Agent,Nous Research 出品、因为发音被中国开发者戏称为「爱马仕」的另一款明星 Agent。

这俩东西火到什么程度?OpenClaw 已经 34 万+ Star、阿里云腾讯云都上架了一键部署;Hermes 11 万+ Star、背后公司估值 10 个亿。中国云厂商和地方政府都在出补贴鼓励大家「养」。

但是——

我观察了一圈,发现一个挺普遍的现象:很多人嘴上天天养虾养马,其实根本没搞清楚一件事——

OpenClaw 不是 AI,Hermes 也不是 AI。它们是 AI 之上的”壳子”。

你以为你在养一只 AI,其实你养的是一个能让 AI 真正干活的「身体」。这个差别看上去咬文嚼字,理解之后却能让你少踩八成坑。

这篇文章我打算把这件事一次讲清楚。顺手把大模型、提示词、Agent、MCP、Skills 这些常被混着说的词,按从底到上的顺序梳理一遍。

不堆术语,不抄维基百科。能用一句话讲完的,绝不写两句。

━━━━━━━━━━━━━━━━━━━━

❶  大模型 / LLM

━━━━━━━━━━━━━━━━━━━━

LLM 全称是 Large Language Model,中文叫「大语言模型」,简称「大模型」。

最简单的理解方式:它是一个「超级文字接龙机器」。

你给它一句开头,它会根据自己读过的几乎全互联网的文字,去猜「下一个字最可能是什么」,然后一个字一个字接下去。

听起来很弱对吧?但当这个「猜字」的能力强到一定程度,它就开始表现得像在「思考」、在「理解」、在「对话」。

「大」体现在两件事上:

▸ 读过的资料大(动辄几万亿字)▸ 自己的「脑容量」大(也就是后面要讲的「参数」)

ChatGPT、Claude、Gemini、DeepSeek、Qwen、Kimi——这些你听过的名字,本质上都是大模型,区别只在于谁家训练得更聪明、更听话、更便宜。

━━━━━━━━━━━━━━━━━━━━

❷  参数 / 7B、70B、671B

━━━━━━━━━━━━━━━━━━━━

经常看到「DeepSeek-V3 671B」「Qwen3-32B」「Llama-70B」这种写法。

后面那个 B 是 billion,十亿。所以 7B 就是 70 亿参数,70B 就是 700 亿参数。

参数你可以粗暴地理解成「模型大脑里的神经元连接数」。数量越多,大脑越大,理论上越聪明,但同时——

▸ 越费显卡(跑起来要更贵的硬件)

▸ 越费电(推理一次成本更高)

▸ 越慢(吐字速度可能更慢)

所以业界一直在玩一个游戏:怎么用更小的模型,做到更大模型的效果。这就是为什么你会看到「7B 打平 70B」「我们小模型在某些任务上反超 GPT-4」这种新闻。

参数不是越多越好,匹配场景才是王道。

━━━━━━━━━━━━━━━━━━━━

❸  Token

━━━━━━━━━━━━━━━━━━━━

这是个会让你充值时心痛的概念。

Token 是大模型处理文字的「最小计费单位」。它不是「字」,也不是「词」,而是介于两者之间的东西。

举几个例子你就懂了:

▸ 「你好」大概是 2 个 token

▸ 「ChatGPT」大概是 2-3 个 token

▸ 「人工智能」大概是 2 个 token

▸ 一段 1000 字的中文,大概是 1500-2000 个 token

为什么要发明这个东西?因为模型不认识「字」,它只认识被切碎重新编码后的数字片段。

为什么要关心它?因为:

▸ 你调用 API,是按 token 收费

▸ 模型的「上下文窗口」,是按 token 算

▸ 你写 prompt 写得啰嗦,token 飙升,钱包飙降

记住这个换算就够了:「中文 1.5 个字 ≈ 1 个 token,英文 1 个单词 ≈ 1.3 个 token」。

━━━━━━━━━━━━━━━━━━━━

❹  上下文窗口 / Context Window

━━━━━━━━━━━━━━━━━━━━

你和模型聊天时,它能「记住」多少内容,就叫上下文窗口。

单位是 token。你会看到「128K 上下文」「200K 上下文」「1M 上下文」这种宣传语。

128K token 大概等于 一本中等厚度的小说。1M token 大概是 七八本《三体》。

这个数字越大,意味着:

▸ 你能一次喂给它一整本书让它总结

▸ 你能让它读完几百页 PDF 后再回答

▸ 长对话不容易「失忆」

但有个坑要提醒你:「能放进去」不等于「能用好」。

很多模型号称 1M 上下文,但实测放到 30 万 token 之后,它对中间那段内容的记忆就开始稀里糊涂——这种现象有个名字,叫「Lost in the Middle」(中间内容丢失)。

所以看广告别看上限,要看「实际可用区间」。

━━━━━━━━━━━━━━━━━━━━

❺  提示词 / Prompt

━━━━━━━━━━━━━━━━━━━━

就是你打给模型的那段话。仅此而已。

但它被神化了一阵子,曾经还出现过「提示词工程师年薪百万」的招聘。现在这个泡沫已经破了一半,但「会写 prompt」依然是普通人和专业玩家之间最大的差距。

差距在哪?

普通人写:「帮我写一篇文章」。

会写的人写:「你是一个写了五年公众号的老编辑,请用平实但有钩子的语气,针对 28-35 岁的职场女性,写一篇关于 XX 主题的文章,控制在 1500 字以内,开头不要用「在这个 XX 的时代」这种烂梗,结尾要有一句金句」。

模型还是那个模型,结果天差地别。

━━━━━━━━━━━━━━━━━━━━

❻  幻觉 / Hallucination

━━━━━━━━━━━━━━━━━━━━

大模型最让人头疼的毛病:一本正经地胡说八道。

它会给你编一个不存在的论文、虚构一个根本没说过这话的名人、引用一段 GitHub 上从未存在过的代码。

而且语气特别自信。

为什么会这样?回到第一节——它本质是「猜下一个字」。它不知道自己「不知道」,它只是在按概率生成最像答案的东西。

幻觉永远不会被 100% 消除,但可以降低。降低的办法主要是:

▸ 让它去查资料再回答(也就是后面要讲的 RAG)

▸ 让它先「思考」再回答(也就是推理模型)

▸ 你自己学会交叉验证,别全信

最朴素的一条建议:凡是涉及具体数字、人名、引用、链接的,一定要自己再搜一下。

━━━━━━━━━━━━━━━━━━━━

❼  推理模型 / 思维链 / CoT

━━━━━━━━━━━━━━━━━━━━

去年开始出现的新物种。

代表选手有 OpenAI 的 o1 / o3,DeepSeek 的 R1,Claude 的 Thinking 模式,Gemini 的 Thinking。

普通模型是「问完就答」,推理模型是「问完先在心里盘算一通,再答」。

它会在脑内(其实是写在你看不到的地方,或者折叠起来给你看)展开一长串「让我想想……如果是这样……不对,应该……」的推理过程。这个过程被称为「思维链」(Chain of Thought,CoT)。

效果是什么?数学、逻辑、代码这种需要「步骤推演」的任务,准确率大幅提升。

代价是什么?慢,贵。一个推理模型的响应可能需要几十秒甚至几分钟,token 消耗也是普通模型的好几倍。

所以现在的用法是:日常聊天用普通模型,遇到复杂问题切换到推理模型。

━━━━━━━━━━━━━━━━━━━━

❽  RAG / 检索增强生成

━━━━━━━━━━━━━━━━━━━━

全称 Retrieval-Augmented Generation。听起来很学术,做的事其实非常直白。

就是「让模型在回答你之前,先去某个资料库里翻翻」。

举个例子:你做了一个企业内部知识问答机器人。你不可能把所有公司文档都塞进 prompt(太长了,也太贵了)。

那怎么办?

▸ 提前把公司所有文档切成小块,转成向量存起来

▸ 用户提问时,先用问题去「最相关的几小块」里搜

▸ 把搜到的内容塞给模型,让它基于这些内容回答

这就是 RAG。它解决了三个问题:

▸ 模型本身不知道你公司的私有数据 → 现在它知道了

▸ 模型容易瞎编 → 现在它有依据了

▸ 长文档塞不下 → 现在按需取用了

今天市面上 80% 的「企业 AI 应用」「智能客服」「文档问答」,底层都是 RAG。

━━━━━━━━━━━━━━━━━━━━

❾  微调 / Fine-tuning

━━━━━━━━━━━━━━━━━━━━

如果说大模型是一个读完了全互联网的「通才大学生」,那微调就是「让他再去某个行业实习几个月,变成专才」。

举几个真实场景:

▸ 一家律所拿自己积累的几万份合同,微调一个专门审合同的模型

▸ 一家医院拿病历数据,微调一个能写诊断初稿的模型

▸ 一个个人 IP 拿自己几年的写作风格,微调一个能模仿自己语气的模型

微调和 RAG 的区别经常被搞混。粗暴对比:

▸ RAG:让模型「现场翻书」,资料是外部的

▸ 微调:让模型「把书读进脑子」,知识是内化的

▸ RAG:擅长处理频繁变化的事实性内容

▸ 微调:擅长固化某种风格、格式、决策习惯

实际项目里,往往两个一起用。

━━━━━━━━━━━━━━━━━━━━

❿  多模态 / Multimodal

━━━━━━━━━━━━━━━━━━━━

「模态」就是信息的类型:文字是一种模态,图片是一种,音频是一种,视频是一种。

「多模态」意思是模型同时能处理好几种。

具体表现就是:

▸ 你扔给它一张照片,它能看懂里面是什么

▸ 你给它一段音频,它能转写成文字、还能听出情绪

▸ 你描述一个画面,它能直接画出来 / 拍出来一段视频

GPT-4o、Claude、Gemini、Qwen-VL,这些主流模型现在基本都是多模态的。

为什么这事重要?因为人类本来就是多模态生物——我们读字、看图、听话、看脸色,是同时进行的。模型只有也能这样,才能真正进入更多场景,比如:

▸ 拍一张冰箱照片,问它今晚能做什么菜

▸ 上传一段会议录音,让它生成纪要

▸ 截一张报错图,让它告诉你怎么修

━━━━━━━━━━━━━━━━━━━━

⓫  Agent / 智能体

━━━━━━━━━━━━━━━━━━━━

今年最热的词,没有之一。

普通模型只会「对话」——你说一句,它答一句,结束。

Agent 不一样。它能:

▸ 自己规划「为了完成这个目标,我需要分几步」

▸ 自己调用工具(搜索引擎、计算器、代码解释器、外部 API)

▸ 看到结果不对会自我纠正、再来一次

▸ 多轮循环,直到任务真的完成

举个具体场景:

你说「帮我订一张下周三去上海的高铁,下午三点之后的,二等座,靠窗」。

普通模型:「好的,请问您要哪个车次?」——废话文学。

Agent:自己打开 12306、查时刻表、筛选符合条件的车次、提示你确认、调用支付接口、返回订单号。整件事一气呵成,你只看结果。

Agent 是「让 AI 真正干活」的关键一跃。从「能回答」到「能完成」。

但目前的 Agent 还远远不完美——容易在长任务里走偏、容易卡在某一步、容易调用工具失败。它处于「demo 很惊艳,生产环境一塌糊涂」的尴尬阶段。

但这一定是未来一两年最重要的方向。

━━━━━━━━━━━━━━━━━━━━

⓬  MCP / 模型上下文协议

━━━━━━━━━━━━━━━━━━━━

MCP 全称 Model Context Protocol,由 Anthropic(Claude 背后的公司)在 2024 年底提出。

要理解 MCP,得先理解一个痛点:

Agent 需要调用各种工具——查日历、读邮件、操作 GitHub、查询数据库……每个工具的接口都不一样。每对接一个,开发者就要写一套适配代码。

工具有一万个,就要写一万套。这就像电脑刚发明那会儿,每个外设都自带一根独家接口的线,鼠标插不上键盘的口。

MCP 干的事,就是「USB-C 接口」之于硬件——它定义了一套统一的协议,让任何工具只要按照这个协议「自我介绍」一次,任何模型都可以即插即用。

具体来说:

▸ 一边是「MCP Server」:把某个工具或数据源(比如你的 Notion、Figma、GitHub)封装成符合 MCP 标准的接口

▸ 一边是「MCP Client」:模型这边的接入端,能识别并调用任何符合 MCP 的服务

只要你装一个 Notion 的 MCP Server,Claude、Cursor、各种 AI 客户端就都能直接读写你的 Notion,不用每家分别开发。

它现在的火热程度可以参考:2025 年上半年,MCP Server 已经从几十个长到了几千个。OpenAI、Google 也都已经宣布支持。

可以理解为,AI 世界的「应用商店」雏形,正在通过 MCP 长出来。

━━━━━━━━━━━━━━━━━━━━

⓭  Skills

━━━━━━━━━━━━━━━━━━━━

这个词最近因为 Anthropic 推出「Agent Skills」机制,又被拎出来重新定义了一次。

Skills 是什么?最朴素的解释:「教模型一项专门技能的小教程包」。

每个 Skill 是一个文件夹,里面通常包含:

▸ 一段说明(这个技能是干嘛的、什么时候该用)

▸ 一些配套的脚本或工具

▸ 必要的参考资料

模型在遇到任务时,会自动判断「我现在该不该掏出某个 Skill 来用」。

比如:

▸ 一个「写公众号」的 Skill,里面有排版规范、字号建议、Unicode 符号速查

▸ 一个「做 PPT」的 Skill,里面有模板、配色、字体规则

▸ 一个「读 PDF」的 Skill,里面是专门解析 PDF 的脚本

Skills 和 MCP 的区别?

▸ MCP 解决的是「模型怎么连到外部系统」

▸ Skills 解决的是「模型怎么具备专业领域的工作方法」

一个偏「连接」,一个偏「能力沉淀」。两者经常配合使用。

━━━━━━━━━━━━━━━━━━━━

⓮  等一下——AI、OpenClaw、爱马仕,到底是啥关系?

━━━━━━━━━━━━━━━━━━━━

讲到这里,必须先把开头那个最容易被混淆的问题讲清楚。

很多人以为「养虾」「养马」就等于「自己装了一个 AI」。这话听上去没错,仔细想其实差着一层。

我用一个不太严谨但很直观的类比:

如果把 AI 想象成一个人——

▸ 「大模型」(GPT、Claude、DeepSeek 这些)= 这个人的「大脑」

▸ 「Agent 框架」(OpenClaw、Hermes Agent)= 给这个大脑配的「身体 + 工作台 + 记事本」

▸ 「MCP」 = 身体上的标准接口,能随时插上各种外设

▸ 「Skills」 = 工作台上一本本积累下来的工作手册

你「养虾」「养马」——养的不是大脑本身,而是这套「身体 + 工作台 + 记事本」的成长。

具体一点:

▸ 你给 OpenClaw 接哪个大模型,是你自己选的——可以是 Claude、可以是 DeepSeek、也可以是本地跑的 Ollama

▸ 你给 Hermes 用什么模型,明天换一个也无所谓,它会自动适配

▸ 真正在「成长」的,是它们的记忆库、技能库、调用工具的熟练度

所以一个常见的认知错误是:

「我装了 OpenClaw,等于我有了一个免费 AI!」

不是的。OpenClaw 本身不会思考,它只是一个能让 AI 干活的「执行框架」。它背后还是要接一个大模型——可能是免费的(本地模型),可能是付费的(Claude / GPT 的 API)。

这就是为什么有些人养着养着发现 API 账单飞涨——因为「身体」在不停地让「大脑」工作,每一次思考都在烧钱。

反过来另一个误区是:

「我有 ChatGPT 就够了,要 OpenClaw 干嘛?」

也不是。ChatGPT 是「能聊天的应用」,OpenClaw 是「能干活的框架」。一个偏「问答」,一个偏「执行 + 记忆 + 自动化」。各有各的场景。

把这个分层关系搞清楚之后,你再看市面上各种 AI 产品,就会一眼分辨出:

▸ 谁是模型层(GPT / Claude / DeepSeek / Qwen)

▸ 谁是框架层(OpenClaw / Hermes / LangChain / Dify)

▸ 谁是应用层(ChatGPT / Cursor / 各种 GPTs)

「养」这件事,养的永远是中间那层——框架和它积累的记忆/技能。

底层的大脑,按需替换;上层的应用,按场景挑选。

━━━━━━━━━━━━━━━━━━━━

⓯  OpenClaw / 小龙虾

━━━━━━━━━━━━━━━━━━━━

来说说开篇被我差点错过的第一个名字。

OpenClaw 是 2026 年初炸穿 GitHub 热榜的一个开源 AI Agent 框架。Logo 是一只红色小龙虾,所以中文圈直接喊它「小龙虾」或「龙虾 AI」,安装部署的过程被网友戏称为「养龙虾」。

它的官方 slogan 只有一句:「The AI that actually does things」——真正会动手的 AI。

这句话是有所指的。市面上大多数 AI 应用还停留在「跟你聊天,告诉你该怎么做」的阶段,OpenClaw 直接跳到了「我自己来」:

▸ 自己读你的文件、操作你的浏览器、运行你的脚本

▸ 接收来自飞书、Telegram、WhatsApp、Discord 的指令

▸ 每隔 30 分钟主动检查待办任务(自带「心跳」)

▸ 全程本地运行,数据不出你的机器

它的来历也挺有故事。开发者是奥地利程序员 Peter Steinberger,最早在 2025 年 11 月以 Clawdbot 之名发布,因为名字像 Claude 被 Anthropic 发律师函,改名 Moltbot(龙虾蜕壳的意思),又因为「不顺口」最终改成了 OpenClaw。

然后就一发不可收拾——2026 年 1 月底 GitHub Star 破 10 万,2 月份创始人本人加入 OpenAI,项目交给独立开源基金会管理。3 月起阿里云、腾讯云、火山引擎纷纷推出一键部署服务,国内多个城市出台扶持政策。

到 4 月,GitHub Star 已经 34 万+,是 GitHub 历史上增长最快的开源 AI 项目之一。

为什么火?一句话:它把「Agent 真的能干活」这件事,第一次做到了普通人也能在自己电脑上装起来跑通。本地优先、免费开源、对接你天天在用的聊天工具——门槛低到了「会复制一行命令」就能上手的程度。

━━━━━━━━━━━━━━━━━━━━

⓰  Hermes Agent / 爱马仕

━━━━━━━━━━━━━━━━━━━━

另一个被错过的名字,更冤——它确实和奢侈品牌 Hermès 同名同音,所以中国开发者直接戏称它「爱马仕」。

Hermes Agent 出自 Nous Research,2026 年 2 月发布,几个月时间 GitHub 攒了 11 万+ Star。这家公司刚拿了 Paradigm 领投的 5000 万美元 A 轮,估值 10 亿美元,背景非常硬。

它的 slogan 是:「The agent that grows with you」——会跟你一起成长的智能体。

如果说 OpenClaw 解决的是「能干活」,那 Hermes 解决的是另一个更深的痛点:「干完活之后能不能把经验留下来」。

你有没有这种感觉——每次开新对话,都要把背景重新讲一遍?昨天告诉它你的项目用 tab 缩进,今天它又给你 spaces 了?

Hermes 的核心架构就是冲这个去的,三件套:

▸ 持久记忆:维护 MEMORY.md(项目环境、踩坑记录)和 USER.md(用户偏好),跨会话不丢

▸ 自动技能沉淀:完成一项复杂任务后,自动生成一个 SKILL.md,下次同类任务直接复用

▸ GEPA 自我进化:UC Berkeley、Stanford、MIT 的研究者联合开发的优化系统,让 Agent 用得越久越聪明

底层支持 200+ 个模型(Claude、GPT、DeepSeek、Ollama 本地模型都行),上层接 15+ 个聊天平台(Telegram、Slack、飞书、钉钉、企业微信都覆盖)。MIT 协议,自托管,永久免费。

OpenClaw 和 Hermes 现在常被放在一起比较——一个偏「开箱即动手」,一个偏「越用越懂你」。它们俩的火,其实标志着一件事:

Agent 终于从「demo」走到了「人民群众装机必备」的阶段。

━━━━━━━━━━━━━━━━━━━━

⓱  蒸馏 / Distillation

━━━━━━━━━━━━━━━━━━━━

师徒制。

把一个大模型当老师,让它去教一个小模型——大模型回答问题,小模型在旁边学,慢慢学出八九分像。

为什么要这么做?

▸ 大模型太贵、太慢,不适合大规模部署

▸ 但大模型确实更聪明

▸ 那就用它来「带出」一个又便宜又快、还不太笨的小模型

DeepSeek-R1 蒸馏出的几个小模型,就是非常典型的例子。一个 7B 的小模型,因为是从 671B 的「师父」那里学出来的,效果远超同尺寸的其他模型。

蒸馏让 AI 变得更平民化。

━━━━━━━━━━━━━━━━━━━━

⓲  开源 vs 闭源

━━━━━━━━━━━━━━━━━━━━

这是一个隐藏的「站队」话题。

闭源代表:GPT、Claude、Gemini。模型权重不公开,你只能通过 API 用。

开源代表:DeepSeek、Qwen、Llama、Mistral。模型权重直接放出来,你可以下载、本地跑、二次微调、商用。

各有各的好:

▸ 闭源:通常效果更顶、更新更快、不用自己部署。但有数据安全顾虑、依赖供应商

▸ 开源:可控、可定制、可私有部署。但要自备硬件、要懂运维、效果通常比顶级闭源稍弱半步

2025 年最有意思的现象,是开源模型已经追到了闭源模型的腰部以上。差距还在缩小。

━━━━━━━━━━━━━━━━━━━━

⓳  几个常被混着用、其实不太一样的小词

━━━━━━━━━━━━━━━━━━━━

最后一节,扫一遍几个容易混的:

▸ AI vs 大模型:AI 是大伞,包括所有「让机器具备智能」的技术;大模型只是当下最成功的一种 AI

▸ AGI vs 大模型:AGI 是「通用人工智能」的简称,指能在所有任务上都达到甚至超过人类水平的 AI——目前没有任何模型达到 AGI

▸ 训练 vs 推理:训练是「教模型学」,烧的是钱和算力;推理是「让模型答」,烧的是 token

▸ 模型 vs 应用:ChatGPT 是「应用」,GPT-4 是「模型」。一个是产品,一个是引擎

▸ Embedding:把一段文字变成一串数字(向量),是 RAG 的底层基础。它不直接产生答案,只负责让「相关的内容」在数学上「靠得近」

━━━━━━━━━━━━━━━━━━━━

写在最后

━━━━━━━━━━━━━━━━━━━━

写到这里,回头看一下「养虾养马」这件事,其实没那么玄。

它就是 AI 这两年发展到一个新阶段的自然产物——

模型越来越聪明了(大脑准备好了),但单纯的聊天框已经盛不下它的能力(大脑没地儿放)。于是有人开始造身体、造工作台、造记事本,让大脑能动起来、记住事、自己干活。

OpenClaw 和 Hermes 就是目前最火的两个「身体方案」。一只虾,一匹马,长相不同,但本质都在做同一件事——把 AI 从聊天工具,变成能落地干活的同事。

所以你看,整个图谱其实很清晰:

▸ 大模型是大脑

▸ 提示词是给大脑下指令的方式

▸ 幻觉是大脑容易犯的毛病

▸ RAG 和微调是给大脑补课

▸ Agent 是大脑配上身体之后的新形态

▸ MCP 和 Skills 是身体的接口和工作手册

▸ OpenClaw、Hermes 是目前最火的两套「身体 + 工作台」整体方案

▸ 「养虾养马」就是把这套整体方案在自己机器上跑起来、慢慢调教成熟

把这张图存在脑子里,再看市面上各种新名词,基本都能对号入座。

不需要焦虑,也不需要把每个词都背得滚瓜烂熟。

只要分得清——

▸ 哪些是「大脑」(模型)

▸ 哪些是「身体」(框架)

▸ 哪些是「装备」(工具 / Skills / MCP)

▸ 哪些是「应用」(最终给用户的产品)

下次再有人在群里甩出一个「我用 OpenClaw 接 DeepSeek 的 R1,配了几个 MCP,养了一周已经能自动跑财报了」——你能微微一笑,知道他每一句在说什么。

这篇文章的目的就达到了。

「养什么不重要,搞清楚自己在养什么,才重要。」

━━━━━━━━━━━━━━━━━━━━

如果这篇文章帮你把哪个一直没搞懂的词理顺了,欢迎点个「在看」,转给那个总在群里发奇怪缩写的朋友。

我们下一篇见。