把 OpenClaw 当「需要安装插件的软件」来用,将是你犯的最大错误
一个真实的需求
我最近在追两个 AI 研究方向:一是怎么在保持模型能力的前提下压缩参数规模(蒸馏、剪枝、量化那一套),二是怎么让小模型在特定领域干得漂亮。

这两个方向每天都有新论文冒出来,arXiv 上刷不过来,HuggingFace 上的 Daily Papers 也经常漏看。我需要一个东西帮我盯着,每天过滤一遍,把相关的论文摘出来,做个中文摘要推给我。
于是我想到了 OpenClaw。
第一反应:逛商店,装插件
打开 ClawHub 一搜,好家伙,相关的 Skill 还真不少:
(1)arxiv-osiris —— 搜索和下载 arXiv 论文;
(2)agentic-paper-digest —— 自动抓取论文并生成摘要;
(3)academic-research —— 基于 OpenAlex 的学术搜索;
(4)blogwatcher —— RSS/博客监控。
看起来完美。我甚至已经在脑子里画好了架构图:先装这四个 Skill,然后写个 Cron Job 串起来,再配个去重逻辑……
等等,我停了下来。
我往下翻了翻 ClawHub 的页面,看到了那行小字:
Skills in this list are curated, not audited. Agent skills can include prompt injections, tool poisoning, hidden malware payloads, or unsafe data handling patterns。
5400+ 个 Skill,社区提交,没有完整审计。之前 ClawHavoc 事件中超过 1200 个恶意 Skill 混进了市场。而这些 Skill 一旦安装,就能读你的文件、执行 shell 命令、访问网络。
我关掉了 ClawHub 页面。
转折:一句话点醒了我
我退回去问了一个更基础的问题:OpenClaw 自己自带什么?
答案是四个内置工具:
🖥shell —— 能执行任何命令行操作
🌐browser —— 能浏览任何网页
🧠memory —— 能记住东西
⏰cron —— 能定时执行任务
然后我意识到一件事:
arXiv 有公开的 API,一条curl命令就能查。HuggingFace Papers 是个公开网页,浏览器打开就能看。去重只需要记住处理过的论文 ID。定时执行就是个 Cron Job。
我要的所有功能,OpenClaw 出厂就能干。
那我刚才为什么在逛 Skill 商店?
程序员思维 vs AI-native 思维
回头看,我的第一反应完全是程序员思维:
有需求 → 找库/找插件 → 安装依赖 → 写代码串起来 → 跑起来
这套思路放在传统开发里天经地义。你要解析 XML,你装lxml。你要请求 API,你装requests。你要定时跑任务,你装celery。整个流程就是把功能拆成模块,每个模块找一个第三方包去解决。
但 OpenClaw 不是一个需要安装依赖的运行时。它是一个能理解自然语言、能操作电脑、能记住东西的助理。
AI-native 的思路应该是:
有需求 → 告诉助理你要什么 → 让它自己想怎么干 → 干完了告诉你
你不需要给它装一个「arXiv 插件」,就像你不需要给你的真人助理「安装一个查论文模块」——你只需要告诉它:「帮我用 curl 查一下 arXiv API,关键词是这些,结果按这个格式整理。」
它认识 arXiv API。它会写 curl 命令。它能解析 XML。这些能力不是某个 Skill 给它的,是它自带的。
我实际做了什么
最终我的方案简单得让我自己都有点惭愧:
❶一个纯文本 Skill 文件(本质只是一份参考文档,没有可执行代码),定义了关注的关键词、评分标准和输出格式。
❷一段教学 Prompt,告诉 OpenClaw 采集的具体步骤:先 curl arXiv API 拿论文,再用 browser 浏览 HuggingFace,合并去重,打分筛选,存入 memory。
❸三个 Cron Job:每天 8 点出日报,每周一出周报,每周四追踪 HuggingFace 新小模型。
就这样。没有安装任何第三方 Skill。没有引入任何来路不明的代码。整套系统的攻击面只有 OpenClaw 本身和它连接的 LLM。
下面是实际推送效果的样子:
📊AI 研究日报 | 2026-03-13
━━━━━━━━━━━━━━━━━━━━
共发现4篇新相关论文
🔥高相关(4-5分):
📄1. BitNet v2: Native Support for Mixed Precision in 1-Bit LLMs
🏷️ [模型压缩] ⭐5/5
💡让 1-bit 大模型原生支持混合精度,兼顾压缩和精度
🔑要点:
• 分层精度分配,注意力头 4-bit,FFN 压至 1-bit
• 7B 模型体积缩小 5.2 倍,MMLU 仅降 1.3 分
• 推理吞吐提升 3.8 倍(A100 实测)
🔗 https://arxiv.org/abs/2603.xxxxx
Skill 不是不好,是思路不该从哪里开始
我不是说 Skill 生态没有价值。有些场景确实需要:对接复杂的 OAuth 认证、使用特定的二进制工具、处理需要编译的底层库。这些事情超出了「用 curl 和浏览器就能搞定」的范畴,封装成 Skill 合情合理。
但如果你的需求可以拆解成「请求一个公开 API」「浏览一个网页」「记住一些东西」「定时执行」这几个基本动作的组合,那你大概率不需要任何 Skill。
更重要的是,思考的起点不应该是「有没有现成的 Skill 能用」,而应该是「我怎么用自然语言把需求描述清楚」。
前者是在用 2015 年的方式使用 2026 年的工具。
一点感悟
写代码十几年了,我发现最难改的不是技术栈,是思维习惯。
面对 OpenClaw 这样的工具,程序员的本能是去看文档、找 API、装依赖、写配置。但这东西的正确打开方式就是——跟它说话。
就好像你刚入职一家公司,你的助理来报道。你不会去给助理安装一个「查论文」技能模块,你会说:「每天帮我看看 arXiv 上有没有关于模型压缩的新论文,有的话整理成摘要发给我。」
如果助理听不懂或者做得不好,你会说得更具体一点:「用这几个关键词搜,按这个格式整理,已经发过的不要重复发。」
这就是全部了。
Skill 商店是给程序看的。
Prompt 才是给助理看的。
而你面前的这个 AI,是助理,不是程序。
夜雨聆风