乐于分享
好东西不私藏

把 OpenClaw 当「需要安装插件的软件」来用,将是你犯的最大错误

把 OpenClaw 当「需要安装插件的软件」来用,将是你犯的最大错误

一个真实的需求

我最近在追两个 AI 研究方向:一是怎么在保持模型能力的前提下压缩参数规模(蒸馏、剪枝、量化那一套),二是怎么让小模型在特定领域干得漂亮。

这两个方向每天都有新论文冒出来,arXiv 上刷不过来,HuggingFace 上的 Daily Papers 也经常漏看。我需要一个东西帮我盯着,每天过滤一遍,把相关的论文摘出来,做个中文摘要推给我。

于是我想到了 OpenClaw

第一反应:逛商店,装插件

打开 ClawHub 一搜,好家伙,相关的 Skill 还真不少:

(1)arxiv-osiris —— 搜索和下载 arXiv 论文;

(2)agentic-paper-digest —— 自动抓取论文并生成摘要;

(3)academic-research —— 基于 OpenAlex 的学术搜索;

(4)blogwatcher —— RSS/博客监控。

看起来完美。我甚至已经在脑子里画好了架构图:先装这四个 Skill,然后写个 Cron Job 串起来,再配个去重逻辑……

等等,我停了下来。

我往下翻了翻 ClawHub 的页面,看到了那行小字:

Skills in this list are curated, not audited. Agent skills can include prompt injections, tool poisoning, hidden malware payloads, or unsafe data handling patterns。

5400+  Skill,社区提交,没有完整审计。之前 ClawHavoc 事件中超过 1200 个恶意 Skill 混进了市场。而这些 Skill 一旦安装,就能读你的文件、执行 shell 命令、访问网络。

我关掉了 ClawHub 页面。

转折:一句话点醒了我

我退回去问了一个更基础的问题:OpenClaw 自己自带什么?

答案是四个内置工具:

🖥shell —— 能执行任何命令行操作

🌐browser —— 能浏览任何网页

🧠memory —— 能记住东西

cron —— 能定时执行任务

然后我意识到一件事:

arXiv 有公开的 API,一条curl命令就能查。HuggingFace Papers 是个公开网页,浏览器打开就能看。去重只需要记住处理过的论文 ID。定时执行就是个 Cron Job

我要的所有功能,OpenClaw 出厂就能干。

那我刚才为什么在逛 Skill 商店?

程序员思维 vs AI-native 思维

回头看,我的第一反应完全是程序员思维

有需求 → 找库/找插件 → 安装依赖 → 写代码串起来 → 跑起来

这套思路放在传统开发里天经地义。你要解析 XML,你装lxml。你要请求 API,你装requests。你要定时跑任务,你装celery。整个流程就是把功能拆成模块,每个模块找一个第三方包去解决

 OpenClaw 不是一个需要安装依赖的运行时。它是一个能理解自然语言、能操作电脑、能记住东西的助理

AI-native 的思路应该是:

有需求 → 告诉助理你要什么 → 让它自己想怎么干 → 干完了告诉你

你不需要给它装一个「arXiv 插件」,就像你不需要给你的真人助理「安装一个查论文模块」——你只需要告诉它:「帮我用 curl 查一下 arXiv API,关键词是这些,结果按这个格式整理。」

它认识 arXiv API。它会写 curl 命令。它能解析 XML。这些能力不是某个 Skill 给它的,是它自带的。

我实际做了什么

最终我的方案简单得让我自己都有点惭愧:

一个纯文本 Skill 文件(本质只是一份参考文档,没有可执行代码),定义了关注的关键词、评分标准和输出格式。

一段教学 Prompt,告诉 OpenClaw 采集的具体步骤:先 curl arXiv API 拿论文,再用 browser 浏览 HuggingFace,合并去重,打分筛选,存入 memory

三个 Cron Job:每天 8 点出日报,每周一出周报,每周四追踪 HuggingFace 新小模型。

就这样。没有安装任何第三方 Skill。没有引入任何来路不明的代码。整套系统的攻击面只有 OpenClaw 本身和它连接的 LLM

下面是实际推送效果的样子:

📊AI 研究日报 | 2026-03-13

━━━━━━━━━━━━━━━━━━━━

共发现4篇新相关论文

🔥高相关(4-5分):

📄1. BitNet v2: Native Support for Mixed Precision in 1-Bit LLMs

🏷️ [模型压缩5/5

💡 1-bit 大模型原生支持混合精度,兼顾压缩和精度

🔑要点:

• 分层精度分配,注意力头 4-bitFFN 压至 1-bit

• 7B 模型体积缩小 5.2 倍,MMLU 仅降 1.3 

• 推理吞吐提升 3.8 倍(A100 实测)

🔗 https://arxiv.org/abs/2603.xxxxx

Skill 不是不好,是思路不该从哪里开始

我不是说 Skill 生态没有价值。有些场景确实需要:对接复杂的 OAuth 认证、使用特定的二进制工具、处理需要编译的底层库。这些事情超出了「用 curl 和浏览器就能搞定」的范畴,封装成 Skill 合情合理。

但如果你的需求可以拆解成「请求一个公开 API」「浏览一个网页」「记住一些东西」「定时执行」这几个基本动作的组合,那你大概率不需要任何 Skill

更重要的是,思考的起点不应该是「有没有现成的 Skill 能用」,而应该是「我怎么用自然语言把需求描述清楚」

前者是在用 2015 年的方式使用 2026 年的工具。

一点感悟

写代码十几年了,我发现最难改的不是技术栈,是思维习惯。

面对 OpenClaw 这样的工具,程序员的本能是去看文档、找 API、装依赖、写配置。但这东西的正确打开方式就是——跟它说话。

就好像你刚入职一家公司,你的助理来报道。你不会去给助理安装一个「查论文」技能模块,你会说:「每天帮我看看 arXiv 上有没有关于模型压缩的新论文,有的话整理成摘要发给我。」

如果助理听不懂或者做得不好,你会说得更具体一点:「用这几个关键词搜,按这个格式整理,已经发过的不要重复发。」

这就是全部了。

Skill 商店是给程序看的。

Prompt 才是给助理看的。

而你面前的这个 AI,是助理,不是程序。

本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » 把 OpenClaw 当「需要安装插件的软件」来用,将是你犯的最大错误

猜你喜欢

  • 暂无文章