【导读】装了 OpenClaw 三个月,发现它有个致命短板:搜索不好用。每次让它搜个新闻或者给个链接,要么说"我没有**",要么读取的内容和链接不一样。 直到我把主流的联网 Skills 全过了一遍,才发现不是工具不行,是没找到对。
1. 多源聚合类:想偷懒就直接用
代表技能: tech-news-digest / ai-news-briefing / Last30Days
这类工具的核心逻辑是:你只管看,我负责抓。
拿 tech-news-digest 来说,它同时从 6 个数据源拉内容——RSS 订阅、Twitter/X 账号、GitHub releases、GitHub Trending、Reddit、Web 搜索,然后自动去重、按质量打分,合并成一条简报输出。默认配置下,它覆盖了 AI、加密货币、前沿科技三个方向的 151 个信息源。
也就是说,你早上打开 OpenClaw,输一句"给我今天的 AI 新闻",它能给你整合好几十条来源不同、但讲的是同一件事的资讯,只留最值得看的那个版本。
ai-news-briefing 思路类似,但更专注 AI 媒体——它监控 10 个头部 AI 新闻站,用 summarize skill 提取每篇的核心内容,最后生成一份简报。适合每天要看 AI 动态、但没时间逐个网站刷的人。
Last30Days 则是从 Reddit、X、YouTube 等平台抓最近 30 天的趋势,生成报告。这个对写行业分析文章很有帮助——你知道什么话题在涨,但不一定知道为什么在涨,它能给你把背景串起来。
价格: tech-news-digest 需要 Twitter API + Tavily API,Twitter 的有免费额度,Tavily 的免费版每月 1000 次,够个人用。ai-news-briefing 和 Last30Days 基本零成本。
坑: Twitter 数据在国内基本拿不到(API 被墙),如果你不需要 Twitter 来源,可以把 Twitter 源关掉,剩下几个源还是能正常跑的。
2. 浏览器操作类:能干最重的活,但服务器不一定跑得动
代表技能: Web-Access
这是能力上限最高的方案——直接控制一个真实的浏览器,让 AI 像真人一样操作网页。
什么意思?
传统联网工具是你给关键词,它去搜,然后给你返回结果。Web-Access 不一样,它是让 AI 打开浏览器、点击按钮、填写表单、等待页面加载,整个过程模拟真人操作。
比如你想让它帮你填写某个网页表单、或者抓一个必须登录才能看到的内容,Web-Access 就能做到。
但问题来了:这类工具依赖 CDP(Chrome DevTools Protocol),说白了需要一台能跑 Chrome 的电脑。如果你在本地机器上用,没问题。但如果你在服务器环境(比如某些云 IDE)里跑,Chrome 进程可能根本起不来。
这也是为什么很多人装了 Web-Access,在本地测试完美,一部署到服务器就各种报错。
结论: 本地使用、临时任务选它没错;服务器自动化慎用,或者提前确认环境是否支持无头 Chrome。
3. 搜索类:最通用,但最容易撞墙
代表技能: Agent-Reach / Tavily Search / Multi Search Engine
搜索类是最容易理解的逻辑:你问,它搜,返回结果。
Agent-Reach 是一个零配置的万能工具,支持 11 个以上的平台,主流社交媒体、新闻站、技术博客都能覆盖。它不需要你有任何 API Key,装上就能用,对普通用户最友好。
Tavily Search 是专注 AI 搜索的工具,它的强项是对搜索结果做语义理解,不是简单的关键词匹配。比如你搜"大模型最近有什么新进展",它能理解你的意图,给出相关性更高的结果,而不是塞给你一堆关键词堆砌的页面。
Multi Search Engine 则是把多个搜索引擎的结果聚合到一起,Google、Bing、DuckDuckGo 一起搜,然后去重排序。这个适合你需要更全面覆盖的场景。
价格: Agent-Reach 免费;Tavily 有免费额度(每月 1000 次),超出收费;Multi Search Engine 取决于你调用哪个搜索引擎的 API。
最大的坑: 搜索类工具在使用时容易遇到搜索引擎的反爬限制,Google 和 Bing 没有 API Key 的话很容易被限流,在国内一些搜索引擎本身也访问不了。
4. RSS 类:老派但最稳
代表技能: openclaw-feeds / ak-rss-24h-brief
RSS 是这 6 类里最老派的方案,但也是最可靠、成本最低的。
openclaw-feeds 把 21 个主流科技媒体的 RSS 源聚合在一起,Wired、TechCrunch、The Verge、Ars Technica 这些全有,并发拉取,结果以 JSON 输出。一次跑下来,几十篇最新文章的结构化数据直接到手。
它的好处是:你永远知道数据从哪来,数据格式是什么样的,不存在 API 过期或者搜索限流的问题。
ak-rss-24h-brief 走的是另一个路线——它读取你自定义的 OPML 订阅列表,然后只显示最近 N 小时内更新的内容。你甚至可以自己维护一个订阅列表,只看你关心的信源。
价格: 两者都是零成本。RSS 本身是开放协议,不需要任何 API Key。
缺点: RSS 源的维护依赖第三方,如果某个网站停止维护 RSS(这种情况有,但不多),工具就拉不到数据了。另外 RSS 的内容质量取决于源本身——如果你订的是标题党网站,出来的也是标题党内容。
5. 垂直平台类:平台专项,但最不稳定
代表技能: Twitter/X 相关 Skill / B站相关 Skill / 小红书相关 Skill
这类工具专门针对某个平台定制,比如专门抓 Twitter 趋势、专门爬 B站视频信息、专门搜小红书笔记。
垂直平台的优势是数据最精准,抓 Twitter 就专门处理 Twitter 的 API 格式,抓小红书就专门处理它的反爬机制。
但代价是最脆弱——平台随时可能改 API、升级反爬,一更新工具可能直接报废。
Twitter/X 的 Skill 问题最典型。2023 年 Twitter 改 API 收费政策之后,大量 Twitter 抓取工具直接失效,能用的方案要么要付钱,要么依赖不稳定的第三方接口。
结论: 垂直平台 Skill 不是不能用,但买之前先确认:这个平台的 API 政策稳不稳?作者更新勤不勤?一个长期没人维护的垂直平台 Skill,迟早踩坑。
6. 自建方案:最贴合需求,但最费时间
代表方案: tech-radar(GH Trending + HN 采集)+ wechat-article-search(微信爆款搜索)
这类不是现成的 Skill,而是用 OpenClaw 自身的脚本能力搭的情报采集系统。
tech-radar 每天定时抓 GitHub Trending 和 Hacker News 热帖,前者看今天哪些开源项目最火,后者看技术社区在讨论什么。两个数据源都很干净,没有广告没有标题党,全是开发者真实在用的东西。
wechat-article-search 则专门解决"微信内容怎么搜"这个问题。微信搜索引擎对爬虫不太友好,直接抓容易遇到验证码。但这个 Skill 通过微信搜索接口拿数据,返回标题、摘要、发布时间、公众号名称和链接,比直接在公众号后台翻方便得多。
自建方案的最大好处是完全可控——数据源自己选,格式自己定,不需要依赖第三方维护者。但代价是前期要花时间配置,而且如果数据源本身改接口,你得自己动手修。
结尾:没有最好的,只有最合适的
说了这么多,不是让你全部装上。
我的建议很简单:
写科技资讯为主:tech-radar + wechat-article-search + openclaw-feeds,三个加起来覆盖最广
想要现成简报:tech-news-digest 或 ai-news-briefing,一键出简报
本地偶发任务:Web-Access 能力最强
预算有限:先从 Agent-Reach + openclaw-feeds 起步,零成本能跑
深度行业研究:Last30Days + 自建 RSS 列表,长期跟踪必备
联网能力这件事,装对工具只是第一步,知道自己想要什么数据、该从哪拿,比装 10 个 Skills 都重要。
欢迎在评论区聊聊你在用哪款~
如果觉得有用,别忘了转发给也在用 OpenClaw 的朋友 🦐
也欢迎关注,每天分享 AI 工具和技巧🦐


夜雨聆风