在信息泛滥的时代,真正有价值的内容犹如细沙。我们用 OpenClaw 负责触发、ClawFeed 汇总、Telegram 负责分发,形成一条 6 小时一刷的情报供给线。
故事开场:人海里的情报,没人整理
此前我们每天要在无数 RSS、Twitter、Slack 频道里翻找重点,常常忙完一天却发现最需要的关键信息仍被埋在海量消息里。于是我们决定把手工筛选交给自动化工具:OpenClaw 发起动作,ClawFeed 生成摘要,Telegram 负责推送。
这一套组合,让我们从“被动等消息”变成“主动掌握趋势”。
技术拆解:OpenClaw → ClawFeed → Telegram
- ClawFeed 本地部署
:运行在 http://127.0.0.1:8767,提供 `/api/digests` 接口,解析 RSS、Twitter、GitHub Trending 等源。 - OpenClaw 技能
:`~/.openclaw/skills/clawfeed-integration/run-digest.js` 会 POST 预设源与频率,返回 digest 详情并记录在 `last-response.json`。 - Telegram 通知
:脚本执行后解析响应,利用 `openclaw channels notify --channel telegram` 推送标题、摘要链接和“行动建议”。 - 运行频率
:通过系统 `crontab` 或 OpenClaw cron 每 6 小时运行一次,形成固定节奏的阅读习惯。
可直接复制的实操步骤
1. 在 ClawFeed 目录下复制配置:
cp .env.example .env# 填写 API_KEY=clawfeed-api-key,SESSION_SECRET=任意字符串```
2. 创建 OpenClaw 转接脚本:
cat <<'EOF' >/home/..../run-clawfeed-digest.sh#!/bin/bashexport CLAWFEED_API_KEY=clawfeed-api-keycd /home/..../.openclaw/skills/clawfeed-integrationnode run-digest.js<bropenclaw_output=$(cat last-response.json)openclaw channels notify --channel telegram --title "ClawFeed 摘要已生成" --content "$OPENCLAW_OUTPUT" >/dev/null 2>&1EOFchmod +x /home/..../run-clawfeed-digest.sh
3. 设置 Cron,每 6 小时触发一次:
(crontab -l 2>/dev/null; echo "0 */6 * * * /home/..../run-clawfeed-digest.sh") | crontab -4. `last-response.json` 中会包含 digest link/slug,可在需要时分享给团队。
成果展示:信息整理的效率飞跃
6 小时一轮的 digest 让我们在早晚两次检视中就可以掌控关键信号。示例指标:
平均检索时间从 90 分钟下降到 12 分钟。 Telegram 里推送的 3 条摘要中必有一条涉及当前项目的核心动态。 ClawFeed 每天生成的 digest link 通过团队共享后,常被拿来做晨会上“事件快速复盘”。
下一步升级
把 digest 结果同步到 OpenClaw 的「任务」里,触发 CI/CD、文档更新或自动回复。 用 CLI Proxy 装载更多 API(比如 Notion、GitHub Issue),让摘要跨平台。 配合短视频/朋友圈输出来个“每周摘要回顾”,把内部情报打包给外部订阅者。
Tip:你也可以让 digest 输出包含“行动建议”,由 OpenClaw 执行后把结果再封装进通知,形成“情报→建议→行动”的闭环。
已关注
关注
重播 分享 赞
夜雨聆风