有没有想过能自动获取指定公众号的最新文章,但被搜狗搜索、网页版登录搞得焦头烂额?
今天手把手教你用 OpenClaw + 公众号后台 Cookie 实现全自动抓取,稳定又高效!💪
🧠 核心原理
1. 用小号登录微信公众平台,获取 Cookie(凭证)。
2. OpenClaw 拿着这个 Cookie,模拟在后台“插入公众号卡片”时的搜索动作,调用 searchbiz 接口,拿到目标公众号的唯一 ID biz。
3. 有了 biz,就能构造出它的历史文章页面 URL,再用 playwright-scraper 提取最新文章链接。
4. 最后用 wechat-article-fetcher 抓取全文并推送给你。
全程只需要手动登录一次后台,后面交给 OpenClaw 自动跑!✨
📝 步骤拆解
1️⃣ 手动获取后台 Cookie
· 打开浏览器,登录 微信公众平台(用小号扫码或账号密码登录)
· 按 F12 → Network 标签 → 随便点一个请求 → 在 Request Headers 里找到 Cookie: 这一行,右键复制整个值(一长串,别只复制一部分)✅
2️⃣ 用 OpenClaw 存储 Cookie
打开 OpenClaw 对话窗口,直接发这条指令(把 你复制的完整Cookie字符串 替换成真实内容):
请在我的 ~/.openclaw/credentials/ 目录下创建 wechat-cookies.json 文件,内容如下:
{"cookie": "你复制的完整Cookie字符串"}
如果目录不存在,请先创建目录。完成后告诉我结果。
OpenClaw 会自动完成创建和保存,你不需要手动新建文件。
3️⃣ 安装必备技能
确保 OpenClaw 已安装以下技能:
· playwright-scraper(模拟浏览器访问)
· wechat-article-fetcher(解析文章内容)
如果没有,可以发指令让 OpenClaw 安装:
请帮我安装 playwright-scraper 和 wechat-article-fetcher 技能。
4️⃣ 让 OpenClaw 自动获取 biz 并生成历史页面 URL
这一步是关键,我们用 Python 写一个极简脚本(作为 OpenClaw 的临时技能):
# 放在 ~/.openclaw/skills/get_biz.py
import requests, json
def get_biz(cookie, query="公众号名字"):
url = "https://mp.weixin.qq.com/cgi-bin/searchbiz"
params = {
"action": "search_biz",
"token": "", # 这里可以留空,有 cookie 就行
"lang": "zh_CN",
"f": "json",
"ajax": "1",
"query": query,
"begin": "0",
"count": "5"
}
headers = {
"Cookie": cookie,
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36",
"Referer": "https://mp.weixin.qq.com/",
"X-Requested-With": "XMLHttpRequest"
}
resp = requests.get(url, params=params, headers=headers)
data = resp.json()
if data.get('base_resp', {}).get('ret') != 0:
return None
for item in data.get('list', []):
if item.get('nickname') == query:
return item.get('fakeid') # 这就是 biz
return None
if __name__ == "__main__":
cookie = json.load(open("~/.openclaw/credentials/wechat-cookies.json"))["cookie"]
biz = get_biz(cookie)
if biz:
history_url = f"https://公众号后台域名/mp/profile_ext?action=home&__biz={biz}&scene=124#wechat_redirect"
print(history_url)
else:
print("未找到公众号")
然后让 OpenClaw 运行它:
请执行 ~/.openclaw/skills/get_biz.py,把输出的历史页面 URL 告诉我。
这样你就能拿到一个包含正确 biz 的链接,以后定时任务里直接用这个 URL 就行。
5️⃣ 配置自动化任务
写一个 YAML 定时任务(例如 daily_wechat.yaml):
name: "每日抓取公众号最新文章"
schedule: "0 8 * * *" # 每天早上8点
steps:
- name: "获取最新文章链接"
skill: "playwright-scraper"
input:
url: "{{ 上一步得到的history_url }}" # 直接把上一步得到的链接填这里
action: "extract_first_article_url"
- name: "抓取文章内容"
skill: "wechat-article-fetcher"
input:
url: "{{ steps[0].output.url }}"
- name: "发送摘要"
skill: "feishu-bot"
input:
content: "{{ steps[1].output.content }}"
然后让 OpenClaw 加载:
请加载 ~/daily_wechat.yaml 并启动定时任务
🛡️ 应对滑动验证 & Cookie 失效
问题和解决方法:
弹出滑动验证:在 playwright-scraper 指令中加入 headless=False(显示浏览器窗口),并设置随机等待时间(30~60秒)
Cookie 过期:每7-30天手动续期(重复步骤1),或用浏览器插件 SyncMeIn 自动刷新登录态
⚠️ 注意事项
· 频率别太高,每次请求间隔 随机延时 10~30 秒,避免触发风控。
· 建议用 个人微信小号 扫码登录后台,别用主号,安全第一。
· 如果长期使用,可以考虑购买商业接口(如“极致了”)省心省力。
🎉 效果展示
设置好后,每天早上 OpenClaw 自动抓取公众号最新文章,推送到飞书/钉钉/本地文件,你再也不用手动复制粘贴啦!
从此告别“搜狗搜索已无”的尴尬,稳稳吃瓜最新内容~🍉
如果还有疑问,欢迎在评论区留言,一起探讨!👇
#OpenClaw #公众号抓取 #自动化 #微信后台 #爬虫技巧
夜雨聆风