我用30秒在GitHub部署了一个AI选题助手,现在它每天早上9点自动给我发热点
做内容的人都懂那种每天盯着各个平台找选题的疲惫感。我搭了一套自动推送系统之后,这件事变成了”睡醒看一眼通知”。
一、每天找选题有多烦
知乎、微博、 B 站、抖音、财联社……每个平台的热点都不一样,每天手动巡一遍大概要花 30 分钟。更烦的是,你不知道哪个平台今天有你关注方向的热点,很多时候刷了半天全是娱乐八卦。
我要的其实很简单:只要 AI 相关的热点,每天早上自动推送到手机,不用我主动去找。
TrendRadar 解决的就是这件事。
它监控 35 个中文平台(抖音、知乎、 B 站、微博、财联社、百度热搜等),按你设置的关键词过滤,筛出来的内容通过微信/飞书/钉钉/Telegram 推送给你。还支持 MCP 协议,可以和 Claude/Cursor 对话查历史热点。
项目地址:sansan0/TrendRadar, GitHub 开源,被阮一峰周刊和少数派推荐过,持续维护(已迭代到 v3.0.5 )。
二、最快部署方式: 30 秒 GitHub Pages
不需要服务器,不需要写代码,只需要有个 GitHub 账号。
第一步: Fork 项目
打开 https://github.com/sansan0/TrendRadar,点右上角 Fork ,复制到自己的账号下。
第二步:开启 GitHub Pages
进入你 Fork 后的仓库 → Settings → Pages → Source 选 GitHub Actions → Save 。
第三步:等 1 小时
GitHub Actions 会自动运行,每小时抓一次热点,生成一个网页报告。打开 https://你的用户名.github.io/TrendRadar/ 就能看到今天的热点。
就这三步,什么都不用装。
踩坑: Pages 需要手动开启, Fork 完不会自动激活。 很多人 Fork 了之后发现访问是 404 ,就是因为忘了去 Settings 里手动启用 Pages 。
三、配置关键词过滤(最关键一步)
默认它监控所有热点,你需要告诉它你只关心什么。
打开仓库里的 config/frequency_words.txt,按这个语法写关键词:
AI工具
大模型
Claude
GPT
Gemini
+发布
!广告
ClaudeCode
Cursor
Copilot
opencode
+更新
语法说明:
– 普通词:满足任意一个就匹配
– +词:必须同时包含( AND 条件)
– !词:包含这个词就排除(过滤条件)
– 空行分隔不同词组
上面这个配置的意思是:抓”AI 工具/大模型/Claude/GPT/Gemini”相关热点,但必须同时包含”发布”这个词,并且过滤掉带”广告”的。
关键词建议:词组别太大,拆细比较准。 我一开始把所有 AI 关键词堆在一个词组,结果推送量太大、质量差。拆成 3-4 个精准词组之后,每天收到的内容从 50 条降到 8 条,但质量高多了。
修改完直接提交( Commit ), GitHub Actions 会在下次运行时自动生效。
四、配置微信推送(最实用)
网页报告需要主动打开,不够方便。把推送接到手机才是真正有用的。
用企业微信机器人(最简单, 1 分钟搞定):
第一步:在企业微信里找一个内部群(自己建一个也行) → 点右上角「…」→「消息推送」→「添加」→「新建机器人」→ 名字叫”TrendRadar”→ 复制 Webhook 地址。
第二步:进入你 Fork 的仓库 → Settings → Secrets and variables → Actions → 「 New repository secret 」:
– Name :WEWORK_WEBHOOK_URL
– Secret :填刚才复制的 Webhook 地址
保存,完成。下次 GitHub Actions 运行时,热点会自动推送到那个企业微信群。
没有企业微信怎么办?用飞书个人版:
打开 https://botbuilder.feishu.cn/home/my-command → 新建机器人指令 → Webhook 触发 → 复制 Webhook 地址,填到仓库 Secrets 里,名字叫 FEISHU_WEBHOOK_URL。
踩坑: Webhook 绝对不能填到 config.yaml 里。 正确做法是填到 GitHub Secrets , Secrets 是加密存储的, config.yaml 是公开的,填错了 Webhook 就暴露了,任何人都能伪造推送。
五、进阶:接 MCP 让 AI 帮你分析热点
v3.0.0 加了一个厉害的功能: MCP 服务器。意思是,你可以用 Claude Desktop 或 Cursor ,用自然语言对话来查询和分析你积累的热点数据。
比如:
– “上周哪个 AI 工具被提到最多次?”
– “最近三天有没有关于 Claude 的负面新闻?”
– “帮我生成一份本周 AI 热点摘要”
本地启动 MCP 服务:
先按文档把项目 Clone 到本地并安装依赖( Python 环境),然后:
start-http.bat
./start-http.sh
服务启动在 http://localhost:3333/mcp。
在 Cursor 里配置:
{
"mcpServers":{
"trendradar":{
"url":"http://localhost:3333/mcp"
}
}
}
保存后重启 Cursor ,就能在 AI 对话里直接查你的热点数据了。
踩坑: MCP 功能需要先积累数据。 刚部署的第一天用 MCP 查,大概率没什么数据。建议至少运行一周之后再启用 MCP 分析,数据量上去了分析才有意义。
踩坑:本地运行需要 Python 环境。 GitHub Pages 部署不需要本地环境,但 MCP 功能需要在本地跑服务, Python 3.8+,依赖装好之后才能用。嫌麻烦的话先跳过这个功能,用网页报告足够了。
六、适合你用的几种场景
场景一:内容创作者(最对口)
做公众号、视频、博客的,每天早上 9 点收到当日热点推送,对照自己的选题方向筛选。我现在就是这么用的——它替我把 35 个平台巡完了,我只看推来的 8 条。
场景二:行业从业者
金融、科技、消费行业的人,配置好关键词,每天精准接收行业热点。开会之前扫一眼,比同事更快掌握当天动态。
场景三: AI 研究者
监控 AI 相关关键词(大模型/Agent/MCP/开源),每天积累热点数据。配上 MCP 之后可以和 Claude 对话分析趋势,是个挺好用的研究工具。
不建议在这种情况下用:
– 只想偶尔用一次的: Fork 部署的成本不高,但配好关键词要花点时间,偶尔用不值得
– 需要实时推送的: GitHub Actions 按小时运行,不是秒级实时,突发热点会有延迟
– 主要关注英文内容的:平台以中文为主,英文热点覆盖有限
最后说一下调频:
如果推送太多(每天超过 20 条),调高 rank_weight(重视排名,只要真正热的),或者把关键词词组拆细加更多过滤条件。
如果推送太少(经常空推送),放宽必须词(减少+条件),或者增加监控平台数量。
30 秒部署是真的,真正调到顺手大概要 1 小时。但那 1 小时的时间,会在未来每天帮你省 30 分钟。
本文基于 TrendRadar v3.0.5 测试, GitHub Pages 部署方案,推送渠道:企业微信机器人。
夜雨聆风