乐于分享
好东西不私藏

我用30秒在GitHub部署了一个AI选题助手,现在它每天早上9点自动给我发热点

我用30秒在GitHub部署了一个AI选题助手,现在它每天早上9点自动给我发热点

做内容的人都懂那种每天盯着各个平台找选题的疲惫感。我搭了一套自动推送系统之后,这件事变成了”睡醒看一眼通知”。


一、每天找选题有多烦

知乎、微博、 B 站、抖音、财联社……每个平台的热点都不一样,每天手动巡一遍大概要花 30 分钟。更烦的是,你不知道哪个平台今天有你关注方向的热点,很多时候刷了半天全是娱乐八卦。

我要的其实很简单:只要 AI 相关的热点,每天早上自动推送到手机,不用我主动去找

TrendRadar 解决的就是这件事。

它监控 35 个中文平台(抖音、知乎、 B 站、微博、财联社、百度热搜等),按你设置的关键词过滤,筛出来的内容通过微信/飞书/钉钉/Telegram 推送给你。还支持 MCP 协议,可以和 Claude/Cursor 对话查历史热点。

项目地址:sansan0/TrendRadar, GitHub 开源,被阮一峰周刊和少数派推荐过,持续维护(已迭代到 v3.0.5 )。


二、最快部署方式: 30 秒 GitHub Pages

不需要服务器,不需要写代码,只需要有个 GitHub 账号。

第一步: Fork 项目

打开 https://github.com/sansan0/TrendRadar,点右上角 Fork ,复制到自己的账号下。

第二步:开启 GitHub Pages

进入你 Fork 后的仓库 → Settings → Pages → Source 选 GitHub Actions → Save 。

第三步:等 1 小时

GitHub Actions 会自动运行,每小时抓一次热点,生成一个网页报告。打开 https://你的用户名.github.io/TrendRadar/ 就能看到今天的热点。

就这三步,什么都不用装。

踩坑: Pages 需要手动开启, Fork 完不会自动激活。 很多人 Fork 了之后发现访问是 404 ,就是因为忘了去 Settings 里手动启用 Pages 。


三、配置关键词过滤(最关键一步)

默认它监控所有热点,你需要告诉它你只关心什么。

打开仓库里的 config/frequency_words.txt,按这个语法写关键词:

AI工具
大模型
Claude
GPT
Gemini
+发布
!广告

ClaudeCode
Cursor
Copilot
opencode
+更新

语法说明
– 普通词:满足任意一个就匹配
+词:必须同时包含( AND 条件)
!词:包含这个词就排除(过滤条件)
– 空行分隔不同词组

上面这个配置的意思是:抓”AI 工具/大模型/Claude/GPT/Gemini”相关热点,但必须同时包含”发布”这个词,并且过滤掉带”广告”的。

关键词建议:词组别太大,拆细比较准。 我一开始把所有 AI 关键词堆在一个词组,结果推送量太大、质量差。拆成 3-4 个精准词组之后,每天收到的内容从 50 条降到 8 条,但质量高多了。

修改完直接提交( Commit ), GitHub Actions 会在下次运行时自动生效。


四、配置微信推送(最实用)

网页报告需要主动打开,不够方便。把推送接到手机才是真正有用的。

用企业微信机器人(最简单, 1 分钟搞定)

第一步:在企业微信里找一个内部群(自己建一个也行) → 点右上角「…」→「消息推送」→「添加」→「新建机器人」→ 名字叫”TrendRadar”→ 复制 Webhook 地址。

第二步:进入你 Fork 的仓库 → Settings → Secrets and variables → Actions → 「 New repository secret 」:
– Name :WEWORK_WEBHOOK_URL
– Secret :填刚才复制的 Webhook 地址

保存,完成。下次 GitHub Actions 运行时,热点会自动推送到那个企业微信群。

没有企业微信怎么办?用飞书个人版

打开 https://botbuilder.feishu.cn/home/my-command → 新建机器人指令 → Webhook 触发 → 复制 Webhook 地址,填到仓库 Secrets 里,名字叫 FEISHU_WEBHOOK_URL

踩坑: Webhook 绝对不能填到 config.yaml 里。 正确做法是填到 GitHub Secrets , Secrets 是加密存储的, config.yaml 是公开的,填错了 Webhook 就暴露了,任何人都能伪造推送。


五、进阶:接 MCP 让 AI 帮你分析热点

v3.0.0 加了一个厉害的功能: MCP 服务器。意思是,你可以用 Claude Desktop 或 Cursor ,用自然语言对话来查询和分析你积累的热点数据。

比如:
– “上周哪个 AI 工具被提到最多次?”
– “最近三天有没有关于 Claude 的负面新闻?”
– “帮我生成一份本周 AI 热点摘要”

本地启动 MCP 服务

先按文档把项目 Clone 到本地并安装依赖( Python 环境),然后:

start-http.bat

./start-http.sh

服务启动在 http://localhost:3333/mcp

在 Cursor 里配置

{
"mcpServers":{
"trendradar":{
"url":"http://localhost:3333/mcp"
}
}
}

保存后重启 Cursor ,就能在 AI 对话里直接查你的热点数据了。

踩坑: MCP 功能需要先积累数据。 刚部署的第一天用 MCP 查,大概率没什么数据。建议至少运行一周之后再启用 MCP 分析,数据量上去了分析才有意义。

踩坑:本地运行需要 Python 环境。 GitHub Pages 部署不需要本地环境,但 MCP 功能需要在本地跑服务, Python 3.8+,依赖装好之后才能用。嫌麻烦的话先跳过这个功能,用网页报告足够了。


六、适合你用的几种场景

场景一:内容创作者(最对口)
做公众号、视频、博客的,每天早上 9 点收到当日热点推送,对照自己的选题方向筛选。我现在就是这么用的——它替我把 35 个平台巡完了,我只看推来的 8 条。

场景二:行业从业者
金融、科技、消费行业的人,配置好关键词,每天精准接收行业热点。开会之前扫一眼,比同事更快掌握当天动态。

场景三: AI 研究者
监控 AI 相关关键词(大模型/Agent/MCP/开源),每天积累热点数据。配上 MCP 之后可以和 Claude 对话分析趋势,是个挺好用的研究工具。

不建议在这种情况下用
– 只想偶尔用一次的: Fork 部署的成本不高,但配好关键词要花点时间,偶尔用不值得
– 需要实时推送的: GitHub Actions 按小时运行,不是秒级实时,突发热点会有延迟
– 主要关注英文内容的:平台以中文为主,英文热点覆盖有限

最后说一下调频

如果推送太多(每天超过 20 条),调高 rank_weight(重视排名,只要真正热的),或者把关键词词组拆细加更多过滤条件。

如果推送太少(经常空推送),放宽必须词(减少+条件),或者增加监控平台数量。

30 秒部署是真的,真正调到顺手大概要 1 小时。但那 1 小时的时间,会在未来每天帮你省 30 分钟。


本文基于 TrendRadar v3.0.5 测试, GitHub Pages 部署方案,推送渠道:企业微信机器人。