乐于分享
好东西不私藏

一个芯片工程师的 AI 焦虑解药—我给自己搭了一套信息雷达

一个芯片工程师的 AI 焦虑解药—我给自己搭了一套信息雷达

做芯片几年。

这一年我和身边同行,都有一种说不出的焦虑——不是怕被 AI 替代,是怕”不知道发生了什么”

每天打开手机,X 上、公众号上、各种群里全是 AI 的新东西。模型、agent、应用层每周一个爆款。而我手头的工作,五年节奏没怎么变。

你不会觉得自己马上要失业,但你知道——这股浪一定会拍到你身上。只是不知道什么时候、以什么方式。


我做过所有人都会做的事

关注了一堆 AI 大 V,订阅几个 newsletter,收藏夹塞满”等会再看”。

然后我越来越累。

更诡异的是,我发现一个反常识的事实:

信息越多,我反而越不知道自己在跟什么。

注意力被切碎,每条都没真的看进去。打开一篇 Karpathy 的长文,刷两屏,有人在群里发了个新模型,跳过去看,看一半又有篇论文火了……一天下来,什么都摸过,什么都没记住。

后来我换了个思路。

不再追”看到更多”,而是搭一套让我”少看,但看到的都对”的系统。

这篇文章想分享的就是这套方法,以及——更重要的——它在几个月之后给了我什么


你能得到什么(说在前面)

我想先讲清楚价值,再讲方法。因为你只有真信这件事值得做,后面的步骤才有意义。

几周后,你会感觉到:

不再害怕错过——”今天 X 上炸了什么”这种 FOMO 慢慢消失。每天省下 1-2 小时刷推时间。知识入口从十几个 app 收敛到一个地方。

几个月后,你会发现:

你能聊出门道了。和同行讨论 AI 时,你说的不是热搜级的浅信息,是真正在前沿的东西。你开始有一个属于自己的知识沉淀——而不是一堆永远不会再打开的收藏夹。

半年后,这件事会显出真正的厉害——

你从”被动消费信息的人”,变成”有判断力的人“。

哪些是 hype,哪些是真趋势,你一眼能看出来。每天高质量的输入累积起来,你的认知密度会和盲目刷推的人,拉开量级差距。

这是复利

而且——这套系统会成为你的资产。它对你的理解、它积累的筛选偏好,是别人复制不走的。

对我们这种行业相对稳定、但又必须保持对外部世界感知的人,这件事的价值更大——

它让你在自己的专业之外,保留了一个低噪声、高质量的雷达。

OK。如果这就是你想要的,我们继续。


第一层:好的源头,本质是”高质量的人”

不要关注话题,要关注人。

话题底下 95% 是噪音。而被一个真正懂行的人转发或评论过的内容,质量直接拉高一个量级。

X 上值得长期关注的人:

  • Andrej Karpathy — 他发的每条都值得读
  • Simon Willison — 独立开发者视角,LLM 实战派代表
  • Jim Fan(NVIDIA)— 具身智能方向的判断力
  • Nathan Lambert — RLHF 和开源模型的可靠声音
  • @_akhaliq (AK)swyx — 做信息聚合的人,本身就是筛子

把他们当作”已经替你读过 1000 篇论文的人“。

比 X 信息密度更高的地方(很多人忽略):

  • 个人 blog:Karpathy、Simon Willison、Lilian Weng 的博客 — 单篇干货抵十条推文
  • 官方 research blog:Anthropic、OpenAI、DeepMind、Google Research
  • Newsletter:Import AI、The Batch、Interconnects
  • Podcast:Dwarkesh Patel、Latent Space — 通勤时间利用率拉满

顺带说一句,作为芯片行业的人,我会额外关注几个偏硬件 / 系统 / 编译方向的声音。

AI 浪潮拍到我们行业,首先是从这些地方开始的


第二层:开源项目,别看星数

GitHub 星数这个指标基本已经废了。

一篇爆款推文能让一个半成品项目一夜涨几千 star。半年后再看,死透了。

我自己看项目的几个标准:

1️⃣ X 上有没有人写”用了几个月之后的体感” — 比 README 真实十倍

2️⃣ issues 区是不是有真实讨论 — 能用的项目里全是具体报错和 PR;不能用的项目里全是”awesome project, please add Chinese README”

3️⃣ 作者自己是不是在用 — 很多人发完就不维护了

4️⃣ commit 节奏 — 细水长流的迭代,还是发版那周突击 100 次然后死掉

发现项目的渠道也最好以人为节点:看你信任的几个工程师最近 star 了什么。


第三层:论文,让别人替你筛

arXiv 一天几百篇,自己刷是不可能的。

依赖几个稳定的筛选器就够:

  • @_akhaliq (AK) 的每日论文推荐
  • Hugging Face Daily Papers — 社区投票过的列表
  • 你关注的研究者会转发的论文

但知道源头还不够

最现实的问题是——

你订阅了一堆,最后还是没时间看。

收藏夹只会变成新的焦虑源。这时候你需要一个东西,自动替你筛、替你总结、替你推送

主角登场:Hermes Agent(Nous Research 开源,GitHub 搜 NousResearch/hermes-agent)。

它不是又一个 chatbot。它的设计目的就是——让一个 AI 长期跟着你跑

适合做信息系统核心的三个原因:

能挂 cron — 固定时间跑任务,部署在 VPS 或自己的工作站上,你不在线它也在工作

能多平台推送 — Telegram、Discord、Slack 都行,不用主动开网页

有记忆和 skill 系统 — 你告诉它一次”我对什么感兴趣”,它会越用越懂你

最后这一点是和普通 ChatGPT/Claude 最大的区别:它在跨会话学习。


三步开始

第一步,设一个简单的 prompt,挂上 cron:

每天早上 8 点,扫一遍我的 X 关注列表、几个 blog 的 RSS、Hugging Face Daily Papers,挑出最值得看的 1 篇文章 + 1 个项目 + 1 篇论文,用中文写 200 字摘要说明为什么值得看。当天没有特别突出的内容就少推或不推,不要凑数

第二步,每天给它反馈:

  • 看到特别有用的 → “这种以后多推”
  • 看到没意义的 → “这类别推了”
  • 自己有新关心的方向 → 让它加进偏好

第三步(很多人忽略,但其实最重要),定期让它总结你的兴趣演化:

“回顾过去一个月我对你的反馈,告诉我我的兴趣重心发生了什么变化。”

这一步会让你重新看清自己


一个示意场景

如果你这样设置,某天早上你打开 Telegram 看到的可能是这样的:

🌅 今日精选

📄 文章 · Simon Willison《How I use LLMs as a senior developer》
复盘了一年来的 LLM 使用方式,核心观点:不要让 LLM 替你做决策,让它做”我知道怎么做但懒得敲”的事
为什么值得看:比一般的 prompt 技巧高一层,讲工程师和 AI 协作的心智模型。

🔧 项目 · repomix
把整个代码仓库打包成 LLM 友好的单文件。
为什么值得看:Karpathy 今天转发了,issues 里有真实用户分享 5 万行项目的处理效果。

📜 论文 · 《Scaling Test-Time Compute Optimally》(DeepMind)
同样的总算力,不同分配策略能带来 4 倍效果差异。
为什么值得看:HF Daily Papers 今日 #1,对理解”o1 类模型为什么有效”很有帮助。

(以上为示意,真实推送内容因当天信源而异)

然后——最关键的来了——你可以直接在 Telegram 里继续问它:

  • “第二个项目展开讲讲它和 LangChain 的区别”
  • “今天这篇论文里的 baseline 是什么意思”
  • “把这三条都存到我的’下周深读’清单”

这种对话式的资讯消费,比任何 newsletter 都自然。


你到底在搭什么

如果你认真做这件事,几个月后你拥有的,不是一个推送工具——

是一套只给你推真正重要东西的过滤系统。

是一个懂你兴趣演化轨迹的 AI 助手。

是一个逐渐积累的个人知识库

还有一个隐藏价值——

你重新拿回了对自己注意力的控制权。

算法推荐的逻辑,是你的注意力。
你搭的这套系统的逻辑,是保护你的注意力。

方向完全相反。


回到我自己。

作为一个芯片工程师,我搭这套系统,不是为了赶时髦,不是为了”转型 AI”。

是为了在自己每天专注于波形、覆盖率、低功耗验证的同时——不被外面这股巨浪卷走

我没法决定 AI 浪潮什么时候、以什么方式拍到我们行业。

但我可以决定——

当它来的时候,我不是被信息淹没的那个人,而是知道发生了什么的那个人。

这就够了。


后续会分享什么

这篇文章只讲了”为什么”和”大致怎么做”。

接下来我会陆续分享:

🛠 完整搭建教程 — Hermes Agent 从安装、配模型、挂 Telegram bot 到部署 cron,踩坑实录,看完就能照着搭

📝 真实的 prompt 和 skill — 我自己每天在用的资讯筛选 prompt、信源配置、反馈调优——直接放出来给你用

🔄 从 0 到 1 的工作流串联 — 怎么把”信源 → 筛选 → 推送 → 反馈 → 沉淀”这套流程跑通,而不是用几天就放弃

📊 三个月后的真实复盘 — 跑了一段时间之后,我的信息品味、知识沉淀、焦虑水平到底有什么变化

如果你也觉得这件事值得做——

关注我,跟着搭一套属于你自己的信息雷达。

下一篇见。


扫码加入「芯片角落」交流群,一起聊聊芯片 × AI

或添加微信:jackdodonan(备注「加群」即可)