一个芯片工程师的 AI 焦虑解药—我给自己搭了一套信息雷达
做芯片几年。
这一年我和身边同行,都有一种说不出的焦虑——不是怕被 AI 替代,是怕”不知道发生了什么”。
每天打开手机,X 上、公众号上、各种群里全是 AI 的新东西。模型、agent、应用层每周一个爆款。而我手头的工作,五年节奏没怎么变。
你不会觉得自己马上要失业,但你知道——这股浪一定会拍到你身上。只是不知道什么时候、以什么方式。
我做过所有人都会做的事
关注了一堆 AI 大 V,订阅几个 newsletter,收藏夹塞满”等会再看”。
然后我越来越累。
更诡异的是,我发现一个反常识的事实:
信息越多,我反而越不知道自己在跟什么。
注意力被切碎,每条都没真的看进去。打开一篇 Karpathy 的长文,刷两屏,有人在群里发了个新模型,跳过去看,看一半又有篇论文火了……一天下来,什么都摸过,什么都没记住。
后来我换了个思路。
不再追”看到更多”,而是搭一套让我”少看,但看到的都对”的系统。
这篇文章想分享的就是这套方法,以及——更重要的——它在几个月之后给了我什么。
你能得到什么(说在前面)
我想先讲清楚价值,再讲方法。因为你只有真信这件事值得做,后面的步骤才有意义。
几周后,你会感觉到:
不再害怕错过——”今天 X 上炸了什么”这种 FOMO 慢慢消失。每天省下 1-2 小时刷推时间。知识入口从十几个 app 收敛到一个地方。
几个月后,你会发现:
你能聊出门道了。和同行讨论 AI 时,你说的不是热搜级的浅信息,是真正在前沿的东西。你开始有一个属于自己的知识沉淀——而不是一堆永远不会再打开的收藏夹。
半年后,这件事会显出真正的厉害——
你从”被动消费信息的人”,变成”有判断力的人“。
哪些是 hype,哪些是真趋势,你一眼能看出来。每天高质量的输入累积起来,你的认知密度会和盲目刷推的人,拉开量级差距。
这是复利。
而且——这套系统会成为你的资产。它对你的理解、它积累的筛选偏好,是别人复制不走的。
对我们这种行业相对稳定、但又必须保持对外部世界感知的人,这件事的价值更大——
它让你在自己的专业之外,保留了一个低噪声、高质量的雷达。
OK。如果这就是你想要的,我们继续。
第一层:好的源头,本质是”高质量的人”
不要关注话题,要关注人。
话题底下 95% 是噪音。而被一个真正懂行的人转发或评论过的内容,质量直接拉高一个量级。
X 上值得长期关注的人:
-
Andrej Karpathy — 他发的每条都值得读 -
Simon Willison — 独立开发者视角,LLM 实战派代表 -
Jim Fan(NVIDIA)— 具身智能方向的判断力 -
Nathan Lambert — RLHF 和开源模型的可靠声音 -
@_akhaliq (AK)、swyx — 做信息聚合的人,本身就是筛子
把他们当作”已经替你读过 1000 篇论文的人“。
比 X 信息密度更高的地方(很多人忽略):
-
个人 blog:Karpathy、Simon Willison、Lilian Weng 的博客 — 单篇干货抵十条推文 -
官方 research blog:Anthropic、OpenAI、DeepMind、Google Research -
Newsletter:Import AI、The Batch、Interconnects -
Podcast:Dwarkesh Patel、Latent Space — 通勤时间利用率拉满
顺带说一句,作为芯片行业的人,我会额外关注几个偏硬件 / 系统 / 编译方向的声音。
AI 浪潮拍到我们行业,首先是从这些地方开始的。
第二层:开源项目,别看星数
GitHub 星数这个指标基本已经废了。
一篇爆款推文能让一个半成品项目一夜涨几千 star。半年后再看,死透了。
我自己看项目的几个标准:
1️⃣ X 上有没有人写”用了几个月之后的体感” — 比 README 真实十倍
2️⃣ issues 区是不是有真实讨论 — 能用的项目里全是具体报错和 PR;不能用的项目里全是”awesome project, please add Chinese README”
3️⃣ 作者自己是不是在用 — 很多人发完就不维护了
4️⃣ commit 节奏 — 细水长流的迭代,还是发版那周突击 100 次然后死掉
发现项目的渠道也最好以人为节点:看你信任的几个工程师最近 star 了什么。
第三层:论文,让别人替你筛
arXiv 一天几百篇,自己刷是不可能的。
依赖几个稳定的筛选器就够:
-
@_akhaliq (AK) 的每日论文推荐 -
Hugging Face Daily Papers — 社区投票过的列表 -
你关注的研究者会转发的论文
但知道源头还不够
最现实的问题是——
你订阅了一堆,最后还是没时间看。
收藏夹只会变成新的焦虑源。这时候你需要一个东西,自动替你筛、替你总结、替你推送。
主角登场:Hermes Agent(Nous Research 开源,GitHub 搜 NousResearch/hermes-agent)。
它不是又一个 chatbot。它的设计目的就是——让一个 AI 长期跟着你跑。
适合做信息系统核心的三个原因:
✅ 能挂 cron — 固定时间跑任务,部署在 VPS 或自己的工作站上,你不在线它也在工作
✅ 能多平台推送 — Telegram、Discord、Slack 都行,不用主动开网页
✅ 有记忆和 skill 系统 — 你告诉它一次”我对什么感兴趣”,它会越用越懂你
最后这一点是和普通 ChatGPT/Claude 最大的区别:它在跨会话学习。
三步开始
第一步,设一个简单的 prompt,挂上 cron:
每天早上 8 点,扫一遍我的 X 关注列表、几个 blog 的 RSS、Hugging Face Daily Papers,挑出最值得看的 1 篇文章 + 1 个项目 + 1 篇论文,用中文写 200 字摘要说明为什么值得看。当天没有特别突出的内容就少推或不推,不要凑数。
第二步,每天给它反馈:
-
看到特别有用的 → “这种以后多推” -
看到没意义的 → “这类别推了” -
自己有新关心的方向 → 让它加进偏好
第三步(很多人忽略,但其实最重要),定期让它总结你的兴趣演化:
“回顾过去一个月我对你的反馈,告诉我我的兴趣重心发生了什么变化。”
这一步会让你重新看清自己。
一个示意场景
如果你这样设置,某天早上你打开 Telegram 看到的可能是这样的:
🌅 今日精选
📄 文章 · Simon Willison《How I use LLMs as a senior developer》
复盘了一年来的 LLM 使用方式,核心观点:不要让 LLM 替你做决策,让它做”我知道怎么做但懒得敲”的事。
为什么值得看:比一般的 prompt 技巧高一层,讲工程师和 AI 协作的心智模型。🔧 项目 ·
repomix
把整个代码仓库打包成 LLM 友好的单文件。
为什么值得看:Karpathy 今天转发了,issues 里有真实用户分享 5 万行项目的处理效果。📜 论文 · 《Scaling Test-Time Compute Optimally》(DeepMind)
同样的总算力,不同分配策略能带来 4 倍效果差异。
为什么值得看:HF Daily Papers 今日 #1,对理解”o1 类模型为什么有效”很有帮助。
(以上为示意,真实推送内容因当天信源而异)
然后——最关键的来了——你可以直接在 Telegram 里继续问它:
-
“第二个项目展开讲讲它和 LangChain 的区别” -
“今天这篇论文里的 baseline 是什么意思” -
“把这三条都存到我的’下周深读’清单”
这种对话式的资讯消费,比任何 newsletter 都自然。
你到底在搭什么
如果你认真做这件事,几个月后你拥有的,不是一个推送工具——
是一套只给你推真正重要东西的过滤系统。
是一个懂你兴趣演化轨迹的 AI 助手。
是一个逐渐积累的个人知识库。
还有一个隐藏价值——
你重新拿回了对自己注意力的控制权。
算法推荐的逻辑,是抢你的注意力。
你搭的这套系统的逻辑,是保护你的注意力。方向完全相反。
回到我自己。
作为一个芯片工程师,我搭这套系统,不是为了赶时髦,不是为了”转型 AI”。
是为了在自己每天专注于波形、覆盖率、低功耗验证的同时——不被外面这股巨浪卷走。
我没法决定 AI 浪潮什么时候、以什么方式拍到我们行业。
但我可以决定——
当它来的时候,我不是被信息淹没的那个人,而是知道发生了什么的那个人。
这就够了。
后续会分享什么
这篇文章只讲了”为什么”和”大致怎么做”。
接下来我会陆续分享:
🛠 完整搭建教程 — Hermes Agent 从安装、配模型、挂 Telegram bot 到部署 cron,踩坑实录,看完就能照着搭
📝 真实的 prompt 和 skill — 我自己每天在用的资讯筛选 prompt、信源配置、反馈调优——直接放出来给你用
🔄 从 0 到 1 的工作流串联 — 怎么把”信源 → 筛选 → 推送 → 反馈 → 沉淀”这套流程跑通,而不是用几天就放弃
📊 三个月后的真实复盘 — 跑了一段时间之后,我的信息品味、知识沉淀、焦虑水平到底有什么变化
如果你也觉得这件事值得做——
关注我,跟着搭一套属于你自己的信息雷达。
下一篇见。
扫码加入「芯片角落」交流群,一起聊聊芯片 × AI

或添加微信:jackdodonan(备注「加群」即可)
夜雨聆风