一个AI Coding工具爆火,登顶Hacker News!上下文压缩98%,让Claude Code脱胎换骨
做AI编程的朋友,大概都有过这种体验:刚用Cursor或Claude Code干了半小时,Context窗口已经被塞满了——Playwright快照56KB,二十条GitHub Issues 59KB,一条访问日志45KB。等你回头想继续,Agent已经忘了你之前在改哪个文件、做到哪一步了。
这就是当前AI Coding Agent最大的痛点:上下文窗口的”另一半”问题。
context-mode就是来解决这个问题的。上线不久便登顶Hacker News,拿下570+高票,斩获10.3k Stars,连Microsoft、Google、NVIDIA、Stripe这些大厂团队都在用。
痛点:从”聪明”到”健忘”的坠落
现在主流的AI Coding Agent工作方式非常粗暴:每次MCP工具调用,都是把原始数据直接灌进Context窗口。你用一次Playwright快照,就要消耗掉56KB的上下文。用20次GitHub API调用,59KB又没了。
30分钟对话下来,超过40%的上下文已经被工具输出占据。更要命的是,当Agent需要压缩对话来腾空间时,它会直接”失忆”——忘记你之前在改哪个文件、哪个任务还没完成、最后的要求是什么。
这不是模型的智商问题,是上下文管理的架构问题。
方案:四管齐下,彻底解决
context-mode是一个MCP服务器,从四个维度同时解决问题:
1. 上下文沙箱隔离
工具调用的原始输出不再直接进入Context窗口。315KB的输出压缩到5.4KB,压缩率高达98%。Agent看到的只是经过处理的”摘要”,而不是海量原始数据。
2. SQLite + BM25 记忆系统
文件编辑、Git操作、任务进度、报错记录、用户决策——所有会话事件都被记录到SQLite中。当对话被压缩时,系统不是简单地丢弃历史,而是通过BM25全文搜索,只召回与当前任务最相关的内容。这意味着:即使对话压缩了,你依然可以从上次中断的地方无缝继续。
3. Think in Code 范式
这是最激进的设计理念转变:让LLM写代码来做分析,而不是把大量文件读进Context来手动分析。
传统做法:读47个文件 = 700KB Contextcontext-mode做法:1次 ctx_execute() = 3.6KB Context
// 用脚本替代47次Read操作ctx_execute("javascript", ` const files = fs.readdirSync('src').filter(f => f.endsWith('.ts')); files.forEach(f => console.log(f + ': ' + fs.readFileSync('src/'+f,'utf8').split('\\n').length + ' lines'));`);
4. 输出压缩
模型输出也要省。去掉”文章体”语言、去掉填充词(just/really/basically)、去掉客套话和犹豫词。结果:输出Token减少65-75%,同时保留完整技术准确性。
实测:Claude Code秒变续航怪兽
目前context-mode支持14个平台,其中Claude Code的集成最完整,安装只需两条命令:
/plugin marketplace add mksglu/context-mode/plugin install context-mode@context-mode
装好后,几个关键命令:
|
|
|
|---|---|
/context-mode:ctx-stats |
|
/context-mode:ctx-doctor |
|
/context-mode:ctx-insight |
|
/context-mode:ctx-upgrade |
|
我个人的评价:context-mode解决的问题是真实的。在做大型代码库重构或复杂调试时,传统AI Coding工具用不了多久就会”失忆”,context-mode通过记忆系统和输出压缩,让长程任务真正变得可行。
不过,Think in Code的范式需要用户(和模型)真正转变思路——不是把AI当搜索引擎用,而是当代码执行器用。这需要一点习惯培养期。另外,支持的14个平台覆盖了主流,但如果你用的是一些非主流工具链,可能还需要等待社区适配。
支持平台一览
除了Claude Code,目前还支持:Gemini CLI(Coral/Google)、VS Code Copilot、Cursor、Windsurf、Cline、Continue、GitHub Copilot、JetBrains IDE、Replit、V0/Next.js、VSCodium等,基本覆盖主流AI Coding工具。
总结
context-mode的核心价值:用架构而非模型来解决上下文窗口问题。98%压缩率让Claude Code等工具在复杂任务中真正可用,而不是频繁”失忆”。SQLite记忆+BM25搜索的组合,是这套系统的技术核心,也是它与其他简单上下文压缩方案的本质区别。
如果你经常用AI Coding工具做超过30分钟的复杂任务,强烈建议试试。目前Stars还在快速增长,社区活跃度很高。
GitHub: https://github.com/mksglu/context-mode\ 官网: https://context-mode.com
夜雨聆风