乐于分享
好东西不私藏

你的 AI 每次对话后都失忆——Supermemory 如何让记忆成为基础设施

你的 AI 每次对话后都失忆——Supermemory 如何让记忆成为基础设施

GitHub: https://github.com/supermemoryai/supermemory

一句话总结

AI Agent 记忆基础设施的领跑者——三大基准排名第一、sub-300ms 召回、Memory+RAG 一体化 API,让 AI 不再在每次对话后遗忘一切。

值得关注的理由

  1. AI 记忆赛道技术领先:LongMemEval 81.6%、LoCoMo、ConvoMem 三大基准全部排名第一,召回速度宣称比 Mem0 快 25x、比 Zep 快 10x
  2. 极广的生态覆盖:支持 Vercel AI SDK、LangChain、OpenAI Agents SDK、CrewAI 等主流框架 + Claude/Cursor/VS Code/OpenCode 等客户端 + MCP 协议一键接入
  3. 20 岁创始人的商业化节奏:$3M 种子轮(Cloudflare CTO 天使)、清晰的 SaaS 定价(Free→$399/月)、从浏览器插件到记忆 API 平台的战略演进

项目画像

维度 数据
GitHub https://github.com/supermemoryai/supermemory
Star / Fork 17,050 / 1,694
代码行数 79,822 (TSX 47.1%, TypeScript 33.3%, Python 5.9%)
项目年龄 25 个月
开发阶段 密集开发(2026 Q1 稳定回暖,每日提交)
贡献模式 创始人主导(Dhravya Shah 53%,85 位贡献者)
热度定位 大众热门(17K stars,AI 记忆赛道 Top 3)
质量评级 代码[良好] 文档[优秀] 测试[基本]

作者视角:为什么存在这个项目

创始人/作者背景

Dhravya Shah,20 岁,旧金山,2 次被收购经验,TechCrunch 报道过的少年 AI 创业者。783 次提交占总量的 53%。组织旗下 23 个仓库构成完整生态(Claude/Cursor/OpenCode 插件、SDK、基准测试框架等)。

问题判断

「Your AI forgets everything between conversations. Supermemory fixes that.」 AI Agent 在每次对话后丢失所有上下文,这是当前 LLM 应用最根本的局限之一。现有 RAG 方案只做无状态文档检索,不追踪用户事实的变化、矛盾和遗忘。项目最初从浏览器书签管理切入,后 pivot 到 AI 记忆 API 平台——抓住了 AI Agent 基础设施化的时代窗口。

解法哲学

Memory ≠ RAG——这是核心差异化叙事:

  • Memory 追踪用户事实随时间的变化(覆盖、矛盾解决、自动遗忘)
  • RAG 是无状态文档检索
  • Supermemory 同时运行两者,提供 Memory + RAG + User Profiles + Connectors 一体化 API
  • 极简 API Surface:5 行代码即可集成,降低开发者门槛
  • Container Tags:多租户隔离,按用户/项目/客户分隔记忆空间

战略意图

从开源记忆引擎切入 → SaaS 变现(Free/Pro/Scale/Enterprise)→ 插件生态锁定(Claude/Cursor/VS Code)→ 成为 AI 应用的「记忆层基础设施」。$3M 种子轮验证了投资人对这一方向的认可。

核心价值提炼

创新之处

  1. Memory vs RAG 双引擎一体化(新颖 4/5 | 实用 5/5 | 可迁移 3/5)

不是简单的向量检索,而是在 RAG 之上增加了事实追踪、矛盾解决、自动遗忘和用户画像维护。这是对「AI 记忆」概念的重新定义。

  1. 双层用户画像(Static + Dynamic)(新颖 4/5 | 实用 4/5 | 可迁移 4/5)

自动维护 static(长期事实:职业、偏好)+ dynamic(近期上下文:当前项目、即时需求)双层画像,单次调用 ~50ms。

  1. 自动遗忘机制(新颖 5/5 | 实用 4/5 | 可迁移 3/5)

临时信息(如「明天有考试」)过期后自动清除,矛盾信息自动解决(如「我住在北京」→「我搬到上海了」)。模拟人类记忆的遗忘曲线。

  1. Memory Graph 可视化(新颖 3/5 | 实用 3/5 | 可迁移 3/5)

`packages/memory-graph/` 提供交互式图可视化,展示记忆节点之间的关联和演化。

  1. MCP 协议原生支持(新颖 3/5 | 实用 5/5 | 可迁移 4/5)

`apps/mcp/` 实现完整 MCP 服务器,一行命令安装到 Claude/Cursor 等客户端。

可复用的模式与技巧

  1. Monorepo 插件生态模式:apps/(web/mcp/browser-extension/docs)+ packages/(lib/tools/ui/sdk)的 Turborepo 结构,适合「核心+插件」架构
  2. 多框架 SDK 统一封装:`packages/tools/src/` 下 Vercel AI SDK、OpenAI SDK、LangChain、Mastra 等统一封装,每个框架一个适配器文件
  3. Container Tags 多租户隔离:通过标签实现记忆空间隔离,比数据库级隔离更灵活
  4. Cloudflare Workers 边缘部署:利用 CF Workers + KV + D1 实现全球低延迟,适合对延迟敏感的 API 服务

关键设计决策

  1. 从浏览器插件 pivot 到 API 平台:最初是 AI 书签管理工具(browser-extension 仍保留),识别到更大机会后转型为记忆 API。apps/web 占 64.5% 修改量反映了这次战略转向
  2. Cloudflare 全栈:Workers + Pages + KV + D1 的全 Cloudflare 技术栈,获得边缘部署性能优势,但也绑定了平台
  3. TypeScript + Python 双 SDK:`packages/tools/`(TS)+ `packages/openai-sdk-python/`(Python),覆盖两大 AI 开发生态
  4. 基准测试先行:`memorybench` 仓库(203★)为独立项目,先建立评测标准再宣称第一——这是有说服力的竞争策略

竞品格局与定位

竞品对比矩阵

维度 Supermemory Mem0 Letta/MemGPT Zep
Stars 17K ~25K ~15K ~3K
融资 $3M 种子轮 YC 支持 独立 独立
核心理念 Memory+RAG 一体化 细粒度记忆图谱 LLM 自主记忆管理 时序知识图谱
基准排名 #1 (三项) #2 未参与 #3
延迟 sub-300ms 较慢 较慢 中等
自动遗忘 ⚠️ LLM 自决
User Profiles ✅ static+dynamic
MCP 支持 ✅ 原生 ⚠️ 基础
部署模式 SaaS + 自部署 SaaS + 自部署 自部署 SaaS + 自部署
SDK 覆盖 TS/Python + 6 框架 TS/Python Python TS/Python

差异化护城河

  • 基准测试领先:自建 memorybench 框架并在三大基准排名第一,形成可量化的技术壁垒
  • 生态广度:覆盖所有主流 AI 框架和客户端(Claude/Cursor/VS Code/OpenCode),切换成本高
  • Memory ≠ RAG 的概念定义权:率先定义了「记忆」与「检索」的区别,占据了叙事高地

竞争风险

  • Mem0 星数更高且有 YC 背书,如果 Mem0 加强性能和用户画像能力,将直接威胁
  • LangChain 生态内的 LangMem 可能通过生态绑定蚕食市场份额
  • 赛道仍在定义期,可能被大厂(OpenAI/Anthropic)的原生记忆功能颠覆

生态定位

定位为「AI 应用的记忆层基础设施」——不是 AI 框架,不是向量数据库,而是介于 LLM 和应用之间的记忆中间件。

套利机会分析

  • 信息差: 17K stars 已有知名度,但中文社区对其 Memory ≠ RAG 的技术差异化认知不足——很多人可能只当它是又一个 RAG 工具
  • 技术借鉴: (1) 自动遗忘机制设计;(2) Static+Dynamic 双层用户画像;(3) Container Tags 多租户隔离;(4) 基准测试先行的竞争策略
  • 生态位: 填补了「AI Agent 持久记忆」的基础设施空白——向量数据库只做检索,Supermemory 做记忆管理
  • 趋势判断: 高度符合 AI Agent 长期记忆、个性化 AI 助手趋势。$3M 融资 + 持续活跃开发表明项目有资金和动力维持竞争力

风险与不足

  1. 开发节奏有两段 3 个月空窗期(2024 Q4、2025 Q2-Q3),稳定性存疑
  2. Cloudflare 全栈绑定:Workers + KV + D1 深度绑定 Cloudflare,迁移成本高
  3. 测试覆盖不足:修复占 34%、功能占 26.5%,但测试和重构各仅 0.5%,技术债务积累风险
  4. 本地部署有门槛:Issue #506 反映本地部署体验不佳
  5. 创始人主导度高:Dhravya 贡献 53%,如果关键人员分心,项目节奏受影响
  6. 赛道竞争激烈:Mem0(25K★+YC)、Letta(15K★)、Zep 以及 LangMem 均在追赶
  7. 大厂颠覆风险:OpenAI/Anthropic 如果推出原生记忆 API,整个赛道可能被重新定义

行动建议

  • 如果你要用它: 最适合需要「AI Agent 跨会话记忆」的场景——聊天机器人个性化、客服助手记住用户偏好、AI 编码助手记住项目上下文。如果只需要简单 RAG,用向量数据库即可;如果需要 LLM 自主管理记忆选 Letta;如果需要图谱型记忆选 Mem0
  • 如果你要学它: 重点关注 (1) `packages/lib/` — 记忆引擎核心(similarity.ts、queries.ts);(2) `packages/tools/src/` — 多框架 SDK 统一封装模式;(3) `apps/mcp/src/` — MCP 协议实现;(4) `packages/memory-graph/` — 记忆图可视化
  • 如果你要 fork 它: (1) 解耦 Cloudflare 依赖,支持通用部署;(2) 加强自动化测试覆盖;(3) 改善本地部署体验;(4) 添加更多数据连接器

知识入口

资源 链接
DeepWiki deepwiki.com/supermemoryai/supermemory
Zread.ai zread.ai/supermemoryai/supermemory
关联论文
在线 Demo app.supermemory.ai — 消费端应用
官方文档 supermemory.ai/docs — API 参考 + 概念文档
技术对比 LogRocket: Mem0 vs Supermemory