用过AI助手的朋友都有这个痛点——聊了十几轮之后,AI把你前面说过的重要信息忘得一干二净。每次都要重新解释一遍背景、偏好、要求。腾讯最近开源了一款记忆插件,专门解决这个痛点。
📦 项目基本信息
| TencentDB Agent Memory | |
💡 核心理念:记忆不是为了囤积,而是为了不重复
传统记忆系统的做法:把对话历史全部塞进向量数据库,召回时做相似度搜索。结果呢?检索到的都是碎片化的段落,没有宏观结构,AI看了半天不知所云。
腾讯的思路完全不同——记忆不是要把所有东西都塞进AI,而是让人不用重复自己。信息应该被结构化地保存,需要的时候精确召回,而不是一股脑儿倒给AI让它自己理解。
⚙️ 核心技术:两层架构
① 记忆分层(Memory Layering)
从原始对话到用户画像,分成四层逐步提炼:
| L0 | ||
| L1 | ||
| L2 | ||
| L3 |
关键设计:每层都能回溯到原始证据。AI说"根据你之前的偏好……",如果用户质疑,可以一路追溯到最初是哪句话提炼出来的。压缩不丢失,召回可审计。
② 符号记忆(Symbolic Memory)
长任务中,Token消耗最大的不是对话文字,而是冗长的中间日志——搜索结果、代码输出、错误堆栈。
解决方案:用Mermaid图表把任务状态编码成紧凑符号,注入上下文的只有几百个Token。要查详情时,通过node_id精确召回原始日志。
mermaid graph LR Log["Verbose Logs
(海量Token)"] -->|"1.Offload"| FS[("外部FS
(refs/*.md)")] Log -->|"2.提取关系"| MMD["Mermaid Canvas
(带node_id)"] MMD -->|"3.轻量注入"| Agent(("Agent Context
(几百Token)")) Agent -. "4.node_id召回" .-> FS
📊 效果数据(官方Benchmark)
*数据来自官方仓库,在连续多轮长对话中测量,非单次测试
✨ 特色功能
🧠 宏观画像 + 微观事实统一机制
查偏好只看L3用户画像,查具体事实下钻到L1原子层,不用把整段历史都塞进上下文。
🔍 白盒可调试
记忆不是黑盒子——L2场景是Markdown,L3用户画像是md文件,Mermaid画布人类可读。随时打开检查,AI记错了什么一目了然。
🔄 完整召回链路
Persona → Scenario → Atom → Conversation,每层都能追溯到底层证据。不像向量数据库只知道"相似度高",不知道"为什么相似"。
🛠️ 混合检索
BM25关键词 + 向量语义 + RRF融合召回,关键词和语义理解两手抓,召回率更高。
🚀 支持的部署方式
方式一:OpenClaw 插件(推荐)
openclaw plugins install @tencentdb-agent-memory/memory-tencentdb openclaw gateway restart方式二:Hermes Docker
# 构建镜像 docker build -f Dockerfile.hermes -t hermes-memory . # 运行容器 docker run -d \ --name hermes-memory \ --restart unless-stopped \ -p 8420:8420 \ -e MODEL_API_KEY="你的API密钥" \ -e MODEL_BASE_URL="https://api.lkeap.cloud.tencent.com/v1" \ -e MODEL_NAME="deepseek-v3.2" \ -v hermes_data:/opt/data \ hermes-memory*默认使用腾讯云LKE的DeepSeek-V3.2,也支持任意的OpenAI兼容接口
💬 总结
TencentDB Agent Memory 的核心价值就三个字——记得住、省Token、可审计。
它不是简单地把对话存进向量数据库然后做相似度搜索,而是真正做了分层提炼——从原始对话中提取原子事实,聚合成语义场景,最后生成用户画像。召回时按需下钻,不用把整段历史都塞进上下文。
对于需要AI长期记住用户偏好、任务背景、项目规范的使用场景,这个插件值得一试。
欢迎关注,有问题也欢迎留言交流~
夜雨聆风