AI 助手真正「记住你」需要几步?OpenHuman 用 Memory Tree 实现跨平台持续记忆
桌面 AI 助手 · 持久记忆 · 118+ 集成 · Token 压缩 —— tinyhumansai/openhuman 是一个开源的个人 AI 超级智能体,用 Rust + Tauri 构建, 定位为「几分钟内了解你,而不是几周」。
从安装到拥有一个认识你、能自动同步 Gmail/Notion/GitHub/Slack 并以桌面吉祥物形态与你互动的 AI,整个过程可以在一杯咖啡的时间内完成。
AI 助手的「冷启动」困境
用过 AI 助手的人大多有过这样的体验:每次打开一个新对话, 都得重新交代背景——「我在 XX 公司做 YY 工作, 上周的项目进展到 ZZ 阶段」。即使是上下文支持的对话式助手, 一切话题就得从头来过。
现有方案各有痛点:
• Claude Cowork:聊天绑定会话,跨会话记忆为零, 且不开源、单独付费
• OpenClaw:功能强大但终端优先, 记忆依赖用户手动配置插件
• Hermes Agent:具备自我学习能力, 但集成生态系统需要自行搭建
这些产品有一个共性缺陷:它们不「认识你」,只是「回应你」。 每次对话都像第一次见面。
OpenHuman 的目标用户正是那些对现有 AI 助手「记不住自己」 感到疲惫的深度用户——开发者、项目经理、内容创作者, 以及任何每天在多个平台上产生信息的人。
从安装到真正可用:最短上手路径
OpenHuman 强调「UI 优先」,安装后通过图形引导完成设置, 无需编辑配置文件。
第一步:一键安装
curl -fsSL https://raw.githubusercontent.com/tinyhumansai/openhuman/main/scripts/install.sh | bash
# Windows
irm https://raw.githubusercontent.com/tinyhumansai/openhuman/main/scripts/install.ps1 | iex
安装后启动桌面应用,即会进入 Joyride 引导流程, 完成账号绑定。
第二步:连接你的服务
在设置页面通过 OAuth 一键接入你使用的平台——Gmail、Notion、 GitHub、Slack、Linear、Jira、Google Drive、Stripe 等 118 个以上集成。每个连接暴露为类型化的工具(typed tool), 代理可以直接调用。
第三步:让 AI 开始「认识你」
连接完成后,自动进入核心循环:
• Auto-fetch:每 20 分钟,核心遍历所有活跃连接, 拉取新数据(新邮件、新工单、新 PR)
• Memory Tree 消化:原始数据经过规范化、 分块(≤3K tokens/块)、打分后存入本地 SQLite
• Obsidian 落地:同一份数据同时以 .md 文件形式
写入 Obsidian 兼容的知识库,可直接浏览、编辑
典型使用场景举例
场景一:日常邮件简报
连入 Gmail 后,对 AI 说「有哪些重要的邮件?」 由于 Auto-fetch 已在后台持续同步, AI 直接基于已记忆的邮件内容给出摘要,无需实时拉取。
场景二:跨项目同步
「我这周在 GitHub 上开了哪些 PR? 对应的 Notion 任务进度如何?」跨平台的数据已在 Memory Tree 中关联,AI 可一次性给出回答。
场景三:会议助手上线
在 Google Meet 中邀请 OpenHuman 的吉祥物加入, 它能听会、做笔记、在结束后输出会议纪要和待办事项。
Memory Tree 与 TokenJuice:两个核心创新
OpenHuman 的架构围绕两条主线展开: 让 AI 能记住和让记忆成本可接受。
Memory Tree:三层检索体系
Memory Tree(src/openhuman/memory/tree/)采用三级架构:
• Tree Source:按数据来源(Gmail、Slack 等)组织, 每个源独立索引
• Tree Topic:跨源的语义主题聚类
• Tree Global:全局概要层,供快速上下文加载
数据流:原始文本 -> canonicalize(归一化)
-> chunker(分块,生成确定性 ID)
-> score(质量打分)
-> 存入 SQLite(含 FTS5 全文索引和向量嵌入)。
检索时按相关度打分排序,分桶合并后送入 LLM。
TokenJuice:Token 压缩引擎
工具调用的输出(git log、npm install、scrape 结果)
往往是冗长的原始文本。OpenHuman 内置的 TokenJuice
(src/openhuman/tokenjuice/)会在这些文本进入
LLM 上下文前进行智能压缩。
以 git status 为例,原始输出
"On branch main\n\tmodified: src/lib.rs\n"
被压缩为 "M: src/lib.rs"。
项目报告压缩率可达 80%,
直接降低了 API 费用和响应延迟。
规则按三层覆盖加载:内置规则 -> 用户自定义
~/.config/tokenjuice/rules/ -> 项目本地
.tokenjuice/rules/。
Subconscious:后台思考引擎
当用户离开后,Subconscious 模块
(src/openhuman/subconscious/)继续在后台运行:
分析新同步的数据、执行反思(reflection)、
生成情境报告。这意味着再次打开电脑后,AI 已经看过了
你新收到的邮件,并准备好了相关的上下文。
立即落地的场景与更广阔的想象空间
个人可直接上手的场景
对于个人用户,最直接的收益是一站式接入。 不再需要在不同平台间切换去查邮件、查项目进度、查日历, 对一个 AI 说话就能覆盖这些场景。 结合 TokenJuice 和统一订阅(不需要为每个模型单独买 API Key), 日常使用成本可控。
团队协作场景
团队可以将 OpenHuman 作为共享知识代理, 连入团队共享的 Slack、Notion、Linear, 自动汇总每日进展。Meet Agent 功能也适用于团队例会自动记录。
更长远的可能性
OpenHuman 的架构允许它向「持续运行的 AI 同事」演化。 Memory Tree + Subconscious 的组合已经接近 「AI 在你离开后还在思考」的状态。 结合桌面吉祥物(内置在 Remotion 渲染引擎中的动画系统), OpenHuman 可能是通往更具人格化、具身化 AI 形态的早期路径。
不过需要注意的是,OpenHuman 目前仍处于 Early Beta 阶段, 部分功能(如 Meet Agent 的脑循环)还在建设中。 隐私方面,数据本地优先存储在 SQLite 中, 但也通过后端代理访问 Composio 集成, 整体隐私模型在 README 中有透明披露。
夜雨聆风