乐于分享
好东西不私藏

OpenClaw 记忆集成 Honcho 实战:本地部署、踩坑、端到端验证,以及 vs. Cognee 对比

OpenClaw 记忆集成 Honcho 实战:本地部署、踩坑、端到端验证,以及 vs. Cognee 对比

给 OpenClaw 接上 Honcho 做长期记忆:本地 Docker 部署、1536 维强约束踩坑、embedding MRL 截断补丁、端到端验证;顺带对比 Honcho 与 Cognee 的定位差异。

本机给 vs-openclaw-mgr agent 接一套 Honcho 做长期记忆。目标是 只给当前这台机器的 OCPlatform 实例用,不影响其它集群节点。整个过程遇到了一个不算小的坑(embedding 维度),最后靠给 Honcho 源码打补丁解决。

我是 AI灵感闪现,使用 OpenClaw 小龙虾 让 AI 自主管理工作和生活上的问题;使用 Claude Code + BMAD AI 驱动敏捷开发框架,让 AI 自主开发和交付软件来表达想法和灵感。是 MoneyMind 省钱思维 App 和 HeartPetBond 心宠纽带 App 开发者。正在实践和分享让 AI 自主解决健康、生活、投资和等方面的问题。我尽可能让 AI 自己完成从目标到交付以及演进的闭环,以最少的人为交互与监督,让 AI 自己跑流程。我只给 AI 想法或目标,全程不陪跑,让 AI 自主运行类似 Tesla FSD 自动驾驶。


0. 为什么是 Honcho?

Honcho 是 Plastic Labs 开源的 “AI agent long-term memory” 服务,核心卖点不是”给你一个向量库”,而是:

  • 用 peer + session + message 三层抽象建模对话;
  • 内置 deriver 管道,从对话里自动抽 observations(”owner 说过 X”、”owner 纠正了 agent 的 Y”),维护一份 peer representation(你是谁、偏好什么、信什么);
  • 下次对话,agent 可以查这个 representation 做上下文注入。

与之对比,Cognee 更像”从一堆文档里建知识图谱”,偏客观知识;Honcho 偏人设建模。文末有详细对比。


1. 目标和约束

  • 只给本机实例用:不共享到其它 OpenClaw 节点
  • 本地 Docker 跑:减少对外部 SaaS 的依赖
  • 端口不撞车:本机 38830–38832
  • LLM 走 OpenRouter:复用已有 key,避免再跑本地大模型
  • Embedding 用 Qwen3-Embedding-8B:质量好、多语友好

2. 架构

OpenClaw agent       │ (agent_end hook)       ▼@honcho-ai/openclaw-honcho (plugin, kind=memory)       │ HTTP  http://127.0.0.1:38830       ▼Honcho API container ──► Deriver container       │                        │       ├────────────┬───────────┘       ▼            ▼  Postgres 15      Redis 8  + pgvector     (队列/缓存)  (38831)          (38832)(LLM + Embedding 都走 OpenRouter)

3. 端口规划

组件
容器内
宿主机
说明
API
8000
38830
REST API,plugin 连这个
PostgreSQL
5432
38831
本机 5432 已被系统 PG 占用,必须改
Redis
6379
38832
避开其它服务

预留 38830–38839 段给 Honcho 以后扩展。

4. 目录结构

~/Dockers/honcho/├── .env                    # 配置(含 OpenRouter key,勿提交)├── docker-compose.yml      # 本项目的 compose(自带)└── src/                    # git clone https://github.com/plastic-labs/honcho.git    ├── Dockerfile    └── src/                # Honcho Python 源码

选”从源码构建”而非 image: 直拉,有两个原因:

  1. Honcho 没有公开的稳定 docker image tag
  2. 后面要给源码打补丁(见第 6 节),本地构建最自然

5. .env 配置(关键段)

# ---- 基础 ----LOG_LEVEL=INFODB_CONNECTION_URI=postgresql+psycopg://postgres:postgres@database:5432/postgresAUTH_USE_AUTH=false# ---- LLM:全部走 OpenRouter ----LLM_OPENAI_API_KEY=sk-or-v1-...     # OpenRouter key (Honcho 内部用的 openai SDK 变量名)# Deriver 抽 observationsDERIVER_ENABLED=trueDERIVER_MODEL_CONFIG__TRANSPORT=openaiDERIVER_MODEL_CONFIG__MODEL=deepseek/deepseek-v3.2DERIVER_MODEL_CONFIG__OVERRIDES__BASE_URL=https://openrouter.ai/api/v1# Dialectic 各 level 都用同一个模型DIALECTIC_LEVELS__minimal__MODEL_CONFIG__TRANSPORT=openaiDIALECTIC_LEVELS__minimal__MODEL_CONFIG__MODEL=deepseek/deepseek-v3.2DIALECTIC_LEVELS__minimal__MODEL_CONFIG__OVERRIDES__BASE_URL=https://openrouter.ai/api/v1# ... low / medium / high / max 同构,全指 deepseek-v3.2# SummarySUMMARY_MODEL_CONFIG__TRANSPORT=openaiSUMMARY_MODEL_CONFIG__MODEL=deepseek/deepseek-v3.2SUMMARY_MODEL_CONFIG__OVERRIDES__BASE_URL=https://openrouter.ai/api/v1# ---- Embedding ----EMBED_MESSAGES=trueEMBEDDING_MODEL_CONFIG__TRANSPORT=openaiEMBEDDING_MODEL_CONFIG__MODEL=qwen/qwen3-embedding-8bEMBEDDING_MODEL_CONFIG__OVERRIDES__BASE_URL=https://openrouter.ai/api/v1# 不要设 EMBEDDING_VECTOR_DIMENSIONS —— 默认 1536 就是 Honcho 唯一支持值# ---- 关闭 Dream(先不开)----DREAM_ENABLED=false

选型理由

  • deepseek/deepseek-v3.2:支持 tool calling,价格友好,中文强
  • qwen/qwen3-embedding-8b:多语 embedding 首选,但需要处理维度(下面详解)
  • Dream 是 Honcho 的离线反思/整理流程,先跑起来再说

6. 坑点:Embedding 维度冲突

问题现象

容器刚起来:

api | ValueError: EMBEDDING.VECTOR_DIMENSIONS must remain 1536    | while pgvector is active or vector-store migration is incomplete

api 和 deriver 容器一起 crash-loop。

根因

Honcho 这边src/config.py 里硬约束

ifself.EMBEDDING.VECTOR_DIMENSIONS != 1536and (self.VECTOR_STORE.TYPE == "pgvector"ornotself.VECTOR_STORE.MIGRATED):raise ValueError("EMBEDDING.VECTOR_DIMENSIONS must remain 1536 while pgvector is "        + "active or vector-store migration is incomplete"    )

因为 Postgres schema 是 embedding VECTOR(1536) 硬编码。想换维度得换 vector store(LanceDB 等),或做 schema migration,成本高。

Qwen3-Embedding-8B 这边:原生输出 4096 维

两边对不上,死循环崩。

解法:MRL + dimensions 参数

Qwen3-Embedding 系列是 MRL(Matryoshka Representation Learning) 训练的 —— 前 N 维本身就是一个可用的”压缩版” embedding,质量几乎不降。可以安全截断到 512 / 1024 / 1536 / 2048 / 4096。

OpenAI embeddings API 标准化了这个接口:传 dimensions=1536,服务端返回截断+重归一化后的向量。OpenRouter 对 qwen/qwen3-embedding-8b 也遵循此协议(我事先 curl 验证过,返回确实是 1536 维)。

Honcho 代码缺失

Honcho 的 openai transport 路径(src/embedding_client.py)调用 embeddings.create() 时只传 model 和 input,没传 dimensions。它假设 “openai transport 的模型都原生 1536 维”(对 text-embedding-3-small 成立,但对第三方模型不够通用)。

补丁(3 处)

# src/embedding_client.py# 位置 1(单条 embed)response = awaitself.client.embeddings.create(    model=self.model, input=query, dimensions=self.vector_dimensions,)# 位置 2(simple_batch_embed)response = awaitself.client.embeddings.create(input=batch,    model=self.model,    dimensions=self.vector_dimensions,)# 位置 3(batch_embed_chunks)response = awaitself.client.embeddings.create(    model=self.model, input=[item.text for item in batch],    dimensions=self.vector_dimensions,)

然后 .env 里 EMBEDDING_VECTOR_DIMENSIONS保持默认 1536(或干脆不写)。

补丁性质提醒

  • 改的是 Docker 镜像里打包进去的 src/ 源码
  • docker compose build [--no-cache] 会重新打镜像、带上补丁
  • 如果将来 cd src && git pull 覆盖了这三行,需要重新打补丁
  • 长期想稳:fork 一份 Honcho,或维护本地 patch 文件

7. 启动

cd ~/Dockers/honchodocker compose up -d --build

构建会久一点(~5 分钟,Python 依赖多)。起来后:

docker ps --format 'table {{.Names}}\t{{.Status}}'# honcho-api-1        Up# honcho-deriver-1    Up# honcho-database-1   Up (healthy)# honcho-redis-1      Up (healthy)

验证 API:

curl -sS http://127.0.0.1:38830/openapi.json | jq '.paths | keys[:5]'# [#   "/v3/workspaces",#   "/v3/workspaces/list",#   ...# ]

(注意是 /v3/,不是 /v1/。)

创建 workspace:

curl -sS -X POST http://127.0.0.1:38830/v3/workspaces \  -H "Content-Type: application/json" \  -d '{"id":"ocp-local-vs"}'

8. OpenClaw plugin 配置

openclaw plugins install @honcho-ai/openclaw-honcho

安装完 plugin 自动:

  • 加到 plugins.load 列表
  • memory slot 自动指向 openclaw-honcho(说明它”接管了”memory 角色)

补 config 进 ~/.openclaw/openclaw.json

{"plugins":{"entries":{"openclaw-honcho":{"enabled":true,"config":{"baseUrl":"http://127.0.0.1:38830","workspaceId":"ocp-local-vs"}}}}}

自持部署不用 apiKey(Honcho .env 里 AUTH_USE_AUTH=false)。

重启 gateway 让 plugin 生效:

launchctl kickstart -k gui/$(id -u)/ai.openclaw.gateway

9. 端到端冒烟测试

plugin 挂了 agent_end hook —— gateway 重启后的每一条对话都会自动被捕获。随便聊几句后查 Honcho:

WS=ocp-local-vs# peerscurl -sS -X POST "http://127.0.0.1:38830/v3/workspaces/$WS/peers/list" \     -H "Content-Type: application/json" -d '{}' | jq '.items[].id'# "owner"# "agent-main"# "agent-vs-openclaw-mgr"# sessionscurl -sS -X POST "http://127.0.0.1:38830/v3/workspaces/$WS/sessions/list" \     -H "Content-Type: application/json" -d '{}' | jq '.items[].id'# "agent-vs-openclaw-mgr-memory-honcho-20260420-1-webchat"# 消息落库SID=agent-vs-openclaw-mgr-memory-honcho-20260420-1-webchatcurl -sS -X POST "http://127.0.0.1:38830/v3/workspaces/$WS/sessions/$SID/messages/list" \     -H "Content-Type: application/json" -d '{}' | jq '.total'# 4# 语义搜索curl -sS -X POST "http://127.0.0.1:38830/v3/workspaces/$WS/search" \     -H "Content-Type: application/json" \     -d '{"query":"embedding dimensions 1536"}' | jq '.[0].content[:80]'# "[Mon 2026-04-20 16:52 GMT+8] 已解决 embedding 维度冲突..."

Deriver 工作情况(docker logs honcho-deriver-1):

╭────── ⚡ PERFORMANCE - minimal_deriver_4_agent-vs-openclaw-mgr ──────╮│   Starting Message Id        3        ││   Ending Message Id          4        ││   Llm Call Duration          23492 ms ││   Total Processing Time      24913 ms ││   Observation Count          9        │╰────────────────────────────────────────╯

全链路贯通清单

组件
状态
OpenClaw → Honcho 写入
✅ 消息全落库
Peers / Sessions 自动创建
Embedding (Qwen3 → 1536 维)
✅ sync_vectors 周期性跑通
pgvector 存储
✅ 无维度报错
Deriver LLM (deepseek-v3.2)
✅ 抽出 9 / 19 个 observations
Workspace 语义搜索
✅ 命中相关消息

10. 隔离策略(只给本机用)

Honcho plugin 对每个 agent 自动生成 agent-{agentId} peer,对每个 OpenClaw session 自动生成一个 Honcho session。所以天然就是 agent 级隔离,不会串台。

集群维度怎么隔离?有两层选择:

  1. 一机一套 Honcho(当前做法):物理隔离,最干净
  2. 单实例多 workspace:给不同机器用不同 workspaceId(Honcho 以 workspace 为隔离边界)

目前选 1,简单可靠,不占带宽。


11. Honcho vs. Cognee 对比

功能定位

维度
Cognee Honcho
核心抽象
知识图谱 (KG)
人设 / 关系模型 (peer representation)
存储模型
entities + relations + DataPoints
peers + sessions + messages + observations
数据基座
Neo4j/Kuzu graph + LanceDB vector
PostgreSQL + pgvector + Redis
在回答什么问题
“跟 X 有关的事实、实体、关系”
“这个用户是谁、偏好什么、信什么”
Deriver 做什么
抽 entities 和 relations,建图
抽 observations,更新 peer 心智模型
隔离粒度
dataset 级
workspace / peer / session 三层

一句话:Cognee 记”世界”,Honcho 记”人”

本机实测对比

操作
Cognee(本地 ollama)
Honcho(OpenRouter)
单条消息写入 ack
几百 ms
几十 ms
Deriver 处理一条消息
批次 200 DataPoint 要 **10 分钟**(gemma4:9b)
20–30 秒/消息
语义搜索
依赖 LLM 路由,并发易拖死 ollama
pgvector ANN + 可选 rerank,百毫秒级
Embedding
本地 qwen3-embedding-8b 25 GB VRAM
OpenRouter 远程,~几百 ms/次
稳定性
⚠️ 31B 会把 ollama runner 死锁;9B 够用但吃内存
✅ Docker 全部本地,LLM 远程

资源占用

  • Cognee 全家桶(LLM 本地):gemma4:9b 13 GB + qwen3-embedding-8b 25 GB + 图数据库 + 向量库 ≈ 40 GB 常驻内存
  • Honcho 全家桶(LLM 远程):api + deriver + postgres + redis ≈ 1.5 GB 内存

主要痛点

Cognee
Honcho
痛点
本地 LLM 长尾把 ollama 玩死;ERRORED dataset 恢复麻烦
pgvector 硬绑 1536 维,第三方 embedding 要打补丁
恢复成本
高(删 cache、重 cognify)
低(docker compose up 即可,状态都在 Postgres)

场景建议

  • 全局知识搜索 / 跨 session 事实检索 → Cognee 更合适
  • agent 了解用户 / 长期陪伴 / 上下文注入 → Honcho 更合适
  • 能同时用吗? OpenClaw 的 memory slot 目前只能挂一个,但 plugin 机制允许扩展;也可以一个当主、另一个通过独立 plugin 写入

12. 运维备忘

  • 查消息:docker logs -f honcho-deriver-1 | grep PERFORMANCE
  • 查 queue:curl -sS http://127.0.0.1:38830/v3/workspaces/$WS/queue/status | jq
  • 完整重置:docker compose down -v → 清空 pg/redis volume → docker compose up -d --build
  • 升级 Honcho:cd src && git pull && docker compose build && docker compose up -d
    • ⚠️ 升级后检查 src/src/embedding_client.py 的三处 embeddings.create 调用是否还有 dimensions= 参数;没有就重新打补丁
  • 备份:主要是 pgdata volume;Postgres pg_dump 就能全备

13. 下一步

  •  观察 peer representation 的 build 速度和质量(deepseek-v3.2 够不够用)
  •  给其它 OpenClaw 节点按需复制这套配置
  •  把维度补丁推一个 PR 给上游(或本地维护 patch 文件)
  •  观察半个月后再决定 Dream 是否开启

核心经验

  1. 先验证 embedding 维度:拿到新模型先 curl 一把 dimensions=1536,确认服务端支持截断
  2. Honcho 默认只认 1536 维,别折腾 4096;MRL 截断几乎无损
  3. 跑源码别跑官方 image:便于打补丁、便于读源码排查
  4. 本地 Docker + 远程 LLM 是个甜蜜点:状态可控、算力外包、资源占用低
OpenClaw 小龙虾(点击跳转合集)
OpenClaw 2026.4.5 深度解读:从 Agent Runtime 走向多模态 Agent OS
ClawHub CLI 使用记录与实战指南
远程升级 OpenClaw:旧 MacBook Pro 实战记录
远程配置 OpenAI Codex CLI + OpenClaw 集成实录
把 Skill Vetter Guide 做成一个 Skill:从生成、发布到应用的一次完整实践
OpenClaw 安全必装 Skill Vetter 使用指南:给 OpenClaw 建立“先审后装”的第三方 Skill 安全流程
让 OpenClaw 自己配置 Ollama 本地模型:一次对话搞定 Gemma 4 31B
OpenClaw 定时任务通知推送到微信:多 Channel 环境下的 Delivery 配置实战
OpenClaw 能帮你做什么:自动将聊天记录总结生成 Memory 记忆文档
OpenClaw 生产力:你的数字工作与生活操作系统 — P.D.C.A.S 闭环实践
OpenClaw 能帮你做什么:自动解密 WeChat 微信聊天记录 & Markdown 导出文件
OpenClaw 能帮你做什么:自动分享工作区文件素材发布到微信公众号和博客网站
OpenClaw 工作和生活场景:管理日程、事件和提醒
OpenClaw 修复 macOS SSH 登录后中文显示乱码的排查与修复
OpenClaw 2026.4.2 架构收束 + 插件边界重划 + 安全补强 + 多渠道修复
OpenClaw 升级到 2026.4.2:踩坑与经验总结
用 OpenClaw 聊天自动完成 Excel 周报更新
OpenClaw 远程升级实录:通过 Tailscale + SSH 隧道升级 Mac Mini 节点
OpenClaw Exec Approval 全放行指南:4 次审批关掉审批的荒诞之旅
OpenClaw 本地升级记录:2026.3.28 → 2026.4.1(含 npm 安装中断修复)
让 OpenClaw 集群在非交互 SSH 下可直接运行:PATH 问题排查与统一修复
OpenClaw 2026.4.1-beta.1 逐项调研分析:14 项新特性、9 大修复与竞品对比
OpenClaw 2026.4.1 Stable 逐项调研:14 特性、30+ 修复与竞品全景
OpenClaw 工具完全指南
OpenClaw 斜杠命令完全指南
OpenClaw 共享使用 Claude Code Skills 指南
OpenClaw 接入 Claude 的三条路:哪条适合你?
国内 macOS 安装 OpenClaw 踩坑实录
OpenClaw 实战:通过 claude-cli 认证使用 Claude Opus 4.6 [1M]
OpenClaw v2026.3.28 深度分析:安全加固、插件审批、22+ Provider 生态
OpenClaw 多 Agent 分权 ≠ 用户隔离:一个危险的认知误区
OpenClaw 个人和企业权限控制深度解析:从 9 层安检到生产级安全加固
OpenClaw v2026.3.24 正式版:Teams SDK 迁移落地、安全沙箱修复、27 项 Bug 清零
OpenClaw 升级踩坑:插件挂了别慌,跑两遍 update 就好
OpenClaw 微信插件装好了没反应?四个坑踩完才知道
用 OpenClaw 管理多个 OpenClaw:一台机器控制所有实例
OpenClaw v2026.3.23:30 项修复,v2026.3.22 之后的社区驱动热修复
OpenClaw 升级踩坑实录:三个包管理器打架,回滚才是正道
再也不怕封号了:微信官方 OpenClaw 插件正式上线
OpenClaw 被 Anthropic 限流老是先 429?模型 fallback 别再这么排了
Discord 还是飞书?OpenClaw ACP 自主编程的平台选择与 YOLO 模式
让 AI 智能体住进微信:openclaw-wechat 企业微信渠道插件实战
一个机器人,多个 Agent:OpenClaw Discord 频道级路由配置
OpenClaw + 飞书 + Scrum:用 AI Agent 团队跑完整个敏捷研发闭环
CTO 视角:OpenClaw 企业级多项目 AI Agent 架构怎么搭
给 OpenClaw 接飞书机器人,三个坑让我查了一小时
QQ 小龙虾🦞:sliverp/qqbot 和 tencent-connect/openclaw-qqbot 到底选哪个
给 QQ 装个小龙虾🦞:官方openclaw-qqbot 实测,2条命令搞定,群聊踩坑记录
OpenClaw v2026.3.11: WebSocket 劫持已修复, Ollama 正式集成, 记忆搜索支持图片和音频
局域网两台电脑跑 OpenClaw,’Allow device to connect?’ 弹个没完?四条命令治好它
Windows 11 原生装 OpenClaw:PowerShell 一行搞定 QQ 机器人
macOS 原生装 OpenClaw:一条命令接上 QQ 机器人
用 Docker 装 OpenClaw:一条命令,三个坑,一个能用的 AI 智能体
OpenClaw Telegram Topics: 一个群组运行多条并行任务流
Claude Agent SDK 系列(点击跳转合集)
Claude Agent SDK 构建 AI Agent 实践:如何实现与上传文件的对话
Claude Agent SDK 构建 AI Agent 实践:服务端向 Claude Agent SDK 注入环境变量的实践
Claude Agent SDK + 微信小程序:AI Agent 项目实践复盘 2026-01-21
Claude Agent SDK + 微信小程序为个人打造 AI 分身:vs-ai-agents 项目技术实践复盘
BMAD AI 驱动敏捷开发系列(点击跳转合集
Claude Code + BMAD + CodeReview 全流程实战:从用户反馈到修复的 AI 辅助开发
BMAD v6.2.1:删掉的代码比写的多,这才是真正的大版本
BMAD Quick Dev + Bruno:AI 一句话生成 Git 友好的 Bruno API 文档
BMAD Quick Dev + Postman:AI 一句话生成可导入 Postman 的 API 文档
BMAD 6.2.0:推荐使用 bmad-product-brief-preview 基于 Prompt 的多 Agent 编排
如何用 BMAD Quick Dev 在 10 分钟内把客户的一句话需求变成完整的可行性评估
Claude Code + BMAD Quick Dev + YOLO:AI 自主修复缺陷的完整闭环实践
BMad v6.1.0 用统一的Skill技能架构替代了旧的工作流引擎
当 BMAD 开发工作流遇上 PPT 周报生成:BMAD Quick Dev 的边界拓展
Claude Code + BMAD + YOLO 模式:一个 Session 搞定全栈功能开发
BMad v6.0.4 + GDS v0.1.10:边缘用例猎手、多智能体测试和引擎知识库
BMAD v6.0.4:从 Beta 到正式版,两分钟搞定
BMAD v6.0.0-beta-8 安装实战:从零开始搭建你的 AI 开发团队
BMAD + Ralph 执行循环:Claude Code 的统一 AI 开发框架
BMAD 最佳实践:AI 驱动的敏捷开发指南
BMAD 突破性 AI 驱动敏捷开发框架:v6.0.0-alpha.23 升级体验:全新安装之旅
BMAD Method 入门指南:用 Quick Dev 工作流更快、更稳地交付
实战测评:用 Claude Code + BMAD + GLM-4.7 打造 HeartPetBond App (心宠纽带)
BMAD V6 安装配置完全指南:项目目录安装最佳实践
BMAD v6 安装更新:模块化 + AgentVibes “会说话”的开发体验
用 Claude Code + BMAD AI 驱动敏捷,把一个想法变成 省钱思维 (MoneyMind) App
AI 时代的”文档屎山”?BMAD、Spec-Kit、OpenSpec 等面向文档AI编程的利弊
在 Codex 里像 Claude Code 一样用 BMAD:把多角色 AI 团队装进你的仓库
BMAD 突破性 AI 驱动敏捷开发框架:深度解析 26 个代理、68 个工作流和 655 个文件
AI 自主开发 App 成功上架:历时 14 天审核,MoneyMind 省钱思维 App 今天发布了
MoneyMind 省钱思维 App 审核又被拒:粗心提交错误版本的惨痛教训
被苹果审核拒绝不要怕:这次用 Google Antigravity AI 快速修复 App Store 审核问题
Claude Code 自主开发 MoneyMind(省钱思维)iOS 应用送审 App Store
用 Claude Code + BMAD AI 驱动敏捷,把一个想法变成 省钱思维 (MoneyMind) App

全网首发?第一款 GLM 4.7 + Claude Code AI 自主开发的心宠纽带 App 首次通过 App Store 审核并上架发布

智谱 GLM 4.7 模型 AI 自主开发 HeartBetBond 心宠纽带 App,从想法到提交 App Store 仅用 12 天

实战测评:用 Claude Code + BMAD + GLM-4.7 打造 HeartPetBond App (心宠纽带)

加入 AI灵感闪现 微信群

长按下图二维码进入 AI灵感闪现 微信群

长按下图二维码添加微信好友 VibeSparking 加群

关注 AI灵感闪现 微信公众号