乐于分享
好东西不私藏

有人给 OpenClaw 装上了耳朵——开源项目 TryclawChat 介绍

有人给 OpenClaw 装上了耳朵——开源项目 TryclawChat 介绍

你有没有遇到过这种情况——开车的时候,脑子里突然冒出一个问题,想问问 AI,但双手不能离开方向盘;做饭的时候,想让 AI 帮你查一个食谱,结果锅里的油快溅出来了;带娃散步,一手推车一手拿手机,打字根本来不及……你想要的,不是一个聊天框,而是一个能听懂你说话的搭档。这个开源项目,就是来解决这个问题的。它叫 TryclawChat一句话介绍:一个跑在浏览器里的语音 AI 对话客户端,让你对着麦克风说话,AI 用语音回答你。听起来好像没什么了不起?你先别急,听我说说它的几个细节。第一个细节:说"嗨川川"就能唤醒不用按任何按钮。你只需要说出唤醒词——"嗨川川"——然后 AI 就开始听你说话了。说完之后,说"我说好了",AI 自动停止录音,开始处理,然后用语音回答你。全程双手空着。这个唤醒词是作者专门用 Picovoice 训练的中文唤醒模型,分了桌面版和手机版两个版本,识别准确率相当高。当然如果你不想用唤醒词,也可以按住说话(Push-to-Talk),或者直接打字——三种模式随意切换。第二个细节:它认识你所有的 AI 助理TryclawChat 背后连接的是 OpenClaw Gateway。如果你在 OpenClaw 里配置了多个 AI 助理——比如一个专门帮你写代码的、一个帮你查资料的、一个日常聊天的——TryclawChat 可以直接切换,一个界面搞定所有人。更厉害的是:你用语音聊的内容,和你在飞书/Telegram 里打字聊的内容,是同一套记忆和上下文。你跟 AI 说了"帮我记住我今天要做三件事",然后打开飞书,AI 还记得这三件事。语音和文字,无缝衔接。第三个细节:TTS 用的是微软的神经网络声音,而且完全免费AI 回复你的时候,不是那种机器感很强的合成声,而是微软 Edge TTS 的神经网络声音——60多个声音可选,中文效果相当自然。最关键的是:完全免费,不需要任何 API 密钥而且它足够聪明——在把文字转成语音之前,会自动把 emoji、markdown 格式、代码块、网址这些东西全部清理掉,你听到的就是干净的自然语言,不会出现"星号星号加粗星号星号"这种尴尬情况。第四个细节:它的延迟真的很低语音识别用的是 Groq 的 Whisper API——这是目前公认速度最快的云端语音识别服务之一,延迟通常在 1 秒以内。整个链路:你说完 → 识别完 → AI 思考 → 边生成边播放语音不是等 AI 全部回复完才开始播放,而是"流式播放"——AI 说了前半句,你就能听到前半句了,体验上更像真人对话。怎么用?两行搞定

pip install tryclawchat

tryclawchat

打开浏览器访问 https://localhost:7860,按向导填入 OpenClaw Gateway 地址、Groq API Key,装完就能用。不需要搭服务器,不需要懂 Docker。它适合谁?✅ 适合:OpenClaw 用户、经常在走路开车做家务时想用 AI 的人、不想被键盘绑住的人❌ 不太适合:对稳定性要求极高的场景(Alpha 阶段)、需要完全离线的场景开源地址👉 github.com/kingsrui/tryclawchat项目还很早期,只有 8 个 Star,但 PRD 和架构文档写得相当认真,能看出作者是个对产品有想法的工程师。如果你也在用 OpenClaw,不妨试试——说不定,从今天起你的 AI 就不再只是手指尖上的工具,而是真正陪你说话的搭档。本文介绍的项目为开源社区项目。使用前请确认相关 API 服务条款。