🔥 花了一周踩坑:飞书+OpenClaw反复报LLM request rejected?
最近把KimiClaw迁移到本地部署的OpenClaw,遇到个巨坑:
飞书端发消息前几次必报错「LLM request rejected」,重试又好,过会又炸,折腾了整整一周终于搞定。
❌ 被报错坑惨了
飞书给的错误信息极具误导性:
LLM request rejected: We're unable to verify your membership benefits at this time.
我顺着这个方向把所有可能的原因都排查了一遍,全没问题:
• 大模型API配置/会员状态 ✅
• OpenClaw版本/Agent配置 ✅
• 飞书插件配置 ✅
直到发现WebUI/CLI模式下对话完全正常,只有飞书端报错,才反应过来方向错了。
🔍 最终根因
完全和大模型没关系,是旧飞书应用的「长连接状态脏了」:
• 旧应用长期调试积累了无效的事件订阅/权限配置残留
• 这些脏数据会在WebSocket握手时干扰通信,导致连接假死
• 所以OpenClaw侧完全没有日志,相当于请求根本没到服务端
• 首次失败触发OpenClaw自动重连,临时状态被重置才能正常通信
💡 解决方案
以下这些操作我都试过,完全没用:
• 重配置长连接模式
• 重新发布飞书应用
• 重新配置飞书channel
✅ 唯一有效方案:创建一个全新的飞书应用,替换旧应用重新接入OpenClaw,问题直接消失。
⚠️ 避坑指南
1. 别信飞书的报错字面意思,「LLM request rejected」只代表请求没通到OpenClaw,不是大模型的锅
2. 排查问题一定要给AI发最新日志,查日志命令:
3. 迁移/新部署OpenClaw服务时,直接用新的飞书应用对接,别用旧的,避免踩状态残留的坑
你们用OpenClaw对接飞书遇到过什么奇怪的问题?评论区聊聊~
#OpenClaw #openclaw #飞书 #小龙虾
其它金额
赞赏金额
¥
最低赞赏 ¥0
1
2
3
4
5
6
7
8
9
0
.
上海,2小时前,
夜雨聆风