OpenClaw通讯工具对话Token超长解决方案
问题:
The input (139612 tokens) is longer than the model's context length (131072 tokens).
解决方案,对话框输入:/new
开启新对话
问题原因:
这个错误提示表明,与 OpenClaw 在飞书上的对话历史(输入)已经达到了 139,612 个 tokens,超过了所使用模型 131,072 tokens 的上下文长度限制 。
简单来说,就是“聊天记录”太长,模型“记不住”了。需要开启新对话!
#OpenClaw通讯工具 #AI助手麻小虾 #飞书对话记录 #模型上下文长度限制 #如何处理超长对话
其它金额
赞赏金额
¥
最低赞赏 ¥0
1
2
3
4
5
6
7
8
9
0
.
四川,2小时前,
夜雨聆风