OpenClaw降本方案
OpenClaw降本方案
这套 OpenClaw Skill 的核心思路,是用“调度员+执行员”模式来降低主模型消耗,同时缓解 Context 拥挤的问题。
具体做法是让 Gemini 或 Claude 继续负责调度和判断,再通过 /nim 技能,把长文本总结、基础解释等任务分流给 NVIDIA NIM 平台的免费模型。
这样主模型只保留关键指令和结果,上下文会干净很多。目前支持的模型别名包括 glm5、kimi-k2.5、llama-3.1、deepseek。安装后也可以直接输入 /nim list,查看当前支持的全部模型和别名。
实测在一个长文档分析任务里,原本大约需要消耗 5000 Tokens,分流后主模型只消耗了约 200 Tokens 指令,节省率超过 95%。
安装方式也比较直接:先到 build.nvidia.com 注册并生成以 nvapi- 开头的 API Key,再执行 clawhub install openclaw-nim-skill,最后配置环境变量即可。
开源地址是 https://github.com/d-wwei/openclaw-nim-skill,ClawHub 名称为 openclaw-nim-skill。
作者提示: 个人观点,仅供参考
浙江,1小时前,
夜雨聆风