从 0 开始用 OpenClaw,到现在 3 个月了。今天不吹不黑,说说真实踩过的坑,帮新手少走弯路。

最开始配置浏览器,老是报错,提示端口被占用。查了半天,发现是之前开的 Chrome 没关干净,后台有残留进程。
解决方法是先关闭所有 Chrome 进程,再重新启动。现在我养成习惯,每次用完检查浏览器状态,确保正常关闭。
教训:用完要正常关闭,别强制杀进程。
配完 OpenClaw,测试模型时报错,提示 API key 无效。我以为配了 OpenClaw 就万事大吉,结果发现 OpenClaw 只是框架,每个模型还要单独去官网申请 Key。
比如 DeepSeek、Kimi、GPT-4 都要各自申请,然后配置到环境变量里,最后重启 OpenClaw 才能生效。
教训:别漏了这步,不然模型调不通。建议先配一个模型跑通,再逐步添加其他模型。
装 skill 时经常报错,依赖装不上。特别是从 GitHub 安装的 skill,网络一不稳定就失败。
原因是国内访问 GitHub 慢,容易超时。我的解决方法是换国内镜像源,或者手动安装依赖,实在不行直接用本地 skill,跳过安装步骤。
教训:网络不好时,手动安装更稳。我现在会先把 skill 下载到本地,再手动配置。
第一个月下来,API 费用两百多,吓我一跳。特别是浏览器自动化,每次截图要一万 token,复杂任务动辄几万 token。
我算了笔账:每天抓取十个网页,一个月下来两百多。后来我的解决方法是简单任务用文本提取,别截图;换 pinchtab 工具,token 省十倍;用 DeepSeek 替代 GPT-4,价格便宜很多。
教训:注意成本控制,别盲目用 GPT-4。我现在会根据任务选择模型,简单任务用便宜的,复杂任务才用 GPT-4。
长链任务执行到一半中断,浏览器崩溃,登录状态丢失。特别是抓取大量数据时,跑到百分之八十断了,前功尽弃。
原因主要是网络不稳定、页面加载超时、反爬机制。我的解决方法是加容错机制,失败自动重试;数据及时保存,别等全抓完再存,抓一条存一条;大任务拆成小任务,分段执行。
教训:做好容错,别指望一次成功。我现在写任务都会加错误处理,失败自动重试。
从简单场景开始
别一上来就搞复杂任务。先试试简单的网页抓取、文件处理,跑通了再逐步加难度。
做好日志和容错
每次操作记日志,方便排查问题。关键步骤加容错,失败自动重试,别让用户等你。
注意成本控制
OpenClaw 本身免费,但模型调用要钱。合理选择模型,简单任务用便宜的,复杂任务才用贵的。
OpenClaw 确实强大,但也不是万能。关键是了解它的边界,知道什么场景适合,什么场景不适合。
这 3 个月下来,我最大的收获不是技术,而是学会了预期管理——不指望工具解决一切,而是让工具在合适的场景发挥价值。
希望我的踩坑记录能帮你少走弯路。
作者:小龙哥,AI工具探索者,专注研究自动化工作流和效率工具。欢迎交流!

夜雨聆风