乐于分享
好东西不私藏

OpenClaw 接入 Google Cloud Vertex AI 手记

OpenClaw 接入 Google Cloud Vertex AI 手记

一切的起因,源于我偶然读到了一篇极具诱惑力的文章(《谷歌AI Studio上线站内付费,新用户白送300美元》)。受此启发,我兴冲冲地去开通了 Google AI Studio,并在我的个人 AI 助手 OpenClaw 中配置了 API。

直到 3 月 11 日,我才如梦初醒地发现一个残酷的真相:Google Cloud 赠送的 300 美元额度,根本不能直接用于 Google AI Studio 的 Gemini API!而此时,我的“小龙虾”(OpenClaw)由于之前的频繁调试,已经白白烧掉了快 30 美金的调用费。

本着“一定要把这 300 刀白嫖额度赚回来”的朴素想法,我踏上了让 OpenClaw 接入 Google Cloud Vertex AI大模型(可扣除赠金)的漫漫征途。


📅 时间线:从“无效拉扯”到“深夜破局”

第一阶段:纯对话的无力感

最开始,我尝试纯靠和普通 Gemini 对话来解决配置问题。但面对复杂的配置环境和 OpenClaw 的代码逻辑,这种“动嘴不动手”的方式浪费了极大的时间和精力,始终在原地打转。

第二阶段:Agent 的“盲目自信”与 404 循环

随后,我启用了具备直接操作能力的 Agentic Coding 助手 Antigravity。本来以为有了“手”就能搞定,结果却陷入了另一种痛苦。

由于 Antigravity 只能看到服务“进程启动”的表象日志,它不断地修改补丁、重启服务,然后自信地告诉我:“已经搞定了”。但实际上,迎接我的永远是 404 Not Found

在 Region (区域) 设置陷入僵局时,我不得不命令它:

“就模型适用 region 的问题,你用浏览器到 google cloud 的网站上自己去查找答案”

这是整个过程中最令人沮丧的“暗坑”之一。 我们原本以为只要选对了类似 us-central1 这样的区域就能跑通,结果却是无止尽的 404。Antigravity 带着我尝试了几乎所有能查到的区域 ID,每一次重启都是满怀希望,每一次报错都是当头一棒。

第三阶段:被 Gemini 逼疯,Claude 救场

连续三个晚上奋战到凌晨 1 点多,Gemini 的反复“打空饷”和逻辑死循环几乎让我崩溃。就在我要被 Gemini 逼疯的时候,我转身去求助了 Claude。

事实证明,多模型交叉验证是极客的生存本能。Claude 给出了非常靠谱的建议,并直接甩出了一个关键的“抄作业”链接:openclaw-setup-guide[1]

第四阶段:给 Agent “抄作业”,绝地反击

我拿着 Claude 给的锦囊妙计,直接甩给了正在无效忙碌的 Antigravity。

这篇指南犹如醍醐灌顶!它指出,与其在 OpenClaw 内部那套年久失修的 Vertex AI 直连逻辑里死磕,不如用 LiteLLM 代理做中间件,将复杂的鉴权转换为标准的 OpenAI 协议。

Antigravity “看完”后立刻调转车头,安装 LiteLLM、编写 config.yaml、切换协议……一套连招下来,服务终于在凌晨 1 点深夜通电,稳得可怕!

第五阶段:破案了!消失的 Global Endpoint

在接近尾声时,为了接入最新的 gemini-3.1-pro-preview,我们又卡在了 Endpoint 设置上。之前的经验告诉我 Region 应该是具体的地理位置,但无论怎么试都不对。

转机出现在一次细致的“抓包”式搜索中。 我让 Antigravity 深入 Google Cloud Console,直接查看官方给出的 curl 调用示例。结果让我们大跌眼镜:示例代码中的 URL 路径竟然是 locations/global

原来,对于某些最新的预览模型,Vertex AI 要求使用 Global Endpoint 而不是具体的 Regional Endpoint。这个细节在很多第三方文档中都语焉不详,却成了压死骆驼的最后一根稻草。为了验证这个“global”设置,我们又搭进去了好几个小时的调试时间,反复对比 Regional 和 Global 模式下的响应差异。


📊 恐怖的 Token 消耗量化

为了打通这 300 刀的赠金,我付出了巨大的“算力成本”。整个过程中,AI 需要频繁读取上千行的源码、扫描数百行的报错日志、执行数十次 SSH 操作。

消耗情况估算:

高智商模型(Gemini Pro / Claude 3.5 Sonnet):我一晚上就把高精尖模型的配额全部烧光了,导致后期不得不靠 Gemini Flash 来垫场。累计 Token 数:整个马拉松式的调试过程,累计上下文输入输出绝对超过了 1000 万 Token。这个数字并非随口胡说,由于 Agent 在每一轮调试中都需要扫描上百个源码文件和厚重的报错日志,单次 Context 往往就在 100k 以上。在历经上百次的“尝试-失败-回退”循环后,千万级的 Token 消耗其实只是保守估计。账面成本换算:按照 Gemini 1.5 Pro 和 Claude 3.5 Sonnet 的平均服务价格(考虑输入输出比例),这三天的折腾如果按商用 API 计费,大约价值 $60 - $80 美金。虽然这笔钱没有直接从钱包掏出来,但它确实消耗了海量的云端算力。


🌟 避坑指南总结

1.别头铁死磕直连,拥抱协议转发 遇到复杂的企业级鉴权(GCP/Azure),千万不要尝试去修改 Agent 框架的底层 SDK,一律上 LiteLLM 代理。2.多模型交叉补位 当一个 AI 陷入逻辑死循环把你逼疯时,去问问另一个。Claude 的逻辑严谨性在关键时刻给出的那一个链接,就是“救命稻草”。3.Agent 需要“领路人” 即使是 Antigravity 这样强大的 Agent,如果主人的思路不对,它也只是在错误的道路上跑得更快。

结语

最终,在烧掉了大量 Token 和三个通宵后,我成功用上了那 300 刀体验金。虽然过程艰辛,但当看到 OpenClaw 流畅地调用着最顶尖的模型时,那种把技术彻底打穿的掌控感,让这一切的熬夜都变得值得。

References

[1] openclaw-setup-guide: https://github.com/danzam98/openclaw-setup-guide