写后端、画架构图、搭前端页面、生成数据分析报告……这些事,我现在全在飞书对话框里完成。
从三条消息说起
早上 9:15,你在飞书里敲下第一条消息:
执行GCLI:用 Python + FastAPI 实现一个跨境电商多语言智能客服系统,支持自动语种检测、知识库检索和 REST API 接口。加上中文注释。
3 分钟后,一套完整的后端代码出现在聊天窗口。
中午 12:30,你发出第二条:
继续GCLI 1 在上次的基础上,帮我生成配套的 React 前端页面,包含对话气泡、语言切换按钮和深色模式。
前端代码也到手了。
下午 3:00,第三条:
执行GCLI:根据我们客服系统的架构,生成一份技术方案文档,包含系统架构图描述、API 清单和部署方案。
一份可以直接交给投资人的技术文档,推送到了你的屏幕上。
三条飞书消息,后端 + 前端 + 文档,全部搞定。
你没有打开 IDE,没有切换浏览器,甚至没有离开飞书。
这不是科幻电影的桥段。这是 OpenClaw + Google Gemini 正在发生的现实——一个把全球最强 AI 编程能力塞进聊天框的疯狂实验,而它真的跑通了。
两个名字,一个野心
Google Gemini CLI — 把顶级 AI 装进终端
2025 年,Google 做了一件大事:把 Gemini——这个驱动着 Google 搜索、Android 和 Cloud 的超级大模型——封装成了一个命令行工具。
npm install -g @google/gemini-cli
一行命令,Gemini 的全部能力就下沉到了你的终端里。代码生成、架构设计、文档撰写、Debug 分析……一切皆可通过一个 -p 参数搞定。
更关键的是,它支持会话记忆。上一次的对话上下文不会丢失,你可以随时接着上次的思路继续迭代——就像和一个永远在线的高级工程师结对编程。
OpenClaw — 企业级 AI 技能调度平台
如果说 Gemini CLI 是一把锋利的剑,那 OpenClaw 就是挥剑的手。
OpenClaw 的本质是一个AI 技能路由器:它常驻在你的服务器上,通过 WebSocket 长连接监听飞书消息,用自然语言理解你的意图,然后精准地调度对应的技能脚本去执行。
它不关心背后的 AI 是谁——今天是 Google Gemini,明天可以是 Claude、GPT,甚至是你自己部署的开源模型。OpenClaw 只做一件事:让你用一句话,撬动整个 AI 生态。
架构全景:一条消息的旅程

整条链路全自动、端到端,无需人工介入。
实现揭秘:50 行代码的优雅
整套 GCLI 技能的核心实现,加起来不到 50 行。这不是偷工减料,这是极简主义的胜利。
灵魂文件:SKILL.md
OpenClaw 用一种极其直觉的方式定义技能——用 Markdown 写一份"说明书",告诉 AI 中控在什么场景下该干什么:
name: gclidescription: "General Command Line Interface (GCLI)"# 当用户说 "执行GCLI" → 创建新任务exec: bash scripts/run_task.sh "用户的需求"# 当用户说 "列出GCLI" → 查看历史exec: bash scripts/list_sessions.sh# 当用户说 "继续GCLI 3" → 多轮迭代exec: bash scripts/resume_session.sh 3 "追加需求"# 当用户说 "删除GCLI 3" → 清理会话exec: bash scripts/delete_session.sh 3
没有 JSON Schema,没有 API 注册,没有 Webhook 配置。 一个 Markdown 文件,就是一个完整的技能声明。
执行引擎:四个 Bash 脚本
# run_task.sh — 新建任务(核心 3 行)gemini -p "$1"# list_sessions.sh — 列出会话(核心 1 行)gemini --list-sessions# resume_session.sh — 恢复上下文(核心 1 行)gemini -r "$1" -p "$2"# delete_session.sh — 删除会话(核心 1 行)gemini --delete-session "$1"
这就是全部。Google Gemini CLI 完成了最重的 AI 推理,OpenClaw 完成了最巧的消息路由,中间的 Bash 脚本只是一层薄薄的胶水。
好的架构,就应该让每一层都简单到无聊。
四大指令,玩转飞书 × Gemini
🆕 指令一:新建任务
执行GCLI:用 Python 实现一个跨境电商多语言智能客服系统原型,支持自动语种检测和 REST API。
📋 指令二:查看历史
列出GCLI
返回:
Available sessions (3): 1. 多语言智能客服原型 (2小时前) 2. 数据看板 API 设计 (昨天) 3. 竞品分析报告生成器 (3天前)
🔄 指令三:多轮迭代
继续GCLI 1 在上次的基础上,接入 OpenAI 的翻译 API 替换本地检测,并增加对话历史存储。
🗑️ 指令四:清理会话
删除GCLI 3
为什么这套方案值得关注?
🌊 趋势判断:AI 正在"下沉"
过去一年,AI 的战场已经从"谁的模型更大"转移到了"谁的工具链更顺滑"。Google 把 Gemini 做成了 CLI,这就是最强的信号——AI 正在从云端落地到每一个开发者的终端。
OpenClaw 做的事情,就是把这个"最后一公里"再缩短:从终端,直接缩进你的聊天框。
🧱 架构哲学:解耦即自由
整套系统中,飞书、OpenClaw、Gemini CLI 三者完全解耦:
想换 AI?改一行脚本, gemini换成claude即可想换 IM?OpenClaw 同样支持微信、Slack、Discord 想加功能?写一个新的 SKILL.md丢进文件夹就行
没有厂商锁定,没有平台绑架。你始终掌握着选择权。
⚡ 效率飞轮:聊天即生产
当代码生成的触发成本降低到"打一行字",你的工作节奏会发生质变:
开会时想到一个方案 → 当场在群里让 Gemini 出原型 复盘时发现一个 Bug → 直接让 Gemini 分析日志 写周报时需要数据 → 让 Gemini 跑一段分析脚本
思考和执行之间的延迟,被压缩到了接近零。
五分钟部署指南
环境准备
Windows 11 + WSL (Ubuntu) 或 Linux 服务器 Node.js 18+ OpenClaw 已部署并接入飞书频道
Step 1:安装 Google Gemini CLI
sudo npm install -g @google/gemini-cligemini # 首次运行完成 Google 账号授权
Step 2:创建技能骨架
mkdir -p ~/.openclaw/skills/gcli/scripts
Step 3:编写技能声明 & 脚本
将 SKILL.md(意图规则)和四个 Bash 脚本(执行逻辑)放入对应目录,赋予可执行权限。
Step 4:重启 OpenClaw 网关
tmux kill-session -t openclaw 2>/dev/null || truetmux new-session -d -s openclaw 'openclaw gateway run'
Step 5:飞书验证
执行GCLI:用中文向我介绍一下你自己
看到 Google Gemini 的自我介绍出现在飞书里,就说明一切就绪了。
写在最后
我们常常高估一项新技术的短期影响,却低估它的长期影响。
Google Gemini CLI 的发布,不只是多了一个命令行工具。它代表的是一种新范式:AI 能力正在变成和 git、npm 一样的基础设施,随取随用,融入到每一个工作流的毛细血管里。
而 OpenClaw 所做的,是把这种基础设施的调用入口,从冰冷的终端搬进了你每天都在用的聊天窗口。
技术的终极形态,是让人感受不到技术的存在。
当你在飞书里随手敲下"执行GCLI"的那一刻,背后是 Google 的万亿参数大模型在为你奔跑。而你需要做的,只是——
说出你的想法。
关注我,持续分享 AI 自动化工作流和效率工具的最新实践。
关注 「斌哥聊技术」,分享更多 AI 实践干货。
觉得有帮助的话,点个 「赞」 让更多人看到 👇
有技术问题欢迎留言交流,我们一起进步 💬
夜雨聆风