休息够了,回了点血,我终于开始找工作了。
求职市场看起来欣欣向荣,常年挂榜招人。
真实情况我不了解因为我也刚开始刷新简历。
但是我发现很多公司开始要求求职者要懂openclaw、hermes工具。
不仅要懂部署,还要懂如何跟业务场景结合落地。

我看了很多的教程,把openclaw营销的神乎其神。
我是个带着悲观主义色彩看现实的人,所以我决然不会片面地偏听偏信。
当然我也非常认可OpenClaw 、Hermes,这些智能体确实代表了 Agent新质工具、新质生产力的发展方向。
对于我们产品从业者而言简直是巨大的利好!
秉持自己尝试过了才有话语权,我来聊一聊对于我而言它有什么作用,决然不是拿来写写文章、写写公众号这些作用。我更倾向于它在自动爬取数据、数据分析、反作用于业务层的价值。
例如电商方向很多人用OpenClaw 自己去抓取竞品价格。现实情况是现代网页充满了动态渲染、验证码和反爬机制。
OpenClaw 如果只靠基础的无头浏览器,大概率跑几天就会因为网站前端代码更新或触发风控而全面崩溃。
作为产品,再例如让 AI 直接批量重命名文件或自动发推文,在没有人的确认的情况下,一旦模型幻觉发作将会导致严重的数据混乱或公关灾难。
作为要掌控业务全局、从0到1孵化项目的产品负责人,咱们不需要让一个工具做所有事,而是需要建立一条工具链。
就拿产品人日常要做的【数据分析全流程】来做案例。

我们先来这样理解这三个工具的分工:
Hermes(大脑): 它是经过特殊训练的大模型,它的绝活是 Function Calling(函数调用)。它也许闲聊不如 GPT-4 幽默,但它非常清楚什么时候该调用什么工具。它是整个系统的指挥官。
Firecrawl(眼睛/收割机): 专门解决网页抓取脆弱问题。你给它一个网址,它能无视复杂的反爬和排版,强行把网页转化成极其干净的 Markdown 或结构化 JSON 数据,也就是大模型最爱吃的格式整理好。
github:https://www.firecrawl.dev/
OpenClaw(手脚/快递员): 它是执行层。
负责把 Firecrawl 抓来的数据存进本地电脑,或者负责对接飞书的 API,把报告发出去。
要实现全自动化,核心逻辑不是你手动在三个工具之间切换,而是以 OpenClaw 为中控台,通过 API 把 Hermes 和Firecrawl 变成它的插件(Tools/Skills)。
你只需要在 OpenClaw 的输入框里说一句话,它就会自动去调 Firecrawl 抓数据,传给 Hermes 分析,最后把结果存到你指定的位置。
第一步:获取三件套工具

第二步:部署流程
1. 部署大脑 (Hermes)
如果你想让数据保存在本地(符合你对隐私的要求),建议用 Ollama 跑。
安装 Ollama 软件。
打开电脑的终端(CMD 或 PowerShell),输入:
#
ollama run hermes3
2. 部署中控 (OpenClaw)
安装: 按照官网文档,Windows 用户直接下载 .exe 运行,或者用 Node.js 环境安装:
npm install -g openclaw。
启动: 终端输入 openclaw start。
连接大脑: 在浏览器打开 localhost:3000,在模型设置里选择 Provider: Ollama,模型按预算选择。
3. 配置技能 (Firecrawl)
这是实现自动化的关键。
OpenClaw 默认支持很多 Skill。
去 Firecrawl 官网注册后,你会得到一串 sk-xxxx 格式的 API Key。
在 OpenClaw 的控制台或配置文件 config.json 中,找到 Skills 模块,填入你的 Firecrawl Key。
梳理完要用到的工具链,接下来开干。
结合我经常需要做系统架构设计、数据分析,以及推动海外市场本土化和内部工具开发的实际场景,这里我设计两套可以直接落地的搭配方案。
场景一:竞品/海外市场本土化文档自动分析
假设我需要调研海外某几个 SaaS 产品的最新功能迭代,用来辅助产品部门接下来的产品规划。
核心配置:定义一个自动化 Task
在 OpenClaw 的工作流界面(或直接对话框),你可以这样预设一个场景:
#
场景名:海外竞品周报自动化
自动化脚本内容:
1. 调用 firecrawl_scrape:抓取 [https://www.......、https://www......、https://www......]
2. 将内容传给 hermes3:要求其识别过去 7 天内所有涉及“AI”或“Automations”的新功能。
3. 调用 file_system_write:在我的桌面创建一个Competitor_Report_May_2026.md文件。
4. 调用飞书CLI:创建多维表格,将Competitor_Report_May_2026.md转化为格式化数据填入多维表格,并且通过飞书机器人bot(命名为:海外竞品调研小助手)将文件摘要推送到 AI产品部门群。
实际操作时的对话逻辑:
你只需要输入:
#
执行‘海外XX竞品周报自动化’任务,并帮我额外留意关于价格变动的信息。
后台会发生什么?
OpenClaw 接收指令,拆解任务。
OpenClaw 自动发请求给 Firecrawl 节点。
Firecrawl 返回干净的 Markdown 文本给 OpenClaw。
OpenClaw 带着这些文本和你的要求,去问 Hermes:帮我总结并对比价格。
Hermes 返回结构化的报告。
OpenClaw 调用本地权限,直接在你电脑上“啪”地生成一个文件,并顺手创建多维表格数据入库且飞书机器人自动发了个飞书群消息。
小白操作步骤:
调用 Firecrawl 抓取:不要让 OpenClaw 直接去读网页。你可以在 OpenClaw 中写一个指令,让它通过 API 调用 Firecrawl。
给大脑(Hermes)的提示词:
#
调用 Firecrawl 工具,抓取 【海外竞品XXX更新日志的网址】 的全部内容,提取所有的 /api/crawl 终点数据。
大脑清洗数据:Firecrawl 会把那个网页变成纯净的 Markdown 文本传回来。这时 Hermes 大脑会快速阅读。
你只需给Hermes预设指令:
#
将抓取到的 Markdown 数据提取为表格,列出:新增功能、优化点、本土化策略。
OpenClaw 执行分发:
分析完成后,让 OpenClaw 执行最后一步:“将上述生成的数据创建多维表格进行存储,并且提取关键内容通过飞书的群机器人 Bot发送到产品部门工作群。openclaw连接飞书CLI,飞书已提供CLI,可自动创建飞书多维表格,数据入库,并且自动创建机器人,机器人自动将消息推送给指定飞书群。
飞书CLI参考我之前写的这篇:
当然过程中,存在着数据问题or推送的排版问题,都需要根据业务实际需求来调整工具链和提示词。
这里就体现出了专业的人做专业的事的重要性。
场景二:为【HR简历筛选系统】抓取并生成测试数据集(很多测试场景都可以举一反三)
比如开发的AI HR 简历筛选系统,需要大量的真实招聘 JD(职位描述)或简历格式化数据来做系统测试和架构验证。手动编造数据太慢,爬取又太麻烦。
小白操作步骤:
1、设定抓取目标:
告诉 OpenClaw:
#
使用 Firecrawl 遍历(/api/map 功能)某知名招聘网站的‘AI工程师’分类下的前10个链接。
2、结构化提取:
获取到内容后,让 Hermes 进行深度结构化:
#
从这杂乱的网页文本中,提取出:岗位名称、核心技能要求、经验年限、薪资范围,并严格按照 JSON 格式输出。
3、飞书流转与协同:让 OpenClaw 执行调用飞书CLI
#
在飞书新建一个名为
HR_System_Test_Data.json 的多维表格,把数据准确无误写进去。
4、进阶联动:填入飞书的干净数据,可以直接通过脚本导入数据库,也可以直接通过 Claude Code的方式直接让AI帮你在读取这个 JSON 文件跑通测试,整个闭环就打通了。
当然过程中可能会遇到各种各样的问题,但无非都是可以借助工具做数据清洗、降噪、统一格式管理,这部分的数据也同样可以沉淀下来作为训练AI识别和提取岗位JD准确性和优秀人才画像的方式。
每一个环节都需要有专业的产品介入,技术人员只是执行层,产品的设计成什么样、AI识别的准确性要达到什么程度、AI出现幻觉后又要如何进行约束和校验,这些都需要专业的AI产品来判断和解决。
就说不管你是不是技术出身,都不用被技术名词吓到,把它们当成你手下不同职能的实习生去差遣就好。
祝你、祝我,笑逐颜开、逐日精进!

分享、在看与点赞,我都值得都拥有哇!
长
按
关
注
一路同行
ID :minerhaoxue—C
一起寻找生命中的光.....

夜雨聆风