
先说一句让很多人不舒服的实话:大多数安装了OpenClaw的人,其实并没有在用它,他们只是在用一个装了更多插件的聊天机器人。再进一步说,单独只安装一个OpenClaw ,不安装 Skills 就好像安装PS却没有安装各种滤镜包,艺术笔触包之类的工具。只有一个基础的壳,巧妇有了烧饭的锅碗瓢盆,但没有米啊!
但用好 Skills 还有许多问题。今天我要说的是那些你不知道就会踩坑的事情:这些Skill的底层逻辑是什么、它们怎么联动、数据从哪里来、可靠性几何、普通人在什么认知前提下才能真正用好它们,以及在金融决策这件极高风险的事上,工具能做什么、不能做什么,边界在哪里。

先把概念搞清楚:Skill到底是什么东西
很多人看到"Skill"这个词,脑子里浮现的画面是游戏里的技能槽,或者手机里的App。这两个比喻都是错的,错误的比喻会导致错误的使用姿势。
一个更准确的比喻是这样的:想象你雇了一个全能助理,这个助理天生智商极高,但他来上班第一天什么都不知道——不知道你们公司的业务流程,不知道你的邮箱密码,不知道去哪里查到Wind的数据,也不知道你习惯用什么格式写报告。每次你让他做事,你都要先从头解释一遍背景。这很低效,对吧?
Skill解决的就是这个问题。它的本质是一份结构化的操作说明书,告诉AI助手"当你遇到X类型的任务时,应该按照Y流程,调用Z工具来完成"。这份说明书存放在本地的一个文件夹里(通常是~/.openclaw/workspace/skills/),每次你开始一个新对话,OpenClaw会自动读取这些说明书,然后在需要的时候按需调用。
所以技术上说,Skill是一个包含了SKILL.md(操作指南)和可能包含若干脚本文件(.py、.sh、.js)的文件夹。SKILL.md用自然语言告诉AI"这个工具能做什么、什么时候用、怎么用",而脚本文件则是AI在执行具体操作时真正运行的代码。
这里有一个关键的认知:AI本身不执行代码,它调用工具执行代码,然后读取结果。当你让OpenClaw用Stock-Watcher查一只股票的行情,发生的事情是:AI读取了Stock-Watcher的说明书,知道了"查股票要调用某个Python脚本,脚本会去同花顺的接口拉数据,把结果整理成表格返回",然后AI触发这个脚本,脚本跑完之后把结果返回给AI,AI再用自然语言给你呈现出来。
中间的数据管道,你看不见,但那才是真正决定结果质量的地方。(以下通过Agent Skill 和MCP Tool的对比,大致感受下Skill是什么东西:)


Skills之间的协作逻辑:
不是自动的,但可以被设计成自动的
这是很多人想错的第二个地方。他们以为装了几个Skill,这些Skill会自动协作,像一条流水线一样把任务完成。现实是:Skills默认是独立工作的,协作需要你来设计触发逻辑,或者通过prompt把它们串联起来。
但这里有一个好消息:OpenClaw的AI足够聪明,当你给出一个复杂任务时,它能够自己判断需要调用哪几个Skill,并且按照合理的顺序调用它们。这不是自动的,而是由你的指令驱动的。
举一个具体的例子,说明Skills如何在一个真实的金融分析任务里串联运作:
你想分析某个板块的投资机会,完整的工作流可能是这样的:首先,Tavily Search先出马,抓取最近两周内该板块的重大政策新闻和机构观点;与此同时,如果你配置了Wind数据库Skill,它会从Wind拉取该板块过去一个季度的财务数据和资金流向;然后,Summarize Skill把抓取到的多篇长文研报提炼成关键观点;接下来,Us Stock Analysis(如果你分析的是美股相关)或者你自建的A股分析Skill,用数据库里的数据跑选股筛选;最后,Office-Automation把整个分析过程整理成一份格式规范的报告,自动发到你的邮箱。

这整个流程,理论上可以用一条指令触发:"分析新能源板块的投资机会,搜索近期政策动态,结合Wind数据筛选基本面良好的个股,生成报告发给我。"
但这条指令能不能真的跑通,取决于几件事是否提前做好了:Tavily的API Key有没有配置、Wind数据库的连接参数有没有写入Skill、Office-Automation的邮件发送配置有没有设好。任何一个环节没配置好,整条链条就会断在那里。
这就是为什么很多人装了一堆Skill之后,觉得"没什么用"——他们跳过了配置这一步,以为装上就能用,就像买了一辆车但从来没有加油,然后抱怨车不会跑。
普通人上手的真实门槛:
没有你想象的那么高,也没有你想象的那么低
总体上一个有耐心的普通人是完全可以搞定的。
你需要具备的基本能力:
第一,会用命令行终端,至少到能复制粘贴命令、看得懂报错信息的程度。OpenClaw本身是命令行工具,装Skills也是在命令行里操作。如果你看到黑框框就慌了,需要先花两个小时适应一下。

第二,知道什么是API Key,知道去哪里申请,知道怎么安全存储。这里有一个很多新手踩的坑:API Key是敏感凭证,绝对不能硬编码写在Skill的配置文件里,更不能发到任何公开的地方。正确的做法是存放在系统的环境变量里(在.bashrc或.zshrc里用export命令设置),或者放在OpenClaw的配置文件里,让Skill通过读取环境变量来获取密钥。


第三,有基本的JSON和YAML格式阅读能力。Skills的配置文件通常是这两种格式,你不需要会写,但需要能看懂,知道哪个字段填什么。

第四,对你想分析的领域有基本的判断力。这一点最重要,放在最后说,因为它是最经常被忽视的。AI给出的分析输出,需要你自己有判断力来验证和筛选。不懂基本面分析的人,用AI生成的个股报告,容易把AI的自信措辞误认为是高置信度结论。
真正的门槛不是技术,是认知框架。
数据可靠性:这是最关键、最需要深挖的问题
这里必须说几件实在话,如果用小龙虾做炒股之类的金融操作,要谨慎为之,因为金融决策的数据可靠性直接关系到真实的钱。
Stock-Watcher的数据有几个值得注意的问题:
这个skill使用的是同花顺的数据接口,通过爬虫方式获取,数据有1-3分钟的延迟。对于日常观察来说这没问题,但如果你想用它来做日内交易决策,这个延迟是致命的——3分钟对于高波动的股票可能意味着几个点的偏差。

更重要的是,这类通过爬虫获取的数据,稳定性是不保证的。同花顺会不定期更新其网页结构和接口,导致爬虫失效。你某天可能发现Stock-Watcher突然拉不到数据了,原因不是OpenClaw出了问题,而是同花顺改了接口。遇到这种情况,你需要更新Skill或者等待社区更新。
Tavily Search的数据来源问题:
Tavily是一个专为AI设计的搜索引擎,它的优点是返回结构化的、适合AI处理的结果,而不是原始HTML。但它的数据来源是互联网,互联网上关于股票的信息质量参差不齐,充斥着大量的:付费软文、散户情绪帖子、基于过时数据的分析文章、故意误导的操盘报告。
AI在处理这些信息时,会根据内容的语气和结构给予一定的权重,但它没有能力判断信息来源是否可靠、作者是否有利益冲突。一篇写得很专业但实际上是某机构出货前的做多报告,和一篇真实的独立研究,在AI眼中的可信度差异很小。
这就引出了一个重要原则:用Tavily Search来获取信息时,你需要在prompt里明确告诉AI筛选标准,比如"只参考过去7天内的信息"、"重点参考券商研报和官方公告"、"忽略个人博客和股票论坛的内容"。没有这些约束,AI会对所有来源一视同仁。

Wind数据库连接Skill的数据质量:
Wind(万得)是中国金融数据、信息和软件服务的龙头企业。主要客户是证券公司、基金公司、保险公司、银行、私募基金、政府监管机构、高校研究所等。个人投资者较少直接使用,因其价格昂贵。
金融Skill里数据质量最高的一个,因为Wind的数据是付费的、经过专业整理的。但有一个前提:你需要有Wind的账号和API访问权限,这个费用对于个人投资者来说相当高昂(通常是机构订阅)。
如果你有Wind权限,自行设计连接Skill的价值非常高——你可以直接查询底层财务数据、资金流向数据、机构持仓数据,这些数据的质量和深度远超任何免费渠道。但如果你没有Wind账号,这个Skill对你来说是不可用的,不要因为它在报告里被提到就以为自己也能用。
Us Stock Analysis的数据来源:
这个Skill通常依赖几个免费的美股数据接口,比如Yahoo Finance的非官方API,或者Alpha Vantage(需要API Key,免费版有调用频次限制)。这些数据的质量对于基本面分析来说是够用的,但有一个隐患:Yahoo Finance的非官方接口会不定期挂掉,而且返回的财务数据可能存在报告期对齐的问题(不同数据源对于TTM、季度报、年报的定义可能不一致)。
在用这类Skill做估值分析时,关键财务指标——特别是PE、PB、ROE——一定要交叉验证,不要只看AI给出的单一数值。

如何与这些工具正确交互:
prompt设计才是真正的杠杆
安装Skills只是准备工作,真正决定你能从这些工具里获得多大价值的,是你如何向AI发出指令。这里有几个具体的、可以立刻用的原则:
原则一:指定数据来源,不要让AI自己选择。
坏的指令:"分析一下腾讯最近的基本面情况。"
好的指令:"使用Wind数据库查询腾讯(00700.HK)最近四个季度的营收、净利润、经营性现金流数据,同时使用Tavily Search搜索过去两周内机构对腾讯的评级变化,基于以上数据给出基本面分析摘要。"
区别在于:前者让AI自己决定去哪里找数据,AI可能会混合使用多个来源,你不知道最终数据从哪里来。后者明确指定了每种数据应该从哪个Skill获取,输出结果是可追溯的。
原则二:要求AI列出数据来源和置信度。
在任何分析型指令的末尾加上这句话:"请在分析结论的末尾注明每一项关键数据的来源和获取时间,对于无法确认来源的信息请明确标注'来源不确定'。"
这一句话会显著提高输出的可信度,因为它迫使AI对数据来源保持追踪,而不是把所有信息混合到一个看似权威的段落里。
原则三:把分析任务分解,逐步验证中间结果。
不要一次性让AI完成"从数据采集到最终建议"的全链条任务。正确的做法是分步骤:先让AI拉数据,你检查数据是否正确;再让AI做初步分析,你判断分析框架是否合理;最后才让AI生成结论。
这个方法慢一些,但它能帮你在早期发现数据层面的问题,而不是等到最终报告出来才发现某个关键数据拉错了。
原则四:给AI提供你自己的判断框架。
这是最容易被忽视、但效果最显著的技巧。与其让AI用它的默认框架分析问题,不如告诉AI你的框架是什么:
"我的选股标准是:ROE连续三年超过15%、负债率低于50%、近三年营收复合增速高于20%、当前PE低于行业平均的80%。请用这个框架筛选创业板的科技类个股,列出符合所有条件的公司及其对应数据。"
这样的指令能让AI做你真正需要的工作,而不是给你一堆你不知道怎么用的通用分析。
Self-Improving Skill:被低估的长期复利工具
对于一个长期使用OpenClaw的人,它的价值可能超过其他所有Skill的总和。原因很简单:它解决了一个根本性的效率损耗问题。
每个使用AI工具的人都有一个隐性成本:解释成本。你每次开始一个新对话,都要从头告诉AI你的背景、你的偏好、你之前遇到过的问题、你不喜欢哪种输出格式……这些重复的解释,每次可能只花几分钟,但累积起来是巨大的时间浪费,更糟糕的是它会让你懒得深入使用AI,因为"每次都要解释一遍"这件事本身就是一道心理摩擦力。
Self-Improving Skill把这些解释变成了持久记忆。你曾经指正过AI的错误、表达过的偏好、反馈过的问题——它都会记录下来,存在本地的~/self-improving/目录里,按照热记忆、温记忆、冷记忆分级管理。
但使用这个Skill有一个注意事项必须说清楚:它会在你的电脑上创建文件,可能会建议修改工作区的配置文件,并且它的"学习"是增量的,早期它记录的偏好可能是不够准确的,需要你主动纠正。
建议在开始用它的前两周,把它设置成"严格"模式——每次它想要添加一条新规则,都需要先问你确认。这样你能看到它在学什么,及时纠正方向。等它的记忆库经过校准之后,再改回自动学习模式。
这个工具的另一个隐患是数据安全:它的记忆文件里可能会无意间混入你在对话中提到的敏感信息——账号、密码、某些只有内部人员知道的市场情报。每隔几周检查一次~/self-improving/memory.md里的内容,是必要的习惯。
Agent Browser:最强大也最危险的Skill
Agent Browser在技术上是最令人兴奋的——它让AI可以直接操控一个真实的浏览器,点击按钮、填写表单、截图、抓取页面内容。这意味着对于没有API的网站,AI也能获取数据;意味着你可以让AI自动登录某些平台查询信息;意味着很多原来需要人工操作的数据获取流程可以被自动化。
但这里有几个你必须知道的风险:
第一,任何让AI操控浏览器的工具,都意味着AI有能力读取浏览器里的一切,包括你的登录态、Cookie、历史记录。这不是说OpenClaw会窃取你的数据,而是说你需要使用专用的、没有任何重要账号登录状态的浏览器实例来运行Agent Browser,不要用你日常使用的Chrome。

第二,自动化浏览器操作在很多网站的用户协议里是明确禁止的。如果你用Agent Browser自动抓取某些金融数据平台的内容,可能会触发反爬虫机制,导致你的账号被封禁。在用它抓取任何有价值内容之前,先想清楚这件事是否在对方的服务条款允许范围内。
第三,AI在操控浏览器时会产生真实的网络请求和操作记录,如果AI判断出错,它可能会点击你不希望点击的按钮——比如"确认购买"或者"提交订单"。对于任何涉及资金操作的场景,绝对不要让Agent Browser有相关的权限和账号访问。
值得额外关注的Skill配置:
几个报告没有深讲的实用细节
Tavily Search的正确使用姿势:
Tavily免费版每月有1000个API调用额度,对于日常使用来说基本够用。但有一点很多人不知道:Tavily有search_depth参数,可以设置为basic(快速搜索,消耗1个调用额度)或advanced(深度搜索,消耗2个调用额度,但结果更全面更深入)。对于重要的分析任务,应该在Skill的配置里把默认深度设为advanced;对于日常的快速查询,用basic节省额度。
Tavily的另一个有用功能是include_domains和exclude_domains参数——你可以指定只从特定的域名获取结果。比如,如果你只信任官方监管机构和几家主要券商的数据,可以在Skill里配置include_domains: ["csrc.gov.cn", "cninfo.com.cn", "eastmoney.com"],把结果限定在这些可信来源里。
Multi Search Engine vs. Tavily Search的选择逻辑:
这两个Skill看起来功能有重叠,但实际用途不同。Tavily返回的是结构化的、去除了HTML标签和广告的干净文本,适合直接作为AI分析的输入;Multi Search Engine返回的是更接近原始搜索结果的内容,信息量更大但噪音也更多。
实践原则:需要AI直接分析文本内容时用Tavily;需要先看看有什么相关内容、再决定深入哪些方向时用Multi Search Engine。把它们当作两种不同精度的探测器来用。
Office-Automation的邮件配置有一个容易忽视的安全问题:
配置邮件发送时,需要输入邮箱的授权码(不是登录密码,是专门生成的第三方应用授权码)。这个授权码一旦泄露,别人可以用你的邮箱名义发邮件。确保这个授权码只存放在本地的配置文件里,不出现在任何会被同步到云端的地方。另外,给OpenClaw配置一个专用的、只用于自动化任务的邮箱地址,而不是你的主要工作邮箱,是更安全的做法。

几个可能更值得普通投资者配置的Skill
还有几类Skill值得关注,但需要自行去ClawHub搜索或自建:
财报阅读自动化Skill。上市公司的年报、半年报动辄几十上百页,真正有价值的内容可能就集中在财务报表的几个关键科目和管理层讨论的几段话里。一个好的财报分析Skill,配合Summarize,可以让你在十分钟内提取出一份财报的核心信息——营收拆分、毛利率变化趋势、现金流质量、应收账款变化、管理层对于下一年的指引。
宏观经济指标跟踪Skill。对于A股投资者来说,PMI、社融数据、CPI、PPI这几个指标的发布节点,往往对市场短期走势有显著影响。一个配置好的Skill可以在这些数据发布当天自动抓取最新数值,与上期对比,生成简短的宏观经济变化摘要,发到你的邮件或微信。这不需要任何编程能力,只需要配置好Tavily Search和Office-Automation的联动触发逻辑。
个人持仓管理Skill。 Stock-Watcher只能管理自选股,不能管理你的真实持仓。一个更实用的持仓管理Skill,可以让你输入每个仓位的买入价和数量,每天早上自动计算浮盈浮亏,同时关联你的止损止盈条件——比如"某只股票跌破成本价的8%自动发警报"。这类Skill需要自建,但逻辑并不复杂,ClawHub上有类似的模板可以参考修改。

最重要的认知边界:
AI分析能给你什么,不能给你什么
这些Skills加在一起,能给你的是更快速、更全面的信息处理能力。一个量化分析师原本需要几个小时的数据拉取和初步分析工作,配置好的OpenClaw可能二十分钟内完成。这是真实的效率提升。
但有几件事,这些工具永远不能替代你:
第一,判断异常信号。 AI的分析基于规则和模式,它能识别历史数据里的规律,但它很难判断"这次情况不同寻常"。2020年3月的流动性危机、2015年A股的去杠杆冲击——这类事件打破了历史规律,而AI会用历史规律来解读当下。异常信号的识别需要人的情境理解和直觉,这是AI目前的真实局限。
第二,理解定性信息背后的真实含义。一家公司的管理层在业绩说明会上说"我们对未来充满信心"——这句话在文字层面是正面的,AI会倾向于给予正面权重。但一个有经验的投资者听到这句话,可能会同时想到"上一次他们说这话是什么时候,之后发生了什么"。这种跨时间、跨情境的怀疑性思维,AI还没有能力稳定复现。
第三,管理自己的情绪和执行力。 AI可以帮你分析到应该在某个价位止损,但没有办法帮你在真的跌到那个价位时,克服你内心"再等等看"的冲动真的按下卖出按钮。这是投资里最难的部分,任何工具都帮不上忙。
第四,承担决策责任。 AI的分析是参考意见,不是投资建议,更不是结果保证。任何一次买卖决策,责任都在你自己。当AI给出一个听起来很有道理的分析结论,你需要问自己:"我理解这个结论背后的逻辑吗?如果这个结论是错的,我知道是哪个假设出了问题吗?"如果这两个问题的答案都是否,那这份分析对你来说还不够用。
一句话总结这整套工具的使用哲学:Skills是放大镜,不是指南针。它能让你看得更清楚、看得更快,但它看的方向,需要你自己来决定。用好这个认知,你就不会高估它,也不会低估它,而是把它放在它真正能发挥作用的位置——帮你更高效地做更好的分析,而不是替你做你应该自己做的判断。
夜雨聆风