乐于分享
好东西不私藏

OpenClaw正式官宣:发布ClawSweeper 0.2.0版本!一文详解!

OpenClaw正式官宣:发布ClawSweeper 0.2.0版本!一文详解!

2026年5月4日,OpenClaw团队正式发布了ClawSweeper 0.2.0版本,标志着这个GitHub星标榜首的开源AI智能体项目,在代码维护自动化领域完成了从“局部扫描”到“全流程闭环”的关键跃迁。

新版本构建了一条完整的问题处理流水线:从问题工单出发,经修复与构建、受保护拉取请求、人工审核、问题修复、二次复核,最终实现自动合并。

||开源维护的“数字坟场”:积压问题究竟有多严重?

在ClawSweeper启动之前,OpenClaw项目已经积压了接近五千个Issue和四千多个Pull Request。重复的、过时的、早就在main分支修好了却没人关闭的、AI灌水产生的低质量内容——它们像数字坟场一样堆积在仓库里。任何人类维护者看一眼都会感到无力。

按传统的人工处理方式,清理这些积压的工作量大约需要一整年。这并非因为OpenClaw的维护团队不够勤奋,而是开源项目发展到一定体量后的普遍困境——贡献者提交的速度远远超过维护者处理的节奏。OpenClaw以超过36万星标超越React和Linux内核,成为GitHub星标榜首的开源项目。如此体量的项目,维护压力可想而知。

正是在这样的背景下,Peter Steinberger决定用AI来解决AI项目自身产生的“垃圾”。

||ClawSweeper的核心技术架构:双层工作流与高并发扫描

ClawSweeper的技术实现分为两个层层递进的流水线:审查流程和应用流程。

  • 审查流程以每小时为周期对所有开放的Issue和PR进行扫描。系统首先启动计划者模块,统一调度并将待审条目编号分配给各个分片。每个分片检出openclaw/openclaw的主分支,由Codex使用GPT‑5.5的高推理快速服务模式进行深度审查,每个条目最多耗时10分钟。整个扫描过程依托50个Codex实例实现7×24小时并行运行,这正是单日处理数千条目背后的吞吐量根基。

  • 审查环节最有价值的设计在于:Codex没有写权限。它在只读环境里遍历代码、理解上下文、做出判断,然后把结果整理成一份结构化的Markdown报告,存入items/<编号>.md文件中。这个设计确保了AI的“建议权”和“执行权”严格分离——高置信度的关闭建议在报告中标记为proposed_close,但真正的评论和关闭动作并不会在审查环节直接发生。

  • 应用流程则读取审查环节生成的报告,在存储的判断仍然有效时执行更新动作。具体包括:仅当审查结果明确且置信度足够高时才会关闭条目,关闭时会复用相同的评论以避免重复关闭,将已关闭的报告移动到closed/文件夹,还将因重新打开而回档的报告移回items/目录并标记为过时。应用流程默认仅关闭Issue,不设置年龄限制,每个检查点最多关闭50个条目。

  • 系统还设有精细的审查节奏:每小时审查最近有过活动的条目和过去7天内创建的条目,每天审查30天内没有活动的条目,每周审查更旧的条目。对于新的或活跃的条目,系统每5分钟就会即时处理一次。

||“极致保守”的关闭策略:确保99%以上的准确率

ClawSweeper最值得称道的不是它的效率,而是它的克制。

  • Steinberger对这套工具的设计哲学是“极致保守”。AI只有在以下七种情况明确无误时,才会建议关闭一条Issue:当前主分支上已实现、无法重现、更适合放在外部插件而非核心代码中、是重复的或被权威条目取代、有具体内容但在该仓库内不可执行、内容混乱无法采取行动、超过60天且缺乏足够验证数据的陈旧问题。

  • 此外还设有多重安全措施:维护者自己创建的条目永远不会被自动关闭——系统会先检查GitHub的身份标记,如果条目由项目主人、成员或协作者创建,就直接跳过。在决策的真实性方面,Steinberger亲自人工抽检了数百条关闭记录,结果准确率几乎无误。

  • 值得一提的是,ClawSweeper的保守特性还体现在时间调度上。整个系统并非实时运行,而是采用每周一次的批处理模式,这不仅大大降低了对外部API的调用压力,也给社区用户留出了充足的响应时间。

||README即仪表盘:摒弃传统静态后台的创新野心

  • ClawSweeper最令人印象深刻的设计,或许是它的监控系统。传统做法通常是搭建Grafana配上Prometheus,制作一套精美的可视化后台。但Steinberger的方案极为简约而富有想象力:README就是仪表盘。

  • ClawSweeper在运行过程中会实时更新仓库的README.md文件。当前有多少开放的Issue、本轮审查了多少条、提议关闭多少条、已执行关闭多少条、GitHub限流到了哪一步——全部以表格形式清晰呈现在README中。任何人打开GitHub仓库主页,就能第一时间看到这个AI判官此刻正在做什么。整个清理过程完全透明、完全公开、完全可审计。

任何对“AI擅自关我Issue”有疑虑的贡献者,都可以直接点进对应的items/<编号>.md文件,查看Codex给出的完整审查理由。这种将动态仪表盘与Markdown报告相结合的设计,从根本上解决了社区对AI决策的信任问题。

||当前瓶颈:API限流成为唯一性能天花板

两天搭建、不到一千美元成本、五十个Codex实例并行运行——这是ClawSweeper诞生的数据标签。单日自动关闭超过5000个无效GitHub Issue,数千个条目排队等待处理。按人工速度清完这些积压大概需要一整年,而被业界誉为“龙虾之父”的奥地利开发者Peter Steinberger用AI一天就清了一半。

然而唯一的性能瓶颈并不来自模型本身的智商,而是GitHub的API速率限制。当天处理数千条目后,系统的后续排队处理速度就受到了明显的API调用限制。当服务器的速度追不上AI,这本身就是一个极具时代感的注脚。

||生态纵览:从执行网关到共识底座

ClawSweeper并非凭空出现的孤立工具,而是OpenClaw宏大技术蓝图中的关键拼图。

OpenClaw(曾用名Clawdbot、Moltbot)是由奥地利开发者Peter Steinberger于2025年11月发起的开源AI智能体项目,采用MIT协议开源,支持macOS、Windows、Linux以及移动端操作系统。其核心理念是打破AI“能说不能做”的边界——让大语言模型从对话建议者升级为自主执行者。

技术架构方面,OpenClaw采用了分层解耦的设计。Channels层负责打通Facebook Messenger、Telegram、飞书、钉钉、Slack、Discord、微信等超过50种主流聊天平台,将它们统一封装为标准化的接口。Agents层是以异步任务队列为引擎的多智能体并行运行环境,包含会话管理、记忆存储、任务编排等核心模块。Tools & Plugins层则以200多个内置技能模块形成面向办公自动化、开发生命周期管理、数据分析、社交媒体运营等不同场景的工具链。

Gateway是整个OpenClaw系统的控制中枢,以WebSocket服务的形式运行在127.0.0.1:18789端口,负责会话维持、工具调度与消息路由。所有配置文件存储在~/.openclaw/workspace/目录中,以Markdown格式承载上下文信息,支持任意文本编辑器和Git版本管理,数据完全归用户所有。

||从ClawSweeper到ChatGPT入网:OpenClaw的生态加速

值得关注的是,就在ClawSweeper 0.2.0发布前夕,OpenAI的CEO Sam Altman在X平台公开宣布,ChatGPT账号可直接登录OpenClaw并使用订阅额度。

在此之前,用户需绑定OpenAI API Key才能调用GPT-4/5模型,而现在Plus和Pro订阅用户无需额外购买大量API Token,就能在OpenClaw中使用包括GPT‑5.5 Terminal-Bench 2.0在内的核心模型能力。

而这一次,AI使用AI管理AI的闭环已经形成。

||新的范式跃迁:从“人管AI”到“AI管AI”

回顾开源维护的历史,每一次效率飞跃都伴随着范式的根本性迁移。

开源项目维护长期面临一个尖锐矛盾:随着社区贡献者的指数级增长,Issues和PRs的数量呈现爆发式增长,而维护者的时间和精力却无法同步扩张。OpenClaw项目在启动ClawSweeper之前积压了近5000个Issues和4000多个PRs——这个数字足以让任何维护团队感到无力。正是这一结构性痛点催生了ClawSweeper的诞生。

开源社区正从一个“AI生产代码”的时代,进入一个“AI管理AI”的时代。

以前,维护者亲自照看代码仓库,永远跟不上AI的输出速度;而现在,AI扮演了管理另一个AI产出的角色,开源项目的维护成本不再是一个无解的问题,ClawSweeper 0.2.0版本以近乎完美的方式实现了这个理念。