OpenClaw创始人回应安全担忧:AI助手仍在持续改进中
自奥地利程序员Peter Steinberger去年11月推出OpenClaw人工智能助手以来,该软件迅速吸引全球用户。OpenClaw能够在电脑或智能手机上完成以往仅由人类完成的复杂任务,包括预订行程、筛选和回复邮件,以及分析产品目录并联系供应商。
技术优势与运作机制
OpenClaw为开源AI助手,用户可修改底层代码,增加新“技能”,实现个性化操作。它在本地处理设备数据,而非云端处理。OpenClaw可在WhatsApp、Telegram、WeChat、Discord、Slack和Signal等平台上运行,通过自然语言指令执行多步骤任务,记忆用户历史偏好,实现跨会话优化。

Steinberger最初以Clawdbot发布该项目,后短暂改名为Moltbot,最终定名OpenClaw。随着AI代理热潮,该项目成长为社区驱动的全球性开源平台,拥有数千名贡献者。Steinberger现已加入OpenAI,但OpenClaw仍独立运作。
网络安全与监管风险
安全专家警告,OpenClaw存在潜在风险,包括数据被盗和“prompt injection”攻击。黑客可为OpenClaw开发恶意技能,植入软件或收集用户及联系人信息。HiddenLayer Inc.安全研究总监Kasimir Schulz指出,OpenClaw访问私人数据并可进行外部通信,使其成为潜在网络攻击目标。
去中心化架构导致治理和责任问题。与受政府合规框架约束的闭源AI不同,OpenClaw缺乏中央监管机制。
创始人回应与行业动态
Steinberger表示,OpenClaw及安全机制仍在持续改进。他强调项目面向技术熟练用户,了解大模型风险。目前,AI代理市场迅速扩张,NanoClaw、Nanobot和NullClaw为轻量级应用,而OpenAI的Operator、Anthropic的Claude Code及Google的Project Mariner为闭源大型代理,用户无法修改代码。Amazon AWS Bedrock Agents等偏向企业应用,Humane和Rabbit等硬件设备亦嵌入AI助手。
夜雨聆风