OpenClaw爆火:揭示技术发展与合规治理之间的永恒张力2026年全国两会期间,“新质生产力”“智能经济”“人工智能+”成为高频议题,政府工作报告明确提出“深化拓展‘人工智能+’,促进新一代智能终端和智能体加快推广”“完善人工智能治理”。而就在近日,一款开源AI智能体OpenClaw(“龙虾”)因其展现出从“对话交互”向“自主执行”跨越的技术趋势而席卷全网,但热闹之下也潜藏着技术狂飙与规则滞后之间的尖锐矛盾。在创新与风险并行的赛道上,如何平衡技术迭代与合规治理,如何划定安全边界、完善制度供给,是人工智能快速发展过程中亟待回答的时代命题。OpenClaw爆火背后,有AI焦虑的因素,但更多是技术演进与市场需求同频共振的必然结果。相较于ChatGPT等对话式AI较多依赖人工执行,OpenClaw实现了真正意义上的“数字助手”——通过本地部署与权限授权,它可自主完成文件处理、代码编写、邮件收发、跨软件协同等全流程操作,形成“指令理解—任务拆解—行动执行—结果反馈”的完整闭环。然而,在技术狂欢与政策扶持的氛围中,安全风险与治理短板已悄然显现。针对当下的问题,3月8日,工信部网络安全威胁和漏洞信息共享平台发布预警,国家互联网应急中心也于3月10日发布风险提示指出,这款具有高系统权限的AI智能体存在误操作删改数据、诱导密钥泄露、已公开高危漏洞可能导致系统被控等风险。业内以“权限夺舍”精准概括了其中的部分问题:用户在享受智能体高效服务的同时,极易在不经意间让渡系统控制权与数据所有权。据报道,谷歌已全面封禁员工调用自家AI服务,Meta也严禁员工在办公设备上使用OpenClaw。技术创新与合规治理的失衡,正是OpenClaw爆火暴露的核心命题。围绕此,两会期间不少代表委员都提出自己的观点。例如,全国政协委员、工信部原副部长王江平直言,当前AI治理面临的核心问题在于技术发展速度与制度更新节奏之间的错位。目前,全球AI治理理念呈现出“控制”与“发展”的二元对立,王江平认为,这种非此即彼的思维模式难以适配AI技术本身的复杂性和多面性。在他看来,应对这些挑战需要在治理理念、治理技术、治理制度三个层面同步推进,治理思路需要从传统的监管逻辑转向更加灵活的治理模式——“治理不是‘踩刹车’,而是‘设路标’和‘装护栏’,既要划定安全底线,也要为创新留出足够的试错和演进空间。”全国人大代表、中国工程院院士张伯礼则对此建议,要加快推动国家层面人工智能综合性立法,构建以相关法律为统领,部门规章、技术标准、伦理指南相互支撑的制度体系;针对使用人工智能的侵权行为,强化流程追溯,尽快出台认定标准和赔偿细则,凝聚社会共治合力。OpenClaw带来的“龙虾热”可谓是智能经济时代的一次预演,它给出预警——技术不应沦为失控的工具或短暂的流量玩具,其价值彰显需要治理、边界、制度靠前。需要加快完善治理体系、划定安全边界、强化技术自主,才能让智能体真正成为赋能千行百业、惠及民生大众的生产力工具,让技术创新在合规轨道上行稳致远,为智能经济新形态与新质生产力发展注入安全、持久、强劲的动力。大家都在看“中俄投赞成票,美国投反对票”美国经济再响风险“警报”关于减少内卷加班、“老房子”焕新…… 代表委员有话说→来源:金融时报客户端记者:宋珏遐编辑:刘能静邮箱:fnweb@126.com关注金融时报公众号 看更多独家新闻