乐于分享
好东西不私藏

关于OpenClaw的伦理性与安全性思考

关于OpenClaw的伦理性与安全性思考

今年三月份开篇OpenClaw就在全网爆火,随之而来的是AI生成短视频的爆火现象。养龙虾潮在三月初引起社会广泛关注后,官媒也发布了关于安全使用OpenClaw的风险提示。三月中,龙虾潮大幅褪去,从上门安装走向上门卸载。究其原因,是人们发现“龙虾”并没有给自己带来很大现实收益,现实是消耗巨额的Token却培养除了比以往文本交互AI更加笨拙的人工智能。龙虾现实的使用情况,也让很多观望的人对其祛魅。究其问题,我认为是OpenClaw带来的伦理性、安全性问题。

人工智能的伦理性一直以来都是AI发展的重要命题。在交互式人工智能下,AI工具更多成为人的拓展工具,可以认为是人的脑力延伸。那么其伦理性就仅与使用者本人密切相关,此时AI伦理性可以当做具体的人的伦理性的伸缩。规制了人的伦理边界,制定了人的伦理规范,大多数情况下就能规制AI工具的伦理性问题。但是,OpenClow这类自主性更强且全天候消耗电力维持运转的AI智能体容易将人的伦理性与智能体的伦理性分离,导致AI自主的行为突破人的伦理性的边界,引发社会伦理问题。而此时AI智能体自主产生的伦理行为是否能算作人的伦理延伸,就是需要探究的重要问题。

安全性也是众多观望者选择观望的重要一点,权限如果全部打开,龙虾也就不只是工具,而是成为人的默认交互下的自主智能体,你的命令很可能会产出与你的目的相悖的结果,由此引发系统性安全风险。在无专业知识储备下,面对龙虾带来的不确定性问题,建议慎重再慎重。

以上均为个人思考分析,不含任何现实指导意见,希望大家仔细甄别,独立思考。如有启发,可以留言讨论。