2026年的春天,一款名为OpenClaw(龙虾)的开源AI智能体,在科技圈掀起了一场风暴。这只“龙虾”不是传统意义上的动物,它只做一件事:在用户授权后直接操控你的电脑,移动鼠标、敲击键盘、收发邮件、整理文档、甚至对外付款。它像一个永远在线的数字员工替你跑腿干活。
然而,这只“龙虾”也引爆了一场前所未有的甩锅狂欢:当它删错了文件、转错了账、甚至被黑灰产利用参与网络攻击时,用户的第一个反应往往是——
“不是我干的,是它自己动的!”
这让人想起《非暴力沟通》第二章“回避责任”中那段振聋发聩的论述:“我们对自己的思想、情感和行动负有责任;可是,人们广泛使用‘不得不’这一短语。”
美国心理学家马歇尔·卢森堡更是一针见血:“一旦意识不到我们是自己的主人,我们就成了危险人物。”
在智能体AI元年的2026年,当AI从被动的生成式走向主动的智能体,当像OpenClaw这样的应用开始替我们动手时,一个更深层的危机正在浮现:我们正在把“甩锅”这门职场必修课,升级为一门全民参与的“技术甩锅学”。
一、习惯性“甩锅”的心理图谱:我们为什么总想找个“替罪羊”?
《回避责任》一文曾深刻剖析过职场甩锅的三大金句:“老板让我这么做的”、“我没办法”、“你让我好烦”,这三句话背后,其实是一个共同的心理机制:
当我们不愿意为自己的选择负责时,我们就把责任推给一个“更强大”或“更不可控”的外部力量。
法国哲学家萨特曾言:“一个人选择自己的行为,就等于选择了该行为带来的所有后果。”这句话揭示了责任的本质,它与选择是孪生兄弟。然而,我们的大脑天生抗拒这种关联;当事情不如意时,我们的第一反应往往是寻找肇事者而不是反思选择者。
心理学家将这种现象称为“基本归因错误”,我们倾向于将他人的行为归因于其性格而将自己的行为归因于外部环境,这种认知偏差在AI时代被无限放大。

当一款智能体应用失控时,用户的第一反应不再是“我为什么没有设置好权限限制”,而是“这个AI有问题”。我们把自己对这款工具的的选择全部打包,扔给一个它来承担。
法国作家阿尔贝·加缪曾写道:“人是一切责任的主人,也是一切责任的逃兵。”这句话在AI时代显得尤为犀利;我们拥有了比任何时代都强大的替罪羊,算法、模型、智能体;但我们越是用它们来逃避责任,就越会失去作为主人的资格。
职场建议一:当你又想对AI说“它让我……”的时候,试着换成“我选择……,因为我需要……”。 不是“它删了我的文件”,而是“我选择授予它文件访问权限,却没有设置足够的限制”。承认这一点你就从受害者变成了责任人。
二、从“代养分红”到“技术甩锅”:当责任被转嫁给无辜者
OpenClaw热潮中涌现的“代养分红”骗局,是“回避责任”的另一种变体;社交平台上出现大量“零成本躺赢”、“高分红”广告,诱导用户交出设备权限、付费加盟所谓的代养服务。
这些骗局的运作逻辑是:黑灰产团伙利用用户的设备从事批量注册账号、刷单、网络攻击等违法犯罪活动,而用户则被蒙在鼓里。一旦东窗事发,团伙可以轻松甩锅:“是用户自己授权的,我们只是帮忙安装。”而用户则要面对“为什么你的设备参与网络攻击”的质询。
这种“责任转嫁”的游戏,在智能体时代有了更隐蔽的玩法。日本生命起诉ChatGPT“无证执业”一案就是典型案例。一名保险受益人在咨询律师后不满答复,便将律师邮件复制粘贴到ChatGPT寻求法律建议,ChatGPT不仅声称律师判断不准确,还帮其起草诉讼动议、构建论点,甚至捏造了不存在的判例。该受益人随后解雇律师,自行向法院提交了44份由AI生成的文件,全部被法院驳回。日本生命保险公司为应对这些无依据诉讼,产生了约30万美元的律师费,现要求OpenAI赔偿1030万美元。
这起案件的关键不在于AI输出是否准确,而在于:用户是否在用“AI让我这么做的”来回避自己的判断责任?
美国作家詹姆斯·鲍德温曾警告:“不是所有面对的事情都能改变,但如果不面对,什么都不会改变。”这位受益人显然选择了“不面对”,他把自己的法律判断责任外包给了AI,然后说“是AI让我这么做的”。
职场建议二:把“我没办法”换成“我选择不思考,因为……”。 承认你选择不核实AI的输出、不质疑AI的建议,是因为你懒于思考或者太相信技术。承认这一点,你就从受害者变成了责任人,你可能会发现这种省事的代价远比你想的要高。
三、监管与法律的“堵漏”之战:让“甩锅”无处可逃
正是因为智能体时代暴露出的责任空缺风险,监管部门开始明确喊话:AI不能成为甩锅的借口。
2026年3月,工信部网络安全威胁和漏洞信息共享平台(NVDB)发布预警,将OpenClaw的安全使用建议归纳为“六要六不要”,明确要求用户不得将智能体实例暴露到互联网,这一举措的潜台词是:你不能再说我不知道这个工具有风险。
中国信息通信研究院院长余晓晖在博鳌亚洲论坛上直言:“国内可能低估了AI带来的安全挑战。以OpenClaw为代表的智能体应用,用户很少考虑开放权限后可能导致的无法控制的风险。”他的这番话,正是对“我没办法”式甩锅的直接回应。
而在司法领域,全国首例AI“幻觉”侵权案的判决,为“甩锅”划出了一条清晰的红线;2026年1月,杭州互联网法院审结该案,明确认定:AI不具有民事主体资格,不能独立作出具有法律意义的意思表示,这意味着无论AI做了什么,最终负责的都是那个部署它、使用它、控制它的人。
职场建议三:当你想用“AI让我这么做的”来甩锅时,记住法院的这句话:AI不是人,它不会替你负责。 那个握着鼠标、敲着键盘、点击“授权”按钮的人是你,在AI时代,我们需要思考的复杂问题之一就是:当技术越强大我们对自己的责任就应该越清醒。

四、从“甩锅者”到“主人”:一场意识的觉醒
《回避责任》一文的结尾写道:“当你真正成为自己的主人,你就不再是‘危险人物’,你会是一个清醒的、有力量的、有尊严的职场人。”在AI时代,这句话的涵义被无限放大。
2026年3月,中关村论坛年会专门设立“人工智能主题日”,围绕“AI开源前沿”等议题展开20余场论坛。论坛上,多位专家一致认为,人工智能正迎来继ChatGPT之后的全新范式变革,智能体AI成为技术发展和产业应用的核心方向。然而,专家们也反复强调一个共识:技术越智能,人类越需要清醒。
而在大洋彼岸,亚马逊起诉Perplexity AI代理的案件,同样触及了“责任归属”这一核心问题。Perplexity的Comet浏览器内置AI代理,可在用户授权下登录亚马逊账户、自动执行浏览比价购物等操作。亚马逊主张:即使用户授权,这种访问也超出了授权范围。
此案引发一个更深层的问题:当AI智能体在用户“授权”下行动,但行为超出了用户的预期或平台规则——谁该负责?用户?AI开发者?还是AI本身?
李宁教授总结道:“人们会不自觉地为AI输出赋予意义……从心理学角度讲,这是一种典型的‘证实偏差’:当你已经相信某种说法时,就会更容易在信息中寻找能够支持它的证据。”这恰恰印证了《回避责任》一文的洞见:我们总是急于找一个人来“负责”,哪怕这个“人”只是个AI。
职场建议四:每天做一次“选择练习”。 拿出一张纸,写下所有你觉得“AI让我不得不做”的事情。然后,在每个前面加上“我选择做”。再然后,写下你为什么选择做这件事:为了效率?为了省事?为了跟上潮流?为了面子?当你开始承认“这是我选的”,你的心态会发生微妙的变化;当你清楚自己为什么选,你就知道什么时候可以不再选。
五、结语:你的遥控器,在谁手里?
《回避责任》一文中有一个经典比喻:那些习惯说“老板让我做的”的人,他们的“遥控器”在别人手里。
在AI时代,这个比喻需要被重新书写:那些习惯说“它让我做的”的人,他们的遥控器在AI手里。
思想家卢梭曾写道:“自以为是一切的主人的人,其实更可能是一切的奴隶。”AI时代的我们,拥有比任何时代都强大的“替罪羊”,但恰恰因此,我们更需要直面一个简单的事实:
AI不会替你负责,它不能,它不该,它不配。
因为责任,从来只属于那个握着鼠标、敲着键盘、点击“授权”按钮的人。你可以选择用智能体,也可以选择不用;你可以选择设置权限限制,也可以选择不设;你可以选择相信“代养分红”的骗局,也可以选择警惕。
每一个选择都是你的,每一个后果也都是你的。
在智能体时代,这句话的涵义被无限放大;我们与AI,正在成为同一片大陆上的彼此依存。但大陆的根基,始终是人类自己的责任意识。任何把责任推给AI的行为,最终都会反噬我们自己。

下次,当你又想对AI说“它让我这么做的”的时候,试着停一下,深呼吸,然后问自己:“我是不是又在用‘不得不’当借口?”
然后,把“它让我做的”换成“我选择这样做,因为……”。哪怕你的理由是“因为我想省事”,承认它,你就拿回了遥控器的一点点控制权。
慢慢地,你会发现,你不是那个被AI牵着鼻子走的“工具人”,你是那个握着方向盘的人。你可以选择向左,也可以选择向右。你可以选择让AI帮你干活,也可以选择关掉它。
你是自己的主人。
而当你真正成为自己的主人,你就不再是“危险人物”;你会是一个清醒的、有力量的、有尊严的数字时代公民,你不再甩锅给AI,因为你清楚:
你的生活,你负责。你的AI,也是。
夜雨聆风