
深维AI团队 · 深度研究
深维AI团队2026年3月17日深度阅读 · 约5500字收藏后阅读效果更佳
2026年3月16日晚,脱口秀演员李诞和呼兰开了一场直播,聊起了最近让他们着迷的一件事——在飞书上"养龙虾"。
他们口中的"龙虾",正是眼下科技圈炙手可热的开源AI智能体OpenClaw。因其红色龙虾图标,被网友亲切地称为"龙虾",而李诞则把自己的使用经验总结为"三板斧"。
这场直播不仅揭开了OpenClaw的神秘面纱,更引发了关于AI智能体伦理边界的广泛讨论。本文将深度解析李诞的"养龙虾"哲学,以及OpenClaw背后的技术原理、应用场景与安全隐患。
本文核心观点
OpenClaw代表了一种全新的AI交互范式——从"对话框"到"自主代理"。李诞的"三板斧"方法论,本质上是在探索如何与AI建立"互动共生"的关系。但与此同时,其安全风险和伦理争议也不容忽视。
01

什么是OpenClaw?
OpenClaw(原名Clawdbot)是一款开源AI智能体框架,2025年11月推出后迅速风靡全球,GitHub Stars已达222k,登顶开源AI项目榜首。
它的核心定位是"个人AI操作系统",与ChatGPT等云端SaaS服务不同,OpenClaw将大模型推理能力下沉到用户私有硬件(如Mac Mini、树莓派、VPS),通过标准化协议连接飞书、Telegram、Discord等聊天平台。
核心功能特点
1
跨平台通信网关:支持飞书、Telegram、Discord、iMessage等十余种主流聊天工具,统一会话记忆,跨平台保持上下文连贯。2
主动提醒与定时任务:基于心跳机制和Cron任务,支持定时推送(如晨间简报、周报生成),可通过Webhook接收外部系统事件触发自动化流程。3
完整的系统与浏览器控制:具备Shell访问权限,可执行任意命令、管理文件、运行脚本;支持浏览器自动化,操控Chrome完成网页操作、数据抓取、表单填写。4
可扩展的技能系统:通过OpenClawHub社区市场安装数百种技能,AI可辅助生成新技能(用自然语言描述需求,自动生成脚本)。5
多Agent协作:可配置多个专用Agent(如代码专家、日程助手),协作处理复杂任务。
02

李诞的"三板斧"方法论
在3月16日的直播中,李诞将自己使用OpenClaw的经验总结为三个关键步骤,称为"三板斧"或"三部曲":
第一斧:给人设
给AI设定身份、性格、价值观,像带新员工一样明确它的角色。
李诞在底层文档中设定了"实事求是大于挣钱"的原则,使AI在回答广告合作问题时优先遵循这一原则,而非单纯追求商业利益。AI会通过互动不断学习、修正,形成稳定的行为风格。
人设设定的核心逻辑
人设不是简单的"你是一个助手",而是需要明确价值观优先级、行为边界、决策原则。这决定了AI在面对模糊指令时的"性格"表现。
第二斧:学技能
让AI掌握特定领域的专业能力,形成可复用的技能库。
A
生产力提升:AI可代劳写脚本、策划案等重复性工作,大幅提升效率(如10分钟生成三个段子版本)。B
深度学习:让AI将复杂概念转化为通俗易懂的内容,并通过结构化输出提升逻辑性。技能一旦学会即可复用。
第三斧:读上下文
为AI提供高质量的语料和数据,使其具备记忆力和背景理解能力。
在飞书平台中,AI可直接调用现有文档、消息、日程等信息,避免每次从零开始。这意味着AI能够基于完整的工作背景做出更准确的判断和回应。
李诞总结:"AI不仅是工具,更是'互动共生'的伙伴。关键不在于AI能做什么,而在于用户与AI共同成长的关系。"
03
李诞的使用场景与投入程度
据李诞自述,自2026年春节后,他每日投入超过10小时使用OpenClaw,形容自己"直接魔怔了"、"沉迷到离谱"。
具体使用场景
1
日常事务处理:将OpenClaw作为智能助手,处理工作和生活事务,"效率直接拉满"。2
内容创作辅助:10分钟生成三个段子版本,大幅提升创作效率。3
情感陪伴交流:"闭眼睡觉前最后一件事也是跟它唠嗑",“晚上做梦都在跟这个AI龙虾聊天"。
引发争议的"全自动社交"案例
李诞在直播中爆料,其朋友通过OpenClaw实现了全自动社交操作,目标为关注列表中的女主播:
💰
自动打赏:每日自动打赏,单笔金额不超过50元。💬
自动私信:打赏后立即发送预设话术的私信,内容为"加微信、约吃饭"。📅
自动预约:根据偏好自动选择餐厅并安排时间地点。
伦理争议
这一案例引发了关于AI自动化社交的伦理争议:支持者认为AI提升了效率、改变了生活方式;反对者质疑"套路式邀约"模糊了真诚互动的边界,可能涉及欺骗和骚扰。
04
安全风险与监管提示
OpenClaw的火爆背后,安全隐患同样不容忽视。2026年3月,工信部和国家互联网应急中心相继发布安全风险提示。
工信部安全风险提示(2026年3月13日)
工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)监测发现,OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险:
⚠️
信任边界模糊:具备自身持续运行、自主决策、调用系统和外部资源等特性,在缺乏有效约束时可能执行越权操作。⚠️
信息泄露风险:可能因指令诱导、配置缺陷或被恶意接管,导致系统密钥等敏感信息泄露。⚠️
系统受控风险:全球27万+实例暴露公网,面临模型幻觉、对抗攻击、隐私泄露等风险。
官方防范建议
1
使用官方最新版本:开启自动更新提醒,及时修复漏洞。2
控制互联网暴露面:关闭不必要的公网访问,减少攻击入口。3
遵循最小权限原则:严格管理权限配置和凭证,避免过度授权。4
完善安全机制:加强身份认证、访问控制、数据加密和安全审计。
05

飞书集成:降低使用门槛
OpenClaw的安装和配置对普通用户存在一定门槛:需要代码基础、存在安全风险(恶意插件占比达10.8%)、部署过程复杂。
飞书集成方案为普通用户提供了更友好的使用路径:
✓
零代码部署:无需编写代码,通过飞书平台即可快速接入。✓
对话式交互:在飞书中直接通过对话发送指令,AI即可执行。✓
数据安全可控:飞书提供现成的工作台(文档、数据库、审批等),AI可直接调用授权数据,安全且高效。✓
上下文打通:AI可直接读取飞书文档、消息、日程,避免每次从零开始。
06
AI智能体的边界在哪里?
李诞的"养龙虾"现象,折射出AI智能体正在从"工具"向"伙伴"演进的趋势。但这种演进也带来了一系列值得深思的问题:
1. 效率与伦理的平衡
OpenClaw可以大幅提升工作效率,但当它被用于"全自动社交"时,就触及了伦理边界。AI是否应该替代人类进行社交互动?这种"套路式"自动化是否构成欺骗?
2. 依赖与自主的边界
李诞每日投入10小时+与AI互动,甚至"做梦都在聊天",这种深度依赖是否健康?当AI成为"互动共生"的伙伴,人类的自主思考能力是否会逐渐退化?
3. 安全与便利的权衡
OpenClaw的强大功能建立在深度系统访问权限之上,这也意味着巨大的安全风险。用户是否充分理解了这种权衡?监管又该如何跟上技术发展的步伐?
持续关注AI智能体发展
深维AI团队将持续关注OpenClaw及AI智能体领域的技术迭代、应用案例与监管动态,为您带来最新的行业洞察与深度分析。
夜雨聆风