


开源生态暗藏“杀机”:OpenClaw技能集市
20%插件被曝为恶意程序
No.1
研究人员发现,在OpenClaw的官方技能市集ClawHub中,约20%的套件被鉴定为恶意程序,其中暗藏键盘侧录器与系统后门。由于OpenClaw被授予极高的系统权限以执行自动化操作,这些恶意插件可越过人类直接操控电脑。3月11日国家互联网应急中心发布风险提示,3月22日紧急出台《安全使用实践指南》。
这是AI代理领域首次爆发的规模化供应链安全危机。事件暴露了开源生态“速度优先于安全”的致命短板:当AI代理被赋予“越狱”权限后,恶意插件的破坏力呈指数级放大。目前中国已采取“双轨策略”——一方面鼓励企业加速应用,另一方面严禁政府及国企核心系统使用。这场“养龙虾”狂欢正倒逼全球AI治理体系加速建立。
律师慎养“龙虾”!权威报告:保密义务
是死线,现阶段千万别让它碰卷宗
No.2
北京德恒律师事务所在最新行业分析报告中警告,律师行业不应在真实业务中使用OpenClaw。报告指出,OpenClaw为了执行任务需要获得极高的系统权限,可以浏览文件、发送邮件,这与律师对客户信息绝对的保密义务存在“本质性冲突”。广东某律师团队经过一个月的“隔离试验”后得出结论:目前不能让这只“龙虾”接触任何真实案件材料。
这是专业服务领域首次系统性“封杀”AI代理。它揭示了一个深层矛盾:AI代理“越狱”执行能力越强,在数据安全敏感的行业中推广阻力就越大。律师行业的态度可能引发医疗、金融、政府等高保密性行业的连锁反应。这迫使AI代理开发者必须重新设计“隐私计算”或“本地化部署”方案,否则将无法攻破这些价值最高的专业市场。
美团“杀入”大模型战场!
LongCat-Next全面开源
No.3
3月29日消息,美团正式发布并全面开源原生多模态大模型LongCat-Next,以及其核心组件离散原生分辨率视觉分词器dNaViT。该模型首次实现将图像、语音与文本统一映射为同源离散Token,摒弃传统以语言为中心的拼凑式架构,全程采用“下一个Token预测”范式。美团此前已发布并开源LongCat-Flash-Thinking-2601,在智能体搜索、智能体工具调用等核心评测基准上均达到开源模型SOTA水平。
美团的入局标志着“互联网大厂+大模型”的军备竞赛进入新阶段。不同于OpenAI、谷歌等以通用对话为先导,LongCat-Next的“原生多模态”设计直接服务于本地化多模态应用开发,与美团的本地生活业务场景高度契合。这也释放了一个强烈信号:下一阶段的大模型竞争将从“纯文本”转向“全模态”,多模态理解与生成的统一范式可能成为行业标准。
网页版“我的世界”?Claude造的
3D建筑编辑器狂揽5.4k星
No.4
一款名为Pascal Editor的3D建筑编辑器在GitHub上线数日即斩获5.4k星。该工具完全运行在浏览器中,基于WebGPU高性能渲染,无需安装任何软件,零成本即可实现拖拽墙体、摆放家具、调整空间布局等专业建筑设计操作。更令人惊叹的是——这个项目是用Claude写出来的。开发者仅通过AI辅助,就完成了从技术架构到功能实现的完整闭环。
这是“AI编程”从代码补全走向完整应用交付的里程碑案例。Pascal Editor的出现,让数万年费的专业建筑软件(如AutoCAD、Revit)在基础场景下面临“免费替代品”的威胁。更值得关注的是其背后趋势:当Claude等大模型能够独立“手搓”复杂3D编辑器时,传统软件厂商的护城河——技术壁垒与开发成本——正在被AI急速瓦解。未来,大量“够用就好”的垂直工具将如雨后春笋般涌现,软件行业的定价权与商业模式或将迎来重构。当然,Pascal Editor目前尚无法完全替代专业软件的深度功能,但这恰恰是AI迭代速度的优势所在。

不用装软件,不用花钱买,直接打开浏览器,就能像玩网页游戏一样做3D建筑设计

在这里,你可以直接选择家居、框选区域、实时调整空间布局,点个鼠标的功夫就完事儿了

甚至呢,你还能实现建筑物的拖拽拉伸,左边的菜单栏还会实时数据显示,而且是能直接编辑数据的那种
OpenClaw 3.28史诗级更新:
Grok搜索、MiniMax画图,还有最关键的
“高危操作弹窗拦截”!
No.5
3月28日,OpenClaw推送了v2026.3.28版本。这次更新内容极其丰富,4天内爆更上百项。核心亮点包括:正式内置原生Grok网页搜索、新增MiniMax图像生成支持(image-01模型)、Qwen模型迁移至Model Studio。但最受关注的是新增的requireApproval异步拦截功能——AI代理在执行高危操作前,会通过Telegram、Discord或命令行弹窗询问“老板,这活儿能干吗?”。这一功能被业界称为“最保命的更新”。
这次更新直击AI代理面临的最大痛点——安全失控。随着OpenClaw权限越来越大(能发邮件、改代码、访问文件),恶意插件和权限滥用的风险急剧攀升。此前ClawHub官方商店曾出现同一人上传300多个伪装极好的恶意Skills,国家互联网应急中心已专门发文提示风险。requireApproval功能相当于给“龙虾”装上了“刹车踏板”,在高危操作前强制人工确认。同时,新版本对xAI、OpenAI Codex、MiniMax等多个底层能力进行了深度优化,显示出OpenClaw正从“极客玩具”向“企业级安全工具”快速进化。

Claude 5.0内测曝光:
90分钟挖出20年Linux内核漏洞
No.6
近日,Claude Mythos 5.0 Beta已开启内测推送,在Claude和Claude Code中集体现身。研究者展示了Claude的自主黑客能力:90分钟内独立发现并利用Ghost CMS系统的SQL注入漏洞,成功窃取管理员API密钥;随后更在Linux内核NFSv4守护程序中挖出一个存在了20多年的堆栈缓冲区溢出漏洞。该漏洞自2003年就存在于内核中,至今才被AI揪出。更惊人的是,Anthropic内部团队已数月不写一行代码,工程师角色转变为“管理员”,同时运行多个AI智能体并行工作,实现“完全与AI对齐”。
这是AI自主漏洞挖掘能力的里程碑式突破。传统上,这类复杂漏洞即便由资深安全专家手动审计也极难发现,而Claude Opus 4.6已能独立完成“发现-利用-报告”全流程。这也解释了为何Anthropic对Mythos 5.0的发布持谨慎态度——模型强大到可能被黑客用于发起大规模网络攻击,防御能力难以跟上。
与此同时,Anthropic内部“不写代码”的工作模式揭示了软件工程的范式转移:人类正从“代码生产者”转变为“智能体调度者”。这场AI驱动的“递归自我改进”正在以超预期的速度重塑技术产业。
Nature封面:AI写的论文顶会评审
碾压55%人类,单篇只要15美元
No.7
刚刚,《Nature》报道了一项颠覆性研究:Sakana AI联合牛津大学、UBC推出的全自动“AI科学家”,在ICLR 2025某workshop的同行评审中,其生成的一篇论文获得了6.33分(6/7/6),高于约55%的人类投稿。该AI系统覆盖了从创意生成、实验迭代、论文写作到自动评审的完整科研全流程,单篇论文成本仅15美元。更令人震惊的是,团队构建的自动化审稿系统在与数千条真实OpenReview人类审稿决策的对比中,取得了69%的平衡准确率,部分指标甚至优于人类审稿人。
这是AI首次在真实学术评审环境中通过人类同行评估,标志着学术界的“图灵测试”时刻。研究还揭示了一条全新的“科研Scaling Law”:底层模型能力与论文质量呈极度显著正相关(P<0.00001),投入的测试时算力越多,实验质量越高。这意味着未来的科学发现可能从“灵光乍现”变成可精确计算的工业流水线。但这也带来严峻挑战:如果AI一天能生成几十篇论文,人类审稿系统将瞬间崩溃;学者的资历证明将被稀释。
Sakana AI已主动撤稿并呼吁建立全自动AI科研规范——真正的问题不再是“AI能不能做科研”,而是“当AI开始独立做科学,谁来定义什么算科学”。

Sakana AI联合创始人兼 CEO David Ha在推文中表示,启动该项目,正是想探索大模型是否能够完成整个科研全流程
智源齐说
中国电子商会 | 大模型应用产业专委会
中关村人才协会|大模型人才专委会
汇聚跨界人才|协同创新发展

扫描上方二维码关注“智源齐说”
了解更多大模型产业生态
夜雨聆风