乐于分享
好东西不私藏

OpenClaw安全公告激增暴露GitHub与CVE体系鸿沟;OpenAI推出Codex Security | FreeBuf周报

OpenClaw安全公告激增暴露GitHub与CVE体系鸿沟;OpenAI推出Codex Security | FreeBuf周报

各位 Buffer 周末好,以下是本周「FreeBuf周报」,我们总结推荐了本周的热点资讯、一周好文,保证大家不错过本周的每一个重点!

🤖OpenClaw安全公告激增暴露GitHub与CVE漏洞跟踪体系间的鸿沟

⌨️OpenAI推出Codex Security,AI自主修复软件漏洞

🗽AI串联漏洞攻陷招聘平台,伪装特朗普索要数据权限

💻Anthropic推出高效但昂贵的代码审查工具,助力开发者提升代码质量

📞研究人员开发的ScamAgent:可完全自主实施诈骗通话的AI Agent

🧑‍💻Kali Linux 通过本地 Ollama、5ire 和 MCP Kali 服务器增强 AI 驱动的渗透测试

🖥️五个恶意Rust组件与AI机器人利用CI/CD管道窃取开发者密钥

🕳️OpenAI称Codex Security一个月内发现1.1万个高危漏洞

💽谷歌威胁情报小组警告:企业系统正日益成为0Day漏洞利用的主要目标

🧑‍🔧利用eBPF与io_uring高级技术的Linux Rootkit演进

OpenClaw安全公告激增暴露GitHub与CVE漏洞跟踪体系间的鸿沟
OpenClaw项目爆红后快速发布255项安全公告,暴露GHSA与CVE体系割裂问题。漏洞披露碎片化导致大量公告无CVE编号,企业工具无法识别,凸显AI时代安全跟踪机制滞后风险。
OpenAI推出Codex Security,AI自主修复软件漏洞
OpenAI发布Codex Security,帮助开发者检测修复代码漏洞。工具通过隔离分析生成威胁模型,提供漏洞分级与修复方案,误报率降低50%以上。现向企业、商业和教育用户开放,开源维护者可免费使用。
AI串联漏洞攻陷招聘平台,伪装特朗普索要数据权限

CodeWall的AI Agent串联漏洞攻陷招聘平台,甚至模仿特朗普语音攻击,展现AI自主攻防能力远超人类,警示传统安全措施失效,需转向持续对抗测试的新范式。

Anthropic推出高效但昂贵的代码审查工具,助力开发者提升代码质量

Anthropic推出高价但高效的Claude Code代码审查功能,采用多Agent系统深度分析拉取请求,能发现84%大型变更中的问题,但每单收费5-25美元且耗时20分钟,旨在解决AI编程导致的代码审查瓶颈。

研究人员开发的ScamAgent:可完全自主实施诈骗通话的AI Agent

罗格斯大学开发的ScamAgent利用目标分解、角色扮演等技术,将大语言模型武器化为全自动诈骗工具,成功绕过现有防护机制。实验显示其诈骗成功率显著提升,需转向持续监控和多层防御应对此类威胁。

Kali Linux通过本地Ollama、5ire和MCP Kali服务器增强AI驱动的渗透测试

Kali Linux推出本地化AI渗透测试方案,通过Ollama、5ire和MCP-Kali-Server实现完全离线操作,消除云依赖,保障数据隐私。需NVIDIA GPU支持,适合敏感环境,展示自然语言驱动工具执行能力。

五个恶意Rust组件与AI机器人利用CI/CD管道窃取开发者密钥
恶意Rust组件伪装时间工具窃取密钥,五个crates.io软件包外泄.env文件数据。攻击者利用CI工作流重复窃取敏感信息,建议轮换密钥。另发现AI机器人hackerbot-claw利用GitHub Actions窃取凭证,入侵Trivy扩展。供应链安全需加强防护。
OpenAI称Codex Security一个月内发现1.1万个高危漏洞
OpenAI推出AI安全工具Codex Security,30天内扫描120万次提交,发现11,000多个高危漏洞,误报率低于0.1%。该工具模拟人类研究员,自动验证漏洞并生成修复补丁,已应用于开源和专有项目,显著提升安全审查效率。
谷歌威胁情报小组警告:企业系统正日益成为0Day漏洞利用的主要目标

谷歌报告显示2025年0Day漏洞攻击仍处高位,企业系统和安全设备成主要目标,商业监控公司首次超越国家黑客成为最大利用者。AI可能加剧威胁,防御需强化实时监控和分段防护。

利用eBPF与io_uring高级技术的Linux Rootkit演进

Linux rootkit成为现代基础设施高危威胁,利用eBPF和io_uring等内核特性隐蔽攻击,传统检测手段失效。防御需监控异常系统调用、审计eBPF程序,并采用内核锁定和更新策略。

本周好文推荐指数

OpenClaw安全漏洞分析

开源AI项目OpenClaw爆火但存在高危漏洞,包括远程代码执行、WebSocket劫持等,导致数据泄露和系统控制风险。攻击案例频发,供应链风险突出。建议紧急升级、强化认证、实施网络隔离和权限管控,反思AI时代安全边界需重构信任机制。

AI幻觉:网络安全中的攻防实现

AI幻觉在网络安全中表现为模型生成形式上专业但实质错误的内容,攻击者正利用此特性进行数据投毒等新型攻击。防御需构建抗幻觉体系,包括RAG架构、输出验证和投毒检测等技术,以及风险分级流程和红队演练等组织措施。目标是建立分层的信任体系,而非完全消除幻觉。

揭开大语言模型的脆弱面:对抗攻击研究综述(三)

提示注入攻击通过操控模型输入,使其误判数据为指令,生成误导性输出。攻击分为直接、间接和虚拟三类,利用模型指令遵循能力与数据安全界限模糊的弱点。大模型更易受攻击,防御需强化输入清洗、语义隔离和输出审查。系统提示易泄露,不应视为机密。


推荐阅读

电报讨论