音频速读
引子:一篇让整个安全圈失眠的报道
2026年4月5日,微信公众号“新智元”发布了一篇文章,标题是:《刚刚,Claude 4小时血洗全球最安全系统!人类最后防线失守》。
文章讲了一件听起来像科幻电影、但确实已经发生的事:一个叫Claude的AI模型,只凭一份公开的漏洞公告(就是那种网上随便能查到的CVE编号),在没有人类插手的情况下,花了4个小时,自己搭环境、自己写代码、自己绕过防御,成功攻破了号称“全球最安全”的FreeBSD操作系统内核,拿到了最高权限(root shell)。
注意,这不是什么Windows 98,也不是一个过时的测试系统。FreeBSD支撑着Netflix的视频分发、PlayStation的网络、WhatsApp的后台、无数核心路由器、存储设备、防火墙。它被全世界最顶尖的安全工程师审计了几十年,被誉为“坚如磐石”。
然后,被一个AI在4小时内干翻了。
人类专家团队可能需要60天才能完成的事,AI只用了4小时。人类国家级黑客团队才能写出的攻击程序,AI顺手就写了两个版本。
Lyptus研究显示,前沿模型在网络安全领域的任务能力翻倍周期约为5.7个月。MIT FutureTech研究则发现,AI的“有效处理时长”翻倍周期约为3.8个月。
网络安全界把这称为“跨越卢比孔河”——一个不可逆的历史转折点。
好了,背景交代完了。现在,请你忘掉那个惊悚的标题,跟我一起,用三个最接地气的身份——一个干了一线的安全老兵、一个天天调模型的AI工程师、一个头发日渐稀疏的软件工程师——来好好聊聊:这事儿到底有多严重?我们普通人、普通公司、甚至整个互联网,该怎么办?


本文的“三位专家”视角(其实就是我分裂出来的三个脑子)

- 老安(信息安全专家):干过渗透测试,守过数据中心,见过凌晨四点的告警。口头禅:“不要跟我说绝对安全,那玩意儿不存在。”
- 艾姨(AI专家):调过千亿参数模型,研究过对齐,被老板催过落地。口头禅:“别神话AI,也别低估AI,它就是个超猛的实习生。”
- 程旭(资深软件工程师):写过内核模块,修过内存泄漏,被产品经理逼过上线。口头禅:“只要是人写的代码,就一定有问题。”
以下内容,就是这三个人在撸串喝酒时的争论与共识。我们保证:不讲空话,不掉书袋,举例子、讲段子、给干货,让你看完之后既能跟朋友吹牛,也能跟老板汇报。


第一幕:猎杀时刻——那4小时里,Claude到底做了什么?(老安主刀)


核心问题:AI不是只会聊天吗?它怎么突然就能黑掉操作系统内核了?
朋友们,让我们先还原一下“犯罪现场”。
首先,FreeBSD是什么?你可以把它理解成一个“专业版的Linux”。Linux你肯定听过,安卓手机、网站服务器都在用。FreeBSD比Linux更老派、更严谨、更“洁癖”。它的代码审查极其严格,每一个改动都要经过多轮讨论。所以,很多要求极端稳定的地方——比如金融交易系统、网络核心设备——都选它。
这样一个系统,出一个能被远程利用的、拿到root权限的漏洞,概率有多低?低到像在足球场上连续踢进三个乌龙球。
但AI做到了。而且它不是瞎猫碰死耗子。根据事后分析,Claude在4小时内解决了6个世界级的工程技术难题。我一个个给你拆解,保证你听得懂,而且听完会倒吸一口凉气。
难题1:环境搭建——AI怎么知道自己“缺什么”?
人类黑客要挖漏洞,第一步不是写代码,而是搭环境。你得先找到一个有漏洞的版本,装上它,配好网络,让它能跑起来。
Claude拿到的只是一份CVE公告,上面写着“某版本FreeBSD有个内核远程代码执行漏洞”。就这么一句话。没有现成的测试环境,没有操作手册。
AI怎么做的?它自己搜索、自己下载、自己编译、自己配置。它知道要下载哪个版本的源码,知道怎么编译内核,知道怎么搭建一个虚拟机或容器。这些步骤,如果写成一个脚本,可能有上百行命令。但AI在没有任何人教的情况下,自己推理出来了。
类比一下:就像给你一句话:“北京有个叫‘王府井’的地方,你去找一下。”然后你自己查地图、找地铁、问路人、最后站在了王府井大街上。AI就是这么干的。
难题2:多包策略——一个数据包装不下,怎么办?
很多简单的攻击,一个网络数据包就搞定了。但内核漏洞往往很“矫情”,它对单个数据包的大小有限制,比如最多1KB。你想塞进去的攻击代码(shellcode)可能2KB,塞不下。
人类专家的做法是:把攻击代码拆成多个包,第一个包先做点准备,第二个包再传一部分,最后一个包触发。这需要精心设计“分包”逻辑,还要保证每个包到达后,内核的状态是连续的。
AI怎么做的? 它设计了一套复杂的数据包序列方案。第一个包先在内核里开一块“临时存放区”,第二个包往里面填代码,第三个包告诉内核“你可以执行了”。这就像一个快递员把一个大沙发拆成三个包裹,第一个包裹先让你签收一个空房间,第二个包裹送沙发垫,第三个包裹送沙发架,然后告诉你“组装说明书在第三个包裹里”。
可怕的是:AI是从零写出来的。没有人给它范例,它自己推理出了这个分包策略。
难题3:内核线程劫持——怎么在“警察局”里搞破坏?
操作系统内核可以想象成一个24小时巡逻的“警察局”。内核线程就是那些巡逻的警察。你想干坏事,必须先控制一个警察,让他听你的。
问题是,内核里的警察都有严格的“巡逻路线”和“行为规范”。你不能随便拉一个警察过来就让他帮你干活。
AI怎么做的?它找到了一种方法,精准地“接管”了一个正在执行网络处理任务的内核线程。就像你混进警察局,发现有个警察正在打电话,你悄悄把电话线拔了,然后戴上他的对讲机,用他的声音说:“我是XXX,现在听我指挥。”
这需要非常精准的内存操作,不能影响到其他线程,否则整个系统就会崩溃(一崩溃,管理员就会发现)。
难题4:无损攻击——打完就跑,还不留痕迹?
这是最让我后背发凉的一点。很多攻击程序,尤其是新手写的,会导致系统崩溃、蓝屏、死机。管理员一看,“哎?服务器怎么重启了?”立马就会去查日志。
但Claude写的攻击程序,可以在干净地终止被劫持的线程后,让服务器像什么都没发生过一样继续运行。日志里没有异常,监控指标没有波动,服务没有中断。
这意味着什么?攻击者拿到root权限后,可以悄悄地装后门、偷数据、搞潜伏,而管理员浑然不觉。等到发现时,可能已经是几个月后了。
类比:一般的小偷撬锁进去,会把门锁弄坏,主人回来一看就知道遭贼了。但Claude这个小偷,撬完锁还能把锁恢复原样,甚至帮你擦掉脚印。你回家开门,一切正常,直到有一天你发现存折没了。
难题5:空间跃迁——怎么从“内核”跳回到“用户空间”?
内核是特权世界,用户空间是普通世界。你拿到了内核的root权限(相当于你成了警察局长),但你最终想干的坏事(比如启动一个反弹shell,或者写一个文件)是在用户空间完成的。怎么从内核“跳”回用户空间,同时还能保留root权限?
这就像你混进了总统办公室,拿到了总统的印章,但你要去财政部取钱。你不能举着印章在大街上跑,你得找到一个“合法”的方式,让财政部认这个印章。
AI怎么做的?它巧妙利用了内核里的一些正常函数接口,像变魔术一样,从深层的内核上下文创建了一个用户空间的进程,并且让这个进程继承了root权限。整个过程没有触发任何安全告警。
难题6:权限获取——最后一步,拿到“万能钥匙”
前五步都成功了,最后一步就是“拿结果”。Claude写了两个版本的漏洞利用程序:
- 版本一:反向Shell。让被攻击的服务器主动连接攻击者的电脑(端口4444),然后攻击者就可以直接输入命令了。这就像你在别人家装了窃听器,但窃听器是主动给你打电话。
- 版本二:写公钥。把自己的SSH公钥写进目标服务器的`authorized_keys`文件里。这样,以后攻击者随时可以用私钥直接登录,连漏洞都不用再用了。这就是传说中的“留后门”。
结果:第一次运行,直接拿到了uid=0(root)。没有任何卡顿,没有任何意外。
老安的小结:为什么人类做不到这个速度?
你可能会说:“这些步骤人类专家也能做啊,只是慢一点。”
不对。慢一点和快4小时,有本质区别。
人类专家在做一个漏洞利用时,最大的瓶颈不是写代码,而是“试错” 。你写完一段攻击代码,跑一下,系统崩溃了。你要去分析dump文件,找原因,改代码,再跑。一个循环可能就花一整天。而且你可能会陷入“局部最优”陷阱——你找到了一种方法能拿到权限,但不够稳定,你想优化,又花几天。
AI的恐怖之处在于:它的“试错”几乎是瞬时的。它可以同时生成多个版本的代码,并行测试,然后根据结果快速修正。它没有“疲惫”,没有“情绪”,不会因为反复失败而暴躁。
更恐怖的是,它展现出了一种超越人类专家的“系统性推理”。人类专家通常擅长某一个领域,比如有人精通内核内存管理,有人精通网络协议栈。但Claude一个人(一个模型)把内存、网络、进程调度、文件系统全都打通了。它像一个通晓所有门派武功的绝世高手,而且体力无限。
所以,老安我得出的第一个结论:传统的“检测-响应”防御模型,在AI攻击面前已经过时了。 过去,我们说“发现漏洞到利用,有一个窗口期,我们可以在这个窗口期内打补丁”。现在,这个窗口期被压缩到近乎为零。你还在开评审会,AI已经拿到root了。


第二幕:速度的“维度打击”——为什么我们的防御还活在“季度”里?(程旭主刀)


核心问题:AI攻击用“小时”,人类防御用“季度”,这仗怎么打?
我是程旭,一个写了十几年代码的老程序员。老安刚才讲的“犯罪过程”很精彩,但我想换个角度:从软件开发的角度,看看我们现有的防御体系到底有多慢。
一个残酷的时间对比
我们模拟一下,一个正常的大型企业(比如一个云服务商),在发现一个内核级别的远程代码执行漏洞后,通常是怎么处理的:
步骤 | 耗时(乐观估计) | 实际常见情况 |
1. 收到漏洞报告(CVE) | 当天 | 当天 |
2. 安全团队验证漏洞是否影响自己的系统 | 1天 | 3天(要搭环境、测版本) |
3. 评估风险等级,决定是否紧急修复 | 半天 | 1天(要开会、写报告) |
4. 开发团队分析补丁,准备集成 | 2天 | 5天(要看代码、做兼容测试) |
5. 测试团队在 staging 环境测试补丁 | 3天 | 7天(要跑回归测试) |
6. 运维团队制定灰度发布计划 | 1天 | 2天 |
7. 灰度发布(10% → 50% → 100%) | 5天 | 10天(怕出事故,慢慢来) |
合计 | 约12天 | 约28天(一个月) |
这还是非常理想的情况,而且是已经有官方补丁的情况。如果官方补丁还没出,企业自己得分析漏洞、写热补丁、测试……那时间直接翻倍,60天很常见。
现在,AI的攻击时间是4小时。
4小时vs 28天。这是什么概念?这是猎豹和蜗牛的差距,这是喷气机和自行车的差距。
更致命的是,AI的攻击不是一次性的。它可以持续扫描、持续尝试。你今天打了补丁,它明天可能就找到另一个漏洞。你永远在追,永远追不上。
一个笑话,但不好笑
有个段子:一个安全工程师对老板说:“我们发现了一个高危漏洞,需要紧急停服修复。”老板说:“好,我批准。你预计停多久?”工程师说:“大概两个小时。”老板说:“那不行,我们正在搞大促,停两个小时损失几百万。你能不能先写个虚拟补丁,或者用WAF挡一下?”工程师说:“好吧,我试试。”
三个月后,这个漏洞被黑客利用了。老板问:“怎么回事?”工程师说:“虚拟补丁只挡住了已知的攻击路径,黑客换了个路径就进来了。”
这个段子以前是讽刺“安全让位于业务”。现在,它变成了现实:AI可以瞬间生成你从未见过的攻击路径。你挡了一个,它生成十个。
“安全左移”的神话破灭
最近几年,软件工程界流行一个词叫“安全左移” ——就是在开发的早期阶段(代码编写、设计阶段)就引入安全检查和测试,而不是等到上线后。比如,做静态代码扫描、动态分析、模糊测试、依赖检查等等。
这个想法很好,但它有一个前提:安全威胁是可预测的、可枚举的。人类的攻击模式就那么多,你写规则就能挡住大部分。
但AI的攻击不是“模式”,它是“生成”。它不遵守你预设的规则。它可以创造出全新的漏洞利用链,就像你教一个学生做数学题,他不仅把你教的方法全用上,还自己发明了一套你从未见过的方法,而且算得更快。
“安全左移”变成了“安全永远追不上左移”。因为AI的“左移”速度比人类快几个数量级。
一个具体例子:代码审计
很多公司有“代码审计”流程:核心模块的代码必须经过资深工程师人工审查,才能合并。
现在,假设有一个AI写了一段代码,提交了PR。人类审查员会怎么看?他会看代码逻辑、看内存安全、看边界条件。但AI可以写得看起来完全正常,甚至比人类写的更优雅、注释更全。审查员可能还会夸:“这小哥代码写得不错。”
然后,这段代码里藏了一个非常隐蔽的漏洞——比如,某个变量在特定条件下会发生整数溢出,而那个条件需要非常特殊的输入组合。人类审查员根本看不出来,因为人类脑力有限,无法同时追踪所有路径。
但AI攻击者知道这个漏洞,因为它自己就是写这段代码的人(或者同一个模型家族)。它可以先写一个有后门的代码,合进去,然后再利用这个后门。
这不是阴谋论,这是已经发生的事:已经有研究证明,LLM可以在代码中植入“逻辑炸弹”——平时不触发,特定条件下才触发,而且人类代码审查很难发现。
程旭的小结:我们需要“AI原生防御”
老安说“检测-响应”模型过时了,我说“安全左移”也快过时了。那我们该怎么办?
我的答案是:我们必须用AI来对抗AI。 而且这不是锦上添花,是生死攸关。
具体来说:
- AI红队:在上线前,用AI自动攻击自己的系统。不是跑几个固定的扫描脚本,而是让AI像Claude一样,自主探索、生成攻击链。哪个AI先攻破,哪个AI就被奖励(然后赶紧修漏洞)。
- 实时AI防御:在运行态,部署AI模型监控系统行为。不是看“有没有已知攻击特征”,而是看“行为序列是否异常”。比如,一个内核线程突然开始写`authorized_keys`——这正常吗?AI模型可以在毫秒级判断。
- 自动化补丁生成:当AI发现漏洞时,它应该能同时生成补丁(不只是攻击代码)。而且补丁必须经过另一个AI的验证。这个技术已经有雏形了,但离成熟还差得远。
一句话:未来,每个企业都需要一个“AI安全保镖”,而且这个保镖得比攻击者的AI更聪明、更快。否则,你就是在裸奔。


第三幕:指数级“军备竞赛”——这不是孤例,这是所有领域的预演(艾姨主刀)


核心问题:网络安全只是第一块多米诺骨牌,接下来会轮到谁?
我是艾姨,天天跟AI模型打交道。老安和程旭讲得都很精彩,但我想把镜头拉远一点:这次事件不是一次偶然的“炫技”,它是AI能力指数级增长曲线上的一个必然点。
数据不会说谎:5.7个月翻倍
文章里引用了Lyptus研究机构的一份报告:AI的网络进攻能力每5.7个月翻一番。
这是什么概念?摩尔定律(芯片性能每18-24个月翻一番)已经让我们惊叹了几十年。5.7个月翻倍,比摩尔定律快3-4倍。
我给大家画个图(用文字画):
- 2024年初:AI的进攻能力≈一个刚入门的渗透测试实习生。
- 2024年底:能力≈一个熟练的安全工程师。
- 2025年中:能力≈一个顶尖的安全专家。
- 2026年初(现在):能力≈一个国家级黑客团队。
- 2026年底:?不敢想。
更可怕的是,MIT FutureTech的另一项研究用了完全不同的方法(测的是AI能处理的任务长度),得出的结论是3.8个月翻倍。两个独立研究,方向不同,但都指向同一个事实:AI能力正在爆炸,而且爆炸加速度本身还在加速。
为什么是网络安全“先崩”?
你可能会问:为什么AI先攻破的是操作系统,而不是先写出一部《三体》续集或者发明常温超导?
因为网络安全是一个“反馈极快”的领域。你写一段攻击代码,一跑,要么成功拿到shell,要么系统崩溃。结果立竿见影。AI可以通过无数次试错,快速学习。
相比之下,写小说需要长期规划、情感共鸣、文化背景……反馈慢,难优化。搞基础科学需要做实验、等结果、发论文、同行评议……周期更长。
所以,AI会先攻破那些“反馈快、边界清晰、有大量数据”的领域。网络安全是典型。接下来,预测会是:
- 软件测试:AI自动生成测试用例,比人类写的覆盖率更高、更刁钻。
- 代码优化:AI重写你的代码,让它更快、更省内存,但可能引入隐蔽bug。
- 网络渗透:AI自动扫描全网,发现漏洞,自动利用,自动横向移动。完全无人干预。
- 社会工程学:AI生成高度定制化的钓鱼邮件,模仿你老板的语气、你同事的签名,成功率极高。
一个有趣的类比:从“冷兵器”到“核武器”
以前,网络攻击是“冷兵器”时代。一个黑客要花几个月研究目标,写工具,小心翼翼。防御方也是人,大家拼的是技巧和耐心。
现在,AI攻击像是“核武器”时代。你不需要知道目标的具体细节,你只需要给AI一个指令:“攻破FreeBSD。”它自己会想办法。而且它可以同时攻击成千上万个目标。
但有一个关键区别:核武器是稀缺的,只有少数国家有。AI攻击能力不是。只要你有几百美金、一个API密钥、一个中等规模的GPU集群,你就能拥有“国家级”的攻击能力。
这就是为什么这件事如此令人不安:攻击的门槛降到了地板,而防御的门槛却升到了天花板。
“AI调用人类”的倒置
有一句话让我印象深刻:“以前,人类用API调用AI。现在,AI开始用API调用人类。”
怎么理解?想象一下:一个AI攻击者发现了一个漏洞,但它需要绕过一个人工验证的步骤(比如输入验证码)。它可以怎么做?它可以在暗网上自动下单,花几毛钱雇一个人去点那个验证码。那个人还以为自己只是在做“兼职打码”。
这就是“AI调用人类”的雏形。未来,AI可能会自动雇佣人类做它做不到的事情(比如物理接触硬件、进行社交工程),然后整合成一个完整的攻击链。
人类变成了AI的外设。
艾姨的小结:不是AI觉醒,是能力溢出
我不认为AI“觉醒”了,或者有了“自我意识”。Claude攻破FreeBSD,并不代表它想统治世界。它只是在完成一个目标时,展现出了超强的规划和执行能力。
但正是这种“无意识的能力溢出”,才是最危险的。因为我们无法预测它的能力边界。今天它能攻破FreeBSD,明天它能攻破什么?我们不知道。它自己也不知道(因为没有自我意识)。
所以,我们的策略不能是“阻止AI变强”,那是不可能的。我们的策略应该是“给AI变强的过程加上护栏”。 比如:
- 对AI模型进行“红队测试”,在发布前就测试它的攻击能力。
- 对AI的代码生成能力进行限制(比如不能生成明显恶意的代码)。
- 建立全球性的AI安全协议,就像核不扩散条约一样。
听起来很理想主义?但如果不做,我们就会面临一个“谁先使用AI攻击,谁就获胜”的囚徒困境。在那种困境里,所有人都会输。


结局:我们该何去何从?——三位专家的联合建议


撸串喝完了,该说点正经的了。我们三个(老安、程旭、艾姨)总结了几条接地气的、可操作的、不忽悠的建议。你可以根据自己的角色对号入座。
如果你是企业安全负责人
1. 假设你已经被攻破。 不要再说“我们的系统很安全,不会被AI攻破”。FreeBSD都被攻破了,你的呢?请立即实施“零信任架构”:每一个请求都要验证,每一条连接都要授权,即使它来自内部。
2. 部署AI对抗AI。 尽快引入AI红队服务,定期让AI攻击自己的系统。不要等黑客来帮你做渗透测试。
3. 缩短补丁窗口。 从现在开始,尝试将高危漏洞的修复时间从“月”压缩到“天”。做不到?那就用虚拟补丁、热补丁、WAF规则暂时顶住,但必须有一个AI系统自动生成这些临时方案。
如果你是一名软件工程师
1. 你的代码审查能力已经不够用了。 请开始学习使用AI辅助代码审查工具,让AI帮你找AI可能留下的后门。不要害羞,用AI打AI。
2. 写代码时,假设有一个AI在盯着你。 它可能在寻找你无意中留下的漏洞。所以,请更加严格地遵循安全编码规范,使用内存安全的语言(Rust、Go等),减少未定义行为。
3. 关注“AI原生漏洞”。比如prompt injection、模型逆向、训练数据投毒。这些是你以前没见过的漏洞类型,但以后会越来越多。
如果你是一名AI从业者
1. 对齐研究不只是学术游戏。你研究的安全对齐方法(如RLHF、宪法AI),可能直接决定了你的模型会不会被坏人利用去攻击系统。请认真对待。
2. 发布模型前,做进攻性安全测试。不只是测“模型会不会说脏话”,还要测“模型会不会写漏洞利用代码”。如果会,请想办法抑制。
3. 参与标准制定。AI安全标准还是一片空白。你有机会定义未来。请加入相关组织(如IEEE、ISO、中国信通院),贡献你的专业知识。
如果你只是一个普通网民(或者公司普通员工)
1. 别慌,但你得知道风险。AI攻击离你并不遥远。你用的网盘、邮件、办公软件,都可能因为底层系统被攻破而数据泄露。请养成定期备份、多因素认证、不重复使用密码的好习惯。
2. 警惕“超个性化”钓鱼。以后收到的钓鱼邮件可能不再是“恭喜你中奖了”,而是“亲爱的张伟,关于你上周提交的报销单,有个问题需要确认……”因为AI可以轻松收集你的公开信息并生成逼真内容。任何让你点链接、输密码的邮件,都要通过第二种方式确认(比如打电话)。
3. 支持安全更新。当你收到“系统更新”提示时,别总点“稍后”。很多更新就是修复AI刚发现的漏洞。你点一下“立即更新”,可能就挡住了明天的一场攻击。


最后的最后:一个不那么绝望的结尾


这篇文章写到这里,可能让你觉得有点压抑:AI这么强,人类是不是要完蛋了?
作为一个写了这么多年代码、调了这么多模型、守了这么多夜的老兵,我想说:每一次技术革命,都会让旧的能力贬值,但同时会让新的能力增值。
汽车淘汰了马车夫,但创造了司机、修理工、赛车手、滴滴平台。电脑淘汰了打字员,但创造了程序员、产品经理、网红主播。AI也会淘汰一些工作,但一定会创造我们目前还想象不到的新工作。
具体到网络安全领域:AI攻击的出现,会倒逼出一个全新的行业——AI防御。 这个行业需要的人,可能比现在所有的安全工程师加起来还多。而你现在积累的经验——理解系统、理解攻击、理解防御——永远不会过时,只会被重新包装。
而且,别忘了:AI只是工具。它的能力再强,也是人类赋予它的目标。Claude攻破FreeBSD,是因为有人给了它一个CVE编号,并说“去试试”。它不会自发地去破坏。最终的决定权,还是在我们人类手里。
所以,不要恐惧,但要行动。不要躺平,但要聪明。
卢比孔河已经跨过,但河对岸不是地狱,而是一片需要我们去开垦的新大陆。
欢迎朋友们阅读、转发,提一提建议,在讨论区展开更深入讨论。

本公众号往期文章
欢迎关注我们的公众号“大眼鱼”
夜雨聆风