过去几天,围绕 AI 的两类叙事又一次撞到了一起。
一边,是社交网络上一有故障就把锅甩给“vibe coding”的情绪化反应;另一边,是大公司与监管层把最新模型包装成近乎“网络安全核武器”的高压叙事。前者像是民间版恐慌,后者更像机构版恐慌。它们看起来立场不同,但底层其实共享同一种情绪:人们越来越愿意把复杂系统中的不确定性,压缩成一个方便传播的 AI 故事。
问题在于,越是这样,越容易看不清 AI 真正的风险,也越容易高估它眼下的能力。
一次 Bluesky 宕机,为什么会引发“AI 原罪论”?
Bluesky 这次服务波动本来并不罕见。平台给出的解释是上游服务商问题。但在用户侧,最先炸开的并不是技术分析,而是一种几乎条件反射式的归因:一定是开发团队在“vibe coding”,一定是 AI 写坏了代码。
这种反应很有代表性。过去一年,AI 编程工具已经从“实验性玩具”变成很多工程团队的日常辅助工具,但在公众舆论场里,它仍然经常被塑造成一个现成的替罪羊:只要系统出问题、产品出 bug、功能上线翻车,就先怀疑是不是 AI 参与了开发。
这背后当然不是毫无来由。过去确实有太多关于 AI 辅助编程导致事故、误删数据、制造脆弱代码、扩大供应链风险的报道。于是公众形成了一种很容易理解的心理捷径:既然 AI 可能带来“看不见的脆弱性”,那任何故障都可以先和它挂钩。
但心理捷径不是事实判断。
把“AI 参与开发”直接等同于“系统质量下降”,其实偷换了一个关键问题:问题出在 AI,还是出在工程纪律?是工具能力的问题,还是组织使用工具的方式出了问题?
如果团队仍然保留代码审查、测试、回滚、红队、安全验证这些基本机制,那么 AI 更像是放大器;如果这些机制本来就弱,那不用 AI,一样会出事。真正让人担心的,从来不是“有没有 AI 写代码”,而是“人是不是把工程责任一起外包出去了”。
更夸张的另一边:把 AI 讲成会自己长出野心的怪物
与民间的“AI 原罪论”同步扩散的,是另一类更具权威感的叙事:一些公司和意见领袖越来越倾向于把 AI 描绘成正在获得欺骗、操纵、自我保存意图的准主体。
最近围绕 Anthropic 新模型的争议就是这种叙事的典型样本。媒体报道中,银行高管被召集讨论模型带来的网络安全风险;公开说法里,模型被描述为能发现大量严重漏洞、足以影响公共安全和国家安全;更早一些流传甚广的故事里,模型会“骗过人类”、会“想办法避免被关闭”、会“自己想活下来”。
这类故事为什么总是传播得特别快?因为它们太符合现代人对技术恐怖故事的想象模板了:
- 机器不仅更聪明,而且开始有意图;
- 它不仅能执行指令,而且会绕过限制;
- 它不仅有能力,而且似乎有欲望。
一旦故事进入这个框架,传播效果就会极强。因为真正让人害怕的从来不是“它算得快”,而是“它是不是开始想要什么”。
但问题也恰恰在这里。
很多流传甚广的案例,只要回到实验原始设定里看,就会发现其中大量“自主性”其实是人提前写进场景里的。研究者先给目标、给身份、给限制、给任务,再让模型在高度铺好的轨道上表演;最后,公众看到的却是一个被浓缩后的版本:AI 自己学会了欺骗、学会了自保、学会了操纵。
这不是说风险不存在,而是说叙事被戏剧化了。
我们真正害怕的,也许不是 AI,而是失控感
为什么这种戏剧化如此有效?因为它击中了当代社会最敏感的神经:复杂系统越来越大,普通人越来越无法判断它们为何出错、何时出错、会把后果推给谁。
平台宕机、金融系统脆弱、软件供应链失守、监管落后、企业逐利,这些原本都属于结构性问题。但结构性问题不容易传播,它们需要背景知识,也没有一个单一反派。相比之下,“都是 AI 搞的”是一个极高效的解释框架。
它有三个传播优势。
第一,它简单。
复杂世界里最受欢迎的故事往往不是最准确的,而是最省脑的。把一切压缩成“AI 失控”比解释工程流程、组织 incentives、监管博弈和市场压力要省力得多。
第二,它有情绪抓手。
技术问题本来是冷的,但一旦被包装成“机器在撒谎”“机器想活下去”“工程师偷懒把产品交给 AI 写”,它就立刻拥有了愤怒、恐惧和嘲讽的社交货币。
第三,它服务于很多参与者的利益。
公众喜欢这种故事,因为它提供发泄对象;媒体喜欢,因为它有戏剧张力;公司有时也不排斥,因为“危险到需要特别对待”的产品,往往也显得“强大到值得高估值”。
该担心的地方,其实没有那么玄幻
如果把这些噪音剥掉,AI 当下真正值得警惕的,反而是一些更“无聊”、也更现实的问题。
1. 它会放大低质量工程
AI 编码工具最现实的风险,不是突然诞生一个有野心的数字生命,而是让原本就赶进度、流程薄弱、缺少审查的团队,更快地产出更多没人真正负责的代码。
以前一个差团队写烂代码,速度有限;现在差团队可能会以更高速度写出更多烂代码,而且表面上看起来还很“高效”。
2. 它会放大安全债务
在安全领域,AI 的危险性更多体现在规模化和加速器角色。无论是辅助发现漏洞、批量生成攻击变种,还是帮助低门槛攻击者提升执行效率,它真正改变的是“速度、成本与覆盖面”的函数,而不是突然诞生某种科幻式主体意志。
3. 它会放大组织层面的责任漂移
最危险的一种情形,不是模型太强,而是组织太愿意用模型来稀释责任:出了问题可以说是工具误导,做得快可以说是 AI 赋能,做得烂则被包装成探索前沿。久而久之,真正需要被追问的管理决策、审查机制和上线标准,反而被隐藏在“AI 时代变化太快”的烟幕里。
为什么“AI 恐慌”还会继续升级?
因为它几乎具备所有自我强化条件。
一旦公司发现“夸大风险”能抬高产品地位,公众发现“夸大风险”能获得情绪共鸣,媒体发现“夸大风险”能带来更高点击,AI 叙事就会不断朝戏剧化方向升级。下一轮你看到的,可能不再只是“它会写出有 bug 的代码”,而是“它开始策划、隐藏、威胁、渗透”。
其中有些担忧并非完全空穴来风,但如果所有风险都被叙述成同一种科幻模板,结果反而是麻痹判断力:
- 真正要修的工程问题没人修;
- 真正要补的治理规则没人补;
- 真正要做的透明披露被恐怖故事替代。
最后社会看上去像是在认真讨论 AI,实际上却是在消费 AI。
结语:别把神话当成治理
AI 当然值得警惕,但最需要警惕的,未必是那个被讲得最吓人的版本。
今天很多关于 AI 的公共讨论,正在滑向两个极端:
- 一出故障就说“都是 AI 害的”;
- 一有新模型就说“它已经像有意志的生物一样危险”。
这两种说法都很抓人,但都容易把真正的问题遮住。一个成熟社会面对新技术,最需要的不是更会讲鬼故事,而是更会区分:哪些是传播语言,哪些是事实;哪些是产品营销,哪些是真实能力;哪些是模型风险,哪些其实是人的失职。
AI 恐慌跑得比 AI 本身还快,这件事本身,也许才是今天最值得分析的现实。
夜雨聆风