AI 正在以前所未有的速度入侵信息世界,而公众的分辨力还远远没有跟上。
2026 年 4 月 15 日这一天,两则与 AI 造假相关的新闻接连登上热搜,撕开了数字时代信息生态的隐秘伤口。
第一起是"罗志祥猝死"谣言。 4 月 14 日,网络上突然出现大量"46 岁罗志祥家中猝死,送医宣告不治"的帖文,甚至配有伪造的医院记录和经纪人回应截图。4 月 15 日,罗志祥不得不亲自现身上海浦东机场,举着一块写有"2026 年 4 月 15 日"的日期牌"硬核辟谣"。据调查,这条谣言的源头正是 AI 生成的虚假信息。
第二起是"奶牛猫火场救猫"视频。 一段视频在社交媒体疯传:高楼起火,一只奶牛猫叼着小白猫从窗口纵身跃下,下方消防员拉布稳稳接住。无数网友被感动落泪,称这只猫为"火场里的黑猫警长"。惠州消防抖音号转发时标注"内容来源于网络",但并未明确说明是 AI 生成。直到发布者本人承认视频系 AI 制作,一场"全网感动"的乌龙才就此曝光。
同一天,两起 AI 造假事件接力刷屏——前者令人愤怒,后者令人唏嘘。但它们的内核完全相同:AI 正在以前所未有的速度入侵信息世界,而公众的分辨力还远远没有跟上。
02 技术成本暴跌:造假的门槛已接近于零
AI 生成视频的技术进步速度令人震惊。就在几年前,制作一条以假乱真的视频还需要专业团队、昂贵设备和数周时间。如今,借助 Sora、Runway、即梦等生成式 AI 工具,任何一个普通人只需要几分钟、几元钱的成本,就能生产出一条看起来"真实可信"的视频。
更值得警惕的是,当前 AI 视频生成器的能力边界正在快速扩张:
- • 人物模拟:可以生成任何人说话、表情、动作的假视频
- • 场景构建:可以凭空创造完全不存在的场景和事件
- • 声音克隆:只需几秒音频样本就能复刻特定人的声音
技术门槛的消失,意味着"眼见为实"这一人类最基本的认知法则正在被颠覆。
03 传播链条断裂:标注≠有效告知
惠州消防的案例暴露了 AI 内容治理的核心困境:发布者确实在原始视频上标注了"内容来源网络",但这一关键信息在后续传播中被层层剥离。
一条信息的传播路径通常是:
AI 生成视频 → 平台标注"来源网络" → 大 V 转发(去标注)→ 媒体转载(再加工)→ 社交媒体刷屏 → 公众接受为"事实"
在这个链条中,每一棒都在简化、去标注化。当信息最终抵达普通用户时,"消防官方发布=真实发生"已经成为默认认知。这正是当前 AI 内容治理的结构性缺陷:标注不等于有效传播,真实性需要追溯链条。
04 情绪先行:我们的大脑天生容易被"感动"劫持
心理学研究表明,人类大脑对情绪化内容有天然的敏感度和快速反应机制。"动物救人"恰恰是最容易引发情绪共鸣的叙事类型——它触发的是人类最原始的保护本能和情感投射。
当公众看到"猫咪冒险救同伴"的画面时,大脑的杏仁核(情绪中枢)会立即激活,释放多巴胺和催产素,让人产生温暖、感动、想要分享的情绪体验。理性分析(这是真的吗?)往往要到情绪反应之后才姗姗来迟。
这就是为什么 AI 造假内容在情绪类内容上尤其有效——它精准地击中了人类认知的软肋。
05 平台责任与法律滞后
对于内容平台而言,AI 生成内容是一把双刃剑:
正面价值:AI 工具降低了内容创作门槛,丰富了平台生态 负面影响:假信息泛滥损害平台公信力,带来监管风险
目前主流平台的 AI 内容标识机制存在明显不足:
- • 标识位置隐蔽,用户往往忽略
- • 没有建立"AI 内容"的特殊标签体系
- • 对转发/再创作过程中的标识保留缺乏约束
更深层的矛盾在于:假信息往往比真信息更能吸引流量。
现行法律框架对 AI 造谣行为的界定存在模糊地带:
| 行为类型 | 现有规定 | 执法难点 |
|---|---|---|
| 恶意造谣 | 《治安管理处罚法》散布谣言可处罚 | AI 生成内容是否属于"故意散布"存在争议 |
| 名誉侵权 | 《民法典》人格权保护条款 | 受害者举证成本高,赔偿金额有限 |
| 平台责任 | 《网络信息内容生态治理规定》 | "避风港原则"为平台提供免责空间 |
06 数据支撑
用户规模触目惊心:据《中国网络视听发展研究报告(2026)》,截至 2025 年 12 月,我国网络视听用户规模已达10.99 亿人,市场规模近 1.29 万亿元。这意味着 AI 假信息的潜在受众是海量的。
传播速度惊人:以"奶牛猫救猫"事件为例,从视频发布到全网刷屏仅用了不到 6 小时。在注意力稀缺的时代,情绪化内容往往能在 24 小时内完成"病毒式传播",而辟谣信息通常需要数倍时间才能触达同等受众。
AI 生成能力飞速进化:据 OpenAI 发布的数据,2024 年至 2026 年间,AI 视频生成模型的性能提升了约300%,而生成成本下降了约95%。当技术变得足够便宜、足够强大时,滥用几乎是必然的。
07 社会影响
个体层面:信任成本急剧上升
当所有人都可能成为 AI 假信息的受害者时,"怀疑一切"正在成为新的社交礼仪。普通人不得不在每次转发前多问一句"这是真的吗",这无疑增加了信息消费的心理负担和社会成本。
社会层面:公共事件共识形成更加困难
在重大公共事件中,如果当事人或机构的回应被怀疑是 AI 伪造,如果官方发布的信息被质疑是 PS 处理,社会达成共识的成本将大幅上升。AI 假信息正在侵蚀公共讨论的基础设施。
法律层面:证据体系面临重构
在司法实践中,视频曾经是最有力的证据之一。AI 时代的来临意味着"有视频有真相"的逻辑已经破产。未来,如何建立 AI 内容的溯源机制(如数字水印、内容凭证),将成为法律和技术领域的重要课题。
08 结语
从"真假罗志祥"到"AI 奶牛猫",我们正在经历一个"任何视频都可能是假的"时代的阵痛。这不是危言耸听,而是正在发生的现实。
面对这一挑战,技术、法律、平台、个人缺一不可:
- • 技术层面:建立 AI 内容的强制溯源标准,让每一段 AI 生成视频都有可识别的"身份证"
- • 法律层面:完善 AI 造假的法律责任追究机制,降低受害者的维权成本
- • 平台层面:优化 AI 内容的标识机制,确保标注信息在传播链条中不被剥离
- • 个人层面:培养"先求证再转发"的信息消费习惯,在情绪上头时多按一按"暂停键"
当感动成为一种可以被批量制造的商品,当愤怒可以被算法精准触发,真正的稀缺品反而是那颗愿意停下来求证的心。在这个 AI 与人类共存的新时代,批判性思维或许是我们最后的防线。
免责声明:本文内容基于公开信息整理,旨在提供信息参考,不构成任何法律或投资建议。
夜雨聆风