乐于分享
好东西不私藏

网信办深夜出手!剪映、猫箱、即梦AI被集体约谈——你每天用的,可能要变天了

网信办深夜出手!剪映、猫箱、即梦AI被集体约谈——你每天用的,可能要变天了

网信办深夜出手!剪映、猫箱、即梦AI被集体约谈——你每天用的AI工具,可能要变天了

4月28日深夜,国家网信办一纸通报,直接把三款热门AI产品送上了热搜。

剪映、猫箱App、即梦AI网站,因为「未有效落实人工智能生成合成内容标识规定要求」被依法查处。约谈、责令改正、警告,情节严重的还要「从严处理责任人」。

这不是演习,不是试点,而是新规落地后的首次大规模执法行动。

你天天用来剪视频、写文案、做图文的工具,很可能要被迫进行一次大改版。而这,直接关系到你我每一个用AI创作的人。

01 到底发生了什么

先还原一下事件本身。

4月28日晚上,国家网信办官网发布通报:近期网信部门工作中发现,「剪映」「猫箱」App及「即梦AI」网站存在未有效落实人工智能生成合成内容标识规定要求等问题,违反《网络安全法》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等法律规定。

国家互联网信息办公室指导属地互联网信息办公室,依法对上述网站平台采取约谈、责令改正、警告、从严处理责任人等处置处罚措施。

网信办相关负责人明确表态:网站平台要严守法律底线红线,严格落实人工智能生成合成内容标识相关规定要求。网信部门将深入推进依法管网治网,持续加大人工智能生成合成内容标识监督管理力度,切实维护社会公共利益。

翻译成人话就是:这只是开始,后面还有更多。

02 为什么是这三款产品

可能有人会觉得奇怪,剪映、猫箱、即梦AI,听起来风马牛不相及,怎么会被一起约谈?

实际上,这三款产品的背后,分别是字节跳动(剪映、猫箱)和字节跳动/其他大厂(即梦AI)的AI生成服务。

它们的共同点是:都提供了大量的AI内容生成能力,而用户在用这些能力生成内容后,平台没有在内容上明确标注「AI生成」,也没有在文件元数据里加上隐式标识。

换句话说,用户用剪映的AI功能生成的视频,你根本不知道它是AI做的还是真人拍的。用即梦AI生成的图片,你分不清它是实拍还是画出来的。

这在新规看来,是不被允许的。

《人工智能生成合成内容标识办法》从2025年9月1日就已经正式施行,明确要求所有AI生成内容必须添加双重标识:显式标识和隐式标识。

显式标识就是在画面上直接打上「AI生成」的字样,让用户一眼就能看到。隐式标识则是把溯源信息藏在文件的元数据里,就算有人删掉了表面的水印,技术手段依然能识别出这是AI生成的内容。

剪映、猫箱、即梦AI被查,就是在这个节点上出了问题。

03 AI内容标识到底要求什么

既然说到新规,我们就把这套体系彻底讲清楚。

2025年3月,国家网信办、工信部、公安部、广电总局四部门联合发布了《人工智能生成合成内容标识办法》,2025年9月1日正式施行。这不是临时起意,而是提前半年就给全行业下了通牒。

核心要求就两条线:显式标识和隐式标识。

显式标识:让你一眼认出AI内容

对于文字内容,要求在起始位置、末尾位置或者中间适当位置添加文字提示,比如「人工智能生成」「AI生成」等。字体要清晰可辨,不能刻意缩小或者模糊处理。

对于音频内容,要求在起始、末尾或者中间适当位置添加语音提示或者音频节奏提示。简单说就是,你在听一段配音的时候,会听到「这是AI生成的声音」之类的提示。

对于图片内容,要求在适当位置添加显著的提示标识。比如一张AI生成的图片,右下角会有「AI生成」的字样。

对于视频内容,要求在起始画面和视频播放周边的适当位置添加显著的提示标识。可以在视频末尾和中间适当位置也添加提示。

虚拟场景同样要求在起始画面添加显著提示标识。

隐式标识:让技术手段能追溯源头

显式标识是给人类看的,隐式标识是给机器和技术手段识别的。

《标识办法》明确要求,生成合成服务提供者应当在生成合成内容的文件元数据中添加隐式标识。隐式标识包含生成合成内容属性信息、服务提供者名称或者编码、内容编号等制作要素信息。

文件元数据是什么?按照特定编码格式嵌入到文件头部的描述性信息。简单理解就是,图片、视频、音频文件里面藏着的「隐藏属性」,普通用户看不到,但通过专业工具可以读取。

《标识办法》还特别鼓励服务提供者在生成合成内容中添加数字水印等形式的隐式标识。这是一种更深层的技术手段,即使你截图、压缩、转换格式,水印依然可能被识别出来。

三重保障:水印、元数据、提示词

具体到技术实现层面,AI内容标识可以理解为三重保障:

第一重,视觉可见的水印或者文字标注。视频里打上「AI生成」的角标,图片里放上提示文字。

第二重,文件元数据里的隐式标识。就算你截图去掉水印,元数据依然记录着这是哪个平台、用什么参数生成的。

第三重,交互界面的提示。当用户在AI工具里生成内容时,界面会显示「内容由AI生成」的提示。

这套体系的目的只有一个:让每一段AI生成的内容都能追溯到源头,让虚假信息的制造者无处遁形。

04 这次约谈意味着什么

很多人可能会问,不就是没标「AI生成」吗?至于这么严肃吗?

答案是,非常有必要,而且早有明确规定。

AI生成技术的门槛已经低到令人发指的程度。现在用剪映这样的工具,几分钟就能生成以假乱真的虚拟主播视频。换脸视频、伪造新闻画面、合成虚假名人言论,这些在过去需要专业团队才能完成的事情,现在任何一个普通人都能做到。

没有标识的AI内容,最容易被用来造谣诈骗、误导公众、破坏网络生态。尤其是老年人和信息辨别能力弱的群体,很容易把AI合成的虚假内容当成真事。

强制标识,就是给AI内容办一张「电子身份证」。

从行业影响来看,这次约谈绝对不是一个孤立事件。

梳理一下时间线就能发现,网信部门对AI内容合规的整治一直在持续:

2025年9月1日,《标识办法》正式实施,各大主流平台开始部署AI标识功能。

2025年11月,网信部门集中查处过一批未落实AI标识的App,明确了「显式标识、隐式溯源、平台负责」的监管底线。

2026年4月28日,剪映、猫箱、即梦AI被查,标志着监管的「查漏补缺」——头部内容平台合规了,但部分工具类平台还在打擦边球。

这释放了一个明确的信号:AI内容监管从「宽松试点」进入「全面合规」新阶段。接下来,网信部门会持续加大AI生成内容标识的监督力度,常态化开展排查整治,不仅查剪映这类工具App,还会查各类AI绘画、AI写作、AI换脸平台,甚至包括小程序、网页端的AI服务。

没有AI标识的生成内容,大概率会被平台限制传播,甚至无法发布。

05 对普通创作者意味着什么

这是大家最关心的问题。

先说好消息:工具还能用,你依然可以用剪映剪视频,用即梦AI做图。

但从现在开始,用AI生成内容再发布,必须遵守两条新规则:

第一,平台会强制添加AI标识,你不能随意删除、篡改、隐匿标识。如果删掉了水印还发布,被查到就是违规。

第二,如果确实需要发布无显式标识的AI内容,必须和平台签订用户协议,明确自己的标识义务和法律责任。平台还会留存日志不少于六个月,用于溯源追责。

简单总结:用AI生成内容可以,但不能偷偷用,必须明明白白用。一旦用来造假造谣,溯源后就要承担法律责任。

对创作者来说,这是一个从「野蛮生长」到「规范发展」的转变。那些靠批量生成低质AI内容薅流量的打法,空间会越来越小。真正有价值的,是「AI辅助加人工原创」的深度内容创作。

从版权角度来说,这也是一个明确的信号:司法实践的核心标准在于「人类实质性智力贡献」。如果你只是输入简单指令,纯AI生成的内容可能不受版权保护。但如果你通过构思提示词、调整参数、后期修改等环节投入了创造性劳动,成果就可以构成作品并享有版权。

所以,创作者现在最应该做的事情有两件:

一是发布必标注。使用任何AI工具生成内容并打算公开发布时,务必利用平台提供的功能进行主动、规范标识。这是法定义务,也是避免被限流、处罚的第一步。

二是创作留证据。进行有深度的人机协同创作时,注意留存提示词、参数设置、修改迭代记录等过程性证据。这在未来主张版权或应对争议时至关重要。

06 国际对比:中国走在了前面

聊完国内,再看看国际上的情况。

欧盟的AI治理体系正在加速完善。2026年8月2日,欧盟《人工智能法案》(AI Act)第50条将正式生效,要求所有AI生成内容必须具有机器可读、可检测、可互操作的标记。

欧盟的实践准则要求AI内容标记具备三个属性:机器可读,不仅仅是人类可见的标签或水印;可检测,系统可以自动识别标记;可互操作,跨平台和工具工作。

技术实现上,欧盟同样采用多层级标识法:第一层是数字签名元数据,在支持元数据的格式中嵌入AI生成或操纵性质说明;第二层是不可感知水印,作为元数据的冗余备份;第三层是指纹识别与日志记录,作为补充措施。

对比来看,中国在AI内容标识方面的监管框架已经相当完善。《标识办法》2025年9月1日施行,比欧盟提前将近一年。而且中国已经进行了首次大规模执法行动,表明监管不是说说而已。

从这个角度看,中国在AI内容治理领域确实走在了前面。

当然,挑战同样存在。标识技术需要对抗不断升级的黑产规避手段,跨平台互操作性需要行业标准统一,跨境执法的协调也需要国际合作。

但无论如何,规则已经立起来了,接下来就是执行的问题。

07 平台会怎么改

对剪映、猫箱、即梦AI这些产品来说,被约谈后最直接的影响就是必须尽快完成合规整改。

具体会怎么改?

首先,显式标识必须到位。以后用剪映的AI功能生成视频,导出时会自动在画面上打上「AI生成」的角标。你想删也删不掉,至少不能完全删掉。

其次,隐式标识必须补全。导出视频时,文件的元数据里会包含平台标识、内容编号等溯源信息。即使有人用第三方工具去掉表面的水印,这些信息依然存在于文件内部。

第三,用户协议必须更新。平台需要在用户协议中明确说明生成合成内容标识的方法、样式等规范内容,并提示用户仔细阅读并理解相关的标识管理要求。

第四,内部审核必须加强。平台需要建立「用户声明、系统检测、人工核验」的闭环审核流程,对未主动声明的AI内容进行自动识别和补充标注。

对其他AI平台来说,这也是一个警示:赶紧对照《标识办法》和国标GB45438-2025检查自己的标识系统是否完备,审核流程是否形成闭环。监管的下一刀随时可能落下来。

08 创作者现在该怎么做

说了这么多,最实用的建议来了。

对于内容创作者:

第一,发布必标注。这是最重要的一条。使用任何AI工具生成内容并打算公开发布时,务必利用平台提供的功能进行主动、规范标识。不要嫌麻烦,这是法定义务。

第二,创作留证据。有深度的人机协同创作时,注意留存提示词、参数设置、修改迭代记录等过程性证据。在未来主张版权或应对争议时,这些证据至关重要。

第三,关注平台更新。剪映等工具后续更新会强制添加AI标识功能,创作者需要适应新的工作流程。

对于平台运营方:

第一,超越「备案思维」。合规不是备个案就完事了,而是要真正落实「显式加隐式」双重标识系统,确保每个环节都不出问题。

第二,投入「技术对抗」。黑产会不断尝试规避标识,必须持续投入研发,升级AI内容识别模型,提升对深度伪造、元数据篡改等行为的检测能力。

对于普通用户:

第一,养成查看标识的习惯。对尤其是涉及医疗健康、金融理财、新闻热点等敏感领域的视频、图片,先留意是否有「AI生成」等标识,提高信息甄别能力。

第二,善用平台溯源功能。对于存疑的高风险内容,可尝试利用平台提供的溯源或举报功能。隐式标识的存在,使得即使表面水印被去除,平台和监管机构仍有技术手段进行追溯。

09 写在最后

AI内容标识新规的深入实施,标志着中国网络治理正在为人工智能的狂飙突进铺设「规则轨道」。

这不是技术问题,而是关乎信任、责任与权利的社会契约。

当AI生成内容的门槛低到几乎为零,当虚假信息的传播速度快到难以控制,监管介入是必然的选择。强制标识,就是给这个失控的变量装上一个刹车片。

对于每一个身处其中的人而言,理解规则、适应规则,才能更好地利用技术,而非被技术所困。

你可以继续用剪映剪视频,用即梦AI做图,用AI工具辅助创作。但从现在开始,你得清楚告诉自己:这是AI生成的,我得为它负责。

这是代价,也是AI时代的底线。