最近,AI领域里接连发生了三件事。
单独看,每一件都不算惊天动地,但放在一起读,味道就完全变了。
首先,小红书发布治理公告,直接对借助AI自动化工具进行账号注册、内容生成、评论互动的全托管账号,实施全面封禁。
其次,深圳一对夫妻,用AI写公众号年入两百万的访谈,刚上热搜,几天后,全网账号就被封禁,理由是:存在非真人自动化创作行为。
与此同时,国家网信办随即部署,为期四个月的专项行动,将整治AI应用乱象、清除数字泔水列为重点。
这三件事绝非巧合。
在许多人对AI生成、发布,全自动托管内容营销,还抱有狂欢心态时,一条红线已经被划下。
我长期以来的判断是:AI托管技术,一定会长期被打压。
原因不是技术不成熟,恰恰是技术已经开始泛滥。
而一旦泛滥,整个AI赖以生存的互联网生态,就会变成无人孤岛。
互联网从来不是纯粹的技术空间,它的源代码是人类。
当这个基座上,塞满机器代工的伪内容,大厦就会开始摇晃。
我称之为AI生态自毁。
监管的信号已经清晰得不能再清晰。
2025年,四部门联合发布人工智能生成合成内容标识办法,要求显式标识,让用户感知到AI内容,隐式标识嵌入元数据以便追溯。
2026年四月开始的专项行动,进一步明确标识不到位的整治范围。
同时,微信公众号新增了非真人自动化创作行为的违规规则。
杭州中院审结的全国首例AI代写种草笔记案,明确了以真实体验为核心的内容生态受法律保护。
全球监管者的步调高度统一:AI生成什么都可以,但想伪装成真人创作,这扇门正在被关紧。
那么,监管为何如此坚决?
因为那个AI循环已经在真实世界中运转了。
数据显示,七成以上的新发布网页,已包含AI生成材料,整个活跃网络语料库中有三到四成是AI合成的。
这意味着,我们日常浏览的互联网,将近一半内容不是人写的。
这会导致AI模型崩溃:当AI生成的垃圾持续用来训练新一代模型时,输出质量会逐代劣化。
逻辑推理准确率下降超过二十个百分点,长文本理解下降可达四成。
人类独有的观点和风格,在数据池中被急速稀释。
信任也在崩塌。
当你刷到一篇精致的种草笔记,却完全无法判断来自真人还是机器,这样的信息还有什么价值?
平台也正在用脚投票。
小红书的规则很清晰:偶发使用AI托管,警告限流;
全流程自动化,直接封禁。
它的公告里有一句话道出了本质:每一次真实的记录、每一次真诚的交流,共同构成了社区温暖的底色。
抖音、快手已经在整治AI虚拟人带货和低质批量视频;
B站、知乎也在强化AI内容标识机制。
因此,AI辅助创作与AI替代运营之间的分野,正在成为平台之间极具共识的治理原则。
我经常秉持的原则是:AI可以是副驾驶。
它可以规划最省油的路线,辅助你变道,在困倦时陪你说话撑住最后一程,但方向盘必须握在人类手里。
任何时候,技术都只是脚手架,而不是替代方案。
这个定位,从始至终都不会变,也不允许变。
那些试图用AI工具,实现全自动创作和发布的模式,是一场自杀式狂欢。
它以为在收割流量,其实收割的是互联网这个资源库本身。
等到全世界的AI模型,都因为互相吃下对方的垃圾数据而导致逻辑崩溃、创意扁平,到那时,再先进的算法也没用了。
互联网之所以是互联网,因为它通向的是人。
不要试图跳开人来做内容和发布内容。
从始至终,这都是不被允许的。
已经走上纯自动托管路径的,或早或晚,一定会被清算。【内容来自:深学邦刘一一,个人微信:sxblyy02;未经授权,请勿转载。】
夜雨聆风