这两年,AI写作像潮水一样涌进各大内容平台。文章、图片、视频、配音,几乎什么都能生成。随着乱象伊始,平台开始收紧规则,针对部分AI内容进行强制打上AI创作标签。对于这件事我是支持的。因为假的就是假的,生成的就是生成的,观众有权知道自己看到的到底是真人写的,还是机器拼凑起来的毫无感情的文字合成。
2025年各大平台都发布了《人工智能生成合成内容标识办法》已经把这件事说得很明确了:人工智能生成的内容需要特别标注AI创作标识,包括文本、图片、音频、视频都在范围内,这个文件自2025年9月1日开始施行,治理思路也从“生成”延伸到了“传播”环节。微信等平台随后也明确提到,用户发布AI生成合成内容时需要主动声明,平台也会对可能属于AI生成合成的内容进行提示。

我最近做了一个测试。拿自己亲手写的一篇文章去跑系统识别,结果却并不好看。明明是自己一个字一个字敲出来的,系统却还是给出“存在AI参与”的判断。那一瞬间,心里真的会哭笑不得。不是因为被打上标签本身,而是因为一种很荒唐的感觉冒了出来:难道以后一个人辛辛苦苦写出来的东西,还要先经过机器点头,才能算是“人写的”?
更讽刺的是,当我继续追问,为什么明明是自己写的,还会被判断成不像人工创作,有些识别模型给出的回答竟然是:可能你的文章太规整、太完整、太像AI常见风格,所以被误判了。
看到这种回答的时候,我心里不是震惊,是发堵。
怎么会变成这样呢?
人类认真写一篇文章,讲逻辑,讲结构,讲节奏,讲句子的完整和漂亮,本来是一种能力。结果到了今天,这种能力反而可能变成“嫌疑”。文章太顺,像AI;段落太规整,像AI;论证太全面像AI;表达太干净,也像AI。最后我们会得出一个荒唐的结论:你如果想证明自己是真人创作,就不能写得太好,不能太像标准答案,甚至最好还得留一点毛边,留一点瑕疵,留一点不那么整齐的痕迹。只有这样做到不完美,才能体现真人创作痕迹。
这就有点可怕了。

可问题是,人类本来就有权利追求完美。一个作者反复修改标题,推敲句子,一个个的抠字眼,目的就是让文章尽可能完整和清晰,这本来就是创作的一部分。什么时候开始,人造的完美,反而成了一种风险呢?
我们当然知道,平台也有平台的难处。现在AI功能太强大了,造假、搬运、洗稿、甚至100%的AI输出,这些问题已经呈泛滥之势。国家层面推进标识治理,平台跟进完善规则,这本身没有错。网信部门在答记者问时也说得很清楚,这套办法重点是解决“互联网内容的创作乱象,读者有权利知道自己阅读的到底是作者自己的观点,还是无意识的机器输出,这本质上也是为了提升互联网创作的透明度和可信度。
但治理不能偷懒,更不能一刀切。
不能因为AI越来越像人,就索性把“像AI”当成一种原罪。不能因为技术识别有成本,就默认误判由创作者自己消化。更不能把流量分发、原创判断、内容信用,全都压在一个并不总是靠谱的检测结论上。
说到底,AI检测再厉害,它也只是概率判断,不是上帝视角。它能识别模式词频,识别句法和结构习惯,可它识别不了一个人为什么会在深夜改掉某一句话;识别不了一个人删掉一段又补上一段时的犹豫;识别不了一个人写到某个地方突然停下来发呆十分钟的那种情绪。机器看到的是结果,人经历的是过程。可偏偏现在,过程常常不被看见,结果一旦长得太“标准”,就可能被扔进AI的框架里。
这才是真正让人不安的地方。
如果这种趋势继续往前走,最后会出现一种很奇怪的写作生态:不是大家都在努力写得更好,而是大家都在琢磨,怎样写得不那么像AI,不那么完美,甚至故意给自己的作品带上瑕疵。于是有人刻意留白,故意打乱逻辑或者硬塞一些口语,让写作不再是自然表达,而变成一种对审核系统的反向表演。
那可就真的本末倒置了。

我始终觉得,AI最大的问题,不是它会写,而是它太会模仿。可即使模仿得在像,也不等于它就能代替人工。人类写作最重要的,从来都不只是漂亮结构,也不只是通顺逻辑,而是在一行行字眼的背后附带的自身情感。
所以这件事真正该警惕的,不是“完美写作有没有错”。
而是完美当然没有错。
错的是有一天,我们竟然需要向机器解释:我为什么写得这么完整和无瑕,这根本不符合人类的创作风格。
如果真到了那一步,被绑架的就不是某一篇文章的流量了。被绑架的,是人类对“写作”这件事本身的定义权以后只能沿着粗糙的方向走。

延伸阅读:如何判断一篇文章是否是AI所写,今天就来系统的总结一下
夜雨聆风