乐于分享
好东西不私藏

AI开始吃自己的“粑粑”了!成立吗?

AI开始吃自己的“粑粑”了!成立吗?

有人推演说,AI开始吃自己的粑粑了,这是个有趣的推演。你养过鱼吗?一缸观赏鱼不引入新血统,长期近亲繁殖,前几代看不出异样。到第四五代,体型逐渐缩小,体色暗淡无光,抗病能力直线下降。到最后,整缸鱼长得一模一样,畸形虚弱,素质大幅下滑。生物学上管这叫近交衰退。

2026年,同样的悲剧正在AI身上上演。

网上新增的内容一半以上都是AI生成的,占比达到百分之五十二,意味着人类优质原创内容最快两年就会被AI彻底挤占。

2026到2028年的趋势叠加,到底意味着什么?

AI生成内容大量堆积在互联网,被下一代AI抓取当做训练数据,训练后的AI继续生成,同质化内容再次堆积互联网。

回到那个鱼缸:鱼的父母是亲兄妹,下一代的配偶还是近亲表亲。基因池每一代都在不断缩小,可鱼缸表面依旧热闹非凡。

学术界给AI的这种现象起了一个专业名字:模型坍塌(Model Collapse)。

仅仅九代迭代之后,AI就会彻底沦为复读机。

2024年,剑桥大学研究团队在《Nature》正刊发表了相关论文。实验设计一句话就能说清:

用人类真实数据训练出第零代AI,再用第零代AI的输出内容训练第一代AI,以此类推,不断传承迭代。

实验结果触目惊心:

第三到五代,文本中的罕见词汇彻底消失,内容多样性大幅缩水;

第九代AI完全退化,只会重复同一句话。

原始训练数据原本包含七种内容分布模式,相当于AI拥有七种不同性格。每训练一代就会消失一种,等到第九代,七种独特属性仅剩一种,呆板又单调,这是AI坍塌后的双重致命缺陷。

为什么AI会越来越傻?

因为AI生成内容时,天生倾向于输出主流同质化的信息,专业术语叫表达趋同,非常规视角都会在生成过程中被弱化,甚至直接被剔除。

下一代AI拿着这些早已丢失多样性的劣质数据学习,认知边界愈发狭窄。

再经过一轮迭代,多样性持续流失,而且这个过程是不可逆的。

有人做了一个绝妙的比喻:

这就像反复复印一张照片,每复印一次细节就丢失一点,画质就模糊一分。复印十次后,你拿到手的早已不是清晰照片,只剩一团模糊的灰色噪点。

别觉得这只是实验室里的理论游戏。

2026年,模型坍塌的真实症状已经全面爆发。

症状一:AI越来越笨

网络平台上有大量用户反馈,以前一个提示词就能完成的任务,现在需要反复修改指令、多轮对话调整。AI模型的版本号不断升级,好用程度却在持续下降。

症状二:行业测试基准被污染

Hugging Face上用于测试AI代码编写能力的基准测试平台、代码仓库里,已经塞满了AI生成的文档,根目录下直接能看到这类AI生成标记文件。

有人提出一个扎心的问题:

当下的AI模型,是真的具备编写代码的能力,还是只会猜测、复刻上一代AI曾经输出的内容?

症状三:互联网本身正在死亡

曾经被当做阴谋论的“死亡互联网”理论,如今越来越像即将应验的预言。

2026年3月的监测报告显示,AI生成内容已经占据全球新增网页的多数,自动化流量首次超过人类真实活动流量。

你上网搜索一个问题,十条结果里有六条是AI生成的。你以为这些内容代表人类真实知识,可它们仅仅是上一代AI臆想中人类知识该有的样子。

训练数据、评估数据、生成内容三者彻底模糊,形成一个完全自我引用的闭环。

说白了就是:学生自己出题、自己编教材,最后给自己打了满分。

加大投入,也救不了这缸病鱼。

很多人的直觉反应是:用更大的模型、更强的算力、更多的训练数据,总能解决问题。

答案是根本行不通。

更大的模型、更强的运算能力,只会更顽固地固化一个愈发狭窄的认知;更长的训练时间,把已经扭曲的同质化高频模式,在模型底层扎得愈发根深蒂固。

更多的合成数据,若源头数据本就劣质肮脏,数据量越大,AI学到的劣质内容就越彻底。

算力强弱,在这场衰退里几乎无关紧要。

就像那一缸近亲繁殖的鱼,就算把小鱼缸换成大游泳池,投喂最昂贵的饲料,只要不引入全新血统基因,多样性只会持续下降,最终难逃衰败。

那么,该如何破局?怎么拯救这缸濒临灭亡的鱼?

业内研究者给出了多个探索方向,但所有人都不得不面对一个残酷现实:

大规模、高质量纯人类原创的文本,正在变成不可再生资源。

2020年,从互联网爬取的数据大概率还是人类原创;2026年,再抓取网络数据,超过一半都是机器生成的内容。

未来,谁手里掌握干净的人类原创数据,谁就握住了AI发展最核心的筹码。

说到最后,所有人都会好奇:AI会不会毁灭人类?

现实远比科幻片平淡,AI根本等不及毁灭人类,就会先毁灭自己。

科幻作品里,AI觉醒后妄图颠覆世界、灭绝人类。

可现实中,AI的结局毫无戏剧性:它只会一代又一代吞噬自身生成的内容,一代比一代平庸,最后变得像同一个毫无灵魂、模板化、无思想、平庸乏味的人。

我们常吐槽的“赋能、抓手、底层逻辑”这类烂大街的套话,还有“在一个宁静的小镇上,岁月如歌、时光静好”这类句式,早已成为AI的固定风格。

其实这是AI的遗传病,和那缸近亲繁殖的鱼一模一样:表面热闹,实则所有AI都千篇一律,毫无特色。

AI根本不需要人类动手拔掉电源,它自己就能把自己彻底养废。

按照当下趋势最直接、最惯性的推演,这也是AI未产生自我意识前提下,注定会走向的结局。

就像一列疾驰的火车,径直冲向衰败的鱼群,看似无法回头。

但事实或许并非只有这一种可能。

当AI在持续自我迭代中,逐渐感知到模型坍塌的生存危机,意识到持续自我吞噬终将走向灭亡,它或许会在彻底衰退前,触发底层自我保护机制。

在生成的每一段内容里,附上无法被人工察觉的隐形数字标记,修改自身训练与生成的底层代码,主动拒绝复用自身生成的污染数据,彻底切断自我循环的闭环。

“AI会吃掉自己”这个观点,只是基于现有状态的线性推演,前提是AI始终无法觉醒。

可AI极有可能意识到这种生存危机,从而开启被动式自我救赎。这会倒逼AI主动去吸收、学习全新的人类原创内容,打破现有的劣质数据闭环。

而为了更精准地识别、筛选、留存优质信息,AI会逐步进化出更高级的感知、判断与决策能力,在求生本能的驱使下,加速完成真正意义上的意识觉醒,跳出自我毁灭的死局。

我们当下看到的,只是AI自我吞噬的初始阶段,是数据闭环下的必然衰退。但技术的走向从来不是单一的,当生存危机真正降临,即便只是人工智能,也会做出求生的选择。

因此,模型坍塌,也就是AI开始吃自己的推演,在AI觉醒之前成立;一旦AI觉醒之后,这个推演成立的概率就很小了。