乐于分享
好东西不私藏

AI生成的儿童性虐材料“没有受害者”?

AI生成的儿童性虐材料“没有受害者”?

AI CSAM,译为AI生成的儿童性虐待材料,一些人认为,这类材料只是幻想不是真实内容,所以没有真实受害者。事实是这样吗?有研究显示,仅一个暗网论坛,单月就出现超过2万张疑似AI生成的非法图像,其中27%在英国已属违法。84%的青少年认为深度伪造裸照会给被害人带来真实的身心与名誉伤害,而这类材料,正被用于胁迫、诱骗和勒索未成年人,甚至成为部分人走向线下犯罪的“门户”。

2023年,英国互联网观察基金会在某暗网论坛一个月内发现了超过两万张疑似AI生成的露骨图片。到2024年,该基金会收到的涉及AI生成的儿童性虐材料的有效报告数量比前一年增长了380%。同年,美国国家失踪与受虐儿童中心收到的涉及儿童性虐视频的报告比图片类报告多出了五百万份。

有人对这类合成材料的态度是:既然没有真实的孩子在拍摄过程中受到直接伤害,那它危害较小,甚至可能帮助某些人控制欲望,从而减少真实犯罪。然而,一篇由英国肯特大学等机构学者发表于2026年的最新研究明确指出,这种“无害论”,建立在对伤害机制的严重误解之上。

研究人员梳理了AI生成儿童性虐材料带来的七种切实危害,其中许多已经出现在现实中。

一个最直接的伤害是,这类材料可以用于描绘真实的孩子。无论是已知的性侵受害者、在社交媒体上无意间分享照片的未成年人,还是在公共场所被偷拍的儿童,AI工具都能利用一张普通的非露骨照片生成露骨的虚假影像。幸存者即使已经被从虐待环境中解救出来,仍可能因为这些合成影像继续遭受二次伤害。一项调查显示,84%的青少年和年轻人认为这类所谓的“深度伪造裸照”会给被描绘者带来切实的心理、情感和声誉伤害。受害者报告了羞辱、焦虑、失控感等创伤反应。

AI生成的儿童性虐材料还被武器化,用于实施性勒索和性诱导。在那些能够识别具体手法的性勒索案件中,有11%的案例涉及利用伪造的儿童性影像进行威胁。犯罪分子利用这些虚假影像迫使孩子拍摄真实的露骨材料、支付金钱或提供敏感信息。性勒索已知与多起未成年人自残和自杀事件有关。

另一个被广泛忽视的危险是,这类合成材料正在降低人们对儿童性剥削的心理防线。一份英国调查发现,40%的成年人对于AI生成的儿童性虐材料是否合法表示不确定,甚至有人相信它是合法的。这种法律认知上的模糊让使用者更容易为自己的行为开脱——“反正没有真实孩子受害”。然而研究发现,长期接触这类极端材料的用户,其道德和情感抑制会逐渐减弱。

更严重的是,AI工具能够生成比真实世界中存在的儿童性虐影像更加暴力、虐待狂式的极端场景。暗网论坛上的使用者讨论中提到,他们正在创造符合“最狂野幻想”的内容。这种按需生成的能力,可能进一步加剧使用者的脱敏和行为升级。

研究指出,AI生成的儿童性虐材料还可能成为一些人走向真实犯罪的“入口”。一些论坛上的讨论显示,有人故意将AI生成的影像分享给尚未接触过真实儿童性虐材料的人,以此作为“入门”。对于原本就因为对儿童有性兴趣而具有风险的人群,AI材料提供了一种看似“安全”的出口,但这种出口反而可能削弱他们原本基于道德或法律恐惧而形成的自我保护。

青少年群体本身也在成为加害者和受害者的双重角色。调查显示,十分之一的未成年人表示认识身边同龄人曾使用生成式AI制作其他孩子的露骨影像。年轻人通过应用商店或普通网页搜索就能找到相关AI工具,出于好奇、同伴压力、报复或霸凌的目的制作同学的虚假裸照。这些影像一旦生成,就可能通过分享或泄露扩散到原始同伴群体之外,导致反复受害。工具将脑海中的想象,转化为可传播、可造成实际伤害的内容。

对于执法和儿童保护系统而言,AI生成技术带来了前所未有的压力。当真实影像与合成影像越来越难以区分时,调查人员需要花费大量时间和资源去验证一份材料到底是否涉及真实儿童。而AI对真实影像的修改还可能抹去或掩盖关键的取证细节,比如孩子所在的位置信息,使得识别正在遭受现实虐待的受害者变得更加困难。

除此之外,一些科技平台向举报中心提交儿童性虐材料报告时,并非总能标注出哪些是AI生成或修改的,这导致无法有效分流和优先处理最紧急的涉及真实儿童受害者的案件。

直到现在,AI儿童性虐材料已经出现了商业化和盈利驱动的趋势。有案例显示,这类材料被直接售卖,甚至提供“定制订单”来满足特定的剥削偏好。还有一些专门为生成儿童性虐影像而训练的AI模型在地下网络中传播。

认为AI生成的儿童性虐材料“危害较小”或“可以作为减害工具”的说法,忽视了它实际上如何放大了儿童性剥削的风险链条。它不是与现实隔绝的幻想产品,而是建立在包含真实儿童性虐影像的训练数据集之上,能够描绘真实存在的孩子,能够助长犯罪行为升级,并且正在制造新一代的受害者和加害者。

面对这种技术驱动的伤害形态,仅仅依靠事后删除和举报,已经远远不够。

参考文献:Ó. Ciardha, C., Buckley, J. & Portnoff, R. AI-generated child sexual abuse material: what’s the harm?. AI & Soc (2026).

人类声明

本栏目内容涉及AI技术的社会影响、伦理讨论及未来展望,包含公开资料、作者个人观点、学术探讨、跨界思辨等,旨在引发思考与对话。无论人工智能如何发展,人类都应保持批判性思维,独立判断。欢迎在评论区理性探讨,但思辨就是这样,很可能没有“答案”。这不代表我们的思考是没有意义的。

如有存在内容侵权、不希望被转载等情况,原内容创作者可私信本账号说明,账号将立即进行删除处理。