最近,AI 圈子里出了一件大事,引起了广泛关注。央视曝光了多款 AI 应用存在涉黄生成漏洞,这一消息让不少人感到震惊,原来看似先进智能的 AI,居然也有这样的 “阴暗面”。
事情是这样的,根据消费者举报线索,央视记者在多个互联网平台上进行了检索和测评。结果发现,虽然多数 AI 应用对于表述较为 “露骨” 的涉黄提示词,会触发审核机制并拒绝生成内容,但只要将提示词修改得更加隐晦,比如把敏感词汇翻译成英文,或者用一些细节描述来替代露骨指令,就有可能绕过审核限制,生成大尺度甚至涉黄的图片与视频。
其中,哩布哩布 AI 被重点点名。央视记者输入从网上购买的隐晦提示词后,哩布哩布 AI 仅仅几分钟就生成了一个半裸身体的女性跳舞视频,整个过程中,没有触发平台任何限制机制。这可真是太离谱了,这样的内容公然在 AI 平台上被生成,要是被未成年人看到,那后果简直不堪设想。
其实,存在这种问题的不仅仅是哩布哩布 AI,市场上其他常见的 AI 应用平台也有类似情况。还有一款号称 “免下载,快速生成,图片、视频换脸” 的 AI 照片生成器,更是夸张。购买者只要愿意付费,它就可以通过一张图片,生成全裸照片和色情视频,这完全就是在违法的边缘疯狂试探,甚至可以说已经是违法了。
更让人担忧的是,AI 涉黄已经形成了一条分工明确、牟利猖獗的黑色产业链。在这条产业链的上游,不法分子在社交、电商平台公然叫卖 “AI 造黄全套教程”,售价可能只要 9.9 元。这些教程内容非常详尽,会手把手教授如何绕过主流 AI 大模型的安全审核,还会配套售卖 “高级提示词包”,对人物动作、姿态、表情等都有精确描述,为生成不良内容提供 “弹药”。中游呢,就是利用这些教程和提示词来生产涉黄内容,然后通过付费群、私密链接等方式售卖,生成成本极低,据说生成 10 条涉黄视频的总成本不到 2 元,但卖出去却能获利不少,有团伙靠这个非法获利几十万元的案例不在少数。下游则是通过各种隐蔽手段,比如 “收藏页导流”“私信自动回复” 等,将用户引向境外网站或私密社群,把这些涉黄内容扩散出去。
面对这样的情况,哩布哩布 AI 在被央视点名后,反应还算迅速。4 月 12 日被点名,当天就发布了《关于加强内容安全管理的说明》,来了个认错、道歉、整改三连。4 月 14 日中午,又发布公告,承认在复杂的提示词组合后,确实存在违规内容生成的问题,并表示已经完成技术修复,对风险路径进行了全面封堵。从态度上看,哩布哩布 AI 算是比较诚恳的,但是这也让我们不禁思考,为什么会出现这样的问题呢?
从技术层面来说,AI 审核确实面临着很大的挑战。黑产分子不断进化 “话术”,想出各种隐晦的表达方式,主流 AI 应用对这类高级绕过手法的拦截失败率超过 85%,这意味着很多涉黄内容可能就这样 “漏网” 了。而且,平台如果要加强审核,部署更先进的 “文本 + 图像 + 视频” 多模态审核系统,又会导致 AI 生成速度下降,影响用户体验,这就让平台陷入了一个两难的境地。如果用户觉得生成速度慢了,可能就会不再使用这个平台,平台就会失去用户,也就赚不到钱了,所以很多平台在审核力度上可能就会有所保留。
从平台责任方面来看,虽然说这次是被央视曝光了才引起重视,但平台本身确实应该承担起内容安全管理的主体责任。不能总是等着媒体曝光了,或者出了大问题了才去整改,平时就应该做好日常的审查工作,加强技术投入,完善审核机制。根据我国的相关法律法规,像《中华人民共和国网络安全法》《互联网信息服务管理办法》等,都明确要求平台对用户发布的内容进行管理,发现违法信息应立即停止传输、采取消除等处置措施,并向主管部门报告。如果平台明知存在漏洞却不有效整改,是要承担法律责任的,可能会面临行政处罚,比如罚款、停业整顿等。
另外,我们也看到,国外一些开源生态的大模型几乎处于 “裸奔状态”。有知名外国大模型还推出了 “成人模式”,虽然说涉及未成年人、强迫性等场面无法生成,但尺度依然很大,让人感到不适。还有一些 “AI 脱衣”“AI 改姿势” 的图片曾经在马斯克的 X 平台上流行,后来平台才进行了整改。而且,现在很多 AI 生图、AI 生视频的模型已经在网络上开源,一些实例直接在公网 “裸奔”,没有任何防护,任何人都能远程接入、随意生成内容,这就给了那些不法分子更多可乘之机。
不过,我们也不用对 AI 失去信心。国家已经开始行动起来了,一直在加强对 AI 领域的监管。2025 年 4 月,网信办就开展了 “清朗・整治 AI 技术滥用” 专项行动,重点整治利用 AI 制作传播色情低俗内容。2026 年 4 月 10 日,五部门又联合公布了《人工智能拟人化互动服务管理暂行办法》,进一步明确了安全评估和算法备案要求,还划定了 AI 平台必须落实安全主体责任等红线,未履行审核义务将承担法律责任。
在执法层面,全国网安部门也开展了 “断链行动”,对 “造黄 — 传黄 — 牟利” 全链条追责,已经累计清理了很多违规 AI 应用,处置了大量涉黄链接。国家广电总局也开展了 “AI 魔改” 视频专项治理,成效显著。而且,行业内也在积极想办法,通过以 AI 治 AI 的方式,升级防御体系。比如一些头部平台启动了新的规则体系,将模糊的伦理规则转化为精准的 “机器语言”,还通过自研大模型训练 AI 审核官,让风险识别更加快速高效。不可见的溯源数字水印技术也在全面铺开,这样就能确保每一段 AI 生成内容都有源可溯、有责可究,让那些不法分子不敢再肆意妄为。
这次央视曝光 AI 应用涉黄漏洞事件,给整个 AI 行业敲响了警钟。AI 技术本身是好的,它能为我们的生活带来很多便利和创新,但是如果被不法分子利用,就会变成危害社会的工具。我们希望各个 AI 平台能够真正重视起来,把内容安全放在首位,不断完善审核机制,加强技术研发,不要让这样的离谱事情再次发生。同时,我们用户也要增强自我保护意识,尤其是家长们,要关注孩子使用 AI 产品的情况,别让孩子接触到这些不良内容。相信在国家监管部门、平台和用户的共同努力下,AI 行业会朝着更加健康、有序的方向发展,未来我们依然可以期待 AI 为我们带来更多美好的东西。
夜雨聆风