乐于分享
好东西不私藏

当AI成为“脱衣”工具:数字时代下的非自愿影像与暴力

当AI成为“脱衣”工具:数字时代下的非自愿影像与暴力

点击蓝字,关注我们

一张自拍引发的数字噩梦

那天下午,Yukari如同平时那样,在社交媒体上发布了一张排练结束后的自拍照。

仅仅过了几个小时,她的私信和评论区就涌入了大量来自陌生人的信息,其中既包含一些指向诡异图片的链接,也充斥着许多不堪入目的留言。

当她点开那些链接时,看到的正是自己先前发布的那张照片——只不过,照片中的衣物被人工智能技术给“移除”了,取而代之的是一具赤裸的身体。

这些经过篡改的影像如同病毒一般,在各类聊天群组以及匿名论坛当中迅速扩散开来,而她甚至无从知晓最初究竟是谁将它们上传到网络上的。

泛滥的“数字伪造”与模糊的边界

类似的情况并非个例。

依据AI Forensics机构在今年年初所发布的一份监测报告,在过去的半年时间里,全球范围内的社交平台上,至少出现了十二万张由人工智能技术所生成的“非自愿性影像”。

在这些影像当中,有超过八成的内容涉及女性,而受害者里接近三成的比例是未成年人。

这类工具的操作过程极为简便,通常仅仅需要用户上传一张普通的照片,再点击几下按钮,就能够生成足以以假乱真的裸露图像。

该报告还特别指出,某些人工智能产品在进行宣传推广时,刻意模糊了“创意工具”与“骚扰工具”二者之间的界限,其产品内部所内置的诸如“换装”、“风格迁移”等功能,非常容易被滥用,进而演变为所谓的“脱衣”工具。

平台的困境与“舀海水”式的审核

面对这种情况,社交平台也并非完全没有采取行动。

在Yukari的事件持续发酵之后,相关的平台删除了一部分问题链接,并且对涉事的账号执行了封禁处理。

然而,漏洞依然存在:那些已经被生成的图像会被用户下载保存,随后通过私人聊天、加密文件传输或者境外的网盘服务进行二次传播,这使得追踪溯源的工作变得异常困难。

一位平台的内容审核员私下透露,他们每天都需要处理上千条与此相关的举报,但整个工作“就像是用一把勺子去舀海水一样”,根本赶不上新内容生成的速度。

全球监管觉醒与技术的责任

监管层面的齿轮也已经开始转动。

欧盟方面已经启动了对三家AI公司的调查程序,质疑它们的产品是否违反了《数字服务法》当中关于“系统性风险”的相关条款;在美国的加利福尼亚州,则有议员提交了一份新的法案,计划将未经他人同意就生成其裸露影像的行为,明确列为刑事犯罪;而日本警方则在近期,以“名誉毁损”的罪名,逮捕了一名多次利用AI工具制作女同事不雅照片的男子。

这些行动都传递出了一个明确的信号:技术本身,绝不能成为实施暴力的护身符。

技术从本质上来讲是中性的,但是一项产品的设计逻辑以及它所内置的防护机制,却决定了这项技术最终会流向何处。

当一键“脱衣”的操作比举报和删除内容更加容易,当生成虚假影像的成本几乎趋近于零的时候,作恶的门槛就被无限地拉低了。

那些被恶意篡改过的图像,所侵犯的远不止是屏幕上的像素点,更是一个个真实个体对于自身身体所拥有的主权,以及他们对于日常生活所应享有的安全感。

本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » 当AI成为“脱衣”工具:数字时代下的非自愿影像与暴力

猜你喜欢

  • 暂无文章