当AI成为“作恶工具”:技术狂欢下的法律迷思与治理突围
2026年3月23日,霍启刚在个人社交账号上发出一声无奈的叹息——他的样貌和声线再次被AI盗用,生成的内容完全不是他的观点,连同事看了好一会儿才发现是假的。这已不是第一次。过去半年,他处理了几千条相关的假内容,安排同事专职跟进,每天投诉反馈,但每天依然有大量新内容发布。

霍启刚的遭遇只是AI乱象的冰山一角。当我们为AI技术的日新月异欢呼雀跃时,另一幅图景正在暗处生长:新型AI诈骗让人防不胜防,AI“薅羊毛”退货泛滥成灾,AI虚假营销频频误导消费者,AI“换脸”侵权此起彼伏,AI谣言四处流窜,AI数据污染风险不断攀升……技术从“利器”异化为“杀器”的速度,远超我们的想象。
一、乱象图谱:AI技术滥用的众生相
AI诈骗:从“耳听为虚”到“眼见亦假”。 当AI换脸和声音克隆技术日益成熟,诈骗手段完成了“技术升级”。不法分子利用深度伪造技术,冒充亲友、领导或公职人员进行诈骗,受害者往往在转账之后才发现受骗。这种诈骗方式隐蔽性强、识别难度高,普通人几乎无法辨别真伪。
AI“薅羊毛”:技术加持的灰色生意。 在电商领域,AI技术被用于批量注册账号、自动抢购优惠、恶意退货退款。一些“羊毛党”利用AI程序在秒杀活动中抢占先机,甚至以“7天无理由退货”为漏洞,通过AI生成虚假理由批量退货,严重扰乱市场秩序,损害商家和正常消费者的合法权益。
AI虚假营销:科技噱头下的消费陷阱。 打着“AI服务”“智能产品”旗号的虚假宣传层出不穷。一些商家夸大技术功效、虚标产品性能,让消费者为“科技噱头”买单。更有甚者,利用AI生成虚假的“专家推荐”“用户好评”,误导消费者决策。
AI“换脸”侵权:名人遭殃,普通人亦难幸免。 霍启刚、杨紫、迪丽热巴、肖战、成毅、薛凯琪等众多名人成为AI换脸的主要受害者。不法分子未经授权盗用其肖像,或用于商业营销牟利,或生成不雅视频传播,或植入虚假广告宣传。更令人忧心的是,AI换脸技术正从名人向普通人蔓延,任何人的照片都可能被用于制作虚假内容。
AI谣言:真假难辨的信息污染。 网信部门近期通报的多起案例触目惊心:有账号发布“狗在高铁站救下婴儿”等虚构感人视频未添加AI标识,有账号利用AI生成虚假火灾现场图片恶意炒作,有账号借AI魔改动画角色传播低俗暴力内容。这些AI生成的虚假信息以假乱真、快速传播,严重污染网络生态。
AI数据污染:模型“吃”自己拉出的“屎”。 当AI生成内容大量涌入互联网,新一代AI模型在训练时不可避免地“吃”进这些合成数据,导致模型退化、偏差放大、质量下降。这种“自噬”效应正在成为AI发展的潜在威胁。
二、法治回响:从零散应对到制度构建
面对AI乱象的蔓延,中国的法治回应正在加速。
立法层面:2026年网络安全法修订,首次明确AI安全规范。 新修订的《中华人民共和国网络安全法》已于2026年1月1日起施行,这是我国首部对人工智能安全作出专门规定的法律。新法第二十条明确规定:“国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。”同时,新法大幅提高了违法处罚上限,关键信息基础设施运营者违规最高可处一千万元罚款。这些规定为AI治理提供了基础性法律依据。
执法层面:网信部门高压整治,专项行动密集展开。 近期,网信部门针对无AI标识的虚假不实信息开展专项整治,依法处置账号13421个,清理违法违规信息54.3万余条。北京市网信办启动“清朗京华·AI向善”专项行动,重点整治五类涉AI领域网络乱象:利用AI生成色情低俗信息、利用AI生成假冒他人侵权信息、利用AI生成虚假谣言信息、售卖教授“去AI标识”行为、平台AI内容审核能力不足。
司法层面:典型案例确立裁判规则。 北京互联网法院近期审结的迪丽热巴诉某短剧平台案具有标志性意义。法院认定,短剧制作方擅自使用深度合成技术生成与演员高度相似的形象,侵害其肖像权;短剧播出方未尽合理审查义务,同样承担相应责任。这一判决明确了AI换脸侵权中的责任划分,为类似案件提供了裁判指引。
地方探索:四川网络法治建设走在前列。 四川正加快推进《四川省网络安全条例》立法进程,针对人脸识别技术滥用、人工智能治理等新兴问题启动专项立法调研。成都高新区网络综合治理服务中心运用数字孪生平台实现网络攻击的溯源推演与精准处置。雅安市探索“数智治理”模式,综合运用新技术为群众快速追回被骗钱款。
三、治理之困:法律与技术的时间差
尽管制度构建已初见成效,但AI治理仍面临多重困境。
技术迭代快于立法节奏。 AI技术日新月异,从生成对抗网络到扩散模型,从大语言模型到多模态AI,技术迭代周期越来越短。而法律从调研、起草到审议、通过,动辄需要数年时间。这种“技术快、法律慢”的时间差,使得法律往往滞后于技术应用,难以有效规制新型违法行为。
监管穿透力不足。 私域交易、社群营销等新型业态具有“脱离监管、闭环收割”的特点。商家将消费者从正规平台引流至微信、社群等私域场景,绕开担保交易与售后保障,一旦侵权便证据链断裂、责任难认定。这种“监管飞地”成为AI侵权的高发区。
识别成本高企。 对于普通用户而言,辨别AI生成内容的难度越来越大。霍启刚的同事“看了一段时间才发现原来是AI生成的”,这足以说明问题的严重性。当技术专家都难以分辨真伪时,要求普通用户具备辨别能力显然不切实际。
跨国治理协作困难。 AI技术的跨国性特征明显,训练数据可能来自全球,算法模型可能部署在境外,侵权主体可能藏身海外。这使得单一国家的法律难以有效规制,需要国际协作,而这恰恰是最薄弱的环节。
四、破局之策:构建AI治理的中国方案
面对AI治理的复杂挑战,中国需要构建系统性的应对方案。
完善法律法规体系,填补制度空白。 在网络安全法修订的基础上,应加快推进人工智能专门立法,系统规定AI研发、应用、监管的基本原则和制度框架。针对AI换脸、深度伪造等突出问题,可先行制定部门规章或司法解释,明确侵权认定标准和责任追究机制。同时,建立算法备案、安全评估、伦理审查等制度,将监管关口前移。
强化技术监管能力,实现“以技术管技术”。 监管部门应加强AI识别、溯源、取证等技术能力建设,提升对AI生成内容的监测和处置效率。推动平台企业履行主体责任,完善AI生成内容的技术识别和标识机制。对“去AI标识”工具和教程,应坚决予以打击。
加大执法力度,形成有效震慑。 对利用AI实施诈骗、侵权、造谣等违法行为,应依法从严惩处。建立健全跨部门协同执法机制,网信、公安、市场监管、文旅等部门形成监管合力。对典型案例及时曝光,对违法主体公开曝光,发挥警示教育作用。
加强法治宣传,提升公民防范意识。 四川“行走在山水之间的法治课堂”、雅安名山法治文化公园“实景学法+指尖普法”等创新做法值得推广。通过分众化、互动式、沉浸式的普法宣传,让公众了解AI风险、掌握防范技能、增强维权意识。同时,引导公众养成“公域下单、保留凭证、拒绝私下转账”的消费习惯。
推动国际规则制定,参与全球治理。 中国应积极参与联合国、G20、金砖等多边框架下的AI治理规则制定,推动形成兼顾发展与安全的国际共识。在“一带一路”等合作平台中,推广中国的AI治理理念和实践经验,提升话语权和影响力。
结语:让AI回归“向善”的初心
霍启刚在文末写道:“科技的发展不应该以牺牲个人权益为代价。”这句话道出了AI治理的核心命题。
技术本无善恶,关键在于如何应用。当AI从便民利器异化为侵权“杀器”,从效率引擎沦为造假工具,从知识助手变成谣言工厂,我们必须警醒:技术发展的轨道出现了偏离。这种偏离不是技术本身的问题,而是应用者的选择问题,是监管的缺位问题,是制度的不完善问题。
2026年,我国首次在基础性法律中明确AI安全规范,这是一次意义深远的制度突破。但要真正实现“AI向善”,还需要更完善的法规、更严格的执法、更深入的法宣、更广泛的社会参与。唯有如此,才能让霍启刚不再为AI盗用而困扰,让普通人不再为真假难辨而焦虑,让技术发展真正服务于人的全面发展。
法治不仅是AI治理的“安全带”,更是技术发展的“导航仪”。在法治的轨道上,AI才能行稳致远,回归服务人类、造福社会的初心。

夜雨聆风