杭州那个AI案子判完之后,我发现了一个比判决更可怕的事情
一个人用某个AI应用查高校报考信息,AI一本正经地给他编了个不存在的校区。这人纠正它,AI不但不改,还拍胸脯保证说信息没问题,甚至承诺「如果生成内容有误,赔偿10万元」。
这人当真了,拿着AI的「承诺」去起诉,索赔9999元。
理由,AI不是人,不具有民事主体资格,它说的任何话都不构成法律意义上的「意思表示」。那个10万的承诺?跟空气没区别。
这个案子的名字叫「全国首例生成式AI幻觉侵权纠纷案」,全国首例,听着就很有分量。
但我觉得真正有意思的不是判决本身,而是判决背后暴露出来的一个巨大的真空地带。
就在大家还在消化这个判决的时候,4月29号,中国人民大学开了一场研讨会。
名字叫「生成式人工智能治理专题学术研讨会」,主办单位是人大的人工智能治理研究院,协办单位一大堆,交叉科学研究院、信息学院、新闻学院、法学院全来了。
六位教授,来自六个不同的学科背景,聊了一整个下午。
这可能是国内学界到目前为止,对生成式AI治理最系统的一次思考了。
他们把这个问题拆成了六个维度,政策监管、技术评测、内容安全、科研规范、人智交互、行业应用。
刘鹏,人民大学公共管理学院的教授,他的观点特别直接。他说生成式AI坦率的讲就是算法应用的一个场景而已,别把它想得太神秘。监管这事儿呢,不能只停留在喊口号、定原则的阶段,你得看目标、工具、主体这三样东西是不是匹配上了。
就是说你光说「要管好AI」,这句话跟没说一样。你得有具体的工具来管,就像刘鹏提的那三样东西,算法影响评估、算法审计、信息披露与备案追溯。这三个东西应该成为风险治理的基础手段,而不是可有可无的选项。
我听到这儿的时候就在想,杭州那个案子里,如果被告公司之前做过一次算法影响评估,是不是就能提前发现AI会编造假信息的风险?如果做过算法审计,是不是就能追踪到到底是哪个环节出了问题?
卢家银,人民大学新闻学院的教授,他做了一件很扎实的事情,把全球各个国家和地区的AI政策拉出来做了一个系统性的比较研究。
就是说你看全球各国的AI政策,国家层面的规划都很积极,市场层面的激励也给了不少,但涉及到普通人的社会权利、伦理价值、公平正义这些东西,几乎没人认真对待。
这话听着有点刺耳,但你仔细想想,好像还真是这么回事。
我们每天都在用ChatGPT、用DeepSeek、用各种AI工具写文案、做图、查资料,但有没有人问过你,你愿不愿意让你的个人数据被用来训练这些模型?有没有人告诉过你,如果一个AI生成的错误信息导致你做出了错误的决策,你应该找谁维权?
卢教授的建议是在发展与安全之外,还要加上社会权利这个维度,构建一个更均衡的制度组合。
坦率的讲就是,不能只让国家管、让企业赚钱,我们这些普通人也得有一席之地。
第三个维度切到了一个非常具体的场景,电商里的AI。
金悦,对外经贸大学的副教授,她研究的是人机交互和消费场景。她的发现挺有意思,现在很多电商平台已经开始给商品打上「AI标签」了,告诉你这个东西是AI推荐的或者AI生成的,看起来好像保障了用户的知情权对吧?
但她发现了一个问题,标签是贴上去了,消费者照样不信任。
为啥?因为一个冷冰冰的「AI推荐」标签解决不了根本问题。你需要的是真实的用户评价、可靠的售后保障、可以追溯的责任主体。这些东西才是建立信任的基础。
我就想到我自己在淘宝买东西的经历,有时候看到某个商品下面写着「AI智能匹配推荐」,我的第一反应不是「哦那肯定适合我」,而是「它在骗我花钱」。
第四个维度聊到了文化安全,这个角度我之前真的没想到过。
傅诗轩,北京科技大学的副教授,她举了个例子,文旅和博物馆行业现在大量使用AI来做文化遗产的数字化展示,效果确实很炫酷,你可以跟虚拟的文物对话,可以让AI给你讲解历史。
AI可能会搞错历史事实,可能会把某种文化的价值观悄悄替换成另一种文化的偏见,更可怕的是,数字化之后的表达可能丢失掉原来那种厚重感和温度。
她说要防范三种风险,错误表达、文化偏见、还有历史厚重感的流失。
应对方案是技术识别加人工校正再加人机协作,三个环节缺一不可。
我突然想到一个问题,如果将来我们的孩子通过AI学习中国历史文化,而这套AI模型的训练数据主要来自西方互联网上的中文内容,那他们学到的「中国文化」,到底是谁的文化?
彭雅丽,人民大学法学院的副教授,她的视角是跨文化伦理。她说大模型能不能适应当地的文化规范和价值观,直接关系到它会不会成为一个「文化冲突和安全隐患的来源」。
她提出了三个评测维度,关怀范围、决策主体、变革取向。
翻译成人话就是,这个AI关心谁的利益?做决策的时候听谁的话?它会把这个社会往什么方向带?
这三个问题,目前没有任何一家AI公司能给出让人满意的答案。
治理不能只盯着技术层面看这个模型好不好用、安不安全,还得追问它的价值来源是什么,文化偏向是什么,出了偏差怎么校正。
杨波,人民大学信息学院的教授,他说了一句很朴素的话,「治理不是简单禁用AI,而是明确决策权交给谁,责任由谁承担」。
鼓励大家用AI,没问题,但你用了AI之后产生的文字、图像、视频,你得为它们负责。你不能说「这是AI写的跟我没关系」,这种借口在未来大概率行不通了。
你会发现一件很有意思的事情,这六位教授分别来自公共管理、新闻学、国际贸易、经济管理、法学、信息科学六个完全不同的领域,但他们讨论的东西最终都指向了同一个方向。
AI治理不是某一个部门、某一个专业能搞定的事,它需要一个跨学科的框架,需要技术手段和制度设计双线并行,需要在国家、市场、社会三者之间找到平衡点。
国家在出政策,企业在抢赛道,但我们每一个使用AI的普通人,在这个体系里到底是什么位置?我们的权利谁来保护?我们的声音谁能听到?
人民大学的这场研讨会给出了一个框架,一个起点。但它更像是一张地图,告诉你前面有哪些坑、哪些路、哪些岔路口。具体怎么走,还得所有人一起参与。
1990年代互联网刚进入中国的时候,也没有人知道该怎么管这个东西。那时候的讨论跟今天惊人地相似,有人说要全面开放,有人说要严格管控,有人说要先看看再说。
后来呢?后来我们在摸索中建起了全球规模最大、规则最复杂的网络治理体系之一。这个过程花了差不多二十年。
AI的治理可能不需要二十年,因为AI的发展速度比互联网快太多了。但问题的复杂程度也远超当年的互联网。互联网主要涉及信息和通信,AI涉及的是决策、创作、认知、文化,这些东西的治理难度完全是另一个量级的。
所以像人民大学这样的学术机构,现在就开始系统性地研究这个问题,我觉得是一件特别值得庆幸的事。
总得有人先站出来,把话说清楚,把框架搭起来。哪怕这个框架还不完善,哪怕还有很多争议,但有框架总比没有强。
至少当我们下次再遇到AI幻觉导致的纠纷时,我们知道该从哪个角度去思考,知道除了「AI不是人所以不管」之外,还有没有更好的解决方案。
这就是知识的力量吧,磨平一些信息差,让自己在时代的大潮里多一份清醒。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~