当前时间: 2026-05-09 17:06:04
分类:办公文件
评论(0)
人工智能时代的新工具论及其法律意义 2026年5月8日晚,我应邀在中央民族大学法学院做了一场讲座,题目是“人工智能时代的新工具论及其法律意义”。这场跨学科的学术讨论持续了近三个小时,来自法学、人类学等不同领域的学者围绕人工智能的工具属性、对法律体系的冲击以及社会影响展开了深入对话。一、问题的起点:为什么要重提“工具论”?
今天谈论人工智能与法律的关系,大多数人关注的是具体问题:AI生成的内容有没有著作权?用AI换脸侵犯了什么权利?自动驾驶出事故谁负责?这些问题当然重要,但它们都预设了一个前提——我们知道自己面对的是什么。问题是,我们真的知道吗? 我的基本判断是:人工智能是一种新型工具,它从根本上改变了工具与人、工具与世界的关系。如果不先搞清楚这个“新”在哪里,法律回应就只能在旧框架里打转,表面上解决了问题,实际上制造了更多混乱。这就是我提出“新工具论”的出发点。 “工具论”在哲学史上源远流长,但它的内涵经历了根本性的转变。亚里士多德在《工具论》中处理的是思维的形式逻辑。他所说的“工具”,不是人手制造的外部器械,而是人用心进行推理时所必须遵循的规则体系。三段论不是一种外部装置,而是内在于语言和思维结构中的必然性通道:前提一旦确立,结论便必然地从中流出,推理的有效性可被严格验证。在这里,工具是确定性的——它担保了从真前提导向真结论的保真传递。 两千年后,培根在《新工具》中延续了“工具”这一名称,却彻底翻转了它的内涵。在培根看来,亚里士多德的逻辑非但不是帮助心灵进入自然的工具,反而是阻碍心灵直接面对自然的屏障——三段论来得太晚,当心灵已被错误观念占据之后,再用三段论去整理争辩,只会把错误固定下来。因此他提倡一种全新的“工具”:不是从概念到概念的演绎体系,而是从经验到原理的归纳方法。培根设想的工具仍然是服务于人的理性工具,但其结论已不具有逻辑上的必然性——它们面向经验、可修正、逐步逼近真理。工具本身不再担保真理,而是增加了发现真理的可能性。 人工智能的出现,则将这种或然性推向了极致,催生了我所称的“或然性工具”。它不是“掌握规律然后精确操控”的工具,也不是培根式的按步骤排除与比较来发现形式的工具,而是“喂入数据然后等待结果”的工具。其输入与输出之间不存在可被人类使用者充分认知的因果链条,仅存在概率性关联;相同输入、相同参数并不必然产生相同输出。设计者不知道它会产出什么,使用者更不知道。这种不确定性不是缺陷,而是特征。 要理解法律与这种新型工具之间的深刻张力,可以借助一个形象的例子。上海“双子山”上有一个“4800cm”的标识——它同时告诉你,这就是48米。这是一个典型的法律式表达:清晰、稳定、同义反复,凭定义就解决了问题。法律的规范世界一如数学中的“平凡结构”:它通过确立可计算、可归责的确定框架,为所有社会行为提供稳定预期,构成了“可控—可责”体系的基石。这正是法律的根本保守性所在:它擅长在一个已然标定、意义自明的“平凡域”内运作。然而,“或然性工具”如同一个“规范场的激发”源,不断产生超出既有规则预期与解释框架的“非平凡”输出与后果——这揭示出法律面临的巨大挑战:如何用确定性工具的归责逻辑,去回应和规训一个由新工具所创造的、充满意外与不确定性的“非平凡”现实? 这正是“新工具论”要做的工作:不是急于在旧概念框架内给出答案,而是先诚实地面对问题本身——我们需要一套新的概念框架来理解这种工具,因为它已经从根本上改变了工具与人、工具与世界的关系。二、核心概念:确定性工具与或然性工具
为了说清楚人工智能“新”在哪里,我提出一对概念:确定性工具与或然性工具。 所谓确定性工具,是指其操作与结果之间存在可预测的因果关系,至少有一人完全了解它的性能和用途。你转动方向盘,车轮就转向;你踩下油门,车速就提升。这些工具遵循的是“制造者知识”——设计者把因果逻辑内置在机械结构或程序代码中,使用者通过学习和训练就能掌握。除自动驾驶汽车外,我们日常生活中使用的大多数工具都属于这一类。 或然性工具则不同。它的核心特点是:即便设计者也难以预知其最终结果。“或然”这个词来自拉丁文emergentia,意思是“浮现、涌现”,我借用来描述一种现象:复杂系统的整体行为无法还原为其组成部分的属性。蚁群表现出超越单只蚂蚁能力的集体智能,大脑的神经元网络涌现出意识,都属于豁然现象。 人工智能正是这样一种或然性工具。以大语言模型为例,它拥有万亿级参数,形成一个高维参数空间。每次你向它提问,模型内部调动的参数组合都不完全相同,导致同一个问题在不同时间可能得到不同答案。更关键的是,没有一个人——包括模型的开发团队——能够说清楚某个具体答案究竟是如何从输入走到输出的。这个过程是“暴力计算”的结果,不是逻辑推导的产物。 这里有一个技术史的背景需要交代。早期计算机编程遵循的是符号逻辑主义路线,程序员通过明确的规则和逻辑来控制程序行为,程序的最终功能在编写代码时就已确定。但今天的人工智能走了另一条路:它不依赖人工编写规则,而是通过海量数据和算力进行模式识别和统计推断。编程技术本身并没有质的飞跃,但数据和算力的规模化带来了质的改变。AlphaGo学习海量人类棋谱后战胜人类顶尖棋手,而它的迭代版本AlphaGo Zero完全不学习人类棋谱,只通过自我对弈的强化学习就达到更高水平——这生动地展示了或然性工具突破人类知识边界的惊人能力。DeepMind开发的AlphaFold最终使它的创始人Hassabis获得了2024年诺贝尔化学奖。 传统工具延伸人的肢体,或然性工具延伸人的心智,甚至在某些维度上超越人的心智。这不是修辞,而是正在发生的事实。三、知识产权法的核心挑战:作者概念的动摇
理解了或然性工具的含义,我们就能更准确地诊断它对法律造成的冲击。首当其冲的是知识产权法,尤其是其中的“作者”概念。 传统著作权法的逻辑前提是:工具是消极的、被动的辅助手段,作者投入创造性思想,借助工具完成表达的固定。在这个过程中,法律考量的是作者的智力贡献,工具不进入法律评价。你用什么笔写作不重要,重要的是你写了什么。 但在人工智能时代,这一前提动摇了。当工具的作用从“辅助表达”升级为“实质性地参与内容生成”,作者和工具的界限就变得模糊。使用者输入一段提示词,大模型生成一篇文章或一幅画——这个过程中,谁的“创造性思想”在起作用?是写提示词的人,还是训练数据和算法? 我在讲座中重点分析了李某某诉刘某某侵害作品署名权、信息网络传播权纠纷案。这个案件的法院判决将生成式人工智能类比为照相机,认为使用者就像摄影师,通过选择和安排来体现创造性。这个类比有个致命缺陷:照相机是确定性工具,光线通过镜头在感光材料上成像,遵循的是物理因果律;但生成式人工智能是或然性工具,输入与输出之间只存在概率性关联,不存在一一对应的因果关系。你用同样的参数拍同一场景,得到的照片基本一致;你用同样的提示词问同一个大模型,得到的回答可能完全不同。 法院的类比之所以值得商榷,是因为它把新工具硬塞进旧框架,结果混淆了两种本质上不同的东西。这不是法官个人能力的问题,而是法律系统在应对新技术时普遍面临的困境:法律只能用已有的概念来理解新事物,而这些概念本身是在旧的技术条件下形成的。 熊文聪老师在点评中为这种保守性做了辩护。他认为,法律处理的是世俗利益的分配问题,在实践操作层面完全可以沿用传统的类比方法,关键是要避免不恰当的类比。我部分同意这个判断——法律确实不需要追踪技术前沿的每一个变化。但当技术变革触及了法律概念的前提假定时,仅仅“避免不恰当类比”是不够的,需要追问更根本的问题:“作者”究竟意味着什么? 赵晓力教授从另一个角度切入,指出现代知识产权法建立在特定的主体哲学假定之上——作者是一个自主的、理性的、具有创造性意志的个体。这种主体观本身就是现代资本主义的产物。人工智能时代出现了大量“有作品而无作者”的现象,促使法学理论重新审视这一前提。这是一个极富洞见的观察:人工智能对法律的挑战,最终指向的是“人是什么”这个根本问题。四、人格蒸馏:一个跨越部门法的前沿问题
如果说著作权问题还是老问题的新形态,那么“人格蒸馏”就是一个人工智能时代独有的新问题。 所谓人格蒸馏(Personality Distillation),是指通过采集个人在工作、社交、消费等场景中产生的数据,训练出一个能够模拟该人格特征的AI模型。这个模型可以模仿目标对象的语言风格、决策偏好、反应模式,甚至情感表达方式,某种意义上成为那个人的“数字分身”。 我在讲座中举了Meta公司的例子。该公司系统性地采集员工的行为数据,用于内部AI系统的训练和优化。这种做法将人格特征从具体的、活生生的人身上剥离出来,转化为可存储、可复制、可交易的数据产品。由此产生的“人格化知识”有几个显著特征:它具有人格依附性——源于特定个体的独特生命经验;又具有默会性——很多被采集的数据,个体自己都未必意识到自己在产生,更谈不上有意识地控制。 这就制造了一个法律保护的真空地带。现行人格权法主要保护的是姓名、肖像、名誉、隐私等具体人格要素,对于“人格整体”被数字化提取和复制,缺乏明确的规范依据。知识产权法面临同样的困境:被蒸馏出来的人格化知识,其“创作”究竟归功于谁?是提供原始数据的个人,是开发蒸馏技术的公司,还是进行数据训练的团队?劳动法的保护也不到位——员工在工作中产生的认知模式、决策习惯,是否属于劳动成果?离职后,公司是否还能继续使用基于离职员工数据训练的模型?目前都没有明确答案。 第一层,以人格权法为基石,确立两项基本原则:归属自主原则,即每个人对其人格的数字化表达拥有控制权;人格完整原则,禁止未经同意将人格要素割裂、扭曲或用于有损人格尊严的用途。 第二层,知识产权法创设专门规则,引入有限许可使用制度,允许经授权的特定用途,但不意味着人格化知识的“所有权”转移;同时设立人格署名规则,保障来源者的身份标识权。 第三层,劳动法进行结构性重构,贯彻知情同意原则,采集员工数据用于人格蒸馏必须明确告知并取得具体同意;设计合理的经济补偿机制;建立离职后权益的动态平衡机制,在保护劳动者权益和维护企业正常经营之间寻求平衡。 初萌教授在点评中提供了另一个有价值的视角。她以爱奇艺AI艺人库为例提出问题:如果算法自主生成的内容涉及侵权,真人是否需要“替身受过”?随着人格利用方式与肉体分离程度的增加,人的整体性会受到贬损。这提醒我们,人格蒸馏不仅是权益分配问题,更关涉人的尊严和整全性。 张敏老师则从人类学角度指出,“默会知识”概念正在受到挑战。波兰尼提出默会知识时,强调的是“我们知道的多于我们能够言说的”,那些无法被形式化、编码化的知识和技能构成了人的独特性。但大数据和人工智能使得原本难以捕捉的行为模式变得可被大规模、低成本地采集和学习,默会知识不再是安全的领地。这可能会催生新的存在方式,而法律需要为此做好准备。五、法律的保守品格及其限度
我在讲座中花了相当篇幅讨论法律应对新技术时的“保守性”,这既是对现状的描述,也包含我的价值判断。 以DABUS案为例——这是近年来全球范围内一系列涉及人工智能训练数据版权纠纷的统称。在这些案件中,著作权人起诉AI公司未经授权使用其作品进行模型训练,主张构成侵权。全球法院的判决结果出奇一致:大多数驳回了原告的诉讼请求。法院的核心逻辑有三条:文义解释路径——现行法律条文没有将AI训练纳入权利人的专有权利范围;财产法推理——训练数据的使用属于“非表达性使用”,不同于向公众传播作品;审慎对待自主性表述——AI本身不具有法律人格,其“创作”行为在法律意义上归属于人类。 这些判决体现了法律系统应对新技术的典型模式:用传统概念处理新问题,竭力将未知纳入已知。我不认为这全是坏事。法律的保守性有其制度理性:它为技术创新留下了试错空间,避免过早立法窒息发展;它维护了法律体系的稳定性和可预期性;在有明确受害者之前,克制本身就是一种智慧。 为了说明这一点,我引用了“红旗原则”的历史先例。十九世纪末,汽车作为一项颠覆性的新技术驶入公共道路,其速度、质量与风险特性完全超出了既有法律框架的想象边界。面对这一陌生事物,法律系统的第一反应不是创设新规则,而是本能地退回最熟悉的认知工具箱——类比思维。立法者与法官将汽车理解为一种“无需马拉的马车”,试图将适用于马车时代的交通规则直接移植到汽车身上。英国1865年出台的《机动车法案》(俗称“红旗法案”)正是这种保守路径的标志性产物:它要求每辆机动车辆在行驶时,必须由至少三人操作,其中一人须在车辆前方至少六十码处手持红旗或灯笼步行引导,以警示行人与马车。这一规定的本质,是将马车时代对“先锋”的要求机械地套用在汽车上,试图以旧时代的风险控制手段去约束新时代的技术形态。结果不言自明——汽车的速度与技术潜力被严重抑制,法律的保守性在此以一种近乎荒谬的方式被放大。 然而,从法律演进的深层逻辑来看,“红旗原则”并非一个简单的愚昧笑话,它恰恰折射出法律系统面对技术变革时的结构性特征。法律思维本质上是回溯性的:它建立在既有判例、既定原则和对社会关系稳定预期之上。当陌生技术闯入时,法律人倾向于用熟悉的范畴去“套用”未知,用旧规则的弹性去“消化”新事物带来的冲击。正如赫斯特在《技术与法律:汽车》中所揭示的,美国法院在汽车事故激增的早期,仍然顽固地适用基于马车时代的“过错责任”原则,要求受害者证明司机“瞬间的疏忽”,导致大量受害人得不到赔偿;交通规制和驾照制度的建立更是迟至数十年后才逐步完善——法律调整的节奏严重落后于技术社会变迁的节奏,这就是著名的“节奏问题”。这种滞后并非偶然的制度失灵,而是法律系统认知惯性、制度惰性与利益博弈的必然产物。 “红旗原则”原型的最终废弃,恰恰证明了法律回应的动态过程。当类比严重失灵、社会代价日益高昂时,旧规则的边界被暴露,法律才被迫进入“突破与创设”的新阶段。这个过程并非毫无价值:正是漫长的观望与试错,为法律系统收集信息、识别问题、凝聚共识提供了必要的时间窗口。法律为维持秩序而牺牲一时的技术效率,其深层逻辑在于:在充满不确定性的技术早期,仓促创设的全新规则可能因其对技术理解的浅薄而导致更严重的系统性风险。历史反复证明,法律回应技术的经典“三部曲”——从滞后观望、类比移植到突破创设——虽然步履迟缓,却是在创新激励与社会保护之间寻求最优平衡的必要过程。“红旗原则”的历史镜鉴告诉我们:法律的保守性并非单纯的惰性,而是一种值得审慎对待的制度智慧。 但保守也有其限度。当旧框架不仅无法容纳新问题,甚至开始扭曲对新问题的理解时,就需要反思了。把生成式人工智能类比为照相机,就是典型的“范畴错误”——把属于不同本体论类型的东西放在同一概念下讨论,结果既误解了AI,也混淆了著作权法上“创作”的含义。 熊文聪老师认为,在处理利益分配这类世俗问题时,传统方法够用。我理解他的立场,但我想追问:什么是“够用”?一个在概念上就说不通的判决,即便在个案层面“摆平”了纠纷,它对法律体系的长远影响是积极的还是消极的?这不仅是个技术问题,更涉及对法律功能的理解。六、从认知到分配:人工智能的社会维度
讲座进行到后半段,我着重讨论了人工智能认知和社会分配层面的影响。这部分内容虽然超出了传统法学研究的范围,但在我看来,不理解这些维度,就无法真正理解法律面临的任务。 先说认知层面。推荐算法是今天最普及的人工智能形态,它渗透在社交媒体、购物平台、内容分发等几乎所有在线场景中。推荐算法的运作逻辑是:根据你的历史行为数据,预测你可能喜欢什么,然后把相应内容推送给你。这个逻辑听起来简单无害,但它的社会效应是深远的。 它导致了信息茧房——你看到的,都是算法认为你想看到的;过滤气泡——与你既有观点不一致的内容,被无声地过滤掉了;回音室效应——相似观点反复强化,不同声音日渐消失。人们不是在使用工具获取信息,而是被工具圈定在一个个信息孤岛上,变得越来越原子化。 这不仅仅是“用户体验”问题,更是社会的认知基础问题。一个健康的社会需要一定程度的共同知识、共享事实和公共讨论空间。当每个人都生活在算法定制的信息泡泡里,“社会”本身就变得脆弱了。 更深一层,人工智能迫使我们重新思考那些看似不言自明的问题:“你是谁?你从哪里来?你到哪里去?”我半开玩笑地说,这是保安最爱问的三个终极问题,但人工智能确实把它们重新推到了我们面前。当AI可以在认知任务中表现得不比人差甚至更好,人的独特性究竟在哪里?当算法比你自己更“了解”你的偏好和倾向,“自我”意味着什么? 再说分配层面。人工智能有一个深刻的悖论:创作和生产是分布式的——每个人都在产生数据、贡献内容、训练算法;但收益是集中式的——掌握算法和平台的少数主体攫取了绝大部分经济回报。创作者和劳动者为平台“打工”,却没有得到与之贡献相称的报酬。 知识产权法在这个问题上处境尴尬。它本应保护创作者的权益,但现行制度设计的实际效果可能恰恰相反:知识产权的保护期限过长,跟不上知识迭代的速度;权利往往集中在大型数据库和机构手中,而非分散的创作者。结果,知识产权法维护的与其说是“作者的权益”,不如说是“知识的垄断”。 初萌教授在点评中触及了一个核心问题:AI对版权法的冲击,根本上不在于独创性标准的判断——AI生成物能否满足最低限度的创造性,而在于版权法所要保护的价值本身是什么。在表达变得不再稀缺的时代,思想的保护可能比表达的保护更加重要。这是一个需要严肃对待的判断。如果版权法的根基被动摇了,我们需要重建的不只是一两条规则,而是整座理论大厦。七、问答环节的补充:行政法与证据法视角
在答疑环节,与会者提出了几个值得记录的问题,它们补充了讲座主体部分的未尽之处。 关于人工智能在政府决策中的应用,有学者提问:如果AI辅助决策出现错误,行政法上的责任如何认定?我的回答是,我国目前遵循的是“人在回路”原则——AI仅起辅助作用,最终决策由人类决策者作出并承担责任。法律不承认纯粹由算法作出的行政行为具有独立的法律效力。德国《行政程序法》虽然规定了“完全自动化行政”的可能性,但严格限定在无自由裁量空间的领域,且需有法律的明确授权。我国未来如果在这个方向有所突破,应当借鉴这种审慎态度。 关于人工智能与证据种类的区分,我认为在一般性立法中有必要保持对人工智能宽泛而具功能性的定义,因为技术迭代太快,过于具体的列举容易过时。但在证据法等特定领域,细致的分类是有意义的。生成式人工智能涉及的电子证据与传统的互联网算法数据有着本质差异,前者对证据的真实性审查和来源追溯提出了全新挑战。这不是学究式的概念游戏,而是有直接实践意义的区分。八、结语:在确定性消逝之后
三个小时的讨论不可能穷尽所有问题,但我希望通过这场讲座,至少完成一件事:把问题提对。 人工智能对法律的冲击,表面上看是一系列具体制度问题——著作权归谁、侵权怎么认定、责任怎么分配——但深层的问题是:当工具不再是确定性的,当“人”的边界变得模糊,当认知和分配秩序被算法重塑,法律这座大厦的哪些根基需要加固、哪些梁柱需要更换? 我的“新工具论”只是一个起点。它尝试用“或然性”这个概念来捕捉人工智能区别于传统工具的根本特征,并以此为线索,诊断法律在知识产权、人格权、劳动法等领域面临的真问题。这个框架远未完善,需要更多学科的加入和对话。 这场讲座的讨论本身就体现了跨学科交流的价值。赵晓力教授从主体哲学的角度追问“人”的前提,熊文聪老师从法律现实主义立场为保守性辩护,初萌教授从版权实践揭示价值的漂移,张老师从人类学视角思考默会知识的命运——他们从不同方向图绘了同一张认知地图的不同区域。 法律是保守的,但它不能永远停留在原地。确定性也许正在消逝,但这不意味着我们要放弃对正义和秩序的追求。只是这种追求,需要新的概念工具和理论想象力。 培根写《新工具》是为了取代亚里士多德的《工具论》,他相信新的科学方法能让人类成为“自然的解释者和主人”。今天,面对人工智能这个我们自己创造的异己力量,我们同样需要一种新工具论——不是关于如何支配自然的工具论,而是关于如何与或然性共存、并在或然性中重建规范秩序的工具论。这就是我在中央民族大学这个初夏夜里试图展开的思考。
基本
文件
流程
错误
SQL
调试
- 请求信息 : 2026-05-10 13:53:26 HTTP/1.1 GET : https://www.yeyulingfeng.com/a/595841.html
- 运行时间 : 0.207106s [ 吞吐率:4.83req/s ] 内存消耗:4,778.22kb 文件加载:145
- 缓存信息 : 0 reads,0 writes
- 会话信息 : SESSION_ID=0f1a97da8593cfe970d015d155becf93
- CONNECT:[ UseTime:0.000925s ] mysql:host=127.0.0.1;port=3306;dbname=wenku;charset=utf8mb4
- SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.001566s ]
- SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.000744s ]
- SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000650s ]
- SHOW FULL COLUMNS FROM `set` [ RunTime:0.001436s ]
- SELECT * FROM `set` [ RunTime:0.000537s ]
- SHOW FULL COLUMNS FROM `article` [ RunTime:0.001478s ]
- SELECT * FROM `article` WHERE `id` = 595841 LIMIT 1 [ RunTime:0.001194s ]
- UPDATE `article` SET `lasttime` = 1778392406 WHERE `id` = 595841 [ RunTime:0.010221s ]
- SELECT * FROM `fenlei` WHERE `id` = 64 LIMIT 1 [ RunTime:0.000741s ]
- SELECT * FROM `article` WHERE `id` < 595841 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.001061s ]
- SELECT * FROM `article` WHERE `id` > 595841 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.001762s ]
- SELECT * FROM `article` WHERE `id` < 595841 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.001791s ]
- SELECT * FROM `article` WHERE `id` < 595841 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.002475s ]
- SELECT * FROM `article` WHERE `id` < 595841 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.002904s ]
0.211437s