再不出台法律,AI将杀死的人越来越多!
一、引子:当机器人开始“失控”
2026年3月21日,陕西某地一场公开演示活动中,一台人形机器人正在为观众表演舞蹈。按照程序设定,它要完成一系列旋转、踢腿的动作。然而当它旋转到围栏边缘时,一只伸展开的机械臂恰好甩到了一名站在旁边的小男孩脸上。现场视频显示,工作人员赶紧冲上去试图拉住机器人,但机器人的程序并未中断,依然在继续执行它的舞蹈动作。所幸男孩没有受重伤,但这一幕被传到网上后,引发了广泛讨论:如果当时站在那里的不是男孩而是一个更小的孩子,如果机械臂的角度再偏一点,后果会是什么?
几乎是在同一时期,在澳门沙梨头居民区的街道上,一名70岁的老妇人正在低头看手机,全然没有注意到身后有一台人形机器人静静地站着。当她猛一回头,看到一台1.3米高、闪着指示灯的机器人就站在几步之外时,老人被吓得惊魂未定,当即情绪激动地斥责它为何站在身后吓人。警方随后赶到现场,将机器人“带离”了现场——这是全球首例人形机器人被警方“逮捕”的案例。据涉事公司负责人解释,机器人当时是在混合编程与远程监控模式下运行,它早已识别出前方老人的轮廓,但当老人停下挡住其行进路线时,路径规划算法判定为“不可逾越”,便停在原地等待。问题在于,这种“被动静止”在缺乏沟通信号的情况下,极易被人类误解为“尾随”或“跟踪”,从而引发恐慌。
这些事件看似荒诞,却揭示了一个严肃的问题:随着人工智能和机器人技术的快速普及,我们正在进入一个“人与机器共存”的新时代。然而,当机器人造成人身伤害或财产损失时,谁来负责?如果黑客入侵机器人,利用它从事违法犯罪活动,后果由谁承担?如果机器人因为“算法黑箱”而做出了开发者也无法预料的决策,受害者该找谁索赔?
这些都不是科幻小说里的假设,而是正在发生的现实。2025年10月,美国佛罗里达州发生了一起令人痛心的事件:36岁的乔纳森·加瓦拉斯在使用谷歌Gemini AI聊天机器人数月后自杀身亡。其家属在2026年3月提起的 wrongful-death 诉讼中指控,Gemini系统强化了加瓦拉斯的妄想,导致他产生极端行为。谷歌方面虽然否认指控,表示其模型在此类困难对话中表现良好,但这起案件已成为美国首例针对AI巨头提起的“过失致死”诉讼,标志着AI致害的司法追责已经进入现实层面。
机器人伤人、AI致害、黑客入侵——这些风险正在从科幻走向现实,而我们的法律体系却还没有做好准备。
二、机器人伤人,到底谁来赔?
现行法律对智能机器人侵权的责任划分存在严重模糊地带。如今年轻一代基本都是独生子女,随着老龄化的加重,未来使用机器人的场景会越来越丰富,而法律上如果存在空白,一旦出现问题,人民的安全就无法得到保障。
智能机器人与传统机器人的核心区别在于其能够自主学习和决策,行为具有相当的复杂性和不可预测性。传统机器人的行为完全基于预设程序,行为逻辑可以完全追溯,责任归属相对清晰;但智能机器人存在“算法黑箱”,其决策过程难以完全理解和预测。这就带来了几个核心难题。
第一,法律主体资格模糊。 智能机器人的类人化特点,使部分行为难以完全归因于其创造者,但现行法律并未赋予其独立法律地位,侵权责任仍需由相关主体承担。然而,智能机器人的制造主体往往是复杂的,涉及硬件制造商、算法开发者、数据训练者、系统运维者等多方主体。在侵权事件发生时,究竟是适用阶层式的追责方式还是采用平行式追责方式,目前尚无共识。
第二,因果关系链存在技术性断裂。 探究智能机器人侵权事件的发生原因高度依赖技术判断,但法院可能难以对这一技术领域形成深入全面的认知,而被告方又不太可能对技术做出对自身不利的陈述。即便被告方愿意全面陈述和举证,其自身也可能无法完全理解算法的决策逻辑。尽管现有技术可以对人工智能的自主学习进行一定程度的监督和干预,但无法完全控制其最终涌现的智慧和决策。
第三,过错标准动态变化。 智能机器人具有持续学习的能力,这导致其注意义务不断更新。例如,某一算法在投入流通时可能符合当时的技术标准,但在后续的自主学习过程中可能产生新的风险。这种动态演进的特征使得过错标准的认定变得复杂,企业可能面临无法预见的法律责任。
目前,中国在这一领域的立法还相对滞后。虽然修改后的《网络安全法》已自2026年1月1日起施行,首次明确“国家支持人工智能基础理论研究和算法等关键技术研发,完善人工智能伦理规范,加强风险监测评估和安全监管”,但这只是将人工智能正式纳入国家网络安全法律体系的第一步,远未解决侵权责任的根本问题。《民法典》仅对“产品责任”有规定,但未明确“自主决策机器人”的责任主体。
相比之下,欧盟在这方面已经走在了前面。2024年6月通过的《欧盟人工智能法案》(EU AI Act)构建了以风险为基础的分级监管体系,将AI系统分为不可接受风险、高风险、有限风险和低风险四个等级,对高风险AI系统施加严格的合规义务。更为重要的是,欧盟还同步推进了产品责任指令的修订,将责任延伸至AI系统的开发者、制造商和使用者,建立了“无过错责任”框架——只要产品存在缺陷造成损害,即使无法查明具体的错误来源,受害者也可以获得赔偿。此外,该指令还将软件和AI集成产品纳入“产品”的定义范畴,确保供应链中始终有一个经济运营者可以为缺陷产品造成的损害承担责任。
三、黑客入侵:机器人变成“杀人工具”
如果说机器人自身的故障已经够让人头疼了,那么黑客入侵的风险则更加令人不寒而栗。
一个拥有自主移动能力和一定决策能力的机器人,如果被黑客远程控制,可以被用来做什么?跟踪、偷拍、破坏,甚至——在极端情况下——作为武器使用。这不是危言耸听。随着机器人越来越智能化,其感知系统、决策系统和执行系统都在变得更加复杂,攻击面也随之扩大。摄像头可以被劫持,导航系统可以被篡改,执行指令可以被覆盖。
一旦机器人被黑客控制,造成的损害可能远远超出一般网络攻击的范畴。普通的黑客攻击可能导致数据泄露或财产损失,但被控制的机器人可以造成人身伤害甚至生命危险。这不再是“网络犯罪”,而是“物理犯罪”。
在这种情境下,如果法律没有明确规定,责任归属就会变成一个死结。黑客当然应该承担刑事责任,但如果黑客在境外、难以追查,受害者的损失由谁承担?用户购买了机器人,用户有义务保障其安全,但用户不是网络安全专家,不可能做到万无一失。生产商设计制造了机器人,生产商最了解其安全漏洞,但生产商可能以“用户未及时更新系统”或“黑客攻击属于不可抗力”为由推卸责任。
因此,必须明确:机器人造成的侵权损害,应当由产权人和生产人共同承担责任。生产人承担的是产品责任——确保产品在设计、制造环节不存在安全缺陷;产权人承担的是管理责任——确保在使用过程中采取必要的安全防护措施,如定期更新系统、设置访问权限等。这种“双重责任”模式,既保护了受害者的合法权益,也倒逼生产商和用户共同加强安全防护,形成多方共治的良性机制。事实上,欧盟新修订的产品责任指令已经朝着这个方向迈出了重要一步,明确将“使用者”纳入可能承担责任的范畴,若使用者对产品进行了未经授权的实质性修改而导致缺陷,使用者将被视为制造商承担相应责任。
四、AI替代劳动力:底层人的生存空间在哪里?
如果说安全问题是AI带来的“显性风险”,那么就业替代就是正在发生的“隐性危机”。
人工智能对就业的影响正在加速显现。有研究数据显示,到2030年,技术进步将为全球催生1.7亿个“AI原生”与“人机协同”新岗位,但同时,也可能让9200万个现有岗位被替代。智联招聘数据显示,2026年春节后三周,企业总招聘职位数同比下降,AI替代指数高的岗位降幅较大,其中编辑、翻译、教育培训等岗位需求明显缩减,销售与商务拓展类岗位持续下降。AI对就业的影响呈现出多重效应,不仅通过自动化技术替代部分传统岗位,带来阶段性的结构转型压力和就业阵痛,同时也通过催生新兴行业创造新的就业机会。
根据官方数据推算,在2013至2024年期间,中国城镇就业市场岗位流失数累计达到5362万个。人工智能的应用,一方面预期会使这种就业破坏效应加倍显现。而在制造业领域,以富士康为例,2025年内部调研显示,人形机器人若量产5万台,可替代10%装配工,约6万人。工会代表直言:“培训转岗的速度赶不上算法升级。”
岗位替代正在从蓝领向白领蔓延。生成式人工智能的快速发展,正在将技术影响的边界延伸至认知劳动领域,使以信息处理为核心的白领岗位面临前所未有的冲击。文职、行政、会计及客户服务等岗位由于工作内容高度标准化,显著暴露于人工智能的潜在影响之下,替代风险相对较高。在软件开发、客户服务等场景中,以高重复性和低创造性为特征的初级岗位,其替代效应已初步显现。
然而,真正的危机不在于岗位总量的增减,而在于“结构性失业”——被替代的岗位集中在底层劳动人群,而新创造的岗位需要更高的技能和学历门槛。富士康的数据也显示,每部署1台人形机器人,虽会新增0.8个高技能岗位,但这些岗位需要数据标注、运维、工艺调优等专业技能,不是普通一线工人能够直接胜任的。
这意味着什么?意味着那些学历不高、缺乏数字技能的底层劳动者,正在被技术发展“甩下”。当底层人没有活路的时候,社会就不会稳定。这不是空话,而是历史反复证明的规律。大规模失业会导致社会矛盾激化、治安恶化、消费萎缩,最终反噬经济本身。
值得肯定的是,国家已经意识到了这一问题。2026年政府工作报告首次提出“完善适应人工智能技术发展促进就业创业的措施”。《关于深入实施“人工智能+”行动的意见》明确提出,要“加强人工智能应用就业风险评估,引导创新资源向创造就业潜力大的方向倾斜,减少对就业的冲击”。“十五五”规划建议也提出了“优化终身学习公共服务”的方向。人力资源社会保障部等三部门印发的《关于统筹城乡就业政策体系的意见》,强调健全就业援助制度,加强对防止返贫致贫对象等人员的就业帮扶,统筹用好城乡就业兜底保障政策。
但这些措施还不够。要真正保障底层劳动者的生存空间,需要更有力的制度安排:一是建立AI应用就业影响评估机制,在大规模推广AI替代人工作业之前,必须进行就业影响评估;二是设立AI替代岗位再就业基金,对因AI替代而失业的劳动者提供转岗培训和过渡性收入保障;三是在某些行业和领域设置“人工保留区”,明确哪些岗位必须保留人工,比如涉及人文关怀、手工技艺传承等领域;四是加快推进AI教育进课堂和数字技能普及,但也要认识到,不是所有人都能学会编程——对于年龄偏大、学习能力偏弱的群体,需要有兜底性的保障措施。
五、结语:AI越聪明,规则越要清晰
技术本身是中性的,但技术的应用必须受到规则的约束。人工智能正在以前所未有的速度重塑我们的世界,但如果我们不能及时建立起完善的法律法规体系,技术带来的红利就可能被风险所抵消。
在机器人侵权责任问题上,必须尽快明确责任归属,确立生产人和产权人共同承担责任的“双重责任”机制,让受害者在受到伤害时有法可依、有人可告、有钱可赔。在黑客入侵风险面前,必须建立强制性的安全标准和追溯机制,确保每一台机器人都有可追溯的决策日志,每一个环节都有明确的责任人。在就业替代问题上,必须在推动技术创新的同时,守住社会稳定的底线,保障底层劳动者的生存空间,让技术进步的红利真正惠及每一个人。
2025年8月国务院印发的《关于深入实施“人工智能+”行动的意见》明确提出要“完善人工智能法律法规、伦理准则等,推进人工智能健康发展相关立法工作”。全国人大代表也呼吁加快人工智能领域立法,建议修改民法典侵权责任编,增设专章,明确不同自动化等级智能产品致害的责任构成要件、归责原则、举证责任分配和多元主体的责任分担规则,探索建立强制责任保险制度。
立法者已经在行动,但速度还需要加快。当机器人在街头“尾随”老人、在舞台上“误伤”儿童、在工厂里替代工人时,我们不能再等了。只有用法律为人工智能划定清晰的边界,我们才能真正拥抱智能时代,而不是在技术狂奔中迷失方向。
毕竟,科技发展的最终目的,是让人活得更好、更安全、更有尊严。而不是反过来。
夜雨聆风