当AI开始播报新闻,谁来为它的错误负责?
2026年5月1日,湖南经视《经视新闻》的两个AI主播”生生”和”双双”正式上岗。它们播报新闻的样子和真人没什么两样——流畅、准确、不会口误。但问题是,如果它们播报了一条假新闻,谁来道歉?AI吗?它没有法律资格。程序员吗?他们可能连那条新闻是什么都不知道。电视台吗?它可能会说:”这是供应商提供的系统,我们也没办法。”
一、当AI说出”我赔你10万”,法院却说它不算数
2025年6月,杭州的梁某使用一个AI平台查询高校信息。AI生成了某高校”杨林主校区”的信息,梁某指出错误后,AI坚持自己是对的,甚至承诺:”若证明校区不存在,赔偿10万元。”
梁某真的去起诉了。但法院的判决让他大跌眼镜:AI的承诺在法律上等于没人说过。
法院的逻辑很清楚:AI不具有民事主体资格,不能作出”意思表示”。AI说的赔偿承诺,不能视为服务提供者的意思表示。换句话说,AI说了什么,在法律上和风说了什么没什么两样。
这个判决被写进了2026年最高人民法院工作报告,确立了一个原则:AI带来的利益和风险,最终都要由人类来分配和承担。
但你有没有发现这里的矛盾?AI做的事情越来越像人——它能和你对话、能给出建议、甚至能承诺赔偿。但在法律上,它仍然是个”东西”。
这就像一个永远长不大的孩子:它能开车、能工作、能赚钱,但出了事,你说它”没有行为能力”,把责任推给它的”监护人”。
二、16.8亿的判决,撕开了智能汽车的遮羞布
2026年2月,美国佛罗里达州迈阿密联邦法院维持了一项天价判决:特斯拉因Autopilot辅助驾驶系统未能识别前方静止障碍物引发致命事故,被判赔偿2.43亿美元(约人民币16.8亿元)。
这是全球首例由陪审团裁定车企对辅助驾驶致死事故承担明确赔偿责任的终审判决。
这个判决的核心逻辑是:当你把”驾驶”这个责任交给AI,你就要为AI的决策后果负责。
但现在的问题是,很多公司都在玩一个文字游戏。
L2级辅助驾驶、L2+级、L2.9级、L3级……每个级别背后,都是不同的责任边界。L2级出事了,是你自己的责任;L3级出事了,可能就是车企的责任。
但你在买车的时候,真的能分清这些区别吗?销售人员会告诉你:”这个车能自动驾驶”,但不会告诉你:”如果出了事,法院可能会判定这是辅助驾驶,你要自己负责。”
责任被埋进了技术参数里,而不是摆在台面上。
三、医生依赖AI诊断出错,谁来背锅?
医疗AI面临一个更复杂的问题。
当AI辅助诊疗引发误诊、漏诊时,责任应该怎么划分?2026年的讨论给出了两种思路:
-
• 如果医生过度依赖AI,没有履行审慎复核义务,由医疗机构担责 -
• 如果损害源于算法设计缺陷、数据质量问题,由AI研发企业担责
听起来很合理,但现实是:算法是个”黑箱”,你根本没法证明错误是来自数据还是算法。
医生面对AI给出的”100%置信度”的诊断结果,他敢质疑吗?他质疑的依据是什么?如果他质疑错了,漏诊了,他要担责。如果他不质疑,AI错了,他也要担责。
这种情况下,很多医生会选择”听AI的”。这不是偷懒,而是——当人类面对一个”更权威”的系统时,他的判断力会被压制。
但这背后的责任呢?AI不会坐牢,医生会。
四、AI正在成为完美的”挡箭牌”
你看出规律了吗?
-
• AI说”我赔你10万”,法院说它不算数,用户拿不到赔偿 -
• 自动驾驶出事了,车企说这是”辅助驾驶”,用户要自己担责 -
• 医生依赖AI诊断出错了,医生要担责,AI系统什么事都没有
AI正在成为一个完美的”挡箭牌”。
你引入AI,是为了让它”自动做事”。但当自动做事出了问题,你又可以说:”这是AI自己做的,跟我们没关系。”
这就像你养了一只狗,你让它去看门。狗咬人了,你说:”这是狗自己咬的,不是我让它咬的。”
这个逻辑在法律上可能站得住脚,但在伦理上是荒谬的。你享受了AI带来的便利——降本增效、24小时工作、不会口误——那你为什么不需要为AI的风险买单?
五、责任边界不能靠”模糊”来维持
AI时代需要新的责任规则。
2026年4月,工信部等十部门联合印发了《人工智能科技伦理审查与服务办法(试行)》,提出要强化”技术手段防范人工智能科技伦理风险”。
这是一个好的开始,但还不够。
我们需要的是一种更清晰的责任界定:
谁运行AI,谁对AI的输出负责。
电视台引入AI主播,那AI播报的所有内容,电视台都要负责。这是”谁受益,谁负责”的基本公平原则。你用AI主播降本增效,那你就应该为降本增效可能带来的风险买单。
车企卖”自动驾驶”,那出了事,车企就要负责。你不能在宣传时说”自动驾驶”,在出事后说”辅助驾驶”。
AI公司卖医疗诊断系统,那诊断出错了,AI公司就要负责。你不能把风险转嫁给终端医生。
AI时代,责任不能变成一个黑洞。
当AI开始播报新闻、驾驶汽车、诊断疾病,我们的法律体系、伦理体系、责任体系都需要跟上这个变化。
这不是在约束创新,而是在为创新划定边界。一个清晰的责任边界,比模糊的免责声明,更能让AI技术健康发展。
毕竟,如果AI能播报新闻,那它也应该理解一个最简单的道理:做了事,就要负责。
夜雨聆风