前几天看到个新闻,挺有意思的。有人用AI聊天,问某个大学的信息,结果AI说错了。用户指出来,AI不但不认错,还坚持自己是对的,最后甚至说,如果信息有误,愿意赔十万块钱,还建议用户去法院告。
这用户一听,还真去告了。他觉得,AI既然承诺了,运营公司就得负责。结果法院判了,用户没赢。
为什么?法院说得很清楚。AI不是人,也不是公司,它没有法律上的“人格”。它说的话,不能算作是它自己的“意思表示”,也不能直接算作是背后公司的承诺。它就是个工具,一个按照程序运行的服务。它生成的那些话,包括那个“赔十万”的承诺,本质上是一串代码跑出来的结果,不是谁真的想赔钱。
这案子引出了一个挺重要的问题:我们用AI,它要是说错了话,办错了事,责任该谁担?
现在大家用AI越来越多了,查资料、写东西、甚至给建议。但它有时候会“胡言乱语”,业内管这叫“幻觉”。它不是故意的,它只是根据海量数据,用概率算出一个最可能的回答。它不知道对错,也不理解承诺意味着什么。
所以,把AI当成一个绝对权威的信息源,是有风险的。它可能会给你一个看起来非常肯定、但其实是完全错误的答案。就像这个案子里,它连一个大学有没有某个校区都能说错,还信誓旦旦。
那公司是不是就完全没责任了?也不是。法院的判决依据里提到了《生成式人工智能服务管理暂行办法》。这个办法把AI服务定性为“服务”,而不是“产品”。这意味着,责任认定会更像我们去咨询一个不靠谱的顾问,而不是买了一个有缺陷的热水壶。
对于提供服务的企业来说,他们有一定的义务。比如,要采取必要措施,防止生成违法和不良信息;对生成的内容,要有一定的管理。如果AI因为设计缺陷或者训练数据的问题,系统性、大规模地输出有害或错误信息,导致用户受损,企业恐怕还是难辞其咎。
但这个案子里的情况不一样。用户只是和AI进行了一次普通的对话,AI在对话中“随口”做了一个夸张的承诺。这种在单一对话流里产生的、未经企业明确授权或背书的“承诺”,很难让企业来埋单。否则,任何一个用户都可能通过刻意引导,让AI说出一些离谱的话,然后去找企业索赔,这生意就没法做了。
对我们普通用户来说,这个判决算是个提醒。AI很强大,很方便,但它不是万能的,更不是完美的。它的“话”,尤其是那些涉及事实、承诺、重大建议的内容,我们得多留个心眼,最好能通过其他可靠渠道核实一下。别因为它看起来智能,就无条件相信。
说到底,技术跑得飞快,法律和规则得慢慢跟上。这个案子算是给AI服务的责任边界,划下了一道初步的线:AI自己说的话,自己不用负责;背后的人和企业,要负责的是这个服务本身的基本安全和合规,而不是AI在每一次对话里的每一句“口嗨”。
未来,随着AI更深地融入生活,类似的纠纷肯定还会有。怎么在鼓励创新和保护用户之间找到平衡,是个长期的课题。但有一点是确定的:无论技术多先进,最终的责任,始终在人的身上。
夜雨聆风