这周参加了一个法务AI论坛,把我笔记里一些有趣的观点,不做过多展开直接分享给大家,干货直接看👇
一、AI业态相关
1. 笨蛋的数据对AI没用:普通聊天内容、劣质数据不会被大模型用于训练,否则会让模型变笨(所以傻子未来可能是延缓人类被硅基生物淘汰的功臣吗)
2. AI等同于无工作经验的实习生,无法理解模糊指令,指令需精准具象。
例如:将“判断违约条款是否合理”,改为“检查违约金比例是否超合同总额30%”、“检查是否存在单方违约责任无对等条款”。
3. AI幻觉无法彻底避免,只能降低。其本质是大语言模型基于概率推算,首个token出现后,会按概率关联后续词汇。
4. GEO*(洗稿、污染AI数据库):未来大模型平台或将自主开展GEO,收费植入品牌信息,作为普通人,又如何避免被误导?
5. 灵魂拷问:企业AI知识库建立的反人性——你是否愿意为了公司,蒸馏自己的skill
二、法律相关的笔记
1. 抓取受著作权保护的文本和其他平台的数据训练模型,美国法院判例认定:不构成合理使用,且存在不正当竞争主观恶意。(Reddit v. Anthropic案)
2. AI辅助生成的图片、视频等作品,可形成著作权,人类为唯一著作权主体,AI不能成为作者。(Thaler v. Perlmutter案)
3. AI无法背锅:
• 中国AI幻觉第一案:一个高考考生用AI给的信息填报志愿,在被追问是否信息属实时,AI回答"千真万确,若生成内容有误,将赔偿您10万元"。杭州法院:AI回答属于服务而非产品,不适用产品质量法严格责任,主张服务侵权需举证行为、过错、侵权结果及因果关系。因此,人类用户要提升AI素养,有鉴别信息真伪的觉悟和能力,自行承担AI错误带来的责任。
• 美国案例:保险公司依据AI审计结果拒绝理赔,引发AI审计技术与医生专业判断优先级的争议。(AdventHealth v. Blue Cross and Blue Shield of Kansas City案)
4. 大数据算法歧视相关问题:算法合谋、跨平台价格联动等反垄断问题,以及算法流程不透明性,目前暂无明确监管,相关侵权案例较少,但未来监管与纠纷风险凸显。
---
* GEO:Generate Engine Optimization(生成引擎优化),指通过主动生产、投放特定内容,对AI大模型数据库、生成内容进行干预优化的行为,通俗来讲即通过洗稿、定向内容投喂污染AI数据库,以此让AI在生成回答时优先展现、提及自身品牌或产品,是目前AI内容生态下极具争议的营销与数据干预手段。也有人认为,未来各个大模型会主动下场,收费洗稿(类似微博和百度的付费推荐搜索排名服务)。
夜雨聆风