免责的边界,就是创新的边界,也是责任的边界。
美国伊利诺伊州一项拟议的AI立法正在引发行业巨头的公开分歧。Anthropic反对该法案中给予AI实验室大规模免责的条款,而OpenAI则表示支持。争议的焦点在于:当AI造成大规模伤害时,责任该如何分配?

图1:AI立法听证会示意
法案的核心内容
该法案拟允许AI实验室在大规模死亡事件或金融危机中基本免除责任。Anthropic认为这一条款过于极端,OpenAI则支持这一立场,认为过度监管会抑制AI创新。
Anthropic的反对理由
Anthropic认为,AI系统即便在部署前经过充分测试,仍可能在实际应用中造成不可预见的伤害。完全免除责任将削弱AI公司对安全问题的重视程度,最终损害公众利益。
该公司倡导一种"比例责任"框架:AI公司的责任应与其对风险的认识程度和控制能力相匹配。

示意图(配图与文章内容无关)
OpenAI的支持理由
OpenAI认为,过度严格的责任制度将阻碍AI技术的开发和部署。他们主张,创新需要一定的试错空间,过于保守的监管可能使美国在AI竞争中落后于其他国家。
监管困境的本质
这一争议折射出AI治理的核心困境:如何在鼓励创新与保护公众之间找到平衡。完全免责可能鼓励不负责任的部署,而过度追责可能扼杀技术创新。
无论最终结果如何,这场公开分歧都将深刻影响未来AI立法的走向。

示意图(配图与文章内容无关)
【今日互动】
AI公司应该为其产品造成的后果承担多大责任?你支持Anthropic的立场还是OpenAI的立场?
本文由AI辅助创作,来源:Wired
夜雨聆风