
OpenAI 支持伊利诺伊州法案:AI 造成大规模伤亡或金融灾难时可限制责任
OpenAI 正积极支持伊利诺伊州的一项法案 SB 3444,该法案旨在为前沿 AI 开发者提供责任豁免保护,即使其模型被用于造成“重大危害”——例如导致 100 人以上死亡或重伤,或造成 至少 10 亿美元财产损失。这一举动标志着 OpenAI 立法策略的明显转变。
法案核心内容:何为“重大危害”?
根据法案定义,“重大危害”包括几个关键场景:
- 恶意行为者利用 AI 制造化学、生物、放射或核武器。
- AI 模型自主实施的行为,若由人类执行将构成刑事犯罪,并导致极端后果。
法案规定,只要 AI 开发者 未故意或鲁莽地导致此类事件,且已在网站上发布安全、安保和透明度报告,即可免于承担“重大危害”的责任。
谁将受益?
法案将“前沿模型”定义为 训练计算成本超过 1 亿美元的 AI 模型。这意味着美国主要 AI 实验室——如 OpenAI、Google、xAI、Anthropic 和 Meta——很可能符合条件,从而在特定情况下获得责任保护。
OpenAI 的立场转变
过去,OpenAI 在立法上多采取防御姿态,反对可能让 AI 实验室为其技术危害承担责任的提案。但此次支持 SB 3444,被多位 AI 政策专家视为 比以往支持的法案更为极端 的措施。OpenAI 发言人 Jamie Radice 在声明中解释:“我们支持此类方法,因为它们专注于最重要的事情:降低最先进 AI 系统造成严重伤害的风险,同时仍让这项技术惠及伊利诺伊州的大小企业和民众。”
行业背景与潜在影响
目前,美国联邦和州立法机构尚未通过任何专门法律,来确定像 OpenAI 这样的 AI 模型开发者是否应对其技术造成的此类危害承担责任。但随着 AI 实验室不断发布功能更强大、引发新颖安全和网络安全问题的模型,责任界定问题日益紧迫。
SB 3444 可能为行业树立新标准,其影响包括:
- 为 AI 开发者提供法律确定性,鼓励创新,同时设定安全报告要求。
- 引发争议:批评者可能担忧,过于宽泛的责任豁免会削弱企业对 AI 安全性的投入,或将风险转移给公众。
- 推动全国性标准:OpenAI 强调,此类法案有助于避免各州规则零散化,迈向更清晰、一致的国家标准。
关键问题与不确定性
- 平衡点何在? 如何在促进 AI 技术创新与确保公众安全、问责之间找到平衡,仍是立法核心挑战。
- 报告机制的有效性:仅靠发布安全报告是否足以确保 AI 系统不被滥用?
- 行业示范效应:如果伊利诺伊州通过该法案,其他州或联邦层面会否效仿,形成更广泛的责任豁免框架?
总体而言,OpenAI 对 SB 3444 的支持反映了 AI 巨头在快速发展的监管环境中,正从被动应对转向主动塑造规则,以期在风险与创新间建立有利于自身发展的法律屏障。