SheepNav
OpenAI 支持伊利诺伊州法案:AI 造成大规模伤亡或金融灾难时可限制责任
新上线今天0 投票

OpenAI 支持伊利诺伊州法案:AI 造成大规模伤亡或金融灾难时可限制责任

OpenAI 正积极支持伊利诺伊州的一项法案 SB 3444,该法案旨在为前沿 AI 开发者提供责任豁免保护,即使其模型被用于造成“重大危害”——例如导致 100 人以上死亡或重伤,或造成 至少 10 亿美元财产损失。这一举动标志着 OpenAI 立法策略的明显转变。

法案核心内容:何为“重大危害”?

根据法案定义,“重大危害”包括几个关键场景:

  • 恶意行为者利用 AI 制造化学、生物、放射或核武器
  • AI 模型自主实施的行为,若由人类执行将构成刑事犯罪,并导致极端后果。

法案规定,只要 AI 开发者 未故意或鲁莽地导致此类事件,且已在网站上发布安全、安保和透明度报告,即可免于承担“重大危害”的责任。

谁将受益?

法案将“前沿模型”定义为 训练计算成本超过 1 亿美元的 AI 模型。这意味着美国主要 AI 实验室——如 OpenAI、Google、xAI、Anthropic 和 Meta——很可能符合条件,从而在特定情况下获得责任保护。

OpenAI 的立场转变

过去,OpenAI 在立法上多采取防御姿态,反对可能让 AI 实验室为其技术危害承担责任的提案。但此次支持 SB 3444,被多位 AI 政策专家视为 比以往支持的法案更为极端 的措施。OpenAI 发言人 Jamie Radice 在声明中解释:“我们支持此类方法,因为它们专注于最重要的事情:降低最先进 AI 系统造成严重伤害的风险,同时仍让这项技术惠及伊利诺伊州的大小企业和民众。”

行业背景与潜在影响

目前,美国联邦和州立法机构尚未通过任何专门法律,来确定像 OpenAI 这样的 AI 模型开发者是否应对其技术造成的此类危害承担责任。但随着 AI 实验室不断发布功能更强大、引发新颖安全和网络安全问题的模型,责任界定问题日益紧迫。

SB 3444 可能为行业树立新标准,其影响包括:

  • 为 AI 开发者提供法律确定性,鼓励创新,同时设定安全报告要求。
  • 引发争议:批评者可能担忧,过于宽泛的责任豁免会削弱企业对 AI 安全性的投入,或将风险转移给公众。
  • 推动全国性标准:OpenAI 强调,此类法案有助于避免各州规则零散化,迈向更清晰、一致的国家标准。

关键问题与不确定性

  • 平衡点何在? 如何在促进 AI 技术创新与确保公众安全、问责之间找到平衡,仍是立法核心挑战。
  • 报告机制的有效性:仅靠发布安全报告是否足以确保 AI 系统不被滥用?
  • 行业示范效应:如果伊利诺伊州通过该法案,其他州或联邦层面会否效仿,形成更广泛的责任豁免框架?

总体而言,OpenAI 对 SB 3444 的支持反映了 AI 巨头在快速发展的监管环境中,正从被动应对转向主动塑造规则,以期在风险与创新间建立有利于自身发展的法律屏障。

延伸阅读

  1. 大语言模型情感表征的潜在几何结构研究
  2. 谱边生命周期:从梯度学习到权重衰减压缩的演化
  3. 情绪刺激与强度如何塑造大语言模型行为:一项新研究揭示情感提示的复杂影响
查看原文