美国参议院民主党人试图将Anthropic的“红线”写入法律,限制自主武器和大规模监控
立法行动:将AI伦理承诺变为法律约束
美国参议院民主党人正采取行动,将AI公司Anthropic在自主武器和大规模监控方面的“红线”政策写入法律。这一举措标志着AI伦理与国家安全之间的冲突已从商业谈判扩展至国会立法层面。
立法背景:Anthropic与五角大楼的对抗升级
本月早些时候,特朗普政府将Anthropic列入“供应链风险”黑名单,原因是该公司对军方使用其AI模型设定了限制。Anthropic随后提起诉讼,指控政府侵犯其宪法权利。该公司坚持要求五角大楼避免将其产品用于完全自主武器和国内大规模监控,这与主要竞争对手OpenAI签署的协议形成鲜明对比。
立法内容:两位参议员的提案
参议员亚当·希夫(Adam Schiff,民主党-加州):正在起草一项新法案,旨在“编纂”Anthropic的红线政策,确保在生死攸关的问题上由人类做出最终决定。希夫表示,该法案的目标是防止AI被用于“某些非法目的”。
参议员埃莉萨·斯洛特金(Elissa Slotkin,民主党-密歇根州):最近提出了《AI护栏法案》(AI Guardrails Act),旨在限制国防部使用AI进行美国国内大规模监控以及无需人类干预的自主致命武器的能力。
立法动机:不信任与伦理共识
希夫在采访中明确表达了对五角大楼和AI公司CEO承诺的不信任:“看到五角大楼因为Anthropic坚持大多数美国人都同意的政策而针对它,我感到震惊。他们试图摧毁这家公司、摧毁AI领域的杰出领导者,这是一种敌对、专制的行为。”
他进一步指出,这种打压将损害美国在AI领域的领导地位,而Anthropic正是该领域的佼佼者之一。
行业影响:AI伦理的法律化趋势
这一立法努力反映了AI行业的一个关键趋势:企业自设的伦理准则正逐渐被纳入法律框架。Anthropic的红线政策——禁止其技术用于自主武器和大规模监控——原本是公司内部的道德承诺,现在可能通过国会立法获得法律效力。
潜在挑战与不确定性
- 立法进程:希夫的法案仍在起草阶段,具体条款尚未公布。
- 政治环境:在特朗普政府与AI公司的紧张关系下,此类法案能否获得足够支持仍不确定。
- 司法结果:Anthropic的诉讼仍在进行中,法院是否会阻止政府将其列为供应链风险的决定,将影响后续立法氛围。
小结:AI治理的新篇章
参议院民主党人的立法尝试标志着AI治理进入新阶段:不再仅仅依赖企业的自我约束或行政部门的临时协议,而是寻求通过国会立法建立持久、可执行的法律标准。无论这些法案最终能否通过,它们都凸显了AI技术在军事和监控应用中引发的深刻伦理与政策辩论,以及立法者在塑造AI未来中的关键角色。