SheepNav
新上线今天0 投票

谷歌、微软和 xAI 同意美国政府审查新 AI 模型

美国商务部下属的 人工智能标准与创新中心(CAISI) 于周二宣布,已与 Google DeepMind、Microsoft 和 Elon Musk 的 xAI 达成协议,这些公司将在公开发布新 AI 模型前允许美国政府进行审查。CAISI 将对这些模型进行“部署前评估和针对性研究,以更好地评估前沿 AI 能力”。

CAISI 自 2024 年起已开始评估 OpenAI 和 Anthropic 的模型,截至目前已完成 40 次审查。根据 Bloomberg 报道,OpenAI 和 Anthropic 已“重新谈判了与中心的现有合作关系,以更好地与特朗普总统的 AI 行动计划保持一致”。未来,白宫可能进一步推进评估工作。《纽约时报》周一报道称,特朗普正在考虑一项行政命令,旨在“汇聚科技高管和政府官员”共同监督新 AI 模型。

CAISI 主任 Chris Fall 在新闻稿中表示:“独立、严谨的测量科学对于理解前沿 AI 及其国家安全影响至关重要。这些扩大的行业合作有助于我们在关键时刻扩大公共利益方面的工作。”

背景与行业影响

这一举措标志着美国政府在前沿 AI 监管上的进一步介入。此前,AI 公司多采取自愿承诺或内部安全测试,而 CAISI 的审查机制则引入了政府层面的正式评估。与 Google DeepMind、Microsoft 和 xAI 的加入,使得 CAISI 的覆盖面扩展至更多头部 AI 开发商。值得注意的是,xAI 在 AI 安全方面的立场此前较为低调,此次加入政府审查计划可能意味着其愿意接受外部监督。

关键事实

  • 参与公司:Google DeepMind、Microsoft、xAI(新增),此前已有 OpenAI 和 Anthropic。
  • 审查内容:部署前评估与针对性研究,聚焦前沿 AI 能力与国家安全。
  • 审查次数:已完成 40 次。
  • 政策背景:特朗普 AI 行动计划推动下,审查机制可能扩展至行政命令。

展望

随着政府审查的常态化,AI 公司可能面临更严格的发布前合规要求。此举旨在平衡创新与安全,但可能引发关于商业机密和审查透明度的讨论。未来,CAISI 的角色或从自愿合作转向法定监管,进一步影响 AI 行业的开发节奏。

延伸阅读

  1. 仿生技术必须在实验室之外证明自己
  2. 马斯克与奥特曼对簿公堂:OpenAI 未来走向何方?
  3. 用 Amazon Bedrock AgentCore Identity 在 Amazon ECS 上保护 AI 代理安全
查看原文