SheepNav
精选昨天310 投票

谷歌与五角大楼达成协议:AI可用于“任何合法政府用途”

据《The Information》报道,谷歌与美国国防部签署了一份机密协议,允许后者将谷歌的AI模型用于“任何合法政府用途”。该协议曝光于谷歌员工要求CEO桑达尔·皮查伊阻止五角大楼使用其AI的抗议之后一天。若确认,谷歌将加入OpenAI和xAI的行列,成为向美国政府提供机密AI服务的科技巨头。协议规定AI不得用于国内大规模监控或自主武器(需适当人工监督),但未赋予谷歌否决政府合法行动决策的权利,且要求谷歌按政府要求调整安全设置。这被批评为“君子协定”而非法律约束。此前,Anthropic因拒绝移除武器相关护栏而被五角大楼列入黑名单。

协议核心条款与争议

根据匿名知情人士透露,该协议作为现有政府合同的修订案,明确了双方对AI使用边界的共识:

  • 禁止国内大规模监控自主武器系统(除非有人工适当监督与控制)
  • 但合同同时声明,谷歌无权控制或否决政府的合法行动决策,意味着上述限制更像“口头承诺”而非强制义务
  • 谷歌还需应政府要求协助调整AI安全设置和过滤器

谷歌发言人在声明中表示:“我们很自豪能成为领先AI实验室和科技公司组成的广泛联盟的一员,为国家安全提供AI服务和基础设施。”并重申了“AI不得用于国内大规模监控或自主武器”的行业共识。

行业背景与员工反弹

此次合作并非孤立事件。此前,OpenAI和xAI已与美国政府签署类似机密协议,而Anthropic因拒绝移除武器和监控相关的安全护栏而被五角大楼列入黑名单。谷歌的加入进一步强化了科技巨头与军事机构之间的绑定关系。

但内部阻力不容忽视。就在协议曝光前一天,谷歌员工联名要求CEO皮查伊阻止五角大楼使用其AI,担忧技术被用于“非人道或极度有害的方式”。这种分歧在硅谷并不罕见——员工道德顾虑与企业政府合同利益之间的矛盾日益激化。

评论与展望

尽管谷歌强调协议遵循“行业共识”,但缺乏法律约束力的条款引发了外界质疑。批评者认为,所谓“人工监督”可能沦为形式,而政府要求调整安全设置的条款更增加了技术被滥用的风险。与此同时,五角大楼通过此类协议获得了最先进AI能力,可能加速其在情报分析、作战决策等领域的应用。

对于谷歌而言,这笔交易既是商业机会,也是声誉挑战。如何在国家安全需求与公众伦理之间取得平衡,将考验其治理能力。

延伸阅读

  1. 真实资金环境下的链上语言模型代理:操作层控制如何确保可靠性
  2. Distill-Belief:物理场中闭环逆源定位与表征的信念蒸馏框架
  3. 从用户行为日志中分层诱导多 persona:学习有证据支撑且真实可信的用户画像
查看原文