SheepNav
法官叫停 Anthropic 供应链风险认定,AI 公司获喘息之机
新上线9天前0 投票

法官叫停 Anthropic 供应链风险认定,AI 公司获喘息之机

联邦法官叫停国防部对 Anthropic 的“供应链风险”认定

旧金山联邦地区法官 Rita Lin 于周四发布初步禁令,暂时阻止美国国防部将人工智能公司 Anthropic 标记为“供应链风险”。这一裁决被视为五角大楼的一次象征性挫折,同时为这家生成式 AI 公司保住了业务和声誉的关键防线。

Anthropic 是开发 Claude AI 工具的知名公司,过去几年国防部(自称“战争部”)一直依赖其技术来撰写敏感文件和解析机密数据。然而,本月早些时候,国防部开始逐步停用 Claude,理由是认为 Anthropic“不可信”。

争议焦点:使用限制是否构成风险?

五角大楼官员列举了多个案例,指控 Anthropic 对其技术施加或试图施加使用限制,而特朗普政府认为这些限制“没有必要”。政府随后发布了一系列指令,包括将该公司指定为供应链风险,这导致联邦政府各部门逐渐停止使用 Claude,并对 Anthropic 的销售和公众形象造成打击。

Anthropic 对此提起两起诉讼,指控这些制裁违宪。在周二的听证会上,法官 Lin 指出,政府似乎非法地“削弱”并“惩罚”了 Anthropic。

法官裁决:恢复原状,但不强制使用

Lin 在周四的裁决中写道:“被告将 Anthropic 指定为‘供应链风险’的行为,很可能既违反法律,又武断且反复无常。”她强调,“战争部没有合法依据,从 Anthropic 坚持使用限制的坦率立场中推断其可能成为破坏者。”

裁决将现状恢复至 2 月 27 日——即指令发布之前。Lin 明确表示,此举“并不禁止被告采取任何在该日期本可采取的合法行动”。例如,该命令不要求战争部使用 Anthropic 的产品或服务,也不阻止其转向其他人工智能供应商,只要这些行动符合相关法规、法令和宪法条款。

行业影响:AI 公司与政府合作的信任危机

这一事件凸显了 AI 公司与政府机构合作时面临的信任与监管挑战。Anthropic 作为生成式 AI 领域的重要参与者,其技术被用于敏感领域,但公司对使用限制的坚持引发了政府对其可靠性的质疑。法官的临时禁令为 Anthropic 赢得了喘息之机,允许客户恢复与公司的合作,但长期来看,五角大楼和其他联邦机构仍可能取消与 Anthropic 的交易。

裁决也暗示,政府机构在评估 AI 供应商时,需更清晰地界定“风险”标准,避免武断决策影响技术创新和商业公平。目前,Anthropic 和五角大楼均未对裁决置评。

小结

  • 事件核心:法官暂时阻止国防部将 Anthropic 标记为供应链风险。
  • 关键影响:Anthropic 业务得以延续,但政府合作仍存变数。
  • 行业启示:AI 公司与政府合作需平衡安全限制与信任建设。

延伸阅读

  1. 油价飙升如何省钱?我常用的5款寻找附近最便宜加油站的App
  2. 出差两个月,我让智能花盆自己照顾植物——结果令人惊喜
  3. 如何清理Android手机缓存——以及为何它能显著提升性能
查看原文