SheepNav
新上线29天前0 投票

微软、谷歌、亚马逊确认:非国防客户仍可使用Anthropic Claude模型

近日,美国国防部(Department of Defense,前称Department of War)将AI初创公司Anthropic列为“供应链风险”,原因是该公司拒绝为国防部提供其AI技术用于大规模监控和全自主武器等应用。这一决定引发了业界对Anthropic旗下Claude模型可用性的担忧。然而,微软、谷歌和亚马逊AWS已迅速回应,确认其非国防相关客户将继续能够通过各自平台使用Claude模型。

事件背景:国防部与Anthropic的冲突

Anthropic是一家专注于开发安全、可靠AI系统的美国初创公司,其旗舰产品Claude是一款大型语言模型。上周四,美国国防部正式将Anthropic指定为“供应链风险”,这一标签通常用于外国对手。国防部此举源于Anthropic拒绝为其提供无限制访问权限,以支持该公司认为其AI无法安全应用的项目,如大规模监控全自主武器

根据这一指定,五角大楼在将Claude从其系统中移除后,将无法使用Anthropic的产品。同时,任何与国防部合作的公司或机构都必须证明他们未使用Anthropic的模型。Anthropic已表示将在法庭上挑战这一指定。

科技巨头的回应:确保客户访问不受影响

尽管国防部的决定可能对Anthropic的政府业务造成冲击,但微软、谷歌和亚马逊AWS均向客户保证,其非国防相关的工作负载不会受到影响。

  • 微软:作为首家公开表态的大型科技公司,微软发言人通过电子邮件确认,其律师团队已研究过国防部的指定,并得出结论:Anthropic的产品(包括Claude)可以继续通过M365GitHubMicrosoft AI Foundry等平台向除国防部以外的客户提供。微软还将继续与Anthropic在非国防相关项目上合作。微软向许多联邦机构(包括国防部)销售从Office到云服务的一系列产品,这一表态至关重要。

  • 谷歌:谷歌也确认将继续向客户提供Claude模型。谷歌向联邦机构销售云计算、AI和生产力工具,其云平台是许多企业使用Claude的重要渠道。

  • 亚马逊AWS:据报道,AWS客户和合作伙伴也可以继续将Claude用于非国防相关的工作负载。AWS作为领先的云服务提供商,其支持确保了Claude在广泛企业环境中的可用性。

行业影响与深层含义

这一事件凸显了AI伦理与国家安全之间的紧张关系。Anthropic坚持其AI安全原则,拒绝参与可能引发伦理争议的国防应用,这反映了AI行业日益增长的负责任创新趋势。同时,科技巨头们的快速响应表明,他们致力于维护客户对先进AI模型的访问,即使面临监管压力。

对于使用Claude的企业和初创公司来说,微软、谷歌和AWS的保证提供了稳定性。他们可以继续通过这些平台集成Claude,用于开发、自动化和创新项目,而无需担心突然失去访问权限。

未来展望

Anthropic计划在法庭上挑战国防部的指定,这可能成为AI监管与商业实践的一个重要案例。与此同时,科技公司如何平衡政府合作与AI伦理原则,将继续是行业关注的焦点。对于客户而言,选择通过微软、谷歌或AWS等大型平台访问AI模型,可能提供额外的韧性和支持,以应对类似的政策波动。

总之,尽管Anthropic与国防部的争端仍在继续,但主要科技平台的明确表态为AI生态系统的稳定性注入了信心。

延伸阅读

  1. 出差两个月,我让智能花盆自己照顾植物——结果令人惊喜
  2. 如何清理Android手机缓存——以及为何它能显著提升性能
  3. 电工警告:这7种常见家用电器切勿插在延长线上
查看原文