SheepNav
新上线1个月前0 投票

美军仍在战场使用Claude AI,但国防科技客户正加速逃离

在美伊冲突持续升级的背景下,Anthropic的AI模型Claude正被美军用于实时目标识别与优先级排序,协助空袭决策。然而,这一场景却与该公司在国防科技领域的客户流失形成鲜明对比。

政策矛盾下的尴尬处境

Anthropic目前处于一种微妙的“双轨”状态:一方面,其模型仍在美军对伊朗的空中打击中扮演关键角色;另一方面,由于美国政府政策的不一致,许多国防承包商已开始替换其服务。特朗普总统此前已指示民用机构停止使用Anthropic产品,但国防部获得了六个月的过渡期。就在指令尚未完全执行之际,美以联合对德黑兰发动突袭,导致Claude系统在实战中继续被使用。

战场应用细节曝光

据《华盛顿邮报》报道,Anthropic的系统与Palantir的Maven系统结合,在 Pentagon 策划空袭时发挥了重要作用。该系统能够**“建议数百个目标、提供精确坐标、并按重要性排序”**,功能被描述为 “实时目标识别与优先级排序”。国防部长 Pete Hegseth 虽承诺将Anthropic列为供应链风险,但尚未采取正式行动,因此目前使用该系统并无法律障碍。

国防客户加速撤离

与此同时,国防工业的客户正在迅速转向竞争对手。路透社报道称,洛克希德·马丁等主要国防承包商本周已开始更换Anthropic的模型。许多分包商也面临类似困境:J2 Ventures的一位管理合伙人向CNBC透露,其投资组合中的10家公司 “已停止在国防用例中使用Claude,并正在积极寻找替代服务”

未来走向与行业影响

最大的未知数是Hegseth是否会正式将Anthropic列为供应链风险,这可能引发激烈的法律诉讼。但无论如何,这家领先的AI实验室正被快速排除在军事科技供应链之外——即便其技术仍在活跃的战区中使用。

这一事件凸显了AI伦理、政策执行与商业现实之间的复杂张力。当一家公司的技术同时被用于实战并遭遇行业抵制时,其长期战略与市场定位将面临严峻考验。

延伸阅读

  1. PROGRS框架:利用过程奖励优化LLM数学推理,以结果为导向提升步骤准确性
  2. SIEVE:仅需三个示例,实现自然语言的高效参数学习
  3. 基于真实世界数据生成反事实患者时间线:AI医疗模拟新突破
查看原文