新上线18天前0 投票
五角大楼正开发替代 Anthropic 的 AI 方案,报告称双方关系破裂后难再续前缘
五角大楼与 Anthropic 分道扬镳,自主开发大语言模型
据彭博社报道,五角大楼首席数字与人工智能官 Cameron Stanley 透露,美国国防部正在积极开发替代 Anthropic AI 的大语言模型(LLMs),并计划将其部署在政府自有环境中。这一动向标志着双方此前价值 2 亿美元 的合同彻底破裂,且短期内和解可能性渺茫。
合同破裂的核心争议:AI 使用限制
双方合作破裂的导火索源于对 AI 使用权限的根本分歧。Anthropic 坚持在合同中加入条款,禁止五角大楼将其 AI 用于大规模监控美国公民或部署无需人工干预的自主武器系统。而五角大楼方面拒绝让步,导致谈判陷入僵局。
这一分歧凸显了 AI 伦理与军事应用之间的深层矛盾。Anthropic 作为以安全为导向的 AI 公司,其核心原则包括避免 AI 被滥用;而国防部门则追求技术优势与作战效能最大化。
替代方案与供应链风险
五角大楼并未因合作破裂而放缓 AI 部署步伐。Stanley 表示:“工程工作已经开始,我们预计很快就能将这些 LLMs 投入作战使用。”与此同时,国防部已转向其他合作伙伴:
- OpenAI 已与五角大楼达成协议
- Elon Musk 的 xAI 也签署了协议,将在机密系统中使用 Grok
更严峻的是,国防部长 Pete Hegseth 已将 Anthropic 列为 “供应链风险” ——这一标签通常用于外国对手,意味着与五角大楼合作的公司不得同时与 Anthropic 合作。Anthropic 已就此提起诉讼。
行业影响与未来走向
这一事件反映了几个关键趋势:
- 政府加速自有 AI 能力建设:五角大楼开发替代模型,既是对供应商依赖的规避,也是强化技术主权的战略举措。
- AI 伦理成为商业合作分水岭:Anthropic 的坚持可能影响其他 AI 公司与政府合作的条款谈判,尤其是涉及敏感应用的场景。
- 供应链政治化加剧:将本土 AI 公司列为“风险”并限制合作,显示出技术地缘竞争的升级。
目前尚不清楚五角大楼自主开发的 LLMs 具体技术路线,但其“政府自有环境”部署模式,可能意味着更封闭的生态系统与更强的控制权。而 Anthropic 在失去军方大单后,或将更聚焦于商业与民用市场,但其“安全优先”的定位在激烈竞争中能否保持优势,仍有待观察。
这场冲突不仅是商业合同纠纷,更是 AI 治理、国家安全与伦理原则碰撞的缩影,其后续发展值得持续关注。