SheepNav
战争AI模型究竟长什么样?初创公司Smack正训练模型规划战场行动
新上线1个月前0 投票

战争AI模型究竟长什么样?初创公司Smack正训练模型规划战场行动

当Anthropic等公司还在为AI军事用途设限而争论时,初创公司Smack Technologies已悄然获得3200万美元融资,专门开发用于规划和执行军事行动的AI模型。这家由前美国海军陆战队特种作战司令部指挥官Andy Markoff联合创立的公司,正通过类似AlphaGo的试错学习方式训练模型,旨在超越Claude等通用模型在军事场景下的能力。

军事AI的“特种部队”

Smack Technologies的创始人背景与硅谷主流AI公司截然不同。CEO Andy Markoff曾是美国海军陆战队特种作战司令部指挥官,参与过伊拉克和阿富汗的高风险特种作战任务。联合创始人Clint Alanis也是前海军陆战队员,而技术负责人Dan Gould则来自Tinder,曾任技术副总裁。

这种军事+技术的组合让Smack在军事AI领域拥有独特视角。Markoff直言:“当你服役时,你宣誓要光荣、合法地服役,遵守战争规则。对我来说,部署技术并确保其符合道德使用的人应该穿着制服。”

如何训练战争AI?

Smack的模型训练方法借鉴了Google 2017年的AlphaGo程序,通过试错学习识别最优任务计划。具体策略包括:

  • 让模型在各种战争游戏场景中运行
  • 由专家分析师提供信号,告诉模型其选择的策略是否会成功
  • 通过反复迭代优化决策能力

Markoff表示,虽然公司没有传统前沿AI实验室的预算,但已投入数百万美元训练首批AI模型。

与通用AI模型的根本差异

Markoff指出,当前大型语言模型(如Claude)并非为军事用途优化。这些通用模型擅长总结报告,但存在两大局限:

  1. 缺乏军事数据训练:未在军事特定数据集上训练,不了解战场环境、战术原则和作战流程
  2. 物理世界理解不足:不具备人类水平的物理世界理解能力,难以控制物理硬件

“我可以告诉你,它们绝对不具备目标识别、火力控制或任务规划的能力,”Markoff强调。

硅谷的军事AI争议背景

军事AI使用已成为硅谷热点话题。此前,美国国防部官员与Anthropic高管就约2亿美元合同条款发生冲突,最终国防部长Pete Hegseth宣布Anthropic为供应链风险。争议焦点之一正是Anthropic希望限制其模型在自主武器中的使用。

Markoff认为,这场争论掩盖了一个事实:今天的LLM本就不是为军事设计的。Smack则采取了不同路径——从一开始就专门为军事应用构建AI。

军事AI的伦理边界

与Anthropic明确限制自主武器使用不同,Smack对特定军事用途禁令的态度似乎更为宽松。公司更强调使用者的责任而非技术本身的限制。这种立场反映了军事背景创始人对“工具vs使用者”伦理框架的不同理解。

行业影响与未来展望

Smack的崛起标志着军事AI专业化趋势的加速。随着国防部门对AI需求增长,专门针对军事场景优化的模型可能成为新赛道。这不仅涉及技术能力差异,更触及数据访问权限、伦理框架和部署责任等深层问题。

对于AI行业而言,军事应用始终是最敏感也最具争议的领域之一。Smack的案例表明,当通用AI公司因伦理顾虑犹豫时,垂直领域的专业玩家可能迅速填补市场空白。未来军事AI的发展,将在技术创新、伦理约束和地缘政治需求之间寻找微妙平衡。

延伸阅读

  1. 微软服务条款警示:Copilot 仅供娱乐,用户需自行承担风险
  2. Suno成音乐版权噩梦:AI平台轻易生成碧昂丝等明星歌曲仿制品
  3. Codex 定价调整:从按消息计费转向与 API 令牌使用量挂钩
查看原文