美国防部官员披露:AI聊天机器人或用于军事目标排序与打击建议
据一位了解内情的美国国防部官员透露,美军正在探索使用生成式AI系统对目标清单进行排序,并为优先打击哪些目标提供建议——这些建议最终将由人类审核批准。这一披露正值五角大楼因一起仍在调查中的伊朗学校袭击事件而面临审查之际。
生成式AI如何介入目标选择流程
根据这位要求匿名与《麻省理工科技评论》讨论敏感话题的官员描述,一个可能的目标清单会被输入到五角大楼正在为机密环境部署的生成式AI系统中。随后,人类操作员可以要求系统分析这些信息,并综合考虑诸如飞机当前位置等因素,对目标进行优先级排序。人类将负责对系统输出的结果和建议进行最终的核查与评估。
这位官员强调,这只是未来可能运作方式的一个示例,并未确认或否认AI系统目前是否正以这种方式被使用。
潜在的模型供应商与现有技术整合
理论上,OpenAI的ChatGPT和xAI的Grok未来都可能成为此类场景中使用的模型,因为这两家公司最近都已与五角大楼达成协议,允许其模型在机密环境中使用。
此外,其他媒体报道称,Anthropic的Claude已被整合到现有的军事AI系统中,并已在伊朗和委内瑞拉的行动中使用。这位官员的评论进一步揭示了聊天机器人在军事行动中可能扮演的具体角色,尤其是在加速目标搜寻过程方面。
新旧AI技术的并行部署与局限
官员的评论也揭示了军方正在部署两种不同的AI技术,它们各有其局限性。
自至少2017年以来,美军一直在推进一项名为 “Maven” 的“大数据”计划。它主要利用较早期的AI技术,特别是计算机视觉,来分析五角大楼收集的海量数据和图像。例如,Maven可以处理数千小时的无人机航拍画面,并通过算法识别潜在目标。
乔治城大学2024年的一份报告显示,士兵们使用该系统来筛选和审核目标,这大大加快了目标获得批准的过程。士兵们通过一个带有战场地图和仪表板的界面与Maven交互,该界面可能用一种颜色高亮潜在目标,用另一种颜色标记友军。
官员的评论表明,生成式AI现在正被作为一个对话式聊天机器人层添加进来——军方可能利用这一层来寻找和分析目标,其交互方式更接近于自然语言问答,而非传统的软件界面操作。这标志着从纯粹的数据分析AI向能够进行推理和提供建议的生成式AI的演进。
核心问题:人机协作与责任归属
这一潜在应用的核心在于人机协作模式。AI的角色被定位为“建议者”和“分析加速器”,而人类则保留最终的决策权和责任。这种设计旨在结合AI处理海量信息、快速排序的能力,与人类的判断力、道德考量和法律责任。
然而,这也引发了关于自动化偏见(即人类可能过度依赖或盲目接受AI建议)以及在实际高压作战环境中,人类审核环节能否得到充分保障的深刻问题。五角大楼当前面临的审查,无疑为这类技术的部署蒙上了一层阴影,并凸显了建立严格使用准则和透明监督机制的必要性。
小结
美国军方探索将生成式AI聊天机器人用于目标排序,是AI军事化应用的一个最新动向。它并非取代人类决策,而是试图构建一个“AI建议、人类决断”的辅助系统。这一趋势融合了传统的计算机视觉目标识别(如Maven项目)与新兴的生成式AI对话分析能力,旨在提升情报处理与目标锁定的效率。但其引发的伦理、法律与操作风险,将是未来持续争论与监管的焦点。


