
揭秘AI战争之神:五角大楼从怀疑到信仰的转变
Project Maven,这个曾引发谷歌员工大规模抗议的AI军事项目,如今已从五角大楼内部的争议性实验,演变为美国对伊朗等行动中实际使用的作战工具。其背后,是一位被称为“一人破坏球”的海军陆战队上校德鲁·库科尔(Drew Cukor)的执着推动,以及军方高层从质疑到接纳的深刻转变。
从抗议到实战:Project Maven的争议之路
2018年,超过3000名谷歌员工因公司参与Project Maven而抗议,担心其AI技术未来可能用于致命性目标锁定。如今,这一担忧已成为现实。根据《Project Maven: A Marine Colonel, His Team, and the Dawn of AI Warfare》一书的披露,该项目最初旨在利用计算机视觉技术分析海外无人机战争中的海量视频片段,但现已发展为名为Maven Smart System的实战工具,应用于美国对伊朗等地的军事行动中。
关键人物:德鲁·库科尔与军方的碰撞
Project Maven的推进并非一帆风顺。在五角大楼内部,它同样面临巨大争议。海军陆战队上校德鲁·库科尔作为项目的创始领导者,被其上级形容为“一人破坏球”,他挑战军事传统、国防官僚体系,并全力推动AI在战争中的应用,甚至不惜付出个人代价。
2024年9月初,在一次科技投资者与国防领导人的私人聚会上,库科尔与他的继任者、海军中将弗兰克·“特雷”·惠特沃思(Frank “Trey” Whitworth)面对面相遇。惠特沃思曾担任五角大楼最高军事情报官员,负责目标锁定这一敏感且可能致命的环节。在两人一次紧张到令在场者坐立不安的会议中,惠特沃思严厉质询库科尔:Maven及其AI应用是否在目标锁定过程中跳过关键步骤、推进过快或违反规则? 他特别担忧记录保存和问责制问题,并质问:“当我们经历一次糟糕的打击后,面对国会听证会的尖锐提问时,会发生什么?”
AI战争的核心伦理与实际问题
Project Maven的崛起触及了战争中最根本的道德与实践问题:谁——或者什么——有权决定夺取人类生命?谁又承担这一代价? 惠特沃思的质疑反映了军方高层对AI引入作战流程的谨慎态度,他们担心技术加速可能削弱传统决策链的严谨性。然而,尽管内部存在分歧,Project Maven的前进步伐并未放缓。
从怀疑到信仰:军方态度的转变
美国军方高层从对AI战争的怀疑者转变为“真正的信徒”,很大程度上归功于库科尔的坚持与项目展示的实战价值。库科尔在五年任期内,通过突破性工作,逐步说服了包括惠特沃思在内的决策者。如今,Maven Smart System的部署标志着AI已从辅助工具演变为关键作战资产,但这也带来了新的挑战:如何在效率与伦理、速度与问责之间取得平衡?
小结
Project Maven的故事不仅是技术创新的缩影,更是军事伦理与官僚体系碰撞的典型案例。它揭示了AI在战争中从概念到实战的艰难历程,以及推动者与质疑者之间的动态博弈。随着AI在军事领域的应用日益深入,如何确保其符合国际规范并保持人类监督,将成为全球持续关注的焦点。