OpenAI与五角大楼的“妥协”,正是Anthropic所担忧的
2月28日,OpenAI宣布与美国军方达成协议,允许其在机密环境中使用其技术。这一消息在AI伦理与国家安全交叉的敏感地带投下了一颗石子,激起了关于科技公司如何与政府合作的深层讨论。
协议背后的“仓促”与策略
OpenAI首席执行官萨姆·阿尔特曼坦言,此次谈判“绝对是仓促的”。值得注意的是,OpenAI是在五角大楼公开谴责其竞争对手Anthropic之后,才开始积极寻求这项合作的。这暗示了OpenAI可能是在看到Anthropic因坚守原则而受挫后,选择了一条更务实、更注重法律框架的路径。
OpenAI在公告中极力强调,其协议包含了防止技术被用于自主武器和大规模国内监控的条款。公司发布了一篇博客文章,试图解释其如何在允许合作的同时,划定了伦理红线。阿尔特曼也表示,公司并未简单地接受Anthropic所拒绝的相同条款。
两种路径的鲜明对比:原则 vs. 务实
表面上看,OpenAI似乎既赢得了合同,又占据了道德高地。但深入解读其法律措辞和背景,一个更清晰的图景浮现出来:
- Anthropic的路径:采取了更强调具体合同禁令的道德立场。这种立场为其赢得了许多支持者,但在与五角大楼的谈判中未能达成协议。
- OpenAI的路径:采取了更务实、更依赖现有法律体系的策略。其核心逻辑是,假设政府会遵守法律,并在此基础上引用相关法律(如关于自主武器的五角大楼指令、美国宪法第四修正案等)作为合作的保障,而非在合同中设立独立的、广泛的禁止权。
乔治华盛顿大学政府采购法研究副院长杰西卡·蒂利普曼指出,OpenAI公布的合同摘录“并未赋予OpenAI像Anthropic所追求的那种独立的、可禁止政府其他合法用途的权利”。这揭示了OpenAI协议的本质:它更依赖于对现有法律体系的信任,而非建立一套超越法律的、公司专属的否决机制。
悬而未决的挑战与风险
这项协议远非终点,OpenAI正走在一条微妙的钢丝上。
- 技术安全承诺能否兑现? 在美军于伊朗等地采取军事行动、急于推进其政治化的AI战略的背景下,OpenAI能否真正构建并执行其承诺的安全防护措施,仍是一个未知数。技术的实际部署环境远比合同条款复杂。
- 内部共识的考验:OpenAI内部不乏希望公司对军方采取更强硬立场的员工。这项被视为“对五角大楼更温和”的协议,是否足以获得他们的认可,维持团队凝聚力,将是另一个挑战。
- 行业示范效应:OpenAI作为行业领头羊,其与政府合作模式的转变,可能为其他AI公司设定一个先例。是效仿其“法律框架内务实合作”的模式,还是坚持更严格的自主伦理约束,将成为整个行业面临的选择。
小结:AI治理的复杂现实
OpenAI与五角大楼的协议,生动展现了尖端AI技术商业公司与国家力量互动时的复杂博弈。它不再是一个简单的“合作与否”的二元选择,而是进入了如何在法律、伦理、商业利益和国家安全之间寻找具体平衡点的深水区。Anthropic的坚持凸显了原则的清晰与代价,而OpenAI的“妥协”则揭示了在现实世界中推动技术应用时,对现有制度框架的依赖与信任。这场博弈的结果,不仅关乎这两家公司的命运,更将深远影响全球AI技术发展的伦理边界与治理模式。


