SheepNav
OpenAI曾禁止军事用途,但五角大楼已通过微软测试其模型
新上线1个月前0 投票

OpenAI曾禁止军事用途,但五角大楼已通过微软测试其模型

军事AI合作风波:OpenAI政策模糊与微软的“后门”

本周,OpenAI与美国军方签署协议的消息持续发酵,CEO萨姆·阿尔特曼(Sam Altman)在社交媒体上承认此事处理“草率”,并面临员工的质疑。然而,这并非OpenAI首次与军事应用产生关联。据知情人士透露,早在2023年OpenAI明确禁止军事用途时,美国国防部已通过微软的Azure OpenAI服务进行实验,暴露了政策执行中的灰色地带。

政策禁令与实际测试的冲突

2023年,OpenAI的使用政策明确写道:“禁止将我们的模型用于军事和战争。”但两名消息人士向WIRED透露,一些OpenAI员工发现,五角大楼当时已开始测试Azure OpenAI——这是微软提供的OpenAI模型版本。同年,员工还目睹国防部官员出入OpenAI旧金山办公室。

这种矛盾引发了内部困惑:OpenAI的禁令是否适用于微软?多数员工当时并不清楚,但OpenAI和微软的发言人一致表示,Azure OpenAI产品不受OpenAI政策的约束,而是遵循微软的服务条款。

微软发言人弗兰克·肖(Frank Shaw)在声明中解释:“微软的Azure OpenAI服务于2023年向美国政府开放,受微软条款管辖。”微软未具体说明何时向五角大楼提供该服务,但强调直到2025年,该服务才获准用于“绝密”政府工作负载。

微软的角色:投资者与商业化伙伴

微软作为OpenAI的最大投资者,拥有广泛商业化其技术的许可权。同时,微软与国防部已有数十年的合作历史,这为军事应用测试提供了便利通道。OpenAI员工对此态度不一:有人担忧与五角大楼关联的风险,有人则对政策边界感到迷茫。

OpenAI发言人莉兹·布尔乔亚(Liz Bourgeois)在声明中辩护:“AI已在国家安全中扮演重要角色,我们认为有必要参与其中,以确保其安全、负责任地部署。”她补充,公司已向员工透明沟通,提供定期更新和提问渠道。

行业背景:AI军事化的伦理争议

此次事件凸显了AI公司平衡商业利益与伦理准则的挑战。OpenAI的政策模糊性并非孤例——此前,Anthropic与五角大楼约2亿美元的合同破裂,也引发类似争议。随着AI技术加速融入国防领域,如何界定“军事用途”成为行业焦点。

关键点总结:

  • 政策漏洞:OpenAI的禁令未覆盖微软商业化版本,导致军事测试得以进行。
  • 商业关系:微软的双重身份(投资者/国防承包商)促成了这次合作。
  • 员工反应:内部存在分歧,凸显AI伦理在实践中的复杂性。

这起风波提醒我们,在AI技术快速部署的今天,清晰的治理框架和跨公司协调至关重要,否则“禁止军事用途”可能沦为一句空话。

延伸阅读

  1. 微软服务条款警示:Copilot 仅供娱乐,用户需自行承担风险
  2. Suno成音乐版权噩梦:AI平台轻易生成碧昂丝等明星歌曲仿制品
  3. Codex 定价调整:从按消息计费转向与 API 令牌使用量挂钩
查看原文