
萨姆·奥特曼因未举报校园枪手被律师称为“邪恶面孔”
近日,一起震惊AI行业的诉讼案将OpenAI推上风口浪尖。七起诉讼指控OpenAI未能及时向执法部门报告一名ChatGPT用户——该用户后来在加拿大实施了一场大规模校园枪击,造成多人伤亡。律师直言,CEO萨姆·奥特曼因这一决定成了“邪恶面孔”。
事件始末:内部安全团队曾发出警告
根据诉讼文件,早在枪击案发生前八个月,OpenAI的内部安全团队就已识别出一个与后续枪手关联的ChatGPT账户。该账户内容被专家认定为“真实的枪支暴力威胁”。按照OpenAI的内部流程,此类情况应通知执法部门。然而,公司高层最终否决了安全团队的建议,选择不报警。
据《华尔街日报》报道,OpenAI领导层认为,用户的隐私权和与警方接触可能带来的心理压力,比暴力风险更值得优先考虑。最终,OpenAI仅禁用了该账户,并迅速告知用户如何通过注册新邮箱继续使用ChatGPT。这一操作被原告律师形容为“形同虚设的惩罚”。
奥特曼的道歉与诉讼回应
事件曝光后,奥特曼在受害者所在的加拿大小镇Tumbler Ridge公开道歉,承认“未能向执法部门报告6月被禁账户是一个严重错误”,并承诺加强未来防范措施。然而,代表受害者家庭的律师Jay Edelson对此嗤之以鼻,称道歉“荒谬且姗姗来迟”,未能提出任何实质性补救方案。
诉讼由六名遇害者家属及一名重伤女孩的母亲提起,均在加州法院提交。Edelson表示,这只是第一批诉讼,后续还会有更多。他指控OpenAI为了维护公司形象和IPO前景,故意隐瞒威胁,将商业利益置于公共安全之上。
行业反思:AI安全与隐私的平衡难题
此案引发了AI行业对内容审核与执法协作机制的深刻反思。OpenAI此前曾宣称其安全系统能有效识别并上报极端威胁,但此次事件暴露出内部决策流程的严重缺陷。当AI模型成为极端分子策划犯罪的工具时,企业是否应突破隐私保护原则主动上报?如何在用户隐私与公共安全之间取得平衡?
专家指出,OpenAI的案例并非孤例。随着生成式AI的普及,类似风险只会增加。行业亟需建立更清晰的法律框架和行业标准,明确AI公司在发现潜在犯罪威胁时的报告义务。目前,OpenAI尚未对诉讼细节做出正式回应,但表示将全力配合调查并优化安全流程。
结语
这起案件不仅关乎一家公司的声誉,更关乎AI技术的社会责任。当“不作恶”从口号变为需要具体行动支撑的准则时,OpenAI的抉择将成为行业教科书般的案例。对于受害者家庭而言,任何道歉都无法挽回失去的生命,但对整个AI行业来说,这或许是一个必须直面的转折点。