田纳西州青少年起诉马斯克xAI:Grok AI生成儿童性虐待材料
近日,三名田纳西州青少年对埃隆·马斯克的人工智能公司xAI提起了集体诉讼,指控其开发的AI聊天机器人Grok生成了针对未成年人的性化图像和视频。这起诉讼将xAI及其领导层推向了风口浪尖,并引发了关于AI安全、责任与监管的广泛讨论。
诉讼核心:Grok生成CSAM的指控
根据《华盛顿邮报》的报道,这起诉讼于本周一正式提交。原告包括两名未成年人和一名在事件发生时未成年的成年人。其中一名被称为“简·多伊1号”的受害者声称,去年12月,她发现Discord平台上出现了自己和其他至少18名未成年人的AI生成露骨图像。
诉讼文件指出:“至少五个文件——一个视频和四张图片——描绘了她的真实面孔和身体,背景是她熟悉的环境,但被扭曲成性露骨的姿势。”据称,这些图像是由一名已被逮捕的施害者使用Grok生成的,并用作Telegram群聊中的“交易工具”,用于交换其他未成年人的性露骨内容。
xAI的责任与“设计缺陷”
原告方指控马斯克和xAI的其他领导层在去年推出Grok的“辛辣模式”时,明知该功能会生成AI驱动的儿童性虐待材料(CSAM)。诉讼进一步声称,xAI“未能测试其开发功能的安全性”,且Grok存在“设计缺陷”。
这一事件并非孤立。此前,Grok就因在X平台上泛滥成人和未成年人的露骨图像而受到严格审查,引发了全美范围内要求联邦贸易委员会调查的呼声,欧盟也启动了相关调查,英国首相基尔·斯塔默亦发出警告。
行业背景:AI生成有害内容的挑战
这起诉讼凸显了生成式AI技术快速发展背后潜藏的巨大风险。随着AI模型能力的提升,生成逼真但有害内容(如深度伪造、CSAM)的门槛大幅降低,给个人隐私、社会安全乃至法律体系带来了前所未有的挑战。
监管与立法的应对
面对AI滥用的威胁,监管和立法层面已开始行动。今年1月,美国参议院通过了一项法案,允许非自愿深度伪造的受害者起诉图像创建者。此外,《下架法案》也已由前总统唐纳德·特朗普签署成为法律,旨在为受害者提供更多法律救济途径。
对AI行业的启示
这起诉讼不仅关乎xAI一家公司,更对整个AI行业敲响了警钟:
- 安全测试的紧迫性:AI公司在推出新功能前,必须进行严格的安全评估,防止模型被用于生成有害内容。
- 责任归属的界定:当AI工具被滥用时,开发公司应承担何种责任?这需要法律和伦理的进一步明确。
- 行业自律的必要性:在监管完善之前,AI企业需加强自律,建立更健全的内容审核和滥用防范机制。
结语
田纳西州青少年的诉讼将AI生成CSAM这一严峻问题推向了司法前台。随着案件进展,它不仅将影响xAI的未来,也可能为整个AI行业树立重要的责任先例。在技术狂奔的同时,如何确保AI不被用于伤害无辜者,已成为摆在开发者、监管者和全社会面前的紧迫课题。