SheepNav
精选今天0 投票

看到自己的脸被用于深度伪造色情片:一个被忽视的受害者群体

当詹妮弗(化名)在2023年入职一家非营利研究机构时,她将自己的新职业照输入了人脸识别程序,想看看技术能否关联到她十多年前制作的色情视频。结果确实匹配上了,但更令她震惊的是:一段旧视频中,她的身体被换上了别人的脸。她意识到自己成了深度伪造的受害者。

关于非自愿性深度伪造的讨论通常聚焦在“被换脸”的人——那些脸被嫁接到他人身体上的名人或普通人。但很少有人关心那些身体被使用的原主:通常是成人内容创作者。律师科里·西尔弗斯坦指出,成人演员的身体在深度伪造中被非自愿使用是“家常便饭”。随着生成式AI和“脱衣”应用的泛滥,这一问题变得更加复杂:如今,这些身体不再直接来自色情视频,而是被用作训练数据,生成全新的AI内容。

詹妮弗说:“没有人问‘这是谁的身体?’”她的经历揭示了深度伪造产业链中一个被系统性忽视的群体——那些身体被窃取、却几乎没有法律保护的创作者。

谁的身体被使用了?

成人内容创作者是深度伪造的“原料库”。从2017年“deepfakes”用户将明星脸贴在色情演员身上起,成人演员的身体就一直被无偿使用。如今,AI模型通过学习大量真实色情内容,能够生成逼真的虚拟身体,而这些身体的原型往往来自不愿被识别的创作者。

法律与伦理的盲区

现有立法多聚焦于“未经同意使用他人面容”,但身体图像的使用缺乏明确界定。西尔弗斯坦表示,成人演员很难证明自己的“身体特征”被侵权,因为法律更保护可识别性。詹妮弗的案例中,人脸识别程序仍能通过骨骼轮廓识别她,说明身体特征同样具有独特性。

技术与社会责任

AI公司是否在训练数据中过滤了未经授权的内容?平台如何应对“身体盗窃”?这些问题尚无答案。詹妮弗的经历提醒我们:深度伪造的伤害不仅针对“被换脸者”,也指向那些身体被数字化劫持的个体。

“这就像我戴着别人的脸当面具。”——詹妮弗

随着AI生成内容越来越难以追溯,保护身体图像所有权的需求变得空前迫切。

延伸阅读

  1. 特斯拉 Semi 正式投产:电动卡车行业的转折点?
  2. Instagram 推出“Instants”:向密友发送即时消失的未编辑照片
  3. Notion 开发者平台:不再只是内部使用,现在可以在 Notion 之上构建应用
查看原文