SheepNav
新上线1个月前0 投票

Meta AI 智能眼镜被曝将敏感影像发送至肯尼亚人工审核员

近日,瑞典媒体《Svenska Dagbladet》和《Göteborgs-Posten》的一项联合调查揭露了 Meta 旗下 AI 智能眼镜在隐私保护方面的严重问题。报道称,Meta 位于肯尼亚内罗毕的合同工(AI 标注员)在审核通过眼镜拍摄的视频时,看到了大量涉及用户私密生活的敏感内容,包括浴室场景、裸露身体以及亲密时刻。这一发现与 Meta 此前宣称其眼镜“专为隐私设计”的承诺形成了尖锐对立,并已引发至少一起集体诉讼。

调查揭示了什么?

根据报道,这些内罗毕的合同工是 AI 标注员,他们的工作是为图像、文本或音频数据打上标签,以帮助训练 AI 系统理解数据。然而,他们审核的数据源正是用户通过 Meta 与雷朋(Ray-Ban)和欧克利(Oakley)合作推出的智能眼镜所拍摄的视频片段。

一位工作人员向媒体透露:“我们什么都看得到——从客厅到裸露的身体。Meta 的数据库里就有这类内容。” 报道进一步指出,尽管有前 Meta 员工表示,标注数据中的人脸会被自动模糊处理,但肯尼亚的工作人员证实,这一功能“并非总是按预期工作”,部分人脸仍然清晰可见。更令人担忧的是,审核员有时甚至能在视频中看到佩戴者的银行卡信息。

隐私承诺与现实的巨大落差

Meta 在推广其智能眼镜时,曾强调产品设计注重隐私保护。然而,调查显示,当用户启用眼镜的 AI 功能(例如向内置助手提问)时,相关的视频数据可能被发送至远端进行人工审核。这直接导致了 “陌生人在地球另一端观看一个人生活中最私密时刻” 的局面。

这种落差已成为法律行动的焦点。报道发布后,已出现至少一起针对 Meta 的拟议集体诉讼,指控其违反了虚假广告和隐私法律。诉状的核心论点在于:Meta 通过声称眼镜“专为保护隐私设计”,实际上承担了向消费者披露关键事实的义务,但它却隐瞒了 AI 功能可能导致私密影像被远端人工审核的“惊人现实”。

AI 数据标注行业的隐私困境

此次事件并非孤例,它再次将 AI 数据标注行业 长期存在的隐私与伦理问题推至台前。为了训练更精准、更“智能”的模型,科技公司需要海量、多样化的真实世界数据,而人工审核与标注是其中不可或缺的一环。然而,这个过程往往涉及处理大量用户生成内容,如何在提升 AI 能力与保护用户隐私之间取得平衡,一直是行业难题。

Meta 此次事件暴露出几个关键问题:

  1. 透明度缺失:用户在使用 AI 功能时,是否清晰知晓其数据可能以未充分匿名化的形式被人工查看?
  2. 技术保障失效:承诺的自动模糊(如人脸)等技术防护措施存在漏洞,未能有效阻止敏感信息泄露。
  3. 全球外包模式的风险:将敏感的数据审核工作外包至劳动力成本较低的地区,可能伴随不同的数据保护标准与监管环境,增加了隐私泄露的风险。

对行业与用户的启示

对于整个 AI 硬件与消费科技行业而言,Meta 的案例是一个严厉的警示。随着 AI 越来越多地集成到摄像头、麦克风等始终在线的设备中,“设计隐私” 必须从口号落实为贯穿数据采集、传输、处理、存储全链条的坚实架构。这需要:

  • 更严格的数据最小化原则,减少不必要的数据收集与传输。
  • 更强大的端侧(on-device)处理能力,让敏感数据尽可能留在本地。
  • 更清晰、前置的用户告知与同意机制,特别是在涉及人工审核环节时。
  • 对第三方承包商实施与母公司同等的、可审计的数据安全与隐私标准。

对于用户来说,在享受 AI 设备带来的便利时,也需要对其数据流向保持警惕。了解产品隐私政策的具体条款,审慎开启涉及音频、视频录制的 AI 功能,是保护个人隐私的重要一步。

目前,Meta 尚未对报道中的具体指控做出详细回应。此事的发展,不仅关乎 Meta 一家的产品信誉与法律责任,也将为整个致力于将 AI 融入日常穿戴设备的科技行业,划定一条关于隐私伦理的清晰红线。

延伸阅读

  1. 微软服务条款警示:Copilot 仅供娱乐,用户需自行承担风险
  2. Suno成音乐版权噩梦:AI平台轻易生成碧昂丝等明星歌曲仿制品
  3. Codex 定价调整:从按消息计费转向与 API 令牌使用量挂钩
查看原文