Meta AI 智能眼镜被曝将敏感影像发送至肯尼亚人工审核员
近日,瑞典媒体《Svenska Dagbladet》和《Göteborgs-Posten》的一项联合调查揭露了 Meta 旗下 AI 智能眼镜在隐私保护方面的严重问题。报道称,Meta 位于肯尼亚内罗毕的合同工(AI 标注员)在审核通过眼镜拍摄的视频时,看到了大量涉及用户私密生活的敏感内容,包括浴室场景、裸露身体以及亲密时刻。这一发现与 Meta 此前宣称其眼镜“专为隐私设计”的承诺形成了尖锐对立,并已引发至少一起集体诉讼。
调查揭示了什么?
根据报道,这些内罗毕的合同工是 AI 标注员,他们的工作是为图像、文本或音频数据打上标签,以帮助训练 AI 系统理解数据。然而,他们审核的数据源正是用户通过 Meta 与雷朋(Ray-Ban)和欧克利(Oakley)合作推出的智能眼镜所拍摄的视频片段。
一位工作人员向媒体透露:“我们什么都看得到——从客厅到裸露的身体。Meta 的数据库里就有这类内容。” 报道进一步指出,尽管有前 Meta 员工表示,标注数据中的人脸会被自动模糊处理,但肯尼亚的工作人员证实,这一功能“并非总是按预期工作”,部分人脸仍然清晰可见。更令人担忧的是,审核员有时甚至能在视频中看到佩戴者的银行卡信息。
隐私承诺与现实的巨大落差
Meta 在推广其智能眼镜时,曾强调产品设计注重隐私保护。然而,调查显示,当用户启用眼镜的 AI 功能(例如向内置助手提问)时,相关的视频数据可能被发送至远端进行人工审核。这直接导致了 “陌生人在地球另一端观看一个人生活中最私密时刻” 的局面。
这种落差已成为法律行动的焦点。报道发布后,已出现至少一起针对 Meta 的拟议集体诉讼,指控其违反了虚假广告和隐私法律。诉状的核心论点在于:Meta 通过声称眼镜“专为保护隐私设计”,实际上承担了向消费者披露关键事实的义务,但它却隐瞒了 AI 功能可能导致私密影像被远端人工审核的“惊人现实”。
AI 数据标注行业的隐私困境
此次事件并非孤例,它再次将 AI 数据标注行业 长期存在的隐私与伦理问题推至台前。为了训练更精准、更“智能”的模型,科技公司需要海量、多样化的真实世界数据,而人工审核与标注是其中不可或缺的一环。然而,这个过程往往涉及处理大量用户生成内容,如何在提升 AI 能力与保护用户隐私之间取得平衡,一直是行业难题。
Meta 此次事件暴露出几个关键问题:
- 透明度缺失:用户在使用 AI 功能时,是否清晰知晓其数据可能以未充分匿名化的形式被人工查看?
- 技术保障失效:承诺的自动模糊(如人脸)等技术防护措施存在漏洞,未能有效阻止敏感信息泄露。
- 全球外包模式的风险:将敏感的数据审核工作外包至劳动力成本较低的地区,可能伴随不同的数据保护标准与监管环境,增加了隐私泄露的风险。
对行业与用户的启示
对于整个 AI 硬件与消费科技行业而言,Meta 的案例是一个严厉的警示。随着 AI 越来越多地集成到摄像头、麦克风等始终在线的设备中,“设计隐私” 必须从口号落实为贯穿数据采集、传输、处理、存储全链条的坚实架构。这需要:
- 更严格的数据最小化原则,减少不必要的数据收集与传输。
- 更强大的端侧(on-device)处理能力,让敏感数据尽可能留在本地。
- 更清晰、前置的用户告知与同意机制,特别是在涉及人工审核环节时。
- 对第三方承包商实施与母公司同等的、可审计的数据安全与隐私标准。
对于用户来说,在享受 AI 设备带来的便利时,也需要对其数据流向保持警惕。了解产品隐私政策的具体条款,审慎开启涉及音频、视频录制的 AI 功能,是保护个人隐私的重要一步。
目前,Meta 尚未对报道中的具体指控做出详细回应。此事的发展,不仅关乎 Meta 一家的产品信誉与法律责任,也将为整个致力于将 AI 融入日常穿戴设备的科技行业,划定一条关于隐私伦理的清晰红线。