SheepNav
新上线今天0 投票

Meta启动“模型能力计划”:追踪员工电脑操作以训练AI智能体

Meta内部AI训练新举措引发争议

据路透社报道,Meta公司正在美国员工的电脑上安装一款名为**“模型能力计划”(Model Capability Initiative,简称MCI)的内部工具。该工具会在工作相关的应用和网站上运行,记录员工的鼠标移动、点击、键盘输入以及偶尔的屏幕截图**。这些数据将被用于训练Meta的AI模型,使其能够更自然地模仿人类与计算机的交互方式,最终目标是实现工作任务的自动化。

Meta发言人Tracy Clayton在给The Verge的声明中解释道:“如果我们正在构建帮助人们使用计算机完成日常任务的智能体,我们的模型就需要人们实际使用计算机的真实示例——比如鼠标移动、点击按钮和导航下拉菜单。为此,我们正在启动一个内部工具,它将在特定应用程序上捕获这类输入,以帮助我们训练模型。我们已设置了保护措施来保护敏感内容,且这些数据不会用于任何其他目的。”

技术目标与战略背景

这一举措与Meta的**“智能体转型加速器”(Agent Transformation Accelerator,ATA)**计划紧密相关。Meta首席技术官Andrew Bosworth在一份内部备忘录中阐述了公司的愿景:“我们正在构建的未来愿景是,主要由我们的智能体来完成工作,而我们的角色是指挥、审查并帮助它们改进。”MCI正是为这一宏大目标收集关键训练数据的手段。

其技术逻辑在于,要让人工智能真正理解并替代复杂的办公操作(如填写表单、操作软件界面),仅靠公开网络数据或模拟数据是远远不够的。直接从真实工作场景中采集的、包含细微操作习惯的交互数据,被认为是提升AI“实操”能力的宝贵资源。

内部反应与隐私担忧

然而,此举在Meta内部引发了**“强烈的内部反弹”**。据The Verge记者Alex Heath的消息来源透露,有员工在相关公告下直接回复:“这让我感到非常不安。我们如何选择退出?”而Bosworth的回复是:“没有选择退出的选项。

尽管公司强调数据“不会用于绩效评估”,并有保护敏感内容的措施,但大规模、持续性的行为监控依然触及了职场隐私的敏感神经。员工担忧的焦点在于:

  • 数据边界模糊:如何确保“工作相关”应用的界定清晰,防止私人通信或非工作活动被意外捕获?
  • 心理影响:在持续监控下工作,是否会影响员工的创造力和自主性?
  • 未来用途的不确定性:虽然目前声明仅用于AI训练,但数据一旦被收集,未来的使用政策是否会发生变化?

AI行业的数据采集趋势与伦理挑战

Meta的MCI计划并非孤例,它反映了当前AI行业在追求更强大、更拟人化智能体过程中,对高质量、特定领域行为数据日益增长的需求。随着大语言模型在文本生成上趋于成熟,下一阶段的竞争焦点正转向能够理解并执行具体数字任务的“AI智能体”。

然而,这种转向也带来了新的伦理与合规挑战:

  • 知情同意与透明度:企业如何在推动技术发展的同时,确保员工对数据采集的范围、方式和用途有充分且清晰的知情权?
  • 数据安全:涉及键盘输入和屏幕截图的数据极其敏感,如何建立牢不可破的技术和管理屏障,防止数据泄露或被滥用?
  • 行业规范缺失:目前对于使用员工行为数据训练AI,尚缺乏广泛认可的行业准则或法律框架。

小结

Meta的“模型能力计划”是一次大胆的技术实验,旨在为其AI智能体获取稀缺的“第一人称”操作数据,以加速实现工作自动化的愿景。这凸显了AI发展从“能说”到“能做”的关键转型。然而,其强制推行的方式和涉及深度监控的性质,已在公司内部激起巨大波澜,并将职场监控与AI伦理的议题推向了风口浪尖。这一事件很可能成为行业讨论数据采集边界、员工权利与AI发展平衡的一个重要案例。未来,如何在不侵犯个人隐私与尊严的前提下,合法、合规、合情地获取必要的训练数据,将是所有致力于开发实用型AI的公司必须面对的课题。

延伸阅读

  1. 亚马逊Bedrock结合Neptune与Mem0推出企业级记忆功能,TrendMicro率先应用
  2. 印度医学生借AI生成“MAGA辣妹”月入数千美元
  3. 谷歌发布第八代TPU:两款芯片开启智能体时代
查看原文