Meta推出全新AI内容审核系统,同时减少对第三方供应商的依赖
Meta于周四宣布,正在推出更先进的AI系统来处理内容审核,同时计划削减对第三方供应商的依赖。内容审核任务包括捕获和删除涉及恐怖主义、儿童剥削、毒品、欺诈和诈骗的内容。公司表示,一旦这些更先进的AI系统在性能上持续超越现有内容审核方法,将在其所有应用中部署。
Meta在博客中解释:“虽然我们仍会有人工审核内容,但这些系统将能够承担更适合技术处理的工作,比如重复性的图像内容审核,或者那些对抗性行为者不断改变策略的领域,如非法毒品销售或诈骗。”Meta相信,这些AI系统能以更高的准确性检测更多违规行为,更好地预防诈骗,更快速地响应现实世界事件,并减少过度执法。
早期测试显示显著成效
公司表示,AI系统的早期测试结果令人鼓舞:它们能检测到比审核团队多一倍的成人性引诱内容,同时将错误率降低超过60%。此外,这些系统还能识别和预防更多涉及名人和其他知名人士的冒充账户,并通过检测新地点登录、密码更改或个人资料编辑等信号,帮助阻止账户接管。
Meta还指出,这些系统每天能识别并缓解约5,000次诈骗尝试,其中诈骗者试图诱骗用户泄露登录信息。
专家主导与人工决策的平衡
Meta在博客中写道:“专家将设计、训练、监督和评估我们的AI系统,衡量性能并做出最复杂、影响最大的决策。”例如,在最高风险和最关键决策方面,如账户禁用上诉或向执法部门报告,人工将继续发挥关键作用。
背景与行业趋势
这一举措出台之际,Meta在过去一年左右的时间里一直在放宽其内容审核规则。去年,公司终止了第三方事实核查计划,转而采用类似X的社区笔记模式。它还取消了对“主流话语话题”的限制,并表示将鼓励用户对政治内容采取“个性化”方法。
Meta的AI内容审核系统部署,反映了AI行业在自动化内容管理方面的加速趋势。随着生成式AI和大型语言模型的普及,平台面临更复杂的内容挑战,如深度伪造、自动化诈骗和快速传播的虚假信息。Meta此举旨在通过内部AI解决方案提升效率,减少对外部供应商的依赖,这可能降低成本并增强响应灵活性。
然而,这也引发了对AI系统透明度、偏见和问责制的讨论。尽管Meta强调人工监督的作用,但完全依赖AI进行内容审核仍存在风险,尤其是在敏感或边缘案例中。行业观察家将密切关注这些系统的实际表现,以及它们如何平衡自动化效率与人工判断。
总的来说,Meta的AI内容审核系统代表了社交媒体平台在应对内容治理挑战时的一次重要技术升级,但其长期效果和伦理影响仍需时间验证。