SheepNav
新上线1个月前0 投票

X平台宣布:未标注AI生成的武装冲突内容将导致创作者被暂停收入分成

X平台对AI生成的武装冲突内容采取强硬措施

X平台(原Twitter)产品负责人Nikita Bier于周二宣布,平台将对发布未标注AI生成的武装冲突视频的创作者采取严厉处罚。根据新政策,首次违规者将被暂停参与创作者收入分成计划三个月(90天),若在暂停期结束后继续违规,将被永久禁止参与该计划。

政策背景与执行机制

Bier在X上写道:“在战争时期,人们获取真实的地面信息至关重要。凭借当今的AI技术,制造误导性内容变得轻而易举。” 新政策立即生效,针对的是那些发布AI生成的武装冲突视频但未添加AI制作披露的用户。

X平台表示,将通过生成式AI内容检测工具社区笔记(Community Notes) 这一众包事实核查系统相结合,来识别误导性帖子。社区笔记允许用户为帖子添加上下文注释,帮助其他用户判断内容真实性。

创作者收入分成计划及其争议

创作者收入分成计划是X平台为激励内容创作推出的一项举措,允许创作者通过发布热门帖子分享广告收入。该计划旨在增加平台上的互动内容,但也引发了一些批评:

  • 激励敏感内容:批评者认为,该计划可能变相鼓励创作者发布耸人听闻的内容(如点击诱饵或旨在引发愤怒的帖子),以获取更多流量和收入。
  • 内容控制宽松:一些人指出,该计划的内容控制相对宽松。
  • 参与门槛:创作者需要是付费的X订阅用户才能参与该计划,这也受到部分批评。

新政策的局限性与更广泛的挑战

尽管新政策针对武装冲突场景的AI误导内容迈出了重要一步,但它也暴露出局限性:

  • 范围有限:该禁令目前主要针对“武装冲突”背景下的AI生成视频。在战争之外,AI生成的媒体仍常被用于制造政治虚假信息或在网红经济中推广欺骗性产品——这些内容在新政策下似乎仍被允许(或未明确纳入同等严厉的处罚范围)。
  • 治标难治本:鉴于AI技术制作误导性图片和视频的便捷性,仅通过经济处罚(暂停收入分成)来遏制此类行为,可能只是一个有限的解决方案。更深层次的挑战在于如何在全平台范围内有效、及时地识别和标注所有类型的AI生成或篡改内容。

行业背景与平台责任

随着生成式AI技术的普及,深度伪造(Deepfake)和AI生成内容的真实性辨别已成为全球社交媒体平台面临的共同挑战。在冲突、选举等敏感时期,虚假信息的传播可能造成现实危害。X平台此次政策调整,可视为其在平衡内容激励与信息真实性之间的一次尝试,尤其是在涉及人身安全与地缘政治的“武装冲突”领域划出了一条相对明确的红线。

然而,这也引出了更广泛的问题:平台如何在鼓励创作自由、保障创作者经济利益的同时,有效履行其作为信息渠道的社会责任,并建立一套可持续、可扩展的内容真实性治理体系?这不仅仅是X平台,也是整个行业需要持续探索的课题。

延伸阅读

  1. PROGRS框架:利用过程奖励优化LLM数学推理,以结果为导向提升步骤准确性
  2. SIEVE:仅需三个示例,实现自然语言的高效参数学习
  3. 基于真实世界数据生成反事实患者时间线:AI医疗模拟新突破
查看原文