SheepNav
新上线9天前0 投票

维基百科全面禁止AI生成文章,仅允许基础编辑与翻译辅助

维基百科上周更新了编辑指南,明确禁止编辑者使用人工智能(AI)撰写或重写文章。这一政策调整主要针对英文版维基百科,旨在应对AI生成内容频繁违反维基百科核心内容政策的问题。

政策核心:禁止生成,允许辅助

根据新规定,编辑者不得使用大型语言模型(LLM)直接创作或大幅改写文章内容。维基百科社区指出,AI生成的文章往往存在事实不准确、缺乏可靠来源、带有偏见或宣传性内容等问题,这与维基百科坚持的中立性、可验证性和非原创研究三大核心原则相冲突。

不过,新政策并未完全封杀AI工具。编辑者仍可在以下两种场景中使用AI:

  1. 基础文案编辑建议:允许使用AI对已有文本进行语法修正、句式调整等基础编辑,但前提是AI“不引入自身的内容”。
  2. 跨语言翻译辅助:编辑者可用AI将其他语言版本的维基百科文章翻译成英文,但必须对源语言有足够了解,以核实翻译的准确性。

背景:AI“垃圾内容”的持续困扰

维基百科编辑社区与AI生成内容的斗争已持续数月。此前,社区已推出“快速删除”机制,用于清理低质量的AI文章,并成立了“WikiProject AI Cleanup”专项小组,专门识别和清理AI生成内容。

此次政策更新由编辑者Chaotic Enby提议,经过社区长时间讨论后,以“压倒性支持”获得通过。新规旨在“针对LLM使用中明显存在的问题,同时为合理的用途留出空间”。

执行挑战:如何区分AI与人类写作?

维基百科也意识到,单纯依靠写作风格或语言特征来判断内容是否由AI生成可能存在误判。新指南特别提醒,有些人“可能拥有与LLM相似的写作风格”,因此编辑者在限制他人编辑权限时,不能仅凭“风格或语言迹象”,而应重点考察文本是否符合核心内容政策,以及该编辑者近期的编辑记录。

行业启示:AI工具在知识生产中的边界

维基百科的这一决定,反映了当前AI技术在知识性、事实性内容创作中的局限性。尽管AI在信息处理、语言转换方面展现出强大能力,但其在事实核查、来源可信度判断、中立立场保持等关键环节仍存在明显缺陷。

对于其他依赖用户生成内容的平台而言,维基百科的案例提供了一个重要参考:如何在利用AI提升效率的同时,确保内容质量与平台核心价值不受侵蚀。未来,更精细的AI使用规范、更有效的内容审核机制,将成为知识类平台必须面对的课题。

延伸阅读

  1. 出差两个月,我让智能花盆自己照顾植物——结果令人惊喜
  2. 如何清理Android手机缓存——以及为何它能显著提升性能
  3. 电工警告:这7种常见家用电器切勿插在延长线上
查看原文