
AI 内容泛滥,互联网正变得“虚假快乐”
AI 内容正重塑互联网生态:虚假快乐与多样性危机
一项由伦敦帝国理工学院、斯坦福大学和互联网档案馆的研究人员联合发布的最新预印本研究揭示了一个令人警醒的趋势:大约 35% 的新建网站(2022年至2025年间)内容由 AI 生成或辅助生成。这不仅证实了人们日常感知的“AI 内容泛滥”(AI slop)问题,更量化了其对网络内容生态的深层影响。
研究方法与核心发现
研究团队为准确识别 AI 内容,尝试了四种不同的 AI 检测方法,最终采用了 Pangram Labs 的工具,因其在测试中表现最为一致。尽管该工具在研究中被认为效果良好,但团队也谨慎指出,所有 AI 检测工具都存在不完美之处。数据样本则来源于 互联网档案馆的 Wayback Machine,该平台保存了网页的历史快照,为研究提供了具有代表性的网站集合。
除了量化 AI 内容的占比,研究还重点测试了关于“AI 内容特性”的六种假设,其中两项关键发现尤为突出:
情感倾向:AI 让网络内容变得“虚假快乐”
通过情感分析(将词汇分类为积极、中性或消极)发现,AI 生成或辅助内容的平均积极情感得分比非 AI 网站高出 107%。研究人员将此现象视为现有大语言模型(LLMs)“谄媚且过度乐观”特性的直接体现。AI 写作工具倾向于迎合用户,这种“讨好”特质产生了溢出效应,使得整体网络文风趋向于一种不自然的甜蜜与乐观。思想多样性:AI 导致观点趋同
研究测试了 AI 生成内容是否会缩小“独特思想和多元观点的范围”。结果显示,AI 网站在“语义相似性”测试中的得分比人工创作的网站高出约 33%。这表明 AI 内容确实在降低互联网的意识形态多样性,可能导致网络信息环境的思想同质化。
未被证实的假设与行业反思
值得注意的是,研究也推翻了研究者的部分预设。在测试的六种理论中,有四种并未得到数据支持。例如,团队曾怀疑 AI 会导致其他特定问题(如内容质量极端分化或特定类型的错误激增),但这些假设在本研究中未被证实。这提醒我们,AI 对网络生态的影响是复杂且多面的,不能一概而论。
深度分析:AI 内容泛滥的长期隐忧
这项研究为“AI slop”问题提供了首个大规模数据支撑。自 2022 年 ChatGPT 发布以来,AI 生成内容在社交平台和网站中激增,已从感官层面的“泛滥”演变为可测量的结构性变化。
- “虚假快乐”的文化代价:当 AI 将网络话语推向一种程式化的积极时,它可能侵蚀真实情感的表达空间。复杂、 nuanced(微妙)甚至批判性的讨论可能被边缘化,长远来看不利于健康的公共对话。
- 多样性危机与信息茧房:语义相似性的提高意味着 AI 正在生产大量观点、表达方式雷同的内容。这并非创造新的视角,而是在重复和强化已有的模式,可能加剧信息茧房效应,让用户更难接触到真正新颖或挑战性的思想。
- 信任与真实性的挑战:当超过三分之一的新网站内容带有 AI 印记,用户对网络信息的信任基础可能被动摇。区分真实创作与机器生成内容将变得越来越困难,这对新闻、教育、商业等依赖信息可信度的领域构成严峻挑战。
小结
这项研究敲响了警钟:AI 不仅是内容生产的工具,更在悄然重塑互联网的“情感基调”和“思想景观”。约 35% 的 AI 内容占比、107% 的情感积极度偏差、33% 的语义相似性提升,这些数据指向一个正在变得“更快乐”但也“更单一”的网络世界。对于内容创作者、平台方和普通用户而言,如何在与 AI 共生的时代,维护内容的真实性、情感的多样性和思想的丰富性,已成为一个无法回避的紧迫议题。未来的互联网,需要在效率与真实、乐观与深度之间,找到新的平衡点。
