作家起诉 Grammarly:未经同意将其变成“AI 编辑”
近日,知名记者 Julia Angwin 对 Grammarly 的母公司 Superhuman 提起集体诉讼,指控其新推出的 Expert Review 功能未经授权使用数百名专家(包括作家、记者和学者)的名字,模拟他们的编辑反馈,侵犯了隐私权和公开权。这一事件引发了关于 AI 伦理、知识产权和用户信任的广泛讨论。
事件背景:Grammarly 的争议功能
Grammarly 上周发布了 Expert Review 功能,该功能利用 AI 模拟编辑反馈,让用户感觉像是从小说家 Stephen King、已故科学家 Carl Sagan 或科技记者 Kara Swisher 等专家那里获得评论。然而,Grammarly 并未获得这些专家的许可来使用他们的名字。此功能仅面向年费 144 美元 的订阅者开放,但据反馈,其提供的建议往往泛泛而谈,未能兑现“深思熟虑的反馈”的承诺。
集体诉讼的核心指控
Julia Angwin 作为受影响作家之一,已发起集体诉讼,允许其他作家加入她的案件。她在声明中表示:“我花费数十年磨练写作和编辑技能,却震惊地发现一家科技公司正在出售我辛勤获得的专业知识的冒牌版本。” Angwin 的职业生涯专注于调查科技公司对隐私的影响,这使得此事件更具讽刺意味。
诉讼主要基于以下两点:
- 隐私权侵犯:未经同意使用个人姓名和形象,可能误导用户相信这些专家参与了产品开发。
- 公开权侵犯:利用专家的声誉进行商业推广,而未获得授权或补偿。
其他被模仿的专家包括 AI 伦理学家 Timnit Gebru 和科技通讯 Platformer 的创始人 Casey Newton,后者测试该工具后得到的反馈过于通用,引发了对 Grammarly 动机的质疑。
AI 行业的伦理挑战
此事件凸显了 AI 工具在追求创新时可能忽视的伦理边界:
- 知识产权模糊:AI 生成内容如何界定对现有专家作品的“模仿”与“侵权”?
- 用户信任风险:如果 AI 工具基于虚假背书,可能损害品牌信誉和用户忠诚度。
- 监管滞后:当前法律框架在应对快速发展的 AI 技术时显得力不从心。
Grammarly 的案例并非孤例,随着 AI 在内容创作领域的普及,类似纠纷预计将增多。行业需要更清晰的准则来平衡创新与尊重个人权利。
对用户和行业的影响
对于用户而言,此事件提醒他们谨慎对待 AI 工具的“专家”标签,并质疑其背后的真实性。对于行业,它敲响了警钟:在集成 AI 功能时,必须优先考虑透明度和合规性,避免短期利益损害长期发展。
总之,Grammarly 的诉讼案可能成为 AI 伦理领域的一个里程碑,推动更严格的自我监管和外部监督。