SheepNav
新上线25天前0 投票

Grammarly被曝未经许可使用作者身份,仅提供“退出”选项

上周,《The Verge》的编辑们发现,Superhuman旗下的Grammarly在未获得任何许可的情况下,将他们的真实姓名用于其新功能“专家评审”(Expert Review)中,让AI建议看起来像是来自这些知名作者。这一做法迅速引发了媒体和公众的强烈批评。

Grammarly的回应:没有道歉,只有“退出”选项

面对舆论压力,Grammarly并未道歉,也未撤回该功能。公司通过产品与市场营销副总裁Alex Gay发表声明,表示已听到反馈,并同意产品体验需要改进。然而,声明中只字未提“许可”问题,也没有迹象表明公司会放弃这一做法。

Grammarly给出的解决方案是:允许被使用的专家通过发送邮件至expertoptout@superhuman.com选择退出。这意味着,除非作者主动发现并采取行动,否则他们的身份将继续被用于为AI建议背书。

为什么这引发了争议?

“专家评审”功能旨在通过引用真实专家的名字,为AI生成的编辑建议增加可信度。但问题在于:

  • 未经许可:Grammarly从未征求过这些作者的同意,就擅自使用了他们的身份和声誉。
  • 误导用户:这会让用户误以为这些建议是专家本人亲自提供的,而实际上只是AI的模拟。
  • 责任与声誉风险:如果AI建议出现错误或有争议,被引用的作者可能会在不知情的情况下承担声誉风险。

这种做法触及了AI伦理的核心问题:在训练和使用AI时,如何尊重和保护个人的数据、身份和知识产权? 尤其是在生成式AI日益普及的今天,将真人身份与AI输出绑定,模糊了人类创作与机器生成内容的界限。

行业背景与深层问题

这并非孤立事件。随着AI工具越来越多地融入内容创作和工作流程,类似的数据使用和身份授权问题正变得普遍。许多AI公司依赖公开数据(如网络文章、社交媒体内容)训练模型,但在将这些数据转化为商业产品时,往往缺乏透明度和明确的授权机制。

Grammarly的“选择退出”(opt-out)模式,而非“选择加入”(opt-in),将举证和行动的责任完全推给了被影响的个人。在信息过载的时代,大多数人可能根本不会意识到自己的身份被这样使用,更不用说去主动寻找退出途径了。

未来展望

Grammarly的回应表明,公司目前更倾向于在现有框架内进行微调(如提供退出选项),而非从根本上重新考虑其数据使用策略。这可能会引发更广泛的讨论,甚至推动行业监管或标准的确立。

对于用户和内容创作者而言,这一事件是一个警示:在享受AI带来的便利时,也需要关注其背后的数据伦理和权利边界。未来,我们可能会看到更多关于AI透明度、用户授权和数字身份保护的争议与解决方案。

延伸阅读

  1. 出差两个月,我让智能花盆自己照顾植物——结果令人惊喜
  2. 如何清理Android手机缓存——以及为何它能显著提升性能
  3. 电工警告:这7种常见家用电器切勿插在延长线上
查看原文