SheepNav
新上线26天前64 投票

Grammarly未经许可使用用户身份:AI“专家评审”功能引发隐私争议

Grammarly AI“专家评审”功能被曝未经授权使用个人身份

近日,知名写作辅助工具Grammarly推出的“专家评审”(Expert Review)AI功能引发了一场关于数字身份与隐私的争议。据《The Verge》报道,该功能在未获得许可的情况下,将多位科技媒体记者、编辑乃至已故教授等“专家”的身份用于生成AI写作建议。

核心问题在于,当用户点击“专家评审”按钮时,Grammarly会分析文本并提供“受相关专家启发”的AI生成建议。这些“专家”名单中,赫然出现了《The Verge》主编Nilay Patel、资深编辑David Pierce、Sean Hollister和Tom Warren等在职人员,而他们均未授权Grammarly使用自己的身份。

功能如何运作?

该功能于去年8月上线,宣称能“通过行业相关视角帮助用户锐化信息”。用户选择“专家评审”后,AI会模拟特定专家的风格或观点提供反馈。除了上述科技媒体人,名单还包括作家Stephen King、天体物理学家Neil deGrasse Tyson、已故科普作家Carl Sagan等公众人物,以及《Wired》《Bloomberg》《纽约时报》等媒体的记者。

然而,问题不仅限于未经授权。部分专家的描述存在信息不准确,例如使用过时的职位头衔。如果Grammarly事先征求了许可,这些细节本可更新,从而避免误导用户。

为什么这很重要?

在AI技术快速渗透日常工具的背景下,此事件凸显了几个关键议题:

  1. 数字身份与同意权:在AI训练和部署中,个人身份如何被使用、是否需明确同意,已成为行业焦点。Grammarly的做法可能触及了道德甚至法律边界,尤其是在未告知的情况下将活生生的专业人士“数字化”为AI模型的一部分。

  2. AI“幻觉”与真实性风险:尽管功能标注为“受专家启发”,但AI生成的建议并非专家本人所写,却可能让用户误以为获得了真实背书。这模糊了AI辅助与真实人类反馈的界限,可能影响写作的权威性和可信度。

  3. 行业监管缺口:当前,对于AI工具如何使用公众人物或专业人士的数据,尚无统一标准。Grammarly事件可能促使更多企业重新评估其AI伦理政策,或推动相关立法讨论。

潜在影响与后续

Grammarly作为拥有数百万用户的写作平台,此举不仅损害了被涉及专家的信任,也可能引发用户对AI功能透明度的质疑。在AI竞争白热化的今天,隐私和伦理失误可能直接转化为品牌危机。

截至报道时,Grammarly已向《The Verge》发表声明,但具体回应内容未在提供的资讯中详述。业界将关注其是否会调整功能、寻求授权或加强披露,以平衡创新与尊重。

小结:Grammarly的“专家评审”功能本意是提升写作质量,却因未经授权使用身份而陷入争议。这提醒我们,AI工具的便利性不能以牺牲个人权利为代价——在模拟人类智慧的同时,必须守住伦理底线。

延伸阅读

  1. 出差两个月,我让智能花盆自己照顾植物——结果令人惊喜
  2. 如何清理Android手机缓存——以及为何它能显著提升性能
  3. 电工警告:这7种常见家用电器切勿插在延长线上
查看原文