SheepNav
新上线12天前0 投票

专访Superhuman CEO:直面AI公司冒充我的争议

一场关于AI“冒充”与“归属”的激烈对话

近日,《The Verge》主编Nilay Patel在其播客节目《Decoder》中,与Superhuman(前身为Grammarly)的CEO Shishir Mehrotra进行了一场备受关注的访谈。这场对话的背景,源于去年八月Grammarly推出的一项名为Expert Review的功能。该功能允许用户获得由AI克隆的“专家”提供的写作建议,而《The Verge》及其他媒体的记者们发现,这些所谓的“专家”名单中,竟然包括他们自己——包括主持人Nilay Patel本人。

争议的引爆点:未经许可的AI克隆

Expert Review功能的推出,在媒体圈引发了轩然大波。核心争议在于:

  • 未经授权:Superhuman/Grammarly在未征得任何记者或创作者明确许可的情况下,使用了他们的姓名和身份来创建AI驱动的“专家”角色。
  • 引发众怒:许多记者对此感到愤怒,认为这是对其身份和声誉的滥用。
  • 法律行动:知名调查记者Julia Angwin因此提起了集体诉讼,将争议推向了法律层面。

面对舆论压力和法律风险,Superhuman的应对措施经历了两个阶段:

  1. 最初提供了基于电子邮件的退出机制
  2. 最终完全下架了Expert Review功能

CEO Shishir Mehrotra也为此公开道歉。然而,这场风波留下的核心问题远未解决。

专访焦点:AI时代的归属与冒充界限

在访谈中,Nilay Patel与Shishir Mehrotra的讨论多次陷入紧张气氛。双方的核心分歧点在于:如何界定AI技术对个人身份的使用,是“归属”(attribution)还是“冒充”(impersonation)? 以及,AI公司究竟对内容创作者负有何种责任?

  • Shishir Mehrotra的观点:作为前YouTube首席产品官和Spotify董事会成员,他试图从平台和产品经理的角度解释决策过程,并再次为事件道歉。他可能探讨了AI功能设计的初衷与现实中创作者感受之间的落差。
  • Nilay Patel的追问:作为直接“被冒充”的当事人之一,Patel的提问尖锐而直接,聚焦于AI公司决策的透明度、对创作者权益的尊重,以及更广泛的——AI技术给软件、平台和创意产业带来的“掠夺性”(extractive)感受

超越个案:AI行业的普遍挑战

这场对话虽然源于一个具体的产品功能失误,但其揭示的问题具有行业普遍性:

  • 伦理与许可的缺失:在急于推出AI新功能的竞争中,许多公司可能忽略了最基本的伦理审查和授权流程。使用真人身份(尤其是公众人物)训练或表征AI,应获得何种程度的同意?
  • 创作者权益的模糊地带:在AI生成内容(AIGC)爆发的时代,原创者的姓名、风格、观点被算法学习和模仿时,其权益边界在哪里?现行的版权和人格权法律框架面临挑战。
  • 信任与品牌危机:对于Superhuman(Grammarly)这样以“辅助创作”为核心产品的公司,伤害创作者信任的行为,对其品牌声誉的打击是巨大的。如何重建信任是后续关键。

小结:一次必要的“对峙”

这次访谈的价值在于,它并非一次简单的危机公关回应,而是一次CEO与直接受影响的用户(兼媒体监督者)之间的正面“对峙”。Shishir Mehrotra选择出席并坚持完成访谈,本身就需要勇气。对话中的紧张感,恰恰反映了当前AI技术与社会、与个体碰撞中最真实的矛盾。

事件表明,AI公司不能仅仅关注技术实现和用户体验,还必须将伦理考量、创作者关系和合规流程前置。在AI能力日益强大的背景下,明确“归属”与“冒充”的界限,建立尊重创作者的行业规范,已成为整个行业无法回避的紧迫课题。否则,类似的争议和法律纠纷只会越来越多。

延伸阅读

  1. 出差两个月,我让智能花盆自己照顾植物——结果令人惊喜
  2. 如何清理Android手机缓存——以及为何它能显著提升性能
  3. 电工警告:这7种常见家用电器切勿插在延长线上
查看原文