专访Superhuman CEO:直面AI公司冒充我的争议
一场关于AI“冒充”与“归属”的激烈对话
近日,《The Verge》主编Nilay Patel在其播客节目《Decoder》中,与Superhuman(前身为Grammarly)的CEO Shishir Mehrotra进行了一场备受关注的访谈。这场对话的背景,源于去年八月Grammarly推出的一项名为Expert Review的功能。该功能允许用户获得由AI克隆的“专家”提供的写作建议,而《The Verge》及其他媒体的记者们发现,这些所谓的“专家”名单中,竟然包括他们自己——包括主持人Nilay Patel本人。
争议的引爆点:未经许可的AI克隆
Expert Review功能的推出,在媒体圈引发了轩然大波。核心争议在于:
- 未经授权:Superhuman/Grammarly在未征得任何记者或创作者明确许可的情况下,使用了他们的姓名和身份来创建AI驱动的“专家”角色。
- 引发众怒:许多记者对此感到愤怒,认为这是对其身份和声誉的滥用。
- 法律行动:知名调查记者Julia Angwin因此提起了集体诉讼,将争议推向了法律层面。
面对舆论压力和法律风险,Superhuman的应对措施经历了两个阶段:
- 最初提供了基于电子邮件的退出机制。
- 最终完全下架了Expert Review功能。
CEO Shishir Mehrotra也为此公开道歉。然而,这场风波留下的核心问题远未解决。
专访焦点:AI时代的归属与冒充界限
在访谈中,Nilay Patel与Shishir Mehrotra的讨论多次陷入紧张气氛。双方的核心分歧点在于:如何界定AI技术对个人身份的使用,是“归属”(attribution)还是“冒充”(impersonation)? 以及,AI公司究竟对内容创作者负有何种责任?
- Shishir Mehrotra的观点:作为前YouTube首席产品官和Spotify董事会成员,他试图从平台和产品经理的角度解释决策过程,并再次为事件道歉。他可能探讨了AI功能设计的初衷与现实中创作者感受之间的落差。
- Nilay Patel的追问:作为直接“被冒充”的当事人之一,Patel的提问尖锐而直接,聚焦于AI公司决策的透明度、对创作者权益的尊重,以及更广泛的——AI技术给软件、平台和创意产业带来的“掠夺性”(extractive)感受。
超越个案:AI行业的普遍挑战
这场对话虽然源于一个具体的产品功能失误,但其揭示的问题具有行业普遍性:
- 伦理与许可的缺失:在急于推出AI新功能的竞争中,许多公司可能忽略了最基本的伦理审查和授权流程。使用真人身份(尤其是公众人物)训练或表征AI,应获得何种程度的同意?
- 创作者权益的模糊地带:在AI生成内容(AIGC)爆发的时代,原创者的姓名、风格、观点被算法学习和模仿时,其权益边界在哪里?现行的版权和人格权法律框架面临挑战。
- 信任与品牌危机:对于Superhuman(Grammarly)这样以“辅助创作”为核心产品的公司,伤害创作者信任的行为,对其品牌声誉的打击是巨大的。如何重建信任是后续关键。
小结:一次必要的“对峙”
这次访谈的价值在于,它并非一次简单的危机公关回应,而是一次CEO与直接受影响的用户(兼媒体监督者)之间的正面“对峙”。Shishir Mehrotra选择出席并坚持完成访谈,本身就需要勇气。对话中的紧张感,恰恰反映了当前AI技术与社会、与个体碰撞中最真实的矛盾。
事件表明,AI公司不能仅仅关注技术实现和用户体验,还必须将伦理考量、创作者关系和合规流程前置。在AI能力日益强大的背景下,明确“归属”与“冒充”的界限,建立尊重创作者的行业规范,已成为整个行业无法回避的紧迫课题。否则,类似的争议和法律纠纷只会越来越多。