SheepNav
新上线今天0 投票

Grammarly的“山寨专家”风波:AI生成的“专家点评”为何引发众怒?

Grammarly的AI转型与“专家点评”功能

2025年,以语法检查工具闻名的Grammarly公司宣布了一项重大转型:更名为Superhuman,并定位为一家AI公司。这次转型的核心是将Grammarly的侧边栏从一个简单的语法建议工具,转变为AI智能体(AI agents)的中心枢纽。公司首席产品官Noam Lovinsky当时承诺,Grammarly品牌不会消失,但会融入更广泛的AI生态中。

然而,在这次高调转型之前,一个名为“Expert Review”(专家点评)的功能已经悄然上线,并埋下了争议的种子。

“专家点评”功能:AI如何“扮演”名人

根据一份现已删除的帮助页面,“专家点评”功能旨在为用户提供“来自领先专业人士、作家和领域专家的见解”。当用户点击“专家点评”按钮时,该功能会生成以相关专家“灵感启发”的建议,并在建议旁显示专家姓名和一个勾选图标(尽管这个图标的确切含义从未明确说明)。

功能截图显示,它使用了包括**斯蒂芬·金(Stephen King)、尼尔·德格拉斯·泰森(Neil deGrasse Tyson)和卡尔·萨根(Carl Sagan)**在内的著名作家和学者的名字。这些名字与AI生成的文本建议并列出现,营造出一种似乎得到了这些真实专家认可的假象。

争议焦点:透明度缺失与信任危机

“专家点评”功能最大的问题在于其模糊的表述和潜在的误导性

  • “灵感启发”的模糊边界:功能描述称建议是“受专家启发”,但这与直接使用专家姓名并列展示的做法存在巨大落差。用户很容易误解为这些建议直接来自或得到了该专家的认可。
  • 验证图标的误导:旁边的勾选图标进一步强化了这种“已验证”或“权威”的错觉,而实际上这些专家本人很可能完全不知情,也未参与其中。
  • 行业背景下的风险:在AI内容生成日益普及的当下,明确区分AI生成内容和人类创作(或背书)变得至关重要。Grammarly的这一功能恰恰模糊了这条界线,触及了AI伦理中关于署名、真实性和误导的核心问题。

事件影响与行业反思

虽然文章未提供用户和专家具体反馈的详细数据,但明确指出该功能“并未受到用户或专家的欢迎”。这起事件成为了Grammarly(Superhuman)AI转型之路上的一个警示案例。

它凸显了AI公司在追求产品创新和功能扩展时,必须面对的几大挑战:

  1. 透明性优先:AI工具必须清晰、明确地告知用户内容的来源和生成方式,避免任何可能引起误解的表述或视觉设计。
  2. 尊重知识产权与个人品牌:未经许可使用名人或专家的姓名和形象为AI生成内容背书,不仅涉及伦理问题,也可能引发法律风险。
  3. 建立信任而非消耗信任:对于Grammarly这类拥有庞大用户基础的成熟工具,用户信任是其核心资产。任何损害透明度和真实性的功能,都可能快速侵蚀这份信任。

小结

Grammarly的“专家点评”功能风波,是AI应用落地过程中一个典型的“踩坑”案例。它超越了单纯的技术故障,直指AI产品设计中的伦理盲区沟通失误。在AI能力日益强大的背景下,企业如何负责任地使用这些能力,如何在创新与透明度之间取得平衡,将是决定其长期成功的关键。这起事件也为整个AI行业敲响了警钟:技术的先进性必须与应用的审慎性同步,否则很可能引发用户反弹和信任危机。

延伸阅读

  1. 太空数据中心能否支撑SpaceX的巨额估值?
  2. 在日本,机器人不是来抢工作的,而是填补没人愿意干的岗位
  3. 我让Google Maps里的Gemini规划我的一天,结果出乎意料地好
查看原文