
Kagi Translate 的 AI 能回答“好色的玛格丽特·撒切尔会说什么?”
还记得当初玩转大型语言模型(LLM)的乐趣吗?最近,互联网上掀起了一股热潮,许多人惊讶地发现,AI驱动的Kagi Translate不仅能翻译传统语言,还能处理“LinkedIn 腔调”、“Gen Z 俚语”甚至“好色的玛格丽特·撒切尔”这类古怪的“翻译”任务。这一集体发现不仅凸显了LLM的趣味性和创造力,也暴露了让用户随意使用通用LLM工具的风险。
Kagi Translate:不只是翻译工具
Kagi 最初以付费搜索引擎闻名,作为谷歌搜索的竞争对手,它在2024年推出了Kagi Translate,声称是比Google Translate和DeepL“更优”的替代品。该工具利用多种LLM的组合,优化输出结果,但公司也承认这偶尔会导致一些“怪癖”。
最初版本提供244种语言的翻译选项,但到了2025年2月,有Hacker News用户发现,通过修改URL参数,可以将目标语言设置为“带波士顿口音的粗鲁男子”,而工具仍能正常工作。最近几周,Kagi的社交媒体账号甚至主动宣传其模仿“Reddit 腔调”或生成麦肯锡顾问式语言的能力。
从“LinkedIn 腔调”到“好色的撒切尔”:用户如何玩转AI
本周二,一名Hacker News用户兴奋地报告“Kagi Translate 现在支持LinkedIn 腔调作为输出语言”,这引发了广泛关注。在相关讨论中,其他用户注意到,只需在Kagi Translate的网页界面搜索栏中输入任意文本,底层AI就会尽力适应,实现各种创意“翻译”。
从那里开始,论坛和社交媒体用户纷纷测试他们最疯狂的“翻译语言”想法,例如:
- 媒体分析:尝试用工具生成讽刺性或政治性内容。
- 文化梗:探索如何将普通文本转化为特定人物或亚文化的表达方式。
这一现象展示了LLM的灵活性和用户驱动的创新,但也引发了对AI工具滥用的担忧。
风险与反思:当AI变得“太好玩”
尽管Kagi Translate的“怪癖”带来了娱乐效果,但它也提醒我们,通用LLM工具在缺乏严格控制时,可能被用于生成误导性、不当或有害内容。公司曾表示正在积极解决这些问题,但用户的自发探索表明,AI系统的边界往往比预期更模糊。
在AI行业快速发展的背景下,这类事件凸显了平衡创新与安全的重要性——工具开发者需要在鼓励创意使用的同时,防范潜在风险。
小结
Kagi Translate的案例是AI技术普及中的一个缩影:它既体现了LLM的强大适应性和用户参与的热情,也敲响了警钟,提醒我们AI工具的设计需兼顾功能性与责任。未来,随着更多类似工具的出现,如何管理这些“意外功能”将成为行业的关键挑战。