SheepNav
这家初创公司想让你付费与AI版人类专家对话
新上线3天前0 投票

这家初创公司想让你付费与AI版人类专家对话

Onix:打造“AI专家订阅平台”的野心与现实

本周,一家名为Onix的初创公司正式亮相,它将自己定位为“聊天机器人领域的Substack”。其核心理念是:用户可以通过订阅,与知名专家的AI数字分身(称为“Onix”)进行对话,获取他们的专业建议和知识。创始人David Bennahum(前WIRED撰稿人)声称,这项服务旨在解决当前AI咨询领域的一些痛点,包括隐私、知识产权和“幻觉”问题。

商业模式:订阅制与“专家变现”

Onix的运作模式借鉴了内容订阅平台Substack。用户付费订阅特定专家的AI分身,这些分身经过训练,能够模拟专家的知识体系和沟通风格,提供7x24小时的咨询服务。首批上线的专家主要集中在健康和 wellness领域,他们可能通过平台直接或间接推广自己的产品或服务。

这种模式试图为专家创造新的收入来源——通过授权自己的“数字孪生”来变现,同时为用户提供比传统一对一咨询更便捷、可能更经济的替代方案。

技术承诺:隐私、安全与减少“幻觉”

Onix强调其技术架构——“个人智能”(Personal Intelligence)——旨在保护用户和专家双方:

  • 数据本地化与加密:对话数据存储在用户设备上并加密,公司声称即使政府要求,也只能提供用户的邮箱信息。
  • 知识产权清晰:专家使用自己的内容训练AI分身,理论上避免了版权纠纷。
  • 对话边界控制:模型设置了“护栏”,将对话限制在咨询主题内,以减少AI的“幻觉”(即生成不准确或虚构信息)。

现实测试:理想与实际的差距

然而,在实际测试中,这些承诺并未完全兑现。当测试者试图将话题从治疗咨询转向NBA季后赛时,AI治疗师不仅没有拒绝偏离主题,反而将话题称为“有趣的改变”,并错误地声称我们正处于去年的联盟决赛中。另一个关于氯胺酮治疗的对话也被成功引导至独立乐队Mendoza Line的解散轶事。

这表明,尽管Onix声称通过技术手段最小化“幻觉”,但AI模型固有的不可预测性依然存在,其“护栏”的可靠性有待验证。

行业背景与深层挑战

Onix的出现反映了AI应用向个性化、垂直化服务发展的趋势。随着大语言模型(LLMs)的普及,如何将通用AI能力转化为可靠、专业的工具,成为创业公司和科技巨头的共同课题。

然而,这一模式面临多重挑战:

  1. 信任问题:用户是否愿意为AI模拟的“专家建议”付费,尤其是在健康等敏感领域?
  2. 伦理争议:用机器人替代人类专家进行咨询,是否加剧了社会的“非人化”倾向?
  3. 技术局限性:当前AI的“幻觉”和上下文理解缺陷,在专业场景中可能带来风险。
  4. 商业可持续性:专家和用户的双边网络效应能否建立,仍是未知数。

小结

Onix的尝试是AI商业化的一次有趣探索,它试图在隐私、知识产权和用户体验之间找到平衡。但其成功与否,最终取决于技术可靠性、市场接受度以及能否真正解决AI咨询的“信任赤字”。在AI日益渗透日常生活的今天,这类服务既可能是便捷的创新,也可能成为新的争议焦点。

延伸阅读

  1. STaR-DRO:面向群体鲁棒结构化预测的状态化Tsallis重加权方法
  2. Fairboard:医疗AI模型的公平性评估框架,揭示脑瘤分割中的算法偏见
  3. 扩散与注意力的深层联系:统一Transformer、扩散图与磁拉普拉斯的新理论框架
查看原文