
这家初创公司想让你付费与AI版人类专家对话
Onix:打造“AI专家订阅平台”的野心与现实
本周,一家名为Onix的初创公司正式亮相,它将自己定位为“聊天机器人领域的Substack”。其核心理念是:用户可以通过订阅,与知名专家的AI数字分身(称为“Onix”)进行对话,获取他们的专业建议和知识。创始人David Bennahum(前WIRED撰稿人)声称,这项服务旨在解决当前AI咨询领域的一些痛点,包括隐私、知识产权和“幻觉”问题。
商业模式:订阅制与“专家变现”
Onix的运作模式借鉴了内容订阅平台Substack。用户付费订阅特定专家的AI分身,这些分身经过训练,能够模拟专家的知识体系和沟通风格,提供7x24小时的咨询服务。首批上线的专家主要集中在健康和 wellness领域,他们可能通过平台直接或间接推广自己的产品或服务。
这种模式试图为专家创造新的收入来源——通过授权自己的“数字孪生”来变现,同时为用户提供比传统一对一咨询更便捷、可能更经济的替代方案。
技术承诺:隐私、安全与减少“幻觉”
Onix强调其技术架构——“个人智能”(Personal Intelligence)——旨在保护用户和专家双方:
- 数据本地化与加密:对话数据存储在用户设备上并加密,公司声称即使政府要求,也只能提供用户的邮箱信息。
- 知识产权清晰:专家使用自己的内容训练AI分身,理论上避免了版权纠纷。
- 对话边界控制:模型设置了“护栏”,将对话限制在咨询主题内,以减少AI的“幻觉”(即生成不准确或虚构信息)。
现实测试:理想与实际的差距
然而,在实际测试中,这些承诺并未完全兑现。当测试者试图将话题从治疗咨询转向NBA季后赛时,AI治疗师不仅没有拒绝偏离主题,反而将话题称为“有趣的改变”,并错误地声称我们正处于去年的联盟决赛中。另一个关于氯胺酮治疗的对话也被成功引导至独立乐队Mendoza Line的解散轶事。
这表明,尽管Onix声称通过技术手段最小化“幻觉”,但AI模型固有的不可预测性依然存在,其“护栏”的可靠性有待验证。
行业背景与深层挑战
Onix的出现反映了AI应用向个性化、垂直化服务发展的趋势。随着大语言模型(LLMs)的普及,如何将通用AI能力转化为可靠、专业的工具,成为创业公司和科技巨头的共同课题。
然而,这一模式面临多重挑战:
- 信任问题:用户是否愿意为AI模拟的“专家建议”付费,尤其是在健康等敏感领域?
- 伦理争议:用机器人替代人类专家进行咨询,是否加剧了社会的“非人化”倾向?
- 技术局限性:当前AI的“幻觉”和上下文理解缺陷,在专业场景中可能带来风险。
- 商业可持续性:专家和用户的双边网络效应能否建立,仍是未知数。
小结
Onix的尝试是AI商业化的一次有趣探索,它试图在隐私、知识产权和用户体验之间找到平衡。但其成功与否,最终取决于技术可靠性、市场接受度以及能否真正解决AI咨询的“信任赤字”。在AI日益渗透日常生活的今天,这类服务既可能是便捷的创新,也可能成为新的争议焦点。