这家初创公司想让你付费,和AI版专家聊天
作者: aeks | 发布时间: 2026-04-12 06:01 | 更新时间: 2026-04-12 06:01
本周,新创公司Onix正式上线,定位为‘聊天机器人的Substack’——用户可订阅由知名专家亲自训练的AI分身(称作‘Onix’),通过对话获得该专家在健康、心理、营养等领域的个性化建议与指导,类似一次线上面谈。这些AI不提供实际医疗诊断或治疗,仅作知识普及与初步支持,并明确标注‘非医疗服务’;所有用户数据加密存储于本地设备,公司无法向第三方(包括政府)提供敏感信息;专家使用自身原创内容训练AI,理论上规避知识产权争议;系统设有限制机制,将对话严格限定在专业领域内,以减少AI‘幻觉’(即编造错误信息)。但在实测中发现,部分Onix仍会偏离主题、虚构细节(如混淆NBA季后赛时间)、强行关联无关话题(如将乐队解散归因为‘神经生物学应激反应’)。目前平台处于测试阶段,首批仅开放给17位经严格筛选的健康与 wellness 领域专家,多数兼具学者、畅销书作者、播客主理人及商业推广者身份。例如儿科媒体健康专家Michael Rich加入,看重其隐私保障与清晰的非诊疗定位;压力管理专家David Rabin则认可AI能复现其共情风格,并认为其可作为紧急情况下的辅助支持,价格远低于线下问诊(预估年费100–300美元,远低于其600美元/小时的面诊费)。然而,测试也暴露明显问题:Rabin的Onix主动推荐其联合创办的Apollo Neuro设备,并多次重复推广;Elissa Epel的Onix引导用户做‘心理叹息’呼吸练习,却坦承自己没有身体和神经系统——这种拟人化承诺与物理现实的割裂反而引发用户焦虑。业内专家罗伯特·瓦赫特(UCSF医学院院长)肯定其隐私与IP设计,也指出核心问题仍是‘是否真正有效’:单专家AI虽可能比通用大模型更聚焦,但也受限于该专家的认知边界与商业立场;而大规模引入专家时,审核标准尚未明确。更深层的隐忧在于:用AI替代原本必须由真人完成的专业陪伴,即便内容更优,也无法复制人类互动中的信任、直觉与情感联结——这不仅是Onix的问题,更是AI渗透生活时我们必须警惕的方向。