
美国人向AI寻求医疗建议,医院回应:更多专属聊天机器人
随着越来越多的美国人开始使用大型语言模型(LLM)获取健康建议,美国各地的医疗系统正密切关注这一趋势,并纷纷推出自己的品牌聊天机器人,试图利用这一流行工具,将更多人引导至其服务中。然而,这一新兴趋势也立即引发了关于美国复杂且普遍表现不佳的医疗系统的疑问和担忧。
医疗AI的“转折点”与医院布局
临床AI公司K Health的首席执行官Allon Bloch在一份声明中表示:“我们正处于医疗保健的转折点。需求正在加速增长,患者已经在使用AI来导航他们的生活。”K Health正与康涅狄格州的合作伙伴Hartford HealthCare合作,向数万名现有患者推出其PatientGPT聊天机器人。Bloch强调:“问题不在于AI是否会塑造医疗保健,而在于我们如何以安全、透明的方式,在一个连接到您的医疗记录和护理团队的医疗系统中实现它。PatientGPT代表了这一转折点。”
医院高管们将这些新服务定位为患者的便利工具,旨在“在患者所在的地方提供服务”,并实现数字公平。他们还暗示,这些聊天机器人将比人们目前使用的商业版本更安全。
专家担忧:风险与证据不足
然而,一些专家对这类推出持谨慎态度,他们担心聊天机器人是否已准备好进行此类品牌亮相,是否会有足够的监控,责任将如何界定,以及这是否真的是患者所提出护理问题的解决方案。
波士顿贝斯以色列女执事医疗中心的临床推理研究员兼内科医生Adam Rodman最近向Stat News表示:“这是一个诱人的想法。”但他指出,目前还没有证据表明将聊天机器人整合到医疗系统中能改善患者的治疗效果。“我们还没有达到那个阶段,”他说。
美国医疗系统的背景与AI的潜在角色
要评估AI的潜在作用,有必要考虑美国医疗保健的更广泛背景。美国是世界上最富裕的国家之一,但其医疗系统与其他高收入国家相比,持续且显著地表现不佳。美国人面临较低的预期寿命、更多的可避免死亡、较高的孕产妇和婴儿死亡率,以及较高的肥胖和慢性病发病率。
在这种背景下,AI聊天机器人被视为一种可能的解决方案,以应对资源分配不均、信息获取障碍和护理协调问题。但专家警告,在没有充分验证和监管的情况下,匆忙推出可能带来风险,包括误诊、隐私泄露和责任模糊。
未来展望:安全与透明的挑战
随着医疗系统继续探索AI聊天机器人的整合,关键问题将围绕安全性、透明度、监管框架和实际效益展开。患者和医疗提供者都需要在便利性与风险之间找到平衡,确保AI工具真正服务于改善医疗结果,而非仅仅成为营销工具。
目前,这一趋势仍在发展中,其长期影响和有效性有待进一步观察和研究。


