医院推出AI聊天机器人以满足患者需求
Ars Technica AI··作者 Beth Mole
关键信息
尽管医院声称这些聊天机器人比商用大模型更安全且能连接病历,但目前尚无证据表明它们能改善患者预后,这引发了对准备程度和监管监督的质疑。
资讯摘要
随着越来越多美国人转向ChatGPT等大型语言模型获取健康建议,医院开始部署自有品牌的AI聊天机器人作为回应。K Health与哈特福德健康护理合作推出了PatientGPT,面向数万名患者。医院高管将此举视为在患者所在之处提供服务、提升数字公平性并提供比消费级AI更安全指导的方式。
然而,专家警告称,这些工具缺乏明确的临床效益,引发责任归属问题,并可能无法解决美国医疗体系的根本痛点,如可及性和成本。这次推广标志着一个转折点,但是否能带来更好的医疗效果仍有待观察。

资讯正文
美国人向人工智能寻求医疗建议。医院认为,答案是增加更多聊天机器人。
随着许多美国人转向大型语言模型获取健康建议,全国各地的医疗机构正关注甚至推出自己的品牌聊天机器人,试图利用这一已广受欢迎的工具,并将更多人引导至其服务。但这一新兴趋势正在引发对美国复杂且普遍表现不佳的医疗体系的即时疑问和担忧。
高管们将这些新服务描述为对患者的便利,满足人们在数字时代的需求,并提供具有数字公平性的服务。他们还表示,这些聊天机器人将是目前人们使用的商业版本更安全的替代方案。
“我们正处于医疗保健的一个转折点,”临床AI公司K Health的首席执行官阿隆·布洛赫(Allon Bloch)在一份声明中表示,“需求正在加速增长,患者已经使用人工智能来导航他们的生活。”
K Health正与康涅狄格州的合作伙伴哈特福德医疗系统(Hartford HealthCare)合作,向数万名现有患者推出其PatientGPT聊天机器人。
“问题不是人工智能是否会塑造医疗保健,而是我们如何以一种安全、透明的方式,在一个能连接到你的病历和医疗团队的医疗系统中实现这一点。PatientGPT代表了那个转折点,”布洛赫说。
但一些专家对这些推广持谨慎态度,担心聊天机器人是否已准备好进行这样的品牌发布,是否有足够的监管机制,责任归属会如何界定,以及这是否真的是解决患者真正关切的医疗问题的答案。
尽管这些风险和疑问仍在发酵,对患者的好处仍然是假设性的。‘这是一个极具吸引力的想法,’波士顿贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center)的临床推理研究员兼内科医生亚当·罗德曼(Adam Rodman)最近告诉Stat News。但目前还没有证据表明,将聊天机器人整合进医疗系统能够改善患者结果。‘我们还没到那一步,’他说。
来源与参考
收录于 2026-04-15