Clear Sky Science · zh
一项定性访谈研究:探讨患者、医疗专业人员与开发者对以患者为中心的人工智能系统在现实世界实施的看法
这对日常家庭有何意义
随着计算机愈发智能,许多人期望人工智能(AI)能帮助医生及早发现健康问题,并为每个人量身定制护理。然而,即便是非常准确的AI工具,在离开研究实验室进入实际应用后,往往也无法真正改善人们的生活。本研究以孕期预测产后抑郁风险的工具为现实示例,深入考察患者、医疗专业人员和AI开发者认为将以患者为中心的AI引入日常护理所需的条件。

同时倾听三类群体的声音
研究者采访了36名受访者:正在怀孕或近期分娩的患者、为其提供护理的医疗专业人员,以及熟悉心理或生殖健康的AI开发者。研究并非仅衡量算法的准确性,而是聚焦其如何真正融入人们的生活和临床流程。他们询问了各组对查看或使用AI生成的产后抑郁风险评分的感受、应如何共享这些信息、以及如果出现问题应由谁负责。将这三方声音纳入同一框架后,研究揭示了只问单一群体时难以看清的冲突与共识。
对伤害的担忧与对切实帮助的期望
总体上,参与者一致认为任何以患者为中心的AI都必须利大于弊。患者担心高风险评分可能加剧污名化,甚至导致儿童保护机构介入。医疗专业人员关注数据的偏倚或低质量风险,尤其是某些种族或社会群体被低代表时。开发者强调应在工具构建阶段就识别并减轻这些问题,而不是在部署后才处理。与此同时,所有人都强调该工具必须带来明确、实用的行动路径——例如更便捷的心理健康或社会支持转诊——而不仅仅是病历上的一个数字。当风险评分呈现却没有明显的后续步骤时,患者和临床医生都不确定该如何应对。
信息应如何共享
关于AI结果如何传达给患者,意见强烈且多样。一些人希望能在就诊前通过线上门户看到自己的风险评分,以便提前准备问题并在私下消化情绪。另一些人则更愿意在与可信赖的临床医生对话时才得知结果,由对方解释其含义。各方一致认为解释应使用通俗语言,而非医学或技术术语,患者需要指导来解读某一百分比或风险区间对其生活具体意味着什么。许多患者希望知道哪些具体因素(如既往病史或当前压力)在驱动其评分,以便与护理团队讨论哪些方面是可以改变或干预的。
信任、隐私与共同责任
对AI的信任与隐私和问责问题紧密相关。参与者希望得到保障,个人数据——尤其是敏感的心理健康和孕产信息——会被安全存储与使用。患者常常假设线上记录中可见的任何内容已经过审核且准确,这使错误的后果更为严重。医疗专业人员担心如果他们按照AI建议行事(或选择不采纳)而导致不良后果,会被追责。开发者则主张责任应由多方共同承担:医疗系统、监管机构、临床医生和AI创建者都应参与偏差检测、持续监测性能,并共同决定工具在护理中应如何以及何时使用。

下一步需要改变的方面
基于这些对话,作者概述了若干切实可行的步骤,以使AI真正更具患者中心性。医疗专业人员需要培训、时间和支持工具来解读AI输出并与患者讨论。患者和一线临床人员应及早参与AI系统的设计和测试,使公平性、实用性与沟通问题从一开始就被纳入考虑。AI结果应以灵活且易于理解的格式呈现,突出可采取的行动选项,而非仅显示风险水平。最后,需要清晰、多层次的规则与监管以保护隐私并在机构、监管者与开发者之间分担责任。共同推进这些改变,或能将AI从令人印象深刻的实验室成果,转向在孕期及更广泛阶段为家庭提供更安全、更有意义的支持。
引用: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5
关键词: 医疗保健 人工智能, 产后抑郁, 以患者为中心的护理, 数字健康伦理, 心理健康筛查