Clear Sky Science · es

Un estudio cualitativo mediante entrevistas que investiga las perspectivas de pacientes, profesionales sanitarios y desarrolladores sobre la implementación en el mundo real de sistemas de IA centrados en el paciente

· Volver al índice

Por qué esto importa a las familias de a pie

A medida que los ordenadores se vuelven más inteligentes, muchas personas esperan que la inteligencia artificial (IA) ayude a los médicos a detectar problemas de salud pronto y a personalizar la atención para cada persona. Sin embargo, incluso herramientas de IA muy precisas a menudo no logran marcar una diferencia real en la vida de las personas una vez que salen del laboratorio de investigación. Este estudio examina de cerca qué piensan los pacientes, los profesionales sanitarios y los desarrolladores sobre lo que hará falta para integrar la IA centrada en el paciente en la atención cotidiana, usando como ejemplo real una herramienta que predice el riesgo de depresión posparto durante el embarazo.

Figure 1
Figura 1.

Escuchar a tres grupos a la vez

Los investigadores entrevistaron a 36 personas: pacientes embarazadas o recientemente embarazadas, profesionales sanitarios que las atienden y desarrolladores de IA familiarizados con la salud mental o reproductiva. En lugar de limitarse a medir si el algoritmo era preciso, el equipo se centró en cómo encajaría realmente en la vida de las personas y en las rutinas clínicas. Preguntaron a cada grupo cómo se sentían al ver o usar puntuaciones de riesgo generadas por IA para la depresión posparto, cómo debería compartirse esa información y quién debería ser responsable si algo salía mal. Al combinar estas voces dentro de un mismo marco, el estudio reveló tensiones y puntos comunes que son difíciles de ver cuando solo se consulta a un grupo.

Miedos de daño y esperanzas de ayuda real

En general, los participantes coincidieron en que cualquier IA centrada en el paciente debe hacer más bien que daño. Las pacientes temían que una puntuación alta de riesgo de depresión pudiera aumentar el estigma o incluso desencadenar la intervención de los servicios de protección infantil. Los profesionales sanitarios se centraron en el peligro de datos sesgados o de baja calidad, especialmente si ciertos grupos raciales o sociales estaban infrarrepresentados. Los desarrolladores subrayaron la necesidad de identificar y mitigar estos problemas mientras se construyen las herramientas, no después de su despliegue. Al mismo tiempo, todos insistieron en que la herramienta debe conducir a acciones claras y útiles —como derivaciones más sencillas a servicios de salud mental o apoyo social— en lugar de ser solo otro número en la historia clínica. Cuando las puntuaciones de riesgo se mostraban sin pasos obvios a seguir, tanto pacientes como clínicos no sabían cómo responder.

Cómo debe compartirse la información

La gente tenía opiniones fuertes y variadas sobre cómo deberían llegar los resultados de la IA a los pacientes. Algunos querían ver sus puntuaciones de riesgo antes de las citas a través de un portal en línea para poder preparar preguntas y procesar emociones en privado. Otros preferían conocer los resultados solo en conversación con un clínico de confianza que pudiera explicar su significado. Todos los grupos coincidieron en que las explicaciones deberían estar en lenguaje claro, no en jerga médica o técnica, y que los pacientes necesitarían orientación para interpretar qué significa realmente un cierto porcentaje o banda de riesgo para sus vidas. Muchas pacientes querían saber qué factores específicos, como antecedentes de salud o estrés actual, estaban impulsando su puntuación para poder hablar con su equipo de atención sobre lo que podría ser modificable.

Confianza, privacidad y responsabilidad compartida

La confianza en la IA resultó estar estrechamente vinculada a cuestiones de privacidad y responsabilidad. Los participantes querían garantías de que los datos personales, especialmente la información sensible sobre salud mental y embarazo, se almacenarían y usarían de forma segura. Las pacientes a menudo asumían que todo lo visible en su historial en línea ya estaba verificado y era preciso, lo que aumenta las consecuencias de los errores. Los profesionales sanitarios temían ser culpados si seguían —o decidían no seguir— una sugerencia de la IA que luego resultara perjudicial. Los desarrolladores argumentaron que la responsabilidad debería ser compartida: los sistemas sanitarios, los reguladores, los clínicos y los creadores de IA tienen todos un papel en la detección de sesgos, el monitoreo del rendimiento con el tiempo y la decisión sobre cómo y cuándo deben usarse las herramientas en la atención.

Figure 2
Figura 2.

Qué debe cambiar a continuación

A partir de estas conversaciones, los autores describen varios pasos prácticos para que la IA sea realmente más centrada en el paciente. Los profesionales sanitarios necesitan formación, tiempo y herramientas de apoyo para interpretar la salida de la IA y discutirla con los pacientes. Las pacientes y los clínicos de primera línea deberían implicarse desde el principio en el diseño y la prueba de los sistemas de IA para que las cuestiones de equidad, utilidad y comunicación se aborden desde el inicio. Las salidas de la IA deberían presentarse en formatos flexibles y fáciles de entender que destaquen las opciones de acción, no solo los niveles de riesgo. Finalmente, hacen falta normas y supervisión claras y multinivel para proteger la privacidad y repartir la responsabilidad entre instituciones, reguladores y desarrolladores. Juntos, estos cambios podrían ayudar a trasladar la IA de resultados impresionantes en laboratorio a un apoyo más seguro y significativo para las familias durante el embarazo y más allá.

Cita: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5

Palabras clave: inteligencia artificial en la atención sanitaria, depresión posparto, atención centrada en el paciente, ética de la salud digital, cribado de salud mental