Clear Sky Science · es

Screenathon 2.0: selección colaborativa humano–IA aplicada a datos de salud generados por pacientes

· Volver al índice

Por qué esto importa para la investigación sanitaria cotidiana

La medicina moderna depende de tamizar montañas de artículos científicos para determinar qué funciona realmente. Pero el volumen de estudios nuevos ha crecido tanto que incluso los equipos de investigación organizados tienen dificultades para seguir el ritmo. Este artículo describe una forma nueva de asociar a las personas con la inteligencia artificial (IA) para acelerar ese “cribado” de artículos, manteniendo al mismo tiempo el juicio humano como responsable. El enfoque, llamado Screenathon 2.0, muestra cómo multitudes de expertos y software inteligente pueden trabajar juntos para abordar enormes tareas de lectura en apenas unos días.

Figure 1
Figure 1.

De la lectura en solitario al deporte en equipo

Tradicionalmente, los investigadores realizan revisiones sistemáticas haciendo que al menos dos personas lean el título y el resumen de cada artículo y decidan si encaja con la pregunta del estudio. Este proceso cuidadoso ayuda a garantizar conclusiones fiables, pero es dolorosamente lento y difícil de escalar conforme se dispara el número de artículos. Anteriormente, el mismo grupo de investigadores intentó convertir el cribado en un “Screenathon”, donde docenas de expertos trabajaron codo con codo durante varios días para repartir la carga. Ese primer evento demostró que el trabajo en equipo ayuda, pero seguía dependiendo totalmente del esfuerzo humano y no pudo escapar por completo a la fatiga, la experiencia desigual y los errores de etiquetado.

Añadir la IA como compañera útil

En Screenathon 2.0, el equipo mejoró el proceso integrando la IA directamente en el flujo de trabajo. Se centraron en la investigación sobre datos de salud generados por pacientes: información que las personas recogen por sí mismas con herramientas como pulseras de actividad, medidores de glucosa o aplicaciones de salud. Usando el programa de código abierto ASReview, el modelo de IA aprendía en tiempo real de cada juicio que hacían los revisores humanos: cada vez que una persona marcaba un artículo como relevante o no, el sistema actualizaba sus reglas internas y reordenaba los artículos restantes, empujando los más prometedores al frente de la cola. De este modo, los humanos seguían siendo los responsables de las decisiones, mientras la IA actuaba como una guía en constante mejora, decidiendo qué artículos debían revisarse a continuación.

Un gran experimento en dos días intensos

Los investigadores probaron esta asociación humano–IA durante una reunión de tres días de un consorcio europeo de salud. Veintisiete expertos de 27 organismos asociados examinaron casi 7.000 registros científicos repartidos en 11 áreas de enfermedad, desde cáncer hasta cardiopatías y trastornos neurológicos. El primer día, los participantes recibieron formación sobre las reglas de inclusión y una introducción al funcionamiento del sistema de IA. El segundo día se centraron en un cribado colaborativo intensivo, a veces incluso continuando de forma informal en espacios compartidos. Al final, habían etiquetado 487 registros como relevantes y más de 6.000 como irrelevantes, con algunas personas cribando solo unos pocos artículos y otras procesando miles, todos alimentando modelos de IA compartidos para cada tema de enfermedad.

Figure 2
Figure 2.

Comprobando la salida máquina–humano

La velocidad por sí sola sería irrelevante si se pasaran por alto estudios importantes, por eso el equipo construyó una sólida fase de “postratamiento”. Una vez terminó el evento principal, pasaron varias semanas verificando y refinando los resultados. Reasignaron artículos que habían sido colocados en el grupo de enfermedad equivocado, releyeron casos inciertos y realizaron rondas adicionales de cribado usando reglas estrictas de parada, como continuar hasta que aparecieran docenas de artículos irrelevantes consecutivos. Finalmente, emplearon un método especial para reexaminar registros previamente rechazados que podrían haber sido etiquetados incorrectamente. Esta minuciosa fase de limpieza descubrió más de 200 estudios relevantes adicionales en los distintos temas, demostrando que el cribado rápido asistido por IA puede ir de la mano con un control de calidad exhaustivo.

Cómo se sintieron las personas al trabajar con la IA

Durante todo el evento, los participantes completaron encuestas sobre su confianza, motivación y confianza en la revisión asistida por IA. En general, informaron de alta motivación y satisfacción con la experiencia, y más de la mitad dijo preferir el cribado con ayuda de IA frente a los métodos completamente tradicionales. Es importante señalar que su confianza en la revisión apoyada por IA aumentó después de haber trabajado realmente con el sistema. Muchos elogiaron la sencillez y la claridad del software, aunque también sugirieron mejoras como mejores opciones de filtrado y señales visuales más transparentes sobre cómo la IA priorizaba los artículos.

Qué nos revela este nuevo enfoque

Para un lector general, el mensaje clave es que el reto de seguir el ritmo de la investigación médica no exige elegir entre humanos y máquinas. Screenathon 2.0 muestra que mezclar el juicio experto con una IA adaptativa puede ayudar a los equipos de investigación a encontrar rápidamente los estudios más relevantes sin sacrificar el cuidado y la supervisión. La IA acelera la búsqueda, pero los humanos siguen tomando las decisiones finales y verificando los resultados. Con una formación sólida y controles posteriores robustos, este tipo de asociación humano–IA podría hacer que la recopilación de evidencia sea más rápida, fiable y sostenible a medida que la información sanitaria sigue creciendo.

Cita: Bergmann, J., Azzi, T., Neeleman, R. et al. Screenathon 2.0: human–AI collaborative screening applied to patient-generated health data. Sci Rep 16, 14487 (2026). https://doi.org/10.1038/s41598-026-45385-5

Palabras clave: revisiones sistemáticas, colaboración humano–IA, datos de salud generados por pacientes, aprendizaje activo, cribado de literatura