Clear Sky Science · es

Innovar los marcos regulatorios globales para la IA generativa en dispositivos médicos es una prioridad urgente

· Volver al índice

Por qué importa para su salud

La inteligencia artificial generativa, incluidas herramientas como chatbots avanzados, está llegando rápidamente a los consultorios y hospitales. Estos sistemas pueden redactar notas clínicas, responder preguntas de salud e incluso sugerir diagnósticos. Esta revisión explica por qué nuestras reglas actuales para dispositivos médicos no están preparadas para tecnologías tan flexibles e impredecibles, y por qué actualizarlas es esencial para una atención segura, justa y confiable en todo el mundo.

Figure 1. Cómo las herramientas de IA, los médicos y los pacientes se conectan mediante reglas más inteligentes para ofrecer una atención médica más segura.
Figure 1. Cómo las herramientas de IA, los médicos y los pacientes se conectan mediante reglas más inteligentes para ofrecer una atención médica más segura.

Nuevas herramientas que hacen mucho más que un trabajo

El software médico antiguo se diseñaba para realizar una tarea claramente definida, como detectar un tumor en una exploración. La IA generativa y los modelos de lenguaje grande, en cambio, pueden asumir muchas tareas distintas, desde resumir historias clínicas hasta asesorar sobre opciones de tratamiento. Se entrenan con enormes colecciones de textos, imágenes y otros datos en línea, lo que los hace poderosos pero también difíciles de entender o controlar por completo. Dado que sus respuestas pueden cambiar de un uso a otro e incluir errores seguros o “alucinaciones”, no encajan bien en las categorías existentes de dispositivos médicos, que se diseñaron para herramientas más predecibles.

Por qué las normas de seguridad actuales se quedan cortas

Los reguladores han intentado ponerse al día usando un enfoque de “ciclo de vida total del producto” que sigue un dispositivo desde el diseño hasta el uso en el mundo real. Esto ayuda con muchos tipos de IA, pero el artículo sostiene que no es suficiente para los modelos de lenguaje grande. Es casi imposible inspeccionar todos los datos de entrenamiento en busca de errores o información personal oculta. Evaluar el rendimiento de estos sistemas también es complicado, porque sus respuestas largas y abiertas son difíciles de puntuar con pruebas de precisión simples. Los estudios muestran que algunos modelos funcionan bien en preguntas tipo examen pero tienen problemas con casos desordenados de la vida real, y pueden rendir peor que los clínicos en tareas clave. Además, no existe una forma acordada de medir o monitorizar el sesgo, lo que significa que los sistemas podrían rendir peor de forma silenciosa para ciertos grupos de pacientes.

Riesgos ocultos tras el despliegue

Una vez que se lanzan las herramientas basadas en modelos de lenguaje grande, seguir su seguridad se vuelve aún más complejo. Muchos modelos se construyen sobre sistemas base compartidos y luego son ajustados o reentrenados por distintas empresas, lo que dificulta conocer exactamente qué datos y cambios hay debajo. Algunas herramientas llegan a los pacientes directamente como aplicaciones de asesoramiento sanitario sin aprobación formal. Los problemas pueden no denunciarse, especialmente cuando los errores quedan enterrados en largas notas clínicas redactadas por una secretaria IA. Las vías de aprobación existentes que se basan en mostrar “similitud” con productos anteriores pueden ser utilizadas indebidamente para herramientas que, en realidad, son bastante distintas. Al mismo tiempo, cuestiones éticas como la privacidad, la autonomía, la confianza y el impacto en la relación médico-paciente están sólo parcialmente abordadas en las regulaciones actuales.

Figure 2. Cómo los datos sanitarios desordenados se filtran mediante pasos de supervisión para convertirlos en herramientas de IA más seguras utilizadas en dispositivos médicos cotidianos.
Figure 2. Cómo los datos sanitarios desordenados se filtran mediante pasos de supervisión para convertirlos en herramientas de IA más seguras utilizadas en dispositivos médicos cotidianos.

Construir una supervisión más inteligente y justa

Los autores destacan ideas emergentes para hacer la regulación más flexible y efectiva. Los “cajas de arena regulatorias” permiten probar nuevas herramientas de IA bajo supervisión en entornos limitados, de modo que reguladores y desarrolladores puedan aprender de la experiencia y ajustar las normas con rapidez. Conceptos nuevos como “software como servicio médico” pretenden tratar a los agentes de IA altamente automatizados más como servicios de salud continuos que como productos fijos. El artículo también subraya la importancia de comprender toda la cadena de suministro, desde la recolección de datos y la construcción del modelo hasta el alojamiento en la nube y el hardware, para que los sistemas sanitarios puedan mantener su resiliencia cuando las herramientas digitales fallen o sean atacadas. Redes globales de reguladores, investigadores y sistemas sanitarios están empezando a compartir listas de verificación, estándares de prueba y laboratorios de supervisión para alinear sus esfuerzos.

Mantener la equidad en el centro

Una preocupación importante es cómo la IA generativa podría ampliar o reducir la brecha de salud entre regiones ricas y pobres. Si los modelos se entrenan mayormente con datos de países de altos ingresos, pueden funcionar mal en entornos con pocos recursos o para comunidades poco representadas. El artículo pide la inclusión deliberada de perspectivas y datos de países de ingresos bajos y medios, y apoyo para ayudar a estas regiones a construir y desplegar sus propias herramientas de IA de forma segura. Estándares de reporte y herramientas de evaluación centrados en la equidad en salud pueden sacar a la luz sesgos ocultos, mientras que las colaboraciones pueden ayudar a trasladar IA exitosa de proyectos piloto a clínicas reales sin dejar atrás a los grupos vulnerables.

Qué significa esto de cara al futuro

En términos claros, el artículo concluye que la IA generativa en medicina avanza demasiado rápido para los libros de reglas existentes. Para proteger a los pacientes y ganar confianza, los países deben trabajar juntos en marcos regulatorios nuevos y adaptativos que puedan seguir el ritmo de modelos cambiantes mientras protegen la privacidad, la seguridad y la equidad. Los autores imaginan organismos globales independientes que establezcan estándares compartidos, de forma similar a los que existen en ciberseguridad, para que hospitales y pacientes en todo el mundo puedan beneficiarse de estas herramientas sin exponerse a daños evitables.

Cita: Ong, J.C.L., Ning, Y., Liu, M. et al. Innovating global regulatory frameworks for generative AI in medical devices is an urgent priority. npj Digit. Med. 9, 364 (2026). https://doi.org/10.1038/s41746-026-02552-2

Palabras clave: IA generativa, dispositivos médicos, regulación sanitaria, modelos de lenguaje grande, equidad en salud