Clear Sky Science · es

Desafíos para aplicar las exenciones de investigación de la Ley de IA de la UE a la investigación de IA contemporánea

· Volver al índice

Por qué importan a todos las nuevas normas sobre IA

La inteligencia artificial está pasando rápidamente de los laboratorios de investigación a hospitales, bancos, escuelas y organismos públicos. Para proteger a las personas sin frenar la innovación, la Unión Europea ha creado la primera ley amplia del mundo centrada íntegramente en la IA, conocida como la Ley de IA de la UE. Este documento examina de cerca un rincón aparentemente estrecho pero crucial de esa ley: las exenciones especiales para la investigación. Los autores sostienen que, en el mundo real de la IA moderna, la línea entre «solo investigación» y «uso en el mundo real» es borrosa, y que esta imprecisión podría tanto asfixiar ciencia útil como abrir la puerta a aplicaciones riesgosas que se salten las salvaguardias.

Figure 1
Figura 1.

Cómo la nueva ley de IA intenta protegernos

La Ley de IA de la UE establece un marco de amplio alcance que cubre a la mayoría de los actores implicados en la creación, venta y uso de sistemas de IA, incluso si operan fuera de Europa pero todavía afectan a personas en la UE. Dentro de este amplio ámbito, la ley reserva dos exenciones clave para la investigación. Una se aplica cuando los sistemas de IA aún están en desarrollo y no se han comercializado ni puesto en servicio; la otra se aplica a sistemas acabados diseñados y usados únicamente para la investigación científica. Sobre el papel, estas exenciones intentan evitar que la burocracia ahogue la experimentación, asegurando al mismo tiempo que la IA utilizada en la vida cotidiana cumpla requisitos estrictos sobre seguridad, transparencia y respeto por los derechos fundamentales.

Dónde termina el laboratorio y comienza la vida real

La primera exención, para la fase de desarrollo, parte de la suposición de una división clara entre las pruebas de laboratorio y el uso en el mundo real. La ley establece que las actividades anteriores a que un sistema sea «puesto en el mercado» o «puesto en servicio» quedan fuera de su ámbito, pero excluye explícitamente las pruebas en condiciones reales de este espacio seguro. Eso parece sencillo hasta que consideramos prácticas comunes en IA: por ejemplo, ejecutar discretamente un prototipo en un hospital, recogiendo datos en directo sin mostrar a los médicos ningún resultado. ¿Sigue siendo trabajo de laboratorio o ya es «prueba en el mundo real»? Los autores explican que la respuesta depende del propósito previsto del sistema. Si el sistema oculto se prueba para diagnóstico, probablemente se considere prueba en el mundo real y debería activar las protecciones de la ley, incluidas aprobaciones, supervisión y límites temporales estrictos.

Figure 2
Figura 2.

Cuando la investigación y los negocios se solapan

La segunda exención, para uso científico, intenta proteger la IA que se desarrolla y utiliza exclusivamente con fines de investigación. En la práctica, este requisito es difícil de concretar. La ciencia moderna suele desarrollarse mediante asociaciones entre universidades, hospitales, empresas y organismos públicos. Herramientas creadas en un laboratorio pueden convertirse más tarde en productos comerciales, o una empresa puede vender un sistema que una universidad utiliza solo para investigación. El documento recorre escenarios concretos que muestran cómo la redacción de la ley puede conducir a resultados extraños o poco claros —por ejemplo, una herramienta diseñada inicialmente para la atención de pacientes pero usada finalmente solo para análisis de imágenes en un estudio. Los autores advierten que nociones vagas como «propósito exclusivo» invitan tanto a la confusión honesta como a comportamientos estratégicos, como presentar un producto como «investigación» para posponer el cumplimiento.

El riesgo de vacíos legales y ralentizaciones

Estas zonas grises son importantes porque determinan quién debe cumplir las reglas más estrictas de la Ley de IA. Si las definiciones son demasiado laxas, algunos actores podrían realizar en silencio pruebas casi listas para el despliegue con personas reales sin la supervisión que la ley pretende, o desplazar partes de su cadena a otros países para eludir obligaciones. Si las definiciones son demasiado estrictas o se aplican sin flexibilidad, los investigadores —especialmente los de entornos públicos o sin ánimo de lucro— podrían verse obligados a asumir cargas regulatorias elevadas incluso cuando no existe un interés comercial y hay un claro beneficio público, como en la modelización climática o la predicción de enfermedades. Los autores sostienen que esta tensión entre evitar vacíos legales y evitar trámites innecesarios atraviesa ambas exenciones y se agrava por la ausencia de una definición común a nivel de la UE de «investigación científica».

Qué debe cambiar para una IA más segura e inteligente

Al final, el documento concluye que las exenciones de investigación de la Ley de IA de la UE se basan en una imagen desfasada de la investigación como algo claramente separado del impacto en el mundo real y del interés comercial. En la IA contemporánea, los datos en vivo, los despliegues piloto y los proyectos mixtos público‑privados son la norma, no la excepción. Los autores piden definiciones más claras de ideas clave como «condiciones del mundo real» e «investigación científica», guías prácticas sobre cómo y cuándo un sistema de IA cruza la línea hacia un uso regulado, y salvaguardas más sólidas contra el uso indebido de las exenciones. Sostienen que sin tales refinamientos, la ley corre el riesgo de socavar sus propias protecciones o de empujar la investigación valiosa hacia regiones menos reguladas —dejando a la gente expuesta a sistemas de alto riesgo que podrían haberse controlado mejor si las normas fueran más realistas y mejor alineadas con la forma en que se desarrolla la IA hoy.

Cita: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0

Palabras clave: Ley de IA de la UE, regulación de la IA, exenciones de investigación, medicina digital, ética de la IA