Clear Sky Science · pt

Desafios na aplicação das isenções de pesquisa da Lei de IA da UE à pesquisa de IA contemporânea

· Voltar ao índice

Por que novas regras para IA importam para todos

A inteligência artificial está rapidamente saindo dos laboratórios de pesquisa e entrando em hospitais, bancos, escolas e órgãos públicos. Para proteger as pessoas sem sufocar a inovação, a União Europeia criou a primeira lei abrangente do mundo inteiramente dedicada à IA, conhecida como Lei de IA da UE. Este artigo examina de perto um recorte aparentemente estreito, porém crucial, dessa lei: as exceções especiais para pesquisa. Os autores argumentam que, no mundo real da IA moderna, a linha entre “apenas pesquisa” e “uso no mundo real” é tênue, e que essa imprecisão pode tanto sufocar ciência útil quanto abrir portas para aplicações arriscadas que escapem às salvaguardas.

Figure 1
Figure 1.

Como a nova lei de IA tenta nos proteger

A Lei de IA da UE estabelece um quadro amplo que cobre a maioria dos atores envolvidos na construção, venda e uso de sistemas de IA, mesmo que atuem fora da Europa, mas ainda afetem pessoas na UE. Dentro desse escopo extenso, a lei prevê duas isenções principais para pesquisa. Uma aplica‑se quando os sistemas de IA ainda estão em desenvolvimento e não foram colocados no mercado nem usados para sua finalidade prevista; a outra aplica‑se a sistemas finalizados projetados e usados exclusivamente para pesquisa científica. No papel, essas exceções visam evitar que a burocracia asfixie a experimentação, ao mesmo tempo em que garantem que a IA usada na vida cotidiana atenda a requisitos rígidos de segurança, transparência e respeito aos direitos fundamentais.

Onde o laboratório termina e a vida real começa

A primeira isenção, referente à fase de desenvolvimento, pressupõe uma divisão clara entre testes em laboratório e uso no mundo real. A lei estabelece que atividades anteriores a um sistema ser “colocado no mercado” ou “entrar em serviço” ficam fora de seu alcance, mas exclui explicitamente do refúgio a realização de testes em condições do mundo real. Isso parece simples até considerarmos práticas comuns de IA: por exemplo, rodar um protótipo silenciosamente em um hospital, coletando dados ao vivo sem mostrar aos médicos qualquer resultado. Isso ainda é trabalho de “laboratório” ou já é “teste no mundo real”? Os autores explicam que a resposta depende da finalidade pretendida do sistema. Se o sistema oculto está sendo testado para diagnóstico, provavelmente conta como teste no mundo real e deveria acionar as proteções da lei, incluindo aprovações, supervisão e limites de tempo rígidos.

Figure 2
Figure 2.

Quando pesquisa e negócios se sobrepõem

A segunda isenção, para uso científico, tenta proteger a IA que é tanto desenvolvida quanto usada apenas para pesquisa. Na prática, esse requisito é difícil de delimitar. A ciência moderna frequentemente se desenrola por meio de parcerias entre universidades, hospitais, empresas e órgãos públicos. Ferramentas criadas em um laboratório podem mais tarde ser transformadas em produtos comerciais, ou uma empresa pode vender um sistema que uma universidade usa apenas para pesquisa. O artigo percorre cenários concretos mostrando como a redação da lei pode levar a resultados estranhos ou pouco claros — por exemplo, uma ferramenta originalmente projetada para cuidados ao paciente, mas que acaba sendo usada apenas para análise de imagens em um estudo. Os autores alertam que noções vagas como “finalidade exclusiva” convidam tanto à confusão genuína quanto a comportamentos estratégicos, como apresentar um produto como “pesquisa” para adiar a conformidade.

O risco de brechas e lentidão

Essas zonas cinzentas são importantes porque definem quem deve seguir as regras mais rigorosas da Lei de IA. Se as definições forem muito frouxas, alguns atores podem testar silenciosamente, em pessoas reais, sistemas próximos de implantação sem a supervisão que a lei pretende, ou deslocar partes de sua linha de produção para outros países para escapar de obrigações. Se as definições forem excessivamente rígidas ou aplicadas de forma inflexível, pesquisadores — especialmente em ambientes públicos ou sem fins lucrativos — podem ser obrigados a arcar com pesados encargos regulatórios mesmo quando não há interesse comercial e há claro benefício público, como em modelagem climática ou previsão de doenças. Os autores sustentam que essa tensão entre evitar brechas e evitar burocracia desnecessária atravessa ambas as isenções e é agravada pela ausência de uma definição compartilhada em toda a UE do que constitui “pesquisa científica”.

O que precisa mudar para uma IA mais segura e inteligente

No fim, o artigo conclui que as exceções de pesquisa da Lei de IA da UE se apoiam numa visão desatualizada da pesquisa como algo claramente separado do impacto no mundo real e do interesse comercial. Na IA contemporânea, dados ao vivo, implantações piloto e projetos mistos público‑privados são a norma, não a exceção. Os autores pedem definições mais claras de ideias-chave como “condições do mundo real” e “pesquisa científica”, orientações práticas sobre como e quando um sistema de IA cruza a linha para uso regulamentado, e salvaguardas mais fortes contra o uso indevido das isenções. Argumentam que, sem esses aperfeiçoamentos, a lei corre o risco de minar suas próprias proteções ou empurrar pesquisas valiosas para regiões menos reguladas — deixando as pessoas expostas a sistemas de alto risco que poderiam ter sido melhor controlados se as regras fossem mais realistas e alinhadas com a forma como a IA é realmente desenvolvida hoje.

Citação: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0

Palavras-chave: Lei de IA da UE, regulamentação de IA, isenções de pesquisa, medicina digital, ética em IA