Clear Sky Science · ru
Трудности применения исследовательских исключений закона ЕС об ИИ к современным исследованиям ИИ
Почему новые правила для ИИ важны для всех
Искусственный интеллект быстро выходит из исследовательских лабораторий в больницы, банки, школы и государственные учреждения. Чтобы обеспечить безопасность людей и одновременно поддержать инновации, Европейский союз создал первый в мире широкий закон, посвящённый исключительно ИИ — так называемый Закон ЕС об ИИ. В этой статье внимательно рассматривается, на первый взгляд узкая, но ключевая часть этого закона: специальные исключения для исследований. Авторы утверждают, что в реальном мире современного ИИ граница между «просто исследованием» и «реальным применением» расплывчата, и эта неясность может либо душить полезную науку, либо открывать путь для рискованных приложений, обходящих защитные механизмы.

Как новый закон по ИИ пытается нас защитить
Закон ЕС об ИИ устанавливает широкую рамочную систему, охватывающую большинство участников, задействованных в создании, продаже и использовании систем ИИ, даже если они работают за пределами Европы, но воздействуют на людей в ЕС. В рамках этого широкого охвата закон предусматривает два ключевых исключения для исследований. Первое применяется, когда системы ИИ всё ещё находятся в разработке и ещё не выведены на рынок или не используются по назначению; второе — к завершённым системам, которые разработаны и используются исключительно для научных исследований. На бумаге эти исключения призваны не допустить, чтобы бюрократия задушила эксперименты, одновременно обеспечивая, чтобы ИИ, используемый в повседневной жизни, соответствовал строгим требованиям по безопасности, прозрачности и уважению фундаментальных прав.
Где заканчивается лаборатория и начинается реальная жизнь
Первое исключение, относящееся к фазе разработки, предполагает чёткое разделение между лабораторными испытаниями и реальным применением. Закон говорит, что действия до момента «вывода на рынок» или «введения в эксплуатацию» находятся вне его сферы, но прямо исключает тестирование в реальных условиях из этой безопасной зоны. Это звучит просто, пока мы не учтём обычные практики в ИИ: например, тихо запускать прототип в больнице и собирать живые данные, не показывая врачам никаких результатов. Это ещё «лабораторная» работа или уже «тестирование в реальных условиях»? Авторы поясняют, что ответ зависит от целевого назначения системы. Если скрытая система испытывается для диагностики, скорее всего, это считается реальным тестированием и должно запускать защитные механизмы закона, включая одобрения, надзор и строгие временные ограничения.

Когда исследования пересекаются с бизнесом
Второе исключение, для научного использования, пытается защитить ИИ, который и разработан, и используется исключительно для исследований. На практике это требование трудно точно определить. Современная наука часто развивается через партнёрства университетов, больниц, компаний и государственных учреждений. Инструменты, созданные в лаборатории, могут позже превратиться в коммерческие продукты, или компания может продавать систему, которую университет использует только в исследовательских целях. В статье разбираются конкретные сценарии, показывающие, как формулировки закона могут приводить к странным или неясным результатам — например, инструмент, изначально предназначенный для ухода за пациентами, но в конечном итоге используемый только для анализа изображений в исследовании. Авторы предупреждают, что расплывчатые понятия вроде «единственной цели» порождают как искреннее замешательство, так и стратегическое поведение, например представление продукта как «исследование», чтобы отсрочить приведение в соответствие с требованиями.
Риск лазеек и замедлений
Эти серые зоны важны, потому что они определяют, кто должен соблюдать более жёсткие правила Закона об ИИ. Если определения слишком вольны, некоторые участники могут тихо проводить тесты, близкие к внедрению, на реальных людях без предусмотренного надзора или переносить части своей цепочки в другие страны, чтобы уклониться от обязанностей. Если определения будут слишком строгими или применяться без гибкости, исследователям — особенно в государственных или некоммерческих организациях — придётся нести тяжёлое регуляторное бремя даже тогда, когда нет коммерческого интереса и есть ясная общественная польза, например в моделировании климата или предсказании заболеваний. Авторы утверждают, что эта напряжённость между недопущением лазеек и избеганием ненужной бюрократии проходит через оба исключения и усугубляется отсутствием общего для ЕС определения «научного исследования».
Что надо изменить для более безопасного и разумного ИИ
В итоге авторы приходят к выводу, что исследовательские исключения Закона ЕС об ИИ опираются на устаревшую картину исследований как чего‑то чётко отделённого от реальных последствий и коммерческих интересов. В современном ИИ живые данные, пилотные развертывания и смешанные государственно‑частные проекты — скорее норма, чем исключение. Авторы призывают к более ясным определениям ключевых понятий, таких как «реальные условия» и «научное исследование», к практическим рекомендациям о том, когда система ИИ переходит в зону регулирования, и к более чётким предохранителям против злоупотребления исключениями. Они утверждают, что без таких уточнений закон рискует либо подорвать собственные защитные механизмы, либо вытеснить ценную науку в менее регулируемые регионы — оставив людей уязвимыми перед системами с высоким риском, которые могли бы быть лучше контролируемы при более реалистичных и согласованных правилах, учитывающих современные практики разработки ИИ.
Цитирование: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0
Ключевые слова: Закон ЕС об ИИ, регулирование ИИ, исключения для исследований, цифровая медицина, этика ИИ