Clear Sky Science · ru

Трудности применения исследовательских исключений закона ЕС об ИИ к современным исследованиям ИИ

· Назад к списку

Почему новые правила для ИИ важны для всех

Искусственный интеллект быстро выходит из исследовательских лабораторий в больницы, банки, школы и государственные учреждения. Чтобы обеспечить безопасность людей и одновременно поддержать инновации, Европейский союз создал первый в мире широкий закон, посвящённый исключительно ИИ — так называемый Закон ЕС об ИИ. В этой статье внимательно рассматривается, на первый взгляд узкая, но ключевая часть этого закона: специальные исключения для исследований. Авторы утверждают, что в реальном мире современного ИИ граница между «просто исследованием» и «реальным применением» расплывчата, и эта неясность может либо душить полезную науку, либо открывать путь для рискованных приложений, обходящих защитные механизмы.

Figure 1
Figure 1.

Как новый закон по ИИ пытается нас защитить

Закон ЕС об ИИ устанавливает широкую рамочную систему, охватывающую большинство участников, задействованных в создании, продаже и использовании систем ИИ, даже если они работают за пределами Европы, но воздействуют на людей в ЕС. В рамках этого широкого охвата закон предусматривает два ключевых исключения для исследований. Первое применяется, когда системы ИИ всё ещё находятся в разработке и ещё не выведены на рынок или не используются по назначению; второе — к завершённым системам, которые разработаны и используются исключительно для научных исследований. На бумаге эти исключения призваны не допустить, чтобы бюрократия задушила эксперименты, одновременно обеспечивая, чтобы ИИ, используемый в повседневной жизни, соответствовал строгим требованиям по безопасности, прозрачности и уважению фундаментальных прав.

Где заканчивается лаборатория и начинается реальная жизнь

Первое исключение, относящееся к фазе разработки, предполагает чёткое разделение между лабораторными испытаниями и реальным применением. Закон говорит, что действия до момента «вывода на рынок» или «введения в эксплуатацию» находятся вне его сферы, но прямо исключает тестирование в реальных условиях из этой безопасной зоны. Это звучит просто, пока мы не учтём обычные практики в ИИ: например, тихо запускать прототип в больнице и собирать живые данные, не показывая врачам никаких результатов. Это ещё «лабораторная» работа или уже «тестирование в реальных условиях»? Авторы поясняют, что ответ зависит от целевого назначения системы. Если скрытая система испытывается для диагностики, скорее всего, это считается реальным тестированием и должно запускать защитные механизмы закона, включая одобрения, надзор и строгие временные ограничения.

Figure 2
Figure 2.

Когда исследования пересекаются с бизнесом

Второе исключение, для научного использования, пытается защитить ИИ, который и разработан, и используется исключительно для исследований. На практике это требование трудно точно определить. Современная наука часто развивается через партнёрства университетов, больниц, компаний и государственных учреждений. Инструменты, созданные в лаборатории, могут позже превратиться в коммерческие продукты, или компания может продавать систему, которую университет использует только в исследовательских целях. В статье разбираются конкретные сценарии, показывающие, как формулировки закона могут приводить к странным или неясным результатам — например, инструмент, изначально предназначенный для ухода за пациентами, но в конечном итоге используемый только для анализа изображений в исследовании. Авторы предупреждают, что расплывчатые понятия вроде «единственной цели» порождают как искреннее замешательство, так и стратегическое поведение, например представление продукта как «исследование», чтобы отсрочить приведение в соответствие с требованиями.

Риск лазеек и замедлений

Эти серые зоны важны, потому что они определяют, кто должен соблюдать более жёсткие правила Закона об ИИ. Если определения слишком вольны, некоторые участники могут тихо проводить тесты, близкие к внедрению, на реальных людях без предусмотренного надзора или переносить части своей цепочки в другие страны, чтобы уклониться от обязанностей. Если определения будут слишком строгими или применяться без гибкости, исследователям — особенно в государственных или некоммерческих организациях — придётся нести тяжёлое регуляторное бремя даже тогда, когда нет коммерческого интереса и есть ясная общественная польза, например в моделировании климата или предсказании заболеваний. Авторы утверждают, что эта напряжённость между недопущением лазеек и избеганием ненужной бюрократии проходит через оба исключения и усугубляется отсутствием общего для ЕС определения «научного исследования».

Что надо изменить для более безопасного и разумного ИИ

В итоге авторы приходят к выводу, что исследовательские исключения Закона ЕС об ИИ опираются на устаревшую картину исследований как чего‑то чётко отделённого от реальных последствий и коммерческих интересов. В современном ИИ живые данные, пилотные развертывания и смешанные государственно‑частные проекты — скорее норма, чем исключение. Авторы призывают к более ясным определениям ключевых понятий, таких как «реальные условия» и «научное исследование», к практическим рекомендациям о том, когда система ИИ переходит в зону регулирования, и к более чётким предохранителям против злоупотребления исключениями. Они утверждают, что без таких уточнений закон рискует либо подорвать собственные защитные механизмы, либо вытеснить ценную науку в менее регулируемые регионы — оставив людей уязвимыми перед системами с высоким риском, которые могли бы быть лучше контролируемы при более реалистичных и согласованных правилах, учитывающих современные практики разработки ИИ.

Цитирование: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0

Ключевые слова: Закон ЕС об ИИ, регулирование ИИ, исключения для исследований, цифровая медицина, этика ИИ