Ангелина Алябьева, Legal Associate, Коммерческий медиатор, арбитратор, CYSEC AML офицер, LLB (Hons), LLM
Стремительное развитие технологий искусственного интеллекта (ИИ) ознаменовало наступление новой эры инноваций и вызовов в различных секторах общества и экономики. В ответ на эти изменения Европейский Союз представил Закон об искусственном интеллекте (ЗИИ) - всеобъемлющую правовую базу, направленную на регулирование систем ИИ. Опубликованный в Официальном журнале ЕС 12 июля 2024 года и вступающий в силу 1 августа 2024 года, ЗИИ представляет собой наиболее амбициозную на сегодняшний день попытку ЕС создать сбалансированный подход к управлению ИИ.
В основе ЗИИ лежит подход, основанный на оценке рисков, который классифицирует системы ИИ в зависимости от их потенциального воздействия и случаев применения. Эта многоуровневая структура определяет степень регулятивного надзора и обязательств, налагаемых на операторов, начиная от прямых запретов для некоторых высокорисковых приложений и заканчивая минимальными требованиями для систем с низким уровнем риска. Сфера действия Закона определяется его широким определением систем ИИ, охватывающим машинные системы, предназначенные для работы с различной степенью автономности и адаптивности, генерирующие результаты, такие как прогнозы, контент, рекомендации или решения, которые могут влиять на физическую или виртуальную среду.
ЗИИ классифицирует системы ИИ на четыре основных уровня риска: неприемлемый риск (прямо запрещенные), высокий риск (подлежащие строгим нормативным требованиям), ограниченный риск (с определенными обязательствами по обеспечению прозрачности) и минимальный риск (без специальных обязательств в рамках ЗИИ). Эта классификация, основанная на оценке рисков, составляет основу нормативно-правовой базы Закона.
Одним из наиболее значимых аспектов ЗИИ является прямой запрет определенных приложений ИИ, которые считаются представляющими неприемлемый риск для фундаментальных прав и общественных ценностей. Эти запреты включают системы ИИ, использующие методы скрытого воздействия или эксплуатирующие уязвимости для манипулирования человеческим поведением способами, которые могут привести к физическому или психологическому вреду; системы социального скоринга, используемые государственными органами для оценки лиц на основе социального поведения; определенные виды использования систем удаленной биометрической идентификации в режиме реального времени в общедоступных местах в целях правоохранительной деятельности (с ограниченными исключениями); а также системы ИИ для распознавания эмоций в определенных контекстах, таких как правоохранительная деятельность, управление границами, рабочее место и образование.
ЗИИ уделяет особое внимание регулированию систем ИИ высокого риска (СИИВР), которые подлежат наиболее строгим требованиям. СИИВР определяются как системы, используемые в критически важных областях, таких как управление инфраструктурой, образование и профессиональная подготовка, трудоустройство и управление персоналом, доступ к основным частным и государственным услугам, правоохранительная деятельность, управление миграцией и пограничным контролем, а также отправление правосудия и демократические процессы. Поставщики СИИВР подлежат обширным обязательствам, включая внедрение комплексных систем управления рисками, установление мер по управлению данными, создание и поддержание технической документации, обеспечение автоматической регистрации событий, обеспечение прозрачности посредством подробных инструкций по использованию, внедрение механизмов человеческого надзора, обеспечение точности, надежности и кибербезопасности, создание систем управления качеством и проведение послепродажного мониторинга.
Кроме того, поставщики СИИВР должны выполнять процедурные обязательства, такие как проведение оценок соответствия, получение маркировки CE, регистрация СИИВР в общеевропейской базе данных и сообщение о серьезных инцидентах или неисправностях в соответствующие органы в течение 15 дней. Эти требования направлены на обеспечение того, чтобы системы ИИ высокого риска разрабатывались, внедрялись и контролировались с максимальной тщательностью и прозрачностью.
ЗИИ также вводит специальные положения для моделей ИИ общего назначения (МИИОН), которые могут служить основой для широкого спектра приложений ИИ. Эти положения применяются независимо от конкретного случая использования и включают требования к прозрачности, соблюдение законодательства ЕС об авторском праве и предоставление сводных данных об обучающих наборах. Для МИИОН, обученных на обширных наборах данных и демонстрирующих превосходные показатели (именуемых "МИИОН с системным риском"), применяются дополнительные обязательства, такие как проведение строгих оценок моделей, оценка и снижение потенциальных системных рисков, расширенная отчетность перед регулирующими органами, обеспечение адекватных мер кибербезопасности и отчетность об энергоэффективности.
Для систем ИИ, не попадающих в категории запрещенных или высокорисковых, ЗИИ налагает ограниченные обязательства, преимущественно сосредоточенные на обеспечении прозрачности. Поставщики этих систем низкого риска должны обеспечить, чтобы пользователи были осведомлены о взаимодействии с системой ИИ, особенно в случаях взаимодействия человека и ИИ.
Реализация положений ЗИИ будет осуществляться поэтапно. Большинство положений вступит в силу 1 августа 2026 года после двухлетнего периода имплементации. Однако запреты и требования к грамотности в области ИИ будут применяться с 1 февраля 2025 года, через шесть месяцев после вступления Закона в силу, в то время как требования к МИИОН вступят в силу 1 августа 2025 года, через год после вступления Закона в силу. В течение периода имплементации будут опубликованы вспомогательные делегированные законодательные акты, руководства и стандарты для содействия соблюдению ЗИИ.
Для обеспечения соблюдения своих положений ЗИИ устанавливает надежный механизм правоприменения со значительными финансовыми санкциями за нарушения. Штрафы структурированы по многоуровневой системе в зависимости от характера нарушения и размера компании. За менее серьезные нарушения штрафы могут достигать 7,5 миллионов евро или 1,5% глобального годового оборота (в зависимости от того, что выше), в то время как за более серьезные нарушения штрафы могут составлять до 35 миллионов евро или 7% глобального годового оборота (в зависимости от того, что выше). Эти существенные штрафные санкции подчеркивают приверженность ЕС обеспечению исполнения ЗИИ и гарантии того, что организации серьезно относятся к своим обязательствам в рамках Закона.
Comments