Европейский Акт об искусственном интеллекте (ИИ) вступил в силу: что изменилось
Скорость распространения этой технологии требовала от европейских институтов соответствующей динамики реагирования, и они справились с этим вызовом
Европейский Акт об искусственном интеллекте (ИИ) вступил в силу: что изменилось
Об этом рассказал нардеп Даниил Гетманцев.
Детали
Среди вызовов от выделил:
- 9 декабря 2023 года Еврокомиссия достигла политической договоренности с государствами-членами по Акту об ИИ;
- 24 января 2024 года ЕК запустила пакет мер для поддержки европейских стартапов и МСП в разработке надежного ИИ;
- 29 мая 2024 года ЕК открыла Офис ИИ;
- 9 июля 2024 года вступил в силу измененный Регламент EuroHPC JU, который позволил создавать "заводы искусственного интеллекта", то есть использовать специальные суперкомпьютеры с ИИ для обучения моделей искусственного интеллекта общего назначения (GPAI).
Вступил в силу, как отметили в ЕК, "первый в мире всеобъемлющий нормативный акт по искусственному интеллекту", который призван гарантировать, что ИИ, разработанный и используемый в ЕС, заслуживает доверия и гарантирует защиту основных прав человека.
Акт об ИИ построен на риск-ориентированном подходе. Все системы ИИ разделяются на следующие группы:
- "минимальный риск" (это большинство систем ИИ, таких как системы рекомендаций с поддержкой ИИ и фильтры спама) Эти системы не имеют никаких обязательств в соответствии с Актом об ИИ из-за минимального риска для прав и безопасности граждан;
- "конкретный риск прозрачности": такие системы ИИ, как чат-боты, должны четко сообщать пользователям, что они взаимодействуют с машиной; определенный созданный ими контент, включая deep fakes, должен быть обозначен как таковой, а пользователи должны быть проинформированы, когда используются системы биометрической категоризации или системы распознавания эмоций; синтетический аудио-, видео-контент, текст и изображения должны обозначаться в машиночитаемом формате и фиксироваться как искусственно созданные или манипулируемые;
- "высокий риск": высоко-рисковые системы ИИ (например, такие, которые используются для найма персонала или для оценки того, имеет ли кто-то право получить кредит, или для запуска автономных роботов) должны будут соответствовать строгим требованиям, включая системы уменьшения рисков, высокое качество наборов данных, регистрацию активности, подробную документацию, четкую информацию для пользователей, человеческий надзор;
- "неприемлемый риск": системы ИИ, которые считаются явной угрозой основным правам людей (например, системы и приложения, которые манипулируют человеческим поведением, чтобы обойти свободу воли пользователей, игрушки, которые используют голосовую помощь, поощряющую опасное поведение несовершеннолетних, системы, которые внедряют "социальный рейтинг" правительств или компаний, а также определенные программы интеллектуального контроля), будут запрещены.
Государства-члены ЕС должны до 2 августа 2025 года назначить национальные компетентные органы, которые будут контролировать применение правил для систем ИИ и осуществлять деятельность по надзору за рынком. Офис ЕК по ИИ будет ключевым органом по внедрению Акта об ИИ на уровне ЕС, а также ответственным за соблюдение правил для моделей общего назначения ИИ.
Введение правил будут поддерживать три совещательных органа:
- Европейский совет по ИИ - будет обеспечивать одинаковое применение Акта об ИИ во всех государствах-членах ЕС и действовать как главный орган сотрудничества между ЕК и государствами-членами;
- Научная группа независимых экспертов - будет предоставлять технические советы и рекомендации в правоприменении;
- Консультативный форум - будет состоять из различных заинтересованных сторон, обсуждать вопросы, связанные с реализацией Акта об ИИ, и формировать соответствующие рекомендации.
Компании, которые не соблюдают правила Акта об ИИ, будут оштрафованы. Штрафы могут составлять до 7% мирового годового оборота за использование запрещенных приложений ИИ, до 3% - за нарушение других обязательств, до 1,5% - за предоставление неверной информации.
Большинство норм Акта об ИИ начнут применяться 2 августа 2026 года. Однако запрет систем ИИ, которые считаются представляющими неприемлемый риск, введут через 6 месяцев, а правила для так называемых моделей ИИ общего назначения будут применяться через 12 месяцев.
Читайте также, в таможенной службе рассказали о шагах в направлении ЕС.
Не пропустите интересное!
Подписывайтесь на наши каналы и читайте новости в удобном формате!