Использование искусственного интеллекта в ЕС будет регулироваться Законом об ИИ, первым в мире всеобъемлющим законом об ИИ. Узнайте, как это защитит вас.
В рамках своей цифровая стратегия, ЕС хочет регулировать искусственный интеллект (ИИ), чтобы обеспечить лучшие условия для разработки и использования этой инновационной технологии. ИИ может создать множество преимуществнапример, лучшее здравоохранение; более безопасный и чистый транспорт; более эффективное производство; и более дешевая и более устойчивая энергия.
В апреле 2021 года Европейская комиссия предложила первый EU нормативно-правовая база для ИИ. В нем говорится, что системы ИИ, которые можно использовать в различных приложениях, анализируются и классифицируются в соответствии с риском, который они представляют для пользователей. Различные уровни риска будут означать большее или меньшее регулирование. После утверждения они станут первыми в мире правилами по ИИ.
Чего хочет парламент в законодательстве об искусственном интеллекте
приоритет парламента заключается в том, чтобы убедиться, что системы ИИ, используемые в ЕС, безопасны, прозрачны, отслеживаемы, недискриминационны и безвредны для окружающей среды. Системы ИИ должны контролироваться людьми, а не автоматикой, чтобы предотвратить вредные последствия.
Парламент также хочет установить технологически нейтральное единообразное определение ИИ, которое можно было бы применять к будущим системам ИИ.
Узнать больше о Работа парламента над ИИ и ее видение будущего ИИ
Закон об ИИ: разные правила для разных уровней риска
Новые правила устанавливают обязательства для провайдеров и пользователей в зависимости от уровня риска от искусственного интеллекта. Хотя многие системы ИИ представляют минимальный риск, их необходимо оценивать.
Неприемлемый риск
Системы ИИ с неприемлемым риском — это системы, которые считаются угрозой для людей и будут запрещены. Они включают:
- Когнитивно-поведенческое манипулирование людьми или конкретными уязвимыми группами: например, игрушки с голосовым управлением, поощряющие опасное поведение у детей.
- Социальная оценка: классификация людей на основе поведения, социально-экономического статуса или личных характеристик.
- Системы биометрической идентификации в реальном времени и удаленные, такие как распознавание лиц
Могут быть допущены некоторые исключения: например, «почтовые» системы удаленной биометрической идентификации, в которых идентификация происходит после значительной задержки, будут допущены к уголовному преследованию за тяжкие преступления, но только после одобрения суда.
Высокий риск
Системы ИИ, которые негативно влияют на безопасность или основные права, будут считаться высокорисковыми и будут разделены на две категории:
1) Системы ИИ, которые используются в продуктах, подпадающих под законодательство ЕС о безопасности продукции. Сюда входят игрушки, авиация, автомобили, медицинские приборы и подъемники.
2) Системы ИИ, относящиеся к восьми конкретным областям, которые должны быть зарегистрированы в EU база данных:
- Биометрическая идентификация и категоризация физических лиц
- Управление и эксплуатация критической инфраструктуры
- Образование и профессиональная подготовка
- Занятость, управление работниками и доступ к самозанятости
- Доступ и пользование основными частными услугами и государственными услугами и льготами
- Правоприменение
- Управление миграцией, убежищем и пограничным контролем
- Помощь в юридическом толковании и применении закона.
Все системы искусственного интеллекта с высоким уровнем риска будут оцениваться перед выпуском на рынок, а также на протяжении всего их жизненного цикла.
Генеративный ИИ
Генеративный ИИ, такой как ChatGPT, должен соответствовать требованиям прозрачности:
- Раскрытие того, что контент был создан с помощью ИИ
- Разработка модели для предотвращения создания нелегального контента
- Публикация сводок защищенных авторским правом данных, используемых для обучения
Ограниченный риск
Системы искусственного интеллекта с ограниченным риском должны соответствовать минимальным требованиям прозрачности, которые позволят пользователям принимать обоснованные решения. После взаимодействия с приложениями пользователь может решить, хотят ли они продолжать его использовать. Пользователи должны быть осведомлены, когда они взаимодействуют с ИИ. Сюда входят системы искусственного интеллекта, которые генерируют или манипулируют изображениями, аудио- или видеоконтентом, например дипфейками.
Следующие шаги
Парламент должен согласовать свою переговорную позицию в июне 2023 года, после чего начнутся переговоры со странами ЕС в Совете по окончательной форме закона.
Цель состоит в том, чтобы достичь соглашения к концу этого года.