12.9 C
Брюссель
Суббота, Май 4, 2024
ЕвропеЗакон ЕС об искусственном интеллекте: первое постановление об искусственном интеллекте

Закон ЕС об искусственном интеллекте: первое постановление об искусственном интеллекте

ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ: Информация и мнения, воспроизведенные в статьях, принадлежат тем, кто их излагает, и они несут ответственность за это. Публикация в The European Times автоматически означает не одобрение точки зрения, а право на ее выражение.

ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ ПЕРЕВОД: Все статьи на этом сайте опубликованы на английском языке. Переведенные версии выполняются с помощью автоматизированного процесса, известного как нейронные переводы. Если сомневаетесь, всегда обращайтесь к оригинальной статье. Спасибо за понимание.

Использование искусственного интеллекта в ЕС будет регулироваться Законом об ИИ, первым в мире всеобъемлющим законом об ИИ. Узнайте, как это защитит вас.

В рамках своей цифровая стратегия, ЕС хочет регулировать искусственный интеллект (ИИ), чтобы обеспечить лучшие условия для разработки и использования этой инновационной технологии. ИИ может создать множество преимуществнапример, лучшее здравоохранение; более безопасный и чистый транспорт; более эффективное производство; и более дешевая и более устойчивая энергия.

В апреле 2021 года Европейская комиссия предложила первый EU нормативно-правовая база для ИИ. В нем говорится, что системы ИИ, которые можно использовать в различных приложениях, анализируются и классифицируются в соответствии с риском, который они представляют для пользователей. Различные уровни риска будут означать большее или меньшее регулирование. После утверждения они станут первыми в мире правилами по ИИ.

Чего хочет парламент в законодательстве об искусственном интеллекте

приоритет парламента заключается в том, чтобы убедиться, что системы ИИ, используемые в ЕС, безопасны, прозрачны, отслеживаемы, недискриминационны и безвредны для окружающей среды. Системы ИИ должны контролироваться людьми, а не автоматикой, чтобы предотвратить вредные последствия.

Парламент также хочет установить технологически нейтральное единообразное определение ИИ, которое можно было бы применять к будущим системам ИИ.

Узнать больше о Работа парламента над ИИ и ее видение будущего ИИ

Закон об ИИ: разные правила для разных уровней риска

Новые правила устанавливают обязательства для провайдеров и пользователей в зависимости от уровня риска от искусственного интеллекта. Хотя многие системы ИИ представляют минимальный риск, их необходимо оценивать.


Неприемлемый риск

Системы ИИ с неприемлемым риском — это системы, которые считаются угрозой для людей и будут запрещены. Они включают:

  • Когнитивно-поведенческое манипулирование людьми или конкретными уязвимыми группами: например, игрушки с голосовым управлением, поощряющие опасное поведение у детей.
  • Социальная оценка: классификация людей на основе поведения, социально-экономического статуса или личных характеристик.
  • Системы биометрической идентификации в реальном времени и удаленные, такие как распознавание лиц


Могут быть допущены некоторые исключения: например, «почтовые» системы удаленной биометрической идентификации, в которых идентификация происходит после значительной задержки, будут допущены к уголовному преследованию за тяжкие преступления, но только после одобрения суда.

Высокий риск

Системы ИИ, которые негативно влияют на безопасность или основные права, будут считаться высокорисковыми и будут разделены на две категории:

1) Системы ИИ, которые используются в продуктах, подпадающих под законодательство ЕС о безопасности продукции. Сюда входят игрушки, авиация, автомобили, медицинские приборы и подъемники.

2) Системы ИИ, относящиеся к восьми конкретным областям, которые должны быть зарегистрированы в EU база данных:

  • Биометрическая идентификация и категоризация физических лиц
  • Управление и эксплуатация критической инфраструктуры
  • Образование и профессиональная подготовка
  • Занятость, управление работниками и доступ к самозанятости
  • Доступ и пользование основными частными услугами и государственными услугами и льготами
  • Правоприменение
  • Управление миграцией, убежищем и пограничным контролем
  • Помощь в юридическом толковании и применении закона.



Все системы искусственного интеллекта с высоким уровнем риска будут оцениваться перед выпуском на рынок, а также на протяжении всего их жизненного цикла.

Генеративный ИИ


Генеративный ИИ, такой как ChatGPT, должен соответствовать требованиям прозрачности:

  • Раскрытие того, что контент был создан с помощью ИИ
  • Разработка модели для предотвращения создания нелегального контента
  • Публикация сводок защищенных авторским правом данных, используемых для обучения

Ограниченный риск

Системы искусственного интеллекта с ограниченным риском должны соответствовать минимальным требованиям прозрачности, которые позволят пользователям принимать обоснованные решения. После взаимодействия с приложениями пользователь может решить, хотят ли они продолжать его использовать. Пользователи должны быть осведомлены, когда они взаимодействуют с ИИ. Сюда входят системы искусственного интеллекта, которые генерируют или манипулируют изображениями, аудио- или видеоконтентом, например дипфейками.

Следующие шаги

Парламент должен согласовать свою переговорную позицию в июне 2023 года, после чего начнутся переговоры со странами ЕС в Совете по окончательной форме закона.

Цель состоит в том, чтобы достичь соглашения к концу этого года.

    - Реклама -

    Еще от автора

    - ЭКСКЛЮЗИВНЫЙ СОДЕРЖАНИЕ -Spot_img
    - Реклама -
    - Реклама -
    - Реклама -Spot_img
    - Реклама -

    Должен прочитать

    Последние статьи

    - Реклама -