Законодатели продолжат обсуждать подробные правила в ближайшие недели с целью завершить процесс в начале следующего года, а вступление в силу планируется с 2026 года.

До этого момента компаниям рекомендуется присоединиться к добровольному Пакту по искусственному интеллекту, чтобы выполнить основные обязательства, предусмотренные правилами.

Ниже приводится основное содержание соглашения, согласованного ЕС.

Система высокого риска

Так называемые системы ИИ с высоким уровнем риска — те, которые, как считается, могут нанести значительный вред здоровью, безопасности, основным правам, окружающей среде, демократии, выборам и верховенству закона — должны будут соответствовать ряду требований, таких как прохождение оценки воздействия на основные права и обязательства по доступу на рынок ЕС.

eltqxowexvjbnmywubkxiyj3ha.jpg
Huenit — камера с искусственным интеллектом, установленная на роботизированной руке на выставке потребительских технологий, которая прошла в Берлине 1 сентября 2023 года. Фото: Рейтер

В то же время системы с низким уровнем риска будут подчиняться более мягким обязательствам по обеспечению прозрачности, таким как маркировка контента, созданного с помощью ИИ, чтобы пользователи могли рассмотреть возможность его использования.

ИИ в правоохранительных органах

Правоохранительным органам разрешено использовать системы удаленной биометрической идентификации в режиме реального времени только в общественных местах для идентификации жертв похищения, торговли людьми, сексуальной эксплуатации, а также для предотвращения конкретных и неминуемых террористических угроз.

Властям также будет разрешено использовать технологию искусственного интеллекта для отслеживания подозреваемых в терроризме, торговле людьми, сексуальной эксплуатации, убийствах, похищениях людей, изнасилованиях, вооруженных ограблениях, участии в преступной организации и экологических преступлениях.

Системы общего и платформенного ИИ (GPAI)

На GPAI и базовые модели будут распространяться требования прозрачности, такие как создание технической документации, соблюдение законодательства ЕС об авторском праве и публикация подробных резюме контента, используемого для обучения алгоритмов.

Платформенные модели, которые подпадают под категорию потенциально создающих системный риск и высокоэффективный GPAI, должны будут проводить общую оценку модели, анализировать и снижать риски, проводить тестирование методом обратного инжиниринга, уведомлять Европейскую комиссию о серьезных инцидентах, обеспечивать кибербезопасность и предоставлять отчеты о потреблении энергии.

owaad7543vnahei6k3ozfuuo5u.jpg
Робот «Rmeca» на Глобальном саммите добра в Женеве, Швейцария. Фото: Рейтер

До тех пор, пока не будут опубликованы гармонизированные стандарты ЕС, учреждениям здравоохранения общего профиля придется полагаться на кодексы практики для соблюдения нормативных требований.

Системы искусственного интеллекта запрещены

Запрещенное поведение и контент включают: системы биометрической классификации, которые используют конфиденциальные характеристики, такие как политика, религия, философские убеждения, сексуальная ориентация и раса;

Нецелевое сканирование изображений лиц из Интернета или записей видеонаблюдения для создания базы данных распознавания лиц;

Распознавание эмоций на рабочем месте и в образовательных учреждениях;

Социальная оценка основана на социальном поведении или личных характеристиках;

Системы искусственного интеллекта манипулируют поведением человека, чтобы подорвать его свободную волю;

ИИ используется для эксплуатации человеческих слабостей, обусловленных возрастом, инвалидностью, экономическим или социальным положением.

Санкции

В зависимости от нарушения и размера компании штрафы будут начинаться от 7,5 млн евро (8 млн долларов США) или 1,5% от годового мирового оборота и увеличиваться до 35 млн евро или 7% от мирового оборота.

(По данным Рейтер)

ЕС достиг исторического соглашения по регулированию искусственного интеллекта

ЕС достиг исторического соглашения по регулированию искусственного интеллекта

Соглашение между Европейским парламентом и государствами-членами будет регулировать искусственный интеллект (ИИ), социальные сети и поисковые системы.
ЕС достиг соглашения по Закону о защите смарт-устройств

ЕС достиг соглашения по Закону о защите смарт-устройств

30 ноября законодатели ЕС достигли предварительного соглашения по предложению о защите подключенных устройств, требующему обеспечения кибербезопасности для продуктов с цифровыми элементами до их вывода на рынок.
ЕС ужесточает меры в отношении технологических гигантов, угрожая разделить компании-нарушители

ЕС ужесточает меры в отношении технологических гигантов, угрожая разделить компании-нарушители

Европейский союз (ЕС) продолжает ужесточать управление крупными технологическими компаниями, применяя жесткие санкции, которые могут предусматривать штраф в размере 10–20% от мирового дохода и даже принуждать к разделению компаний, не соблюдающих установленные правила.