Законодатели продолжат обсуждать подробные правила в ближайшие недели с целью завершить процесс в начале следующего года, а вступление в силу планируется с 2026 года.
До этого момента компаниям рекомендуется присоединиться к добровольному Пакту по искусственному интеллекту, чтобы выполнить основные обязательства, предусмотренные правилами.
Ниже приводится основное содержание соглашения, согласованного ЕС.
Система высокого риска
Так называемые системы ИИ с высоким уровнем риска — те, которые, как считается, могут нанести значительный вред здоровью, безопасности, основным правам, окружающей среде, демократии, выборам и верховенству закона — должны будут соответствовать ряду требований, таких как прохождение оценки воздействия на основные права и обязательства по доступу на рынок ЕС.
В то же время системы с низким уровнем риска будут подчиняться более мягким обязательствам по обеспечению прозрачности, таким как маркировка контента, созданного с помощью ИИ, чтобы пользователи могли рассмотреть возможность его использования.
ИИ в правоохранительных органах
Правоохранительным органам разрешено использовать системы удаленной биометрической идентификации в режиме реального времени только в общественных местах для идентификации жертв похищения, торговли людьми, сексуальной эксплуатации, а также для предотвращения конкретных и неминуемых террористических угроз.
Властям также будет разрешено использовать технологию искусственного интеллекта для отслеживания подозреваемых в терроризме, торговле людьми, сексуальной эксплуатации, убийствах, похищениях людей, изнасилованиях, вооруженных ограблениях, участии в преступной организации и экологических преступлениях.
Системы общего и платформенного ИИ (GPAI)
На GPAI и базовые модели будут распространяться требования прозрачности, такие как создание технической документации, соблюдение законодательства ЕС об авторском праве и публикация подробных резюме контента, используемого для обучения алгоритмов.
Платформенные модели, которые подпадают под категорию потенциально создающих системный риск и высокоэффективный GPAI, должны будут проводить общую оценку модели, анализировать и снижать риски, проводить тестирование методом обратного инжиниринга, уведомлять Европейскую комиссию о серьезных инцидентах, обеспечивать кибербезопасность и предоставлять отчеты о потреблении энергии.
До тех пор, пока не будут опубликованы гармонизированные стандарты ЕС, учреждениям здравоохранения общего профиля придется полагаться на кодексы практики для соблюдения нормативных требований.
Системы искусственного интеллекта запрещены
Запрещенное поведение и контент включают: системы биометрической классификации, которые используют конфиденциальные характеристики, такие как политика, религия, философские убеждения, сексуальная ориентация и раса;
Нецелевое сканирование изображений лиц из Интернета или записей видеонаблюдения для создания базы данных распознавания лиц;
Распознавание эмоций на рабочем месте и в образовательных учреждениях;
Социальная оценка основана на социальном поведении или личных характеристиках;
Системы искусственного интеллекта манипулируют поведением человека, чтобы подорвать его свободную волю;
ИИ используется для эксплуатации человеческих слабостей, обусловленных возрастом, инвалидностью, экономическим или социальным положением.
Санкции
В зависимости от нарушения и размера компании штрафы будут начинаться от 7,5 млн евро (8 млн долларов США) или 1,5% от годового мирового оборота и увеличиваться до 35 млн евро или 7% от мирового оборота.
(По данным Рейтер)
ЕС достиг исторического соглашения по регулированию искусственного интеллекта
ЕС достиг соглашения по Закону о защите смарт-устройств
ЕС ужесточает меры в отношении технологических гигантов, угрожая разделить компании-нарушители
Источник
Комментарий (0)