Ранее члены ЕС согласились использовать технологию сканирования лиц в общественных местах только в определенных ситуациях, связанных с обеспечением правопорядка. Это считается «красной линией» для стран при ведении переговоров с Европейским парламентом и Комиссией.
Некоторые правоцентристские депутаты предложили исключения, которые могли бы использовать технологию биометрического отслеживания для поиска пропавших детей или предотвращения террористических атак, но это также не было одобрено на пленарном голосовании.
Законодатели согласились принять дополнительные меры против платформ генеративного ИИ, таких как GPT-4. Соответственно, таким компаниям, как OpenAI и Google, придется проводить оценку рисков и раскрывать, какие материалы, защищенные авторским правом, использовались для обучения моделей ИИ.
Подход ЕС к регулированию основан на оценке рисков. Они сосредоточены на регулировании использования ИИ, а не самой технологии, полностью запрещая некоторые приложения, такие как социальный скоринг, и устанавливая стандарты использования технологии в ситуациях «высокого риска».
Полный текст проекта Закона об искусственном интеллекте был принят 14 июня, что открыло путь для последующей «трехсторонней» дискуссии между парламентом ЕС, государствами-членами и Европейской комиссией.
Комиссия надеется достичь соглашения к концу года, чтобы ввести Закон об искусственном интеллекте в действие для компаний уже в 2026 году. Между тем, некоторые должностные лица настаивают на принятии добровольного «кодекса поведения» для компаний, который будет применяться к странам G-7, а также к Индии и Индонезии.
Ужесточение регулирования ЕС в сфере искусственного интеллекта может оказать серьезное влияние на сектор, стоимость которого оценивается более чем в 1,3 триллиона долларов США в течение следующих 10 лет, поскольку нарушение правил блока может повлечь за собой штрафы в размере до 6% от годового оборота.
(По данным Bloomberg)
Источник
Комментарий (0)