Как правильно использовать ИИ

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng15/05/2023


СГГП

Стремясь ужесточить регулирование в сфере ИИ, ключевые законодатели Европейского союза (ЕС) согласовали несколько поправок к проекту регламента в сфере искусственного интеллекта (ИИ) с целью ограничения генеративного ИИ, такого как ChatGPT.

Корпорация Panasonic Connect помогла своим сотрудникам в Японии использовать системы искусственного интеллекта для повышения производительности. Фото: Nikkei Asia
Корпорация Panasonic Connect помогла своим сотрудникам в Японии использовать системы искусственного интеллекта для повышения производительности. Фото: Nikkei Asia

Ожидаем первый полный закон

Решающее голосование по законопроекту о регулировании ИИ 11 мая ознаменовало новый шаг в процессе принятия законодательства, которое официально будет регулировать инструменты ИИ, такие как ChatGPT. Комитеты Европейского парламента (ЕП) по защите прав потребителей и гражданским свободам приняли проект текста, подтверждающего необходимость контроля использования ИИ в ЕС, одновременно поощряя инновации в этой области, но соблюдая основные права, согласно которым ИИ должен служить людям, обществу и окружающей среде.

Ожидается, что после двух лет обсуждений Закон об ИИ станет первым полноценным законом в ЕС, регулирующим эту технологию, поскольку в него добавлены положения, запрещающие использование технологии распознавания лиц в общественных местах (что, как прогнозируется, может привести к конфликтам между странами ЕС), а также инструменты, использующие алгоритмы для прогнозирования преступного поведения, приложения искусственного ИИ, такие как ChatGPT от OpenAI, биометрические проверки... Соответственно, эти приложения должны отправлять уведомления, чтобы напоминать пользователям, что продукты этих инструментов создаются машинами, а не людьми.

В документ также включен раздел, требующий дополнительных критериев для выявления областей высокого риска для приложений ИИ, тем самым ограничивая область разработки инструментов. Инструменты ИИ будут классифицироваться в зависимости от уровня риска, который каждый инструмент может представлять. Правительства и компании, использующие эти инструменты, будут нести различные обязательства в зависимости от уровня риска.

В следующем месяце проект текста будет представлен на утверждение всему Европарламенту, а затем направлен государствам-членам ЕС для рассмотрения и доработки. Хотя список, предложенный Европейской комиссией (ЕК), уже включает в себя примеры использования ИИ в управлении критической инфраструктурой, образовании, кадрах, общественном порядке и иммиграции, депутаты Европарламента также хотят добавить нормативные пороговые значения, которые определяют угрозы безопасности, здоровью и основным правам.

Япония возьмет на себя инициативу

Многие страны также ищут решения проблемы, позволяющие не допустить отставания отечественной промышленности и решить проблемы, связанные с конфиденциальностью граждан.

В Азии был созван первый в истории правительства Японии Стратегический совет по искусственному интеллекту с целью создания структуры, направляющей развитие ИИ. Выступая перед советом, премьер-министр Фумио Кисида сказал: «ИИ обладает потенциалом изменить наше экономическое общество в лучшую сторону, но существуют и риски. Важно решать обе проблемы соответствующим образом».

Использование технологий ИИ будет способствовать повышению конкурентоспособности промышленности и решению социальных проблем, однако ИИ необходимо использовать надлежащим образом, а риски для пользователей должны быть сведены к минимуму. Однако до сих пор обсуждения носили в основном технический характер. Японские эксперты настоятельно призвали в ближайшее время вести обсуждения на основе более широкой перспективы с участием таких областей, как бизнес и право. Nikkei Asia заявила, что одной из проблем, с которой сталкивается Япония, является повышение уровня развития внутреннего ИИ, при этом уделяя особое внимание регулированию использования общего ИИ, в котором важными вопросами являются безопасность, конфиденциальность и авторские права.

ИИ начинает вторгаться в повседневную жизнь: появляются поддельные изображения и видео, а также генерируемый роботами текст, что вызывает опасения по поводу национальной безопасности и дезинформации. Министры цифровых технологий и безопасности стран «Большой семерки» (G7) договорились до конца этого года разработать руководящие принципы по разработке и использованию общего ИИ. Премьер-министр Кисида заявил, что Япония, председательствующая в G7 в 2023 году, возьмет на себя ведущую роль в разработке международных правил, чтобы максимально использовать перспективы и реагировать на риски, связанные с искусственным интеллектом.

Как и Япония, Белый дом на прошлой неделе объявил, что инвестирует 140 миллионов долларов в создание семи исследовательских центров ИИ и опубликует руководящие принципы по использованию этой передовой технологии с целью создания правил, которые одновременно минимизируют риски, но и не препятствуют развитию инновационных приложений ИИ. Выступая перед Советом консультантов по науке и технологиям, президент США Джо Байден подчеркнул, что ИИ может помочь справиться с некоторыми очень сложными проблемами, такими как болезни и изменение климата, но мы также должны учитывать потенциальные риски для общества, экономики и национальной безопасности. Технологические компании обязаны гарантировать безопасность своей продукции до ее выхода на рынок.



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

Вьетнамский игрок Ле Кхак Виктор привлекает внимание в сборной Вьетнама U22
Творения в сериале «Ремейк» произвели впечатление на вьетнамских зрителей
Та Ма — волшебный цветочный ручей в горах и лесах перед открытием фестиваля
Приветствуем солнце в древней деревне Дуонг Лам

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Министерство - Филиал

Местный

Продукт