Будущее искусственного интеллекта становится предметом горячих дискуссий среди экспертов в области технологий и политиков. Они стремятся представить, как будут развиваться технологии и как их следует регулировать.
ChatGPT, чат-бот OpenAI, который стал вирусным в прошлом году, помог повысить осведомленность об ИИ, поскольку многие крупные компании по всему миру запустили или планируют запустить конкурирующие продукты.
Выступая на конференции Совета генеральных директоров Wall Street Journal, бывший генеральный директор Google Шмидт выразил обеспокоенность по поводу искусственного интеллекта, назвав эту технологию «экзистенциальным риском», что означает, что многие люди могут пострадать или погибнуть. По словам Шмидта, такие сценарии пока не реализовались, но могут произойти в краткосрочной перспективе, когда системы ИИ обнаружат неиспользованные уязвимости в киберпространстве или откроют новые типы биологии.
Сегодня все это звучит как научная фантастика, но это возможно. «Когда это произойдет, мы должны быть готовы сделать так, чтобы этим не воспользовались злоумышленники», — поделился он.
Шмидт, занимавший пост генерального директора Google с 2001 по 2011 год, не имел четкого представления о том, как управлять ИИ, заявив лишь, что это «большой вопрос для общества в целом».
Он не первый эксперт в области технологий, предупреждающий о рисках ИИ. Сэм Альтман, генеральный директор OpenAI, признается, что «немного боится» ИИ. Его беспокоят авторитарные правительства, развивающие технологии. Тем временем генеральный директор Tesla Илон Маск заявил, что ИИ представляет собой один из «самых больших рисков» для цивилизации.
Генеральный директор Google Сундар Пичаи считает, что ИИ повлияет на каждый продукт, производимый компанией, и обществу необходимо подготовиться к этим изменениям.
Шмидт является членом Комиссии национальной безопасности по вопросам ИИ в США. С 2019 года агентство проводит оценку технологии. В 2021 году комиссия опубликовала отчет, показывающий, что США не готовы к эре ИИ.
(По данным CNBC)
Источник
Комментарий (0)