В интервью The Guardian автор книги «Sapiens: Краткая история человечества» сказал, что, в отличие от ядерного оружия, проблемы, которые создают модели ИИ, не ограничиваются одним большим сценарием.
С ИИ связано бесчисленное множество опасных сценариев, каждый из которых может объединиться и создать экзистенциальную угрозу человеческой цивилизации.
По словам Харари, многосторонняя декларация на Глобальном саммите по безопасности ИИ в Блетчли-Парке, Великобритания, стала «очень важным шагом вперед», поскольку ведущие правительства объединились, чтобы выразить обеспокоенность по поводу этой технологии и предпринять какие-то меры по ее решению.
«Без глобального сотрудничества будет крайне сложно, если не невозможно, сдержать наиболее опасный потенциал ИИ», — сказал он.
Саммит завершился соглашением между 10 правительствами и крупными компаниями в сфере ИИ, включая разработчика ChatGPT OpenAI и Google, о сотрудничестве в тестировании передовых моделей ИИ до и после их выпуска.
Авторы Sapiens утверждают, что одной из проблем при тестировании безопасности моделей является необходимость предвидеть все проблемы, которые они могут вызвать.
ИИ отличается от всех предыдущих технологий в истории человечества, поскольку это первая технология, способная принимать решения, генерировать новые идеи, а также обучаться и развиваться самостоятельно.
По определению, людям — даже «отцу» ИИ — крайне сложно предсказать все потенциальные опасности и проблемы.
Правительства подняли вопрос об угрозе использования систем ИИ для создания биологического оружия, но есть и другие сценарии, которые можно рассмотреть.
Г-н Харари отметил, что финансы являются идеальной сферой для систем ИИ, поскольку данные и ИИ сами по себе могут стать причиной серьезных кризисов.
«А что, если ИИ не только получит больший контроль над мировой финансовой системой, но и начнет создавать новые финансовые устройства, которые сможет понять только ИИ, а люди — нет?» — задался вопросом Харари.
Историк добавил, что финансовый кризис 2007–2008 годов был вызван долговыми инструментами, такими как обеспеченные долговые обязательства (CDO), которые были малоизучены и, следовательно, не полностью регулировались.
«ИИ имеет потенциал для создания финансовых устройств, более сложных, чем CDO. Просто представьте себе ситуацию, когда у нас есть финансовая система, которую ни один человек не может понять и, следовательно, не может регулировать», — сказал он. «А затем наступает финансовый кризис, когда никто не понимает, что происходит».
В прошлом месяце правительство Великобритании выразило обеспокоенность по поводу усовершенствованной модели искусственного интеллекта, которая может представлять угрозу существованию, контролируя и манипулируя финансовыми системами.
Однако г-н Харари считает, что финансовый кризис, вызванный ИИ, не уничтожит человеческую цивилизацию, «по крайней мере, напрямую».
«Это может косвенно вызвать какую-то войну или конфликт. Это катастрофический риск — экономический, социальный, политический», — добавил он.
Израильский автор, поддерживающий призывы приостановить разработку передового ИИ на шесть месяцев и привлечь компании, занимающиеся ИИ, к ответственности за ущерб, наносимый их продуктами, заявил, что основное внимание следует уделять не конкретным правилам и законам, а регулирующим организациям, обладающим знаниями о технологиях, которые могут быстро реагировать при появлении новых прорывов.
«Нам необходимо как можно быстрее создать сильные регулирующие институты, способные выявлять и реагировать на опасности по мере их возникновения, исходя из понимания того, что мы не можем заранее предсказать все опасности и проблемы».
«В этом и должна заключаться главная задача, а не в написании очень длинных и сложных правил, которые к моменту принятия Конгрессом могут устареть», — сказал он.
Харари заявил, что научно-исследовательские институты, занимающиеся безопасностью ИИ, должны нанимать экспертов, которые понимают потенциальное влияние ИИ на финансовый мир.
В прошлом месяце канцлер Великобритании Риши Сунак объявил о создании британского института безопасности искусственного интеллекта. Несколько дней спустя Белый дом объявил о планах создания аналогичного агентства. Ожидается, что оба они сыграют ключевую роль в тестировании передовых моделей ИИ.
Выступая на саммите, г-н Сунак заявил, что Великобритании необходимо понять возможности современных моделей искусственного интеллекта, прежде чем вводить законы для борьбы с ними.
(По данным The Guardian)
Приложение ИИ GraphCast предсказывает самый точный 10-дневный прогноз погоды в мире
Лаборатория Google DeepMind в Великобритании разработала систему GraphCast — приложение на базе искусственного интеллекта (ИИ), способное предоставлять самый точный в мире 10-дневный прогноз погоды.
Синергия ИИ и облачных вычислений
Сочетание искусственного интеллекта (ИИ) и облачных вычислений — это неудержимая тенденция, которая преобразует мировые отрасли.
Источник
Комментарий (0)