На прошлой неделе в Пекине собралась группа видных международных экспертов, на которой они определили «красные линии» в развитии ИИ, включая создание биологического оружия и проведение кибератак.
В заявлении, сделанном через несколько дней после встречи, ученые предупредили, что необходим единый подход к безопасности ИИ, чтобы предотвратить «катастрофические или даже экзистенциальные риски для человечества в течение нашей жизни».
«В разгар холодной войны международное правительственное и научное сотрудничество помогло предотвратить ядерную катастрофу. «Человечеству вновь необходимо объединить усилия, чтобы предотвратить катастрофу, которая может возникнуть из-за беспрецедентных технологий», — говорится в заявлении.
Эксперты Международного диалога по безопасности ИИ в Пекине обозначили «красные линии» в развитии ИИ. Фото: FT
Среди подписавших — Джеффри Хинтон и Йошуа Бенджио, которых часто называют «отцами» ИИ; Стюарт Рассел, профессор компьютерных наук Калифорнийского университета; и Эндрю Яо, один из самых выдающихся китайских ученых-компьютерщиков.
Заявление было сделано после состоявшегося на прошлой неделе в Пекине Международного диалога по безопасности искусственного интеллекта, на котором присутствовали представители правительства Китая, чтобы выразить свое одобрение форуму и его результатам.
Президент США Джо Байден и председатель КНР Си Цзиньпин встретились в ноябре прошлого года и обсудили безопасность ИИ, договорившись начать диалог по этому вопросу. В последние месяцы ведущие мировые компании в области ИИ также встречались в частном порядке с китайскими экспертами в области ИИ.
В ноябре 2023 года на саммите по безопасности ИИ, организованном канцлером Великобритании Риши Сунаком, 28 стран, включая Китай, и ведущие компании в области ИИ договорились о широком обязательстве по совместной работе над устранением экзистенциальных рисков, возникающих в результате использования передового ИИ.
На прошлой неделе в Пекине эксперты обсудили угрозы, связанные с разработкой «искусственного интеллекта общего назначения» (ИИ), или систем ИИ, которые равны человеку или превосходят его.
«Основным предметом обсуждения стали красные линии, которые не должна пересекать ни одна мощная система ИИ и которые правительства по всему миру должны устанавливать при разработке и внедрении ИИ», — сказал Бенжио.
Эти красные линии гарантируют, что «ни одна система ИИ не сможет воспроизводить или улучшать себя без явного одобрения и поддержки со стороны человека» или «предпринимать действия, которые неоправданно увеличивают ее мощь и влияние».
Ученые добавили, что ни одна система не «существенно расширит возможности субъектов по разработке оружия массового поражения, нарушению Конвенции о биологическом или химическом оружии» или не сможет «автоматически проводить кибератаки, которые приводят к серьезным финансовым потерям или эквивалентному вреду».
Хоанг Хай (по данным FT)
Источник
Комментарий (0)