В документе «Frontier AI Framework» определены два типа систем ИИ, которые Meta считает не подлежащими выпуску: «высокого риска» и «серьезного риска». Это показывает, что материнская компания Facebook более осторожно относится к технологиям ИИ.

Ранее генеральный директор Марк Цукерберг пообещал сделать искусственный интеллект (AGI) обычным явлением.

deepseek techcrunch
Мета выделяет два типа систем ИИ, которые не могут быть выпущены из-за слишком высокого риска. Фото: TechCrunch

Согласно определению Меты, системы как «высокого риска», так и «серьезного риска» могут поддерживать кибератаки, биологические и химические атаки, но разница в том, что системы «серьезного риска» приводят к «неоспоримым катастрофическим последствиям».

Мета предлагает ряд сценариев, таких как автоматическое проникновение в хорошо защищенную корпоративную среду или распространение высокоэффективного биологического оружия.

Это «наиболее неотложные» сценарии, которые, по мнению компании, могут возникнуть с выпуском мощной системы искусственного интеллекта.

Классификация систем основана не на каком-либо эмпирическом тестировании, а на данных, полученных от внутренних и внешних экспертов.

Если система определена как имеющая «высокий риск», Meta ограничит внутренний доступ к системе и не запустит ее до тех пор, пока не будут приняты меры по снижению риска до умеренного уровня.

С другой стороны, если система определена как «критически рискованная», Meta применит неопределенные меры защиты, чтобы предотвратить взлом системы, и остановит разработку до тех пор, пока она не станет менее опасной.

По данным TechCrunch, Frontier AI Framework, по-видимому, призван смягчить критику, направленную на открытый подход Meta к разработке систем.

Meta часто публикует исходный код своей технологии ИИ, а не закрывает его, как OpenAI. Для компаний открытый подход имеет как преимущества, так и недостатки. Модель искусственного интеллекта Llama компании была загружена сотни миллионов раз, однако, как сообщается, Llama также использовалась для разработки чат-бота, враждебного по отношению к США.

Анонсируя Frontier AI Framework, компания Meta, возможно, нацеливается на DeepSeek, самый известный на сегодняшний день китайский стартап в сфере искусственного интеллекта. DeepSeek также реализует стратегию ИИ с открытым исходным кодом, но не имеет большого количества защитных мер и легко поддается настройке для генерации вредоносного вывода.

По словам Меты, если взвесить все «за» и «против» при принятии решений о том, как разрабатывать и применять передовой ИИ, то эта технология может служить обществу таким образом, чтобы и выгоды, и риски оставались на приемлемом уровне.

(По данным TechCrunch)