По словам Ли Кай-Фу, основателя 01.ai и бывшего главы Google China, компании на материке сокращают расходы, создавая модели, обучаемые на меньших объемах данных, требующие меньшей вычислительной мощности, но оптимизированного оборудования.

Согласно рейтингу, недавно опубликованному UC Berkeley SkyLab и LMSYS, модель Yi-Lingtning стартапа 01.ai заняла третье место, разделив с Grok-2 компании x.AI, после OpenAI и Google. Этот рейтинг основан на оценках пользователей, ответивших на вопросы.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Снижение стоимости ИИ — это способ, которым Китай конкурирует с США. Фото: FT

01.ai и DeepSeek — это компании в сфере искусственного интеллекта, которые придерживаются стратегии, направленной на обучение моделей на основе небольших наборов данных, одновременно нанимая дешевую, высококвалифицированную рабочую силу.

FT сообщила, что стоимость вывода Yi-Lightning составляет 14 центов за миллион токенов по сравнению с 26 центами для o1-mini GPT от OpenAI. Между тем стоимость GPT 4o достигает $4,4 за миллион токенов. Количество токенов, используемых для генерации ответа, зависит от сложности каждого запроса.

Основатель Yi-Lightning рассказал, что компания потратила 3 ​​миллиона долларов на «начальное обучение», прежде чем заняться тонкой настройкой для различных вариантов использования. Ли заявил, что их целью было «не создание лучшей модели», а создание конкурирующей модели, которая была бы «в 5–10 раз дешевле».

Метод, который применили 01.ai, DeepSeek, MiniMax и Stepfun, называется «экспертное моделирование» — это простое объединение нескольких нейронных сетей, обученных на наборах данных, специфичных для определенной области.

Исследователи рассматривают этот подход как ключевой способ достижения того же уровня интеллекта, что и у моделей больших данных, но с меньшей вычислительной мощностью. Однако сложность подхода заключается в том, что инженерам приходится организовывать процесс обучения с участием «нескольких экспертов», а не только одной общей модели.

Из-за трудностей с доступом к высокопроизводительным ИИ-чипам китайские компании обратились к разработке высококачественных наборов данных для использования в обучении экспертных моделей, тем самым конкурируя с западными конкурентами.

Ли сказал, что 01.ai использует нетрадиционные способы сбора данных, такие как сканирование книг или сбор статей в приложении для обмена сообщениями WeChat, которые недоступны в открытом доступе в Интернете.

Основатель считает, что Китай находится в лучшем положении, чем США, поскольку обладает огромным резервом дешевых технических специалистов.

(По данным FT, Bloomberg)

Meta запускает модель искусственного интеллекта с самооценкой обучения Гигант социальных сетей Meta только что анонсировал новую модель искусственного интеллекта с функцией самооценивания обучения (STE), которая может сузить вмешательство человека в процесс разработки искусственного интеллекта.