Новый чип, получивший название H200, превзойдет текущий флагманский чип Nvidia — H100. Главное усовершенствование нового чипа заключается в более высокой пропускной способности памяти, которая является одной из самых дорогих частей чипа и определяет скорость обработки данных.
Чип Nvidia H200 будет работать с более крупными системами искусственного интеллекта
В настоящее время Nvidia является монополистом на рынке чипов для искусственного интеллекта и поставляет чипы для сервиса OpenAI ChatGPT и многих сервисов искусственного интеллекта, которые генерируют ответы, подобные человеческим. По данным Reuters, добавление памяти с более высокой пропускной способностью и более быстрых соединений к процессорным элементам чипа означает, что такие сервисы, как ChatGPT, смогут реагировать быстрее.
H200 имеет 141 гигабайт (ГБ) памяти с высокой пропускной способностью по сравнению с 80 ГБ в предыдущем чипе H100. Nvidia не раскрыла поставщика памяти для нового чипа, но в сентябре Micron Technology заявила, что работает над тем, чтобы стать поставщиком Nvidia.
Nvidia также сообщила, что первыми поставщиками облачных услуг, которые будут использовать чип H200, станут Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure, в дополнение к профессиональным поставщикам облачных услуг ИИ, таким как CoreWeave, Lambda и Vultr.
Microsoft выпускает чип с искусственным интеллектом
Ссылка на источник
Комментарий (0)