La nouvelle puce, appelée H200, surpassera la puce actuelle de Nvidia, la H100. La principale amélioration de la nouvelle puce réside dans sa mémoire à bande passante plus élevée, qui est l'un des éléments les plus coûteux de la puce et détermine la vitesse à laquelle elle peut traiter les données.
La puce H200 de Nvidia gérera des systèmes d'intelligence artificielle plus volumineux
Nvidia détient actuellement le monopole du marché des puces d'IA et fournit des puces au service ChatGPT d'OpenAI et à de nombreux services d'IA qui génèrent des réponses de type humain. L'ajout d'une mémoire à bande passante plus élevée et de connexions plus rapides aux éléments de traitement de la puce signifie que des services comme ChatGPT peuvent réagir plus rapidement, selon Reuters.
Le H200 dispose de 141 gigaoctets (Go) de mémoire à large bande passante, contre 80 Go dans la puce H100 précédente. Nvidia n'a pas révélé le fournisseur de mémoire de la nouvelle puce, mais Micron Technology a déclaré en septembre qu'il travaillait pour devenir un fournisseur de Nvidia.
Nvidia a également révélé qu'Amazon Web Services, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seront les premiers fournisseurs de services cloud à exploiter la puce H200, en plus des fournisseurs de services cloud d'IA professionnels tels que CoreWeave, Lambda et Vultr.
Microsoft lance une puce IA
Lien source
Comment (0)