Nvidia était autrefois connu comme un fabricant de puces utilisées dans les jeux vidéo, mais a déplacé son attention vers le marché des centres de données ces dernières années.
L'entreprise américaine de puces électroniques a prospéré pendant la pandémie, grâce à l'augmentation de la demande de jeux et d'applications cloud, tout comme la « fièvre du minage de pièces de monnaie » qui s'est répandue dans le monde entier. Au cours de l'exercice clos le 29 janvier, l'activité puces pour centres de données représentait plus de 50 % du chiffre d'affaires de la société.
Pendant ce temps, le chatbot populaire ChatGPT a porté l’intelligence artificielle générative (IA) à un nouveau niveau cette année. La technologie utilise de grandes quantités de données existantes pour générer du nouveau contenu sur un large éventail de sujets, de la poésie à la programmation informatique.
Microsoft et Alphabet, deux géants de la technologie qui sont également de grands acteurs dans le domaine de l'IA, estiment que la technologie générative peut changer la façon dont les humains travaillent. Tous deux se sont lancés dans une course à l’intégration de l’IA dans les moteurs de recherche ainsi que dans les logiciels de bureautique avec l’ambition de dominer ce secteur.
Goldman Sachs estime que l’investissement américain dans l’IA pourrait représenter près de 1 % de la production économique du pays d’ici 2030.
Les supercalculateurs utilisés pour traiter les données et exécuter l’IA générative s’appuient sur des unités de traitement visuel (GPU). Les GPU sont conçus pour gérer des calculs spécifiques liés à l'IA, beaucoup plus efficacement que les unités centrales de traitement d'autres fabricants de puces comme Intel. Par exemple, ChatGPT d'OpenAI est alimenté par des milliers de GPU Nvidia.
Pendant ce temps, Nvidia détient environ 80 % des parts de marché des GPU. Les principaux concurrents de Nvidia sont Advanced Micro Devices et les puces d'IA internes d'entreprises technologiques comme Amazon, Google et Meta Platforms.
Le secret de la sublimation
Le bond en avant de l'entreprise est dû au H100, une puce basée sur la nouvelle architecture de Nvidia appelée « Hopper » — du nom de la pionnière de la programmation américaine Grace Hopper. L’explosion de l’intelligence artificielle a fait du H100 le produit le plus en vogue de la Silicon Valley.
Les puces géantes utilisées dans les centres de données contiennent 80 milliards de transistors, soit cinq fois plus que les puces de silicium qui alimentent les derniers iPhone. Bien qu'il soit deux fois plus cher que son prédécesseur, l'A100 (lancé en 2020), les utilisateurs du H100 affirment que la puce offre trois fois plus de performances.
Le H100 s'est avéré particulièrement populaire auprès des entreprises « Big Tech » comme Microsoft et Amazon, qui construisent des centres de données entiers axés sur les charges de travail de l'IA, et des startups d'IA de nouvelle génération comme OpenAI, Anthropic, Stability AI et Inflection AI, car il promet des performances supérieures, ce qui peut accélérer les lancements de produits ou réduire les coûts de formation au fil du temps.
« C'est l'une des ressources d'ingénierie les plus rares qui existent », a déclaré Brannin McBee, directeur de la stratégie et fondateur de CoreWeave, une startup cloud basée sur l'IA qui a été l'une des premières entreprises à recevoir des expéditions de H100 plus tôt cette année.
D’autres clients n’ont pas eu autant de chance que CoreWeave, devant attendre jusqu’à 6 mois pour recevoir le produit pour former leurs modèles de données massifs. De nombreuses startups d’IA craignent que Nvidia ne puisse pas répondre à la demande du marché.
Elon Musk a également commandé des milliers de puces Nvidia pour sa startup d'IA, affirmant que « les GPU sont plus difficiles à trouver que les médicaments à l'heure actuelle ».
« Les coûts informatiques ont grimpé en flèche. « Le montant minimum d'argent dépensé pour le matériel serveur utilisé pour créer une IA créative a atteint 250 millions de dollars », a partagé le PDG de Tesla.
Si le H100 arrive à point nommé, la percée de Nvidia en matière d'IA remonte à deux décennies d'innovation logicielle plutôt qu'à l'innovation matérielle. En 2006, la société a lancé le logiciel Cuda, qui permet au GPU d'être utilisé comme un outil pour accélérer des tâches autres que graphiques.
« Nvidia a vu l'avenir avant tout le monde et s'est tourné vers le développement de GPU programmables. « Cette entreprise a repéré une opportunité, a fait de gros paris et a constamment surpassé ses concurrents », a déclaré Nathan Benaich, associé chez Air Street Capital et investisseur dans les startups d'IA.
(Selon Reuters, FT)
Source
Comment (0)