El nuevo chip, llamado H200, superará al actual chip tope de gama de Nvidia, el H100. La principal mejora del nuevo chip radica en la memoria de mayor ancho de banda, que es una de las partes más caras del chip y determina la velocidad a la que se procesan los datos.
El chip H200 de Nvidia gestionará sistemas de inteligencia artificial más grandes
Actualmente, Nvidia tiene el monopolio del mercado de chips de IA y suministra chips al servicio ChatGPT de OpenAI y a muchos servicios de IA que generan respuestas similares a las humanas. Añadir memoria de mayor ancho de banda y conexiones más rápidas a los elementos de procesamiento del chip significa que servicios como ChatGPT pueden responder más rápidamente, según Reuters.
El H200 tiene 141 gigabytes (GB) de memoria de gran ancho de banda, frente a los 80 GB del chip H100 anterior. Nvidia no reveló el proveedor de memoria para el nuevo chip, pero Micron Technology dijo en septiembre que estaba trabajando para convertirse en proveedor de Nvidia.
Nvidia reveló además que Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán los primeros proveedores de servicios en la nube en explotar el chip H200, además de proveedores de servicios de inteligencia artificial en la nube profesionales como CoreWeave, Lambda y Vultr.
Microsoft lanza un chip de inteligencia artificial
[anuncio_2]
Enlace de origen
Kommentar (0)