Meta, la empresa propietaria de Facebook, está probando su primer chip interno para entrenar sistemas de inteligencia artificial (IA), un hito en su búsqueda por diseñar más chips personalizados y reducir su dependencia de proveedores como Nvidia.
Presupuesto de inversión estimado de 119 mil millones de dólares
Meta, la empresa de redes sociales más grande del mundo, ha comenzado pruebas a pequeña escala con el chip y planea aumentar la producción para un uso generalizado si la prueba tiene éxito.
Meta, la empresa propietaria de Facebook, está probando su primer chip interno para entrenar sistemas de inteligencia artificial (IA).
El impulso para desarrollar chips internos es parte del plan a largo plazo de Meta para reducir sus enormes costos de infraestructura, mientras la compañía apuesta a lo grande por las herramientas de IA para impulsar el crecimiento.
Meta, que también posee Instagram y WhatsApp, pronostica que el gasto total en 2025 oscilará entre 114.000 y 119.000 millones de dólares, incluidos hasta 65.000 millones de dólares en gastos de capital, impulsados en gran medida por inversiones en infraestructura de inteligencia artificial.
El nuevo chip de entrenamiento de Meta es un acelerador dedicado, lo que significa que está diseñado para manejar únicamente tareas específicas de IA, dijo una fuente. Esto lo hace potencialmente más eficiente energéticamente que las unidades de procesamiento de gráficos (GPU) integradas que se usan comúnmente para cargas de trabajo de IA.
Según la fuente, Meta está cooperando con el mayor fabricante de chips por contrato del mundo, TSMC, para producir este chip.
La implementación de prueba comenzó después de que Meta completara la primera "producción" del chip, un hito importante en el desarrollo de chips de silicio que implica enviar el diseño inicial a través de una planta de fabricación de chips. Un proceso típico de prueba cuesta decenas de millones de dólares y demora entre tres y seis meses en completarse, sin garantía de que la prueba sea exitosa. Si falla, Meta deberá diagnosticar el problema y repetir el paso de retirada de la cinta.
El chip es el último producto de la línea Meta Training and Inference Accelerator (MTIA) de la compañía. El programa ha tenido un comienzo difícil a lo largo de los años y anteriormente ha cancelado un chip en una etapa similar de desarrollo.
Sin embargo, el año pasado, Meta comenzó a usar un chip MTIA para realizar inferencias (el proceso de ejecutar un sistema de IA a medida que los usuarios interactúan con él) para los sistemas de recomendación que deciden qué contenido aparece en los feeds de noticias de Facebook e Instagram.
Meta planea utilizar chips de entrenamiento internos para 2026
Los ejecutivos de Meta dicen que quieren comenzar a usar chips internos en 2026 para entrenamiento, que es el proceso computacionalmente intensivo de alimentar a un sistema de IA con cantidades masivas de datos para "enseñarle" cómo operar.
Los ejecutivos de Meta dicen que quieren comenzar a utilizar chips internos para capacitación en 2026.
Al igual que con el chip de inferencia, el objetivo del chip de entrenamiento es comenzar con sistemas de recomendación y luego usarlo para productos de IA generativa como el chatbot Meta AI, dijeron los ejecutivos. "Estamos analizando cómo realizamos el entrenamiento para los sistemas de recomendación y luego cómo pensamos en el entrenamiento y la inferencia para la IA generativa", dijo el director de productos de Meta, Chris Cox, en la conferencia de tecnología, medios y telecomunicaciones de Morgan Stanley la semana pasada.
El Sr. Cox describió los esfuerzos de desarrollo del chip Meta como "una situación de caminar, gatear y luego correr" hasta ahora, pero dijo que los ejecutivos consideran que el chip de inferencia de primera generación para sistemas de recomendación es "un gran éxito".
Meta canceló previamente un chip de inferencia personalizado interno después de que fallara en una implementación de prueba a pequeña escala similar a la actual para el chip de entrenamiento, y en su lugar volvió a ordenar miles de millones de dólares en GPU de Nvidia en 2022.
Desde entonces, la empresa de redes sociales ha seguido siendo uno de los principales clientes de Nvidia, acumulando una gran cantidad de GPU para entrenar sus modelos, incluidos sus sistemas de recomendación y publicidad, así como su línea de modelos de plataforma Llama. Estas unidades también realizan inferencias para los más de 3 mil millones de personas que usan sus aplicaciones todos los días.
El valor de esas GPU ha sido cuestionado este año a medida que los investigadores de IA se han vuelto cada vez más escépticos sobre cuánto progreso adicional se puede lograr al continuar "ampliando" modelos de lenguaje grandes agregando más datos y poder de cómputo.
Estas dudas se vieron reforzadas por el lanzamiento a finales de enero de nuevos modelos de bajo coste de la empresa china DeepSeek, que optimizan la eficiencia computacional al confiar más en la inferencia que la mayoría de los modelos actuales.
En una venta masiva global de acciones de IA causada por DeepSeek, las acciones de Nvidia perdieron hasta una quinta parte de su valor en un momento. Desde entonces han recuperado la mayor parte de sus pérdidas y los inversores apuestan a que los chips de la empresa seguirán siendo el estándar de la industria para entrenamiento e inferencia, aunque desde entonces han recurrido a preocupaciones comerciales más amplias.
[anuncio_2]
Fuente: https://www.baogiaothong.vn/meta-bat-dau-thu-nghiem-chip-dao-tao-ai-noi-bo-dau-tien-192250312120123752.htm
Kommentar (0)