Meta, das Unternehmen, dem Facebook gehört, testet seinen ersten eigenen Chip zum Trainieren künstlicher Intelligenzsysteme (KI). Dies ist ein Meilenstein in seinem Bestreben, mehr kundenspezifische Chips zu entwickeln und seine Abhängigkeit von Zulieferern wie Nvidia zu verringern.
Geschätztes Investitionsbudget von 119 Milliarden USD
Das weltweit größte Social-Media-Unternehmen Meta hat mit Tests im kleinen Maßstab mit dem Chip begonnen und plant, die Produktion für den großflächigen Einsatz hochzufahren, wenn der Test erfolgreich ist.
Meta, das Unternehmen, dem Facebook gehört, testet seinen ersten eigenen Chip zum Trainieren von Systemen künstlicher Intelligenz (KI).
Der Vorstoß zur Entwicklung eigener Chips ist Teil von Metas langfristigem Plan, seine enormen Infrastrukturkosten zu senken, da das Unternehmen zur Förderung seines Wachstums stark auf KI-Tools setzt.
Meta, dem auch Instagram und WhatsApp gehören, prognostiziert für das Jahr 2025 Gesamtausgaben in Höhe von 114 bis 119 Milliarden US-Dollar, darunter bis zu 65 Milliarden US-Dollar an Investitionsausgaben, die größtenteils durch Investitionen in die KI-Infrastruktur getrieben werden.
Der neue Trainingschip von Meta ist ein dedizierter Beschleuniger, das heißt, er ist nur für die Bewältigung spezifischer KI-Aufgaben konzipiert, sagte eine Quelle. Dadurch ist es potenziell energieeffizienter als die integrierten Grafikprozessoren (GPUs), die üblicherweise für KI-Workloads verwendet werden.
Der Quelle zufolge arbeitet Meta bei der Herstellung dieses Chips mit dem weltweit größten Auftragschiphersteller TSMC zusammen.
Der Testeinsatz begann, nachdem Meta das erste „Tape-Out“ des Chips abgeschlossen hatte, einen wichtigen Meilenstein in der Entwicklung von Siliziumchips, bei dem der ursprüngliche Entwurf durch eine Chip-Produktionsanlage geschickt wird. Ein typischer Tape-Out-Prozess kostet mehrere zehn Millionen Dollar und dauert etwa drei bis sechs Monate, ohne dass ein erfolgreicher Test garantiert ist. Wenn dies fehlschlägt, muss Meta das Problem diagnostizieren und den Tape-Out-Schritt wiederholen.
Der Chip ist das neueste Produkt der Meta Training and Inference Accelerator (MTIA)-Reihe des Unternehmens. Das Programm hatte im Laufe der Jahre einen holprigen Start und hatte zuvor einen Chip in einem ähnlichen Entwicklungsstadium abgebrochen.
Letztes Jahr begann Meta jedoch, einen MTIA-Chip zu verwenden, um Inferenzen durchzuführen – den Prozess, bei dem ein KI-System ausgeführt wird, während Benutzer mit ihm interagieren – für Empfehlungssysteme, die entscheiden, welche Inhalte in den Newsfeeds von Facebook und Instagram erscheinen.
Meta plant bis 2026 den Einsatz interner Trainingschips
Die Führungskräfte von Meta wollen laut eigenen Angaben ab 2026 mit der Nutzung eigener Chips für das Training beginnen. Dabei handelt es sich um den rechenintensiven Prozess, bei dem einem KI-System riesige Datenmengen zugeführt werden, um ihm die Funktionsweise „beizubringen“.
Die Führungskräfte von Meta wollen laut eigenen Angaben bis 2026 mit der Nutzung hauseigener Chips für Schulungen beginnen.
Wie beim Inferenzchip besteht das Ziel des Trainingschips darin, mit Empfehlungssystemen zu beginnen und ihn dann für generative KI-Produkte wie den Meta-AI-Chatbot zu verwenden, sagten Führungskräfte. „Wir schauen uns an, wie wir Empfehlungssysteme trainieren und wie wir dann über Training und Inferenz für generative KI nachdenken“, sagte Chris Cox, Chief Product Officer von Meta, letzte Woche auf der Technologie-, Medien- und Telekommunikationskonferenz von Morgan Stanley.
Cox beschrieb die Chip-Entwicklungsbemühungen von Meta bislang als eine „Lauf-Kriech-Lauf-Situation“, sagte jedoch, dass die Führungskräfte den Inferenzchip der ersten Generation für Empfehlungssysteme als „großen Erfolg“ betrachten.
Meta hatte zuvor einen hauseigenen, maßgeschneiderten Inferenzchip abgesagt, nachdem dieser bei einem kleinen Testeinsatz, der dem aktuellen für den Trainingschip ähnelte, versagt hatte. Stattdessen bestellte Meta im Jahr 2022 wieder GPUs im Wert von mehreren Milliarden Dollar bei Nvidia.
Das Social-Media-Unternehmen ist seitdem einer der größten Kunden von Nvidia und hat eine große Anzahl von GPUs angehäuft, um seine Modelle zu trainieren, darunter seine Empfehlungs- und Werbesysteme sowie seine Modellreihe der Llama-Plattform. Diese Einheiten führen auch Inferenzen für die mehr als 3 Milliarden Menschen durch, die ihre Apps täglich verwenden.
Der Wert dieser GPUs wurde in diesem Jahr in Frage gestellt, da KI-Forscher zunehmend skeptischer wurden, was die weiteren Fortschritte angeht, die durch die weitere „Skalierung“ großer Sprachmodelle durch Hinzufügen weiterer Daten und Rechenleistung erzielt werden können.
Diese Zweifel wurden durch die Markteinführung neuer kostengünstiger Modelle des chinesischen Startups DeepSeek Ende Januar verstärkt. Diese optimieren die Rechenleistung, indem sie sich stärker auf Inferenz stützen als die meisten aktuellen Modelle.
Bei einem durch DeepSeek ausgelösten weltweiten Ausverkauf von KI-Aktien verloren die Aktien von Nvidia zeitweise bis zu einem Fünftel ihres Wertes. Mittlerweile haben sie den Großteil ihrer Verluste wieder wettgemacht, da die Anleger darauf wetten, dass die Chips des Unternehmens auch weiterhin der Branchenstandard für Training und Inferenz bleiben werden. Allerdings haben sie sich aufgrund allgemeinerer Handelsbedenken inzwischen zurückgezogen.
[Anzeige_2]
Quelle: https://www.baogiaothong.vn/meta-bat-dau-thu-nghiem-chip-dao-tao-ai-noi-bo-dau-tien-192250312120123752.htm
Kommentar (0)