In einem Instagram-Reels-Beitrag vom 18. Januar sagte Mark Zuckerberg, dass der „Zukunftsfahrplan“ des Unternehmens für KI den Aufbau einer „massiven Computerinfrastruktur“ erfordere. Bis Ende 2024 wird diese Infrastruktur von 350.000 Nvidia H100-Chips bedient.
Der CEO von Meta hat nicht bekannt gegeben, wie viele Grafikprozessoren (GPUs) er gekauft hat, aber der H100 soll Ende 2022 auf den Markt kommen und das Angebot ist äußerst begrenzt. Analysten bei Raymond James schätzen, dass Nvidia den H100 für 25.000 bis 30.000 US-Dollar verkauft. Auf eBay kann der Chip mehr als 40.000 Dollar kosten. Wenn Meta zu einem niedrigen Preis gekauft wird, würden die Kosten bei fast 9 Milliarden Dollar liegen.
Darüber hinaus gab Zuckerberg bekannt, dass die Rechenleistung der Infrastruktur, wenn andere GPUs einbezogen werden, 600.000 H100 entspricht. Im Dezember 2023 gaben Meta, OpenAI und Microsoft bekannt, dass sie den neuen KI-Chip Instinct MI300X von AMD verwenden würden.
Der Grund, warum Meta solche „Hochleistungs“-Computerchips benötigt, liegt darin, dass das Unternehmen künstliche allgemeine Intelligenz (AGI) anstrebt, was Zuckerberg als „langfristige Vision“ für das Unternehmen bezeichnet. OpenAI und Google DeepMind arbeiten auch an AGI – einer futuristischen KI, die der menschlichen Intelligenz Konkurrenz macht.
Meta-Chefwissenschaftler Yann LeCun betonte die Bedeutung von GPUs bei einer Veranstaltung letzten Monat in San Francisco, USA. Er glaubt, dass man mehr GPUs kaufen muss, wenn man AGI will. „Es herrscht ein KI-Krieg und er (Nvidia-CEO Jensen Huang) liefert die Waffen.“
In seinem Ergebnisbericht für das dritte Quartal 2023 gab Meta an, dass die Gesamtausgaben im Jahr 2024 zwischen 94 und 99 Milliarden Dollar liegen würden, teilweise um die Rechenkapazität zu erweitern. Bei einem Treffen mit Analysten bekräftigte der Konzernchef zudem, dass „KI im Hinblick auf die Investitionsprioritäten im Jahr 2024 sowohl hinsichtlich der Technologie als auch der Rechenressourcen der größte Investitionsbereich sein wird.“
Ebenfalls am 18. Januar sagte Zuckerberg, er plane, die von seinem Unternehmen entwickelte AGI „verantwortungsvoll“ als Open Source bereitzustellen, ein Ansatz, der der großen Sprachfamilie Llama ähnelt. Meta trainiert Llama 3 und wird die Forschungsteams von Fundamental AI Research (FAIR) und GenAI zusammenbringen, um eine engere Zusammenarbeit zu gewährleisten.
Kurz nach Zuckerbergs Post schrieb Ingenieur LeCun auf X: „Um den Prozess zu beschleunigen, ist FAIR jetzt eine Schwesterorganisation von GenAI, der KI-Produktabteilung.“
(Laut CNBC)
[Anzeige_2]
Quelle
Kommentar (0)