Meta-CEO Mark Zuckerberg postete am 18. Januar auf Instagram Reels, dass der „Zukunftsfahrplan“ des Unternehmens für KI den Aufbau einer „massiven Computerinfrastruktur“ erfordere. Bis Ende 2024 wird diese Infrastruktur von 350.000 Nvidia H100-Chips bedient.
Mark Zuckerberg sagt, dass KI im Jahr 2024 die höchste Investitionspriorität von Meta sein wird. |
Zuckerberg gab nicht bekannt, wie viele Grafikprozessoren (GPUs) er gekauft hat, aber der Nvidia H100 soll Ende 2022 auf den Markt kommen und ist nur in äußerst begrenzter Menge verfügbar. Analysten bei Raymond James schätzen, dass Nvidia den H100-Chip für 25.000 bis 30.000 US-Dollar verkauft. Auf eBay kann der Chip mehr als 40.000 Dollar kosten. Wenn Meta es zu einem niedrigen Preis kaufen kann, betragen die Kosten fast 9 Milliarden USD.
Darüber hinaus gab der CEO von Meta bekannt, dass die Rechenleistung der Infrastruktur bei Einbeziehung anderer GPUs 600.000 H100 entspricht. Im Dezember 2023 gaben Meta, OpenAI und Microsoft bekannt, dass sie den neuen KI-Chip Instinct MI300X von AMD verwenden würden.
Der Grund, warum Meta so viele „Hochleistungs“-Computerchips benötigt, liegt darin, dass das Unternehmen künstliche allgemeine Intelligenz (AGI) anstrebt, was Zuckerberg als „langfristige Vision“ bezeichnet. OpenAI und Googles DeepMind arbeiten außerdem an AGI – einer futuristischen KI, die der menschlichen Intelligenz Konkurrenz machen soll.
Auch Meta-Chefwissenschaftler Yann LeCun betonte bei einer Veranstaltung letzten Monat in San Francisco, USA, die Bedeutung von GPUs. Er glaubt, dass man mehr GPUs kaufen muss, wenn man AGI will. „Es gibt ein KI-Rennen und er (Nvidia-CEO Jensen Huang) liefert die Waffen.“
In seinem Ergebnisbericht für das dritte Quartal 2023 gab Meta an, dass die Gesamtausgaben im Jahr 2024 zwischen 94 und 99 Milliarden Dollar liegen würden, teilweise um die Rechenkapazität zu erweitern. Bei einem Treffen mit Analysten bekräftigte der Konzernchef zudem, dass „KI im Hinblick auf die Investitionsprioritäten im Jahr 2024 sowohl hinsichtlich der Technologie als auch der Rechenressourcen der größte Investitionsbereich sein wird.“
Mark Zuckerberg sagte, Meta plane, das von ihm entwickelte Modell der „allgemeinen KI“ „verantwortungsvoll als Open Source bereitzustellen“, ein Ansatz, den das Unternehmen bereits mit seiner umfangreichen Sprachproduktlinie Llama verfolgt.
Meta trainiert derzeit Llama 3 und unterstützt gleichzeitig das Fundamental AI Research (FAIR)-Team und das GenAI-Forschungsteam bei der engeren Zusammenarbeit.
[Anzeige_2]
Quelle
Kommentar (0)