MetaのCEO、マーク・ザッカーバーグ氏は1月18日、同社のAIに関する「将来のロードマップ」には「大規模なコンピューティング・インフラ」の構築が必要だとInstagram Reelsに投稿した。 2024 年末までに、このインフラストラクチャは 350,000 個の Nvidia H100 チップによって提供される予定です。
マーク・ザッカーバーグ氏は、AIが2024年のMetaの最優先投資分野であると述べています。 |
ザッカーバーグ氏は購入したグラフィック処理装置(GPU)の数を明らかにしていないが、Nvidia H100は2022年後半に発売される予定で、供給量は極めて限られている。レイモンド・ジェームズのアナリストは、NVIDIA が H100 チップを 25,000 ドルから 30,000 ドルで販売すると見積もっている。 eBayでは、このチップの価格は4万ドル以上になることもある。 Metaが低価格で買収できれば、そのコストは90億ドル近くになるだろう。
さらに、Meta CEO は、他の GPU も含めると、インフラストラクチャの計算能力は 60 万台の H100 に相当することも明らかにしました。 2023年12月、Meta、OpenAI、Microsoftは、AMDの新しいInstinct MI300X AIチップを使用する予定であると発表しました。
Meta がこれほど多くの「高性能」コンピュータチップを必要とする理由は、同社が人工汎用知能 (AGI) を追求しているためであり、ザッカーバーグ氏はこれを「長期的ビジョン」と呼んでいる。 OpenAIとGoogleのDeepMindも、人間の知能に匹敵すると期待される未来のAIであるAGIに取り組んでいます。
Meta の主任科学者 Yann LeCun 氏も、先月米国サンフランシスコで開催されたイベントで GPU の重要性を強調しました。 AGI が欲しいなら、GPU をさらに購入する必要があると彼は考えています。 「AIレースがあり、彼(Nvidia CEOのジェンスン・フアン)が武器を提供している。」
メタは2023年第3四半期の収益報告で、2024年の総支出額はコンピューティング能力の拡大も含め、940億ドルから990億ドルの範囲になると述べた。同グループのトップはアナリストとの会合で、 「投資の優先順位で言えば、AIは技術面でもコンピューティングリソース面でも2024年の最大の投資分野だ」とも断言した。
マーク・ザッカーバーグ氏は、Meta は開発中の「汎用 AI」モデルを「責任を持ってオープンソース化」する計画だと述べた。これは同社が大規模な言語製品ラインである Llama で採用しているアプローチだ。
Meta は現在、Llama 3 のトレーニングを行っているほか、Fundamental AI Research (FAIR) チームと GenAI 研究チームがより緊密に連携できるようサポートしています。
[広告2]
ソース
コメント (0)