마크 주커버그는 1월 18일 Instagram Reels 게시물에서 회사의 AI "미래 로드맵"에는 "대규모 컴퓨팅 인프라" 구축이 필요하다고 말했습니다. 2024년 말까지 이 인프라는 35만 개의 Nvidia H100 칩으로 지원될 예정입니다.

ms92shcq.png
마크 주커버그, 메타의 2024년 최우선 투자 분야는 AI라고 밝혀 (사진: 블룸버그)

메타 CEO는 그래픽 처리 장치(GPU)를 얼마나 구매했는지 공개하지 않았지만, H100은 2022년 후반에 출시될 예정이며 공급이 극히 제한적입니다. Raymond James의 분석가들은 Nvidia가 H100을 25,000~30,000달러에 판매할 것으로 추정합니다. 이베이에서 이 칩의 가격은 4만 달러가 넘습니다. 메타를 낮은 가격에 인수한다면 그 비용은 90억 달러에 가까워질 것입니다.

또한 주커버그는 다른 GPU를 포함하면 인프라의 컴퓨팅 파워는 H100 60만 대에 해당한다고 밝혔다. 2023년 12월, Meta, OpenAI, Microsoft는 AMD의 새로운 Instinct MI300X AI 칩을 사용할 것이라고 밝혔습니다.

Meta에 이처럼 "강력한" 컴퓨터 칩이 필요한 이유는 회사가 인공 일반 지능(AGI)을 추구하고 있기 때문인데, Zuckerberg는 이를 회사의 "장기적 비전"이라고 부릅니다. OpenAI와 Google DeepMind도 인간 지능에 필적하는 미래형 AI인 AGI를 개발하고 있습니다.

메타의 수석 과학자 얀 르쿤은 지난달 미국 샌프란시스코에서 열린 행사에서 GPU의 중요성을 강조했습니다. 그는 AGI를 원한다면 더 많은 GPU를 구입해야 한다고 믿는다. "AI 전쟁이 진행 중이고 그는(엔비디아 CEO 젠슨 황) 무기를 제공하고 있습니다."

Meta는 2023년 3분기 실적 보고서에서 2024년 총 지출이 컴퓨팅 용량 확장에 부분적으로 투자되어 940억 달러에서 990억 달러에 이를 것이라고 밝혔습니다. 분석가들과의 회의에서 그룹 대표는 또한 "투자 우선순위 측면에서 AI가 2024년에 기술과 컴퓨팅 리소스 측면에서 가장 큰 투자 분야가 될 것"이라고 확인했습니다.

또한 1월 18일, 주커버그는 회사가 개발 중인 AGI를 "책임감 있게" 오픈 소스로 공개할 계획이라고 말했는데, 이는 대규모 라마어족과 유사한 접근 방식입니다. Meta는 Llama 3를 훈련시키고 있으며, FAIR(Fundamental AI Research)팀과 GenAI 연구팀을 모아 더욱 긴밀하게 협력할 것입니다.

주커버그의 게시물 직후, 엔지니어 르쿤은 X에 다음과 같이 글을 올렸습니다. "프로세스를 신속하게 진행하기 위해 FAIR은 이제 AI 제품 부문인 GenAI의 자매 기관이 되었습니다."

(CNBC에 따르면)