메타 CEO 마크 주커버그는 1월 18일 인스타그램 릴스에 회사의 AI "미래 로드맵"에는 "대규모 컴퓨팅 인프라" 구축이 필요하다고 게시했습니다. 2024년 말까지 이 인프라는 35만 개의 Nvidia H100 칩으로 지원될 예정입니다.
마크 주커버그는 2024년 메타의 최우선 투자 분야는 AI라고 말했습니다. |
주커버그는 얼마나 많은 그래픽 처리 장치(GPU)를 구매했는지 공개하지 않았지만, 엔비디아 H100은 2022년 후반에 출시될 예정이며 공급이 극히 제한적입니다. 레이먼드 제임스의 분석가들은 엔비디아가 H100 칩을 25,000~30,000달러에 판매할 것으로 추정합니다. 이베이에서 이 칩의 가격은 4만 달러가 넘습니다. 만약 메타가 낮은 가격에 구매할 수 있다면, 그 비용은 약 90억 달러가 될 것입니다.
또한, 메타 CEO는 다른 GPU를 포함하면 인프라의 컴퓨팅 파워는 60만 H100에 해당한다고 밝혔다. 2023년 12월, Meta, OpenAI, Microsoft는 AMD의 새로운 Instinct MI300X AI 칩을 사용할 것이라고 밝혔습니다.
Meta에 "중장비" 컴퓨터 칩이 필요한 이유는 회사가 인공 일반 지능(AGI)을 추구하고 있기 때문인데, Zuckerberg는 이를 "장기적 비전"이라고 부릅니다. OpenAI와 구글의 DeepMind도 인간 지능에 맞설 것으로 기대되는 미래형 AI인 AGI를 개발하고 있습니다.
메타의 수석 과학자 얀 르쿤도 지난달 미국 샌프란시스코에서 열린 행사에서 GPU의 중요성을 강조했습니다. 그는 AGI를 원한다면 더 많은 GPU를 구입해야 한다고 믿는다. "AI 경쟁이 벌어지고 있고 그는 (엔비디아 CEO 젠슨 황) 무기를 제공하고 있습니다."
Meta는 2023년 3분기 실적 보고서에서 2024년 총 지출이 컴퓨팅 용량 확장에 부분적으로 투자되어 940억 달러에서 990억 달러에 이를 것이라고 밝혔습니다. 분석가들과의 회의에서 그룹 대표는 또한 "투자 우선순위 측면에서 AI는 기술과 컴퓨팅 리소스 측면에서 모두 2024년에 가장 큰 투자 분야"라고 확인했습니다.
마크 주커버그는 Meta가 개발 중인 "일반 AI" 모델을 "책임감 있게 오픈 소스화"할 계획이라고 밝혔습니다. 이는 회사가 대규모 언어 제품 라인인 Llama에서 취한 접근 방식입니다.
Meta는 현재 Llama 3를 훈련하고 있으며, FAIR(Fundamental AI Research) 팀과 GenAI 연구팀이 더욱 긴밀하게 협력할 수 있도록 지원하고 있습니다.
[광고2]
원천
댓글 (0)