엔비디아는 3월 18일 개발자 행사에서 인공지능(AI) 시장에서의 입지를 강화하기 위해 일련의 신제품을 발표했습니다. ChatGPT가 2022년 말에 글로벌 AI 경쟁을 시작한 이래로 이 칩 제조업체의 주가는 54배나 급등했고 매출은 3배 이상 증가했습니다. Nvidia의 고성능 서버 GPU는 대규모 언어 모델을 훈련하고 배포하는 데 필수적입니다. Microsoft와 Meta 같은 회사는 수십억 달러를 들여 칩을 구입했습니다.

한국어:
GB200 칩에는 GPU 2개, CPU 1개, 회로 기판 1개가 포함됩니다. (사진: 엔비디아)

엔비디아는 새로운 세대의 AI 칩을 블랙웰이라고 명명했습니다. 최초의 Blackwell 칩인 GB200은 올해 말에 출시될 예정입니다. 엔비디아는 새로운 주문을 촉진하기 위해 고객들에게 더 강력한 칩을 제공하고 있습니다. 현재 고객들은 여전히 ​​H100 Hopper 칩을 손에 넣기 위해 힘쓰고 있습니다.

엔비디아 CEO 젠슨 황은 행사에서 "호퍼는 훌륭하지만 더 큰 GPU가 필요합니다." 라고 말했습니다.

엔비디아는 블랙웰 칩과 함께 AI 배포를 보다 쉽게 ​​만드는 NIM 소프트웨어도 출시했습니다. 엔비디아 관계자에 따르면, 이 회사는 칩 공급업체라기보다는 Apple과 Microsoft와 같은 플랫폼 공급업체로 점차 변해가고 있다고 합니다.

황 씨는 "블랙웰은 칩이 아니라 플랫폼 이름입니다." 라고 말했습니다. 엔비디아 부사장 마누비르 다스는 프로그래머가 구형이든 신형이든 모든 엔비디아 GPU에서 프로그램을 실행해 더 많은 사람들에게 다가갈 수 있도록 돕는 NIM 소프트웨어를 약속했습니다.

블랙웰, 호퍼의 "후계자"

엔비디아는 2년마다 GPU 아키텍처를 업데이트하여 새로운 성능 향상을 이루고 있습니다. 작년에 출시된 많은 AI 모델은 2022년에 출시될 Hopper 아키텍처에서 훈련을 받았습니다.

엔비디아는 GB200과 같은 블랙웰 기반 칩이 H100의 4페타플롭스에 비해 20페타플롭스의 높은 AI 성능 업그레이드를 제공한다고 밝혔습니다. 이러한 처리 능력을 통해 AI 기업은 더 크고 복잡한 모델을 훈련할 수 있습니다.

8wz8dxva.png
Nvidia GB200 NVLink 2는 36개의 CPU와 72개의 GPU를 하나의 랙으로 결합했습니다. (사진: 엔비디아)

블랙웰 GPU는 크기가 크고 별도로 제조된 두 개의 다이를 하나의 칩으로 결합했습니다. 또한 72개의 Blackwell GPU와 AI 모델을 훈련하도록 설계된 기타 Nvidia 부품을 결합한 GB200 NVLink 2라는 완전한 서버로도 제공됩니다.

Amazon, Google, Microsoft, Oracle은 클라우드 서비스를 통해 GB200에 대한 액세스를 판매할 예정입니다. GB200은 두 개의 B200 Blackwell GPU와 Grace CPU를 결합했습니다. 엔비디아는 Amazon Web Services(AWS)가 20,000개의 GB200 칩을 사용하여 서버 클러스터를 구축할 것이라고 밝혔습니다.

이 시스템은 현재 가장 큰 모델인 GPT-4(매개변수 1.7조 개)보다 훨씬 큰 27조 개의 매개변수 모델을 배포할 수 있습니다. 많은 AI 연구자들은 더 많은 매개변수와 데이터를 갖춘 대규모 모델이 새로운 기능을 구현할 수 있다고 믿습니다.

엔비디아는 새로운 GB200이나 GB200이 포함된 시스템에 대한 가격을 발표하지 않았습니다. 분석가들의 추정에 따르면, 엔비디아의 Hopper 기반 H100의 단위당 가격은 25,000달러에서 40,000달러 사이이고, 전체 시스템 비용은 최대 200,000달러에 이릅니다.

(CNBC에 따르면)