H200이라 불리는 이 새로운 칩은 현재 엔비디아의 최상위 칩인 H100을 능가할 것입니다. 새로운 칩의 주요 업그레이드는 더 높은 대역폭의 메모리에 있는데, 이는 칩에서 가장 비싼 부분 중 하나이며 데이터 처리 속도를 결정합니다.
엔비디아의 H200 칩은 더 큰 인공지능 시스템을 처리할 것입니다.
엔비디아는 현재 AI 칩 시장을 독점하고 있으며, OpenAI의 ChatGPT 서비스와 인간과 유사한 반응을 생성하는 많은 AI 서비스에 칩을 공급하고 있습니다. 로이터에 따르면, 칩의 처리 요소에 더 높은 대역폭의 메모리와 더 빠른 연결을 추가하면 ChatGPT와 같은 서비스가 더 신속하게 대응할 수 있습니다.
H200은 이전 H100 칩의 80GB보다 증가한 141기가바이트(GB)의 고대역폭 메모리를 탑재했습니다. 엔비디아는 새로운 칩에 대한 메모리 공급업체를 공개하지 않았지만 마이크론 테크놀로지는 9월에 엔비디아에 공급업체가 되기 위해 노력하고 있다고 밝혔습니다.
엔비디아는 CoreWeave, Lambda, Vultr와 같은 전문 AI 클라우드 서비스 제공업체 외에도 Amazon Web Services, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure이 H200 칩을 활용하는 최초의 클라우드 서비스 제공업체가 될 것이라고 밝혔습니다.
마이크로소프트, AI 칩 출시
[광고2]
소스 링크
댓글 (0)