엔비디아, HGX H200 출시…AI 컴퓨팅 플랫폼 가속화
상태바
엔비디아, HGX H200 출시…AI 컴퓨팅 플랫폼 가속화
  • 강석오 기자
  • 승인 2023.11.14 12:05
  • 댓글 0
이 기사를 공유합니다

글로벌 서버 제조사와 클라우드 서비스 제공사, 내년 2분기 공급

[데이터넷] 엔비디아는 호퍼(Hopper) 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU를 탑재한 ‘HGX H200’을 출시한다고 밝혔다. 이 플랫폼은 생성형 AI와 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리할 수 있어 AI 컴퓨팅 플랫폼을 가속화하게 된다.

엔비디아 H200은 HBM3e를 제공하는 최초의 GPU로, 초당 4.8테라바이트의 속도로 141GB의 메모리를 제공한다. 이전 모델인 엔비디아 A100 대비 거의 두 배 용량과 2.4배 더 많은 대역폭을 제공한다.

글로벌 서버 제조사와 클라우드 서비스 제공사는 H200 기반 시스템은 2024년 2분기에 출시할 예정이다.

이안 벅(Ian Buck) 엔비디아 하이퍼스케일과 HPC 담당 부사장은 “생성형 AI와 HPC 애플리케이션으로 인텔리전스를 생성하기 위해서는 대규모의 빠른 GPU 메모리를 통해 방대한 양의 데이터를 빠르고 효율적으로 처리해야 한다”며 “업계 최고 수준의 엔드투엔드 AI 슈퍼컴퓨팅 플랫폼인 엔비디아 H200을 통해 중요한 과제를 해결할 수 있는 속도가 더욱 빨라졌다”고 강조했다.

엔비디아 호퍼 아키텍처는 이전 버전에 비해 전례 없는 성능 도약을 제공한다. 최근 출시된 엔비디아 텐서RT-LLM과 같은 강력한 오픈소스 라이브러리를 비롯해 H100의 지속적인 소프트웨어 개선을 통해 계속해서 기준을 높여가고 있다.

H200 도입으로 700억 개의 파라미터를 보유한 LLM인 라마 2(Llama 2)의 추론 속도가 H100에 비해 거의 두 배로 빨라질 것으로 예상된다. 또한 소프트웨어 업데이트를 통해 H200의 추가적인 성능 리더십과 개선도 기대된다.

엔비디아 H200은 4개와 8개 구성의 엔비디아 HGX H200 서버 보드에서 사용할 수 있으며, HGX H200 시스템의 하드웨어와 소프트웨어와 모두 호환된다. 또한 HBM3e를 탑재한 엔비디아 GH200 그레이스 호퍼 슈퍼칩이 포함된다.

이러한 선택 사항을 통해 H200은 온프레미스, 클라우드, 엣지를 비롯한 모든 유형의 데이터센터에 배포할 수 있다. 또한 엔비디아 글로벌 파트너 서버 제조사 에코시스템은 기존 시스템을 H200로 업데이트할 수 있고, 퍼블릭 클라우드 서비스 사업자 역시 내년부터 코어위브(CoreWeave), 람다(Lambda), 벌쳐(Vultr)에 이어 H200 기반 인스턴스를 배포할 전망이다.

HGX H200은 엔비디아 NV링크와 NV스위치 고속 인터커넥트를 기반으로 한다. 1750억 개 이상의 파라미터가 포함된 대규모의 모델에 대한 LLM 훈련과 추론 등 다양한 애플리케이션 워크로드에서 최고의 성능을 제공한다.

8개 방식으로 구동되는 HGX H200은 32페타플롭(Petaflops) 이상의 FP8 딥 러닝 컴퓨팅과 총 1.1TB의 고대역폭 메모리를 제공한다. 이를 통해 생성형 AI와 HPC 애플리케이션에서 최고의 성능을 발휘한다.

H200을 초고속 NV링크-C2C 인터커넥트를 갖춘 엔비디아 그레이스 CPU와 결합하면 GH200 그레이스 호퍼 슈퍼칩을 만들 수 있다. 여기에는 대규모 HPC와 AI 애플리케이션을 지원하도록 설계된 통합 모듈인 HBM3e가 포함된다.

한편 엔비디아 가속 컴퓨팅 플랫폼은 개발자와 기업이 AI에서 HPC에 이르기까지 즉시 생산이 가능한 애플리케이션을 구축하고 가속화할 수 있는 강력한 소프트웨어 도구로 지원된다. 여기에는 음성, 추천 시스템, 하이퍼스케일 추론과 같은 워크로드를 위한 엔비디아 AI 엔터프라이즈 소프트웨어 제품군이 포함된다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.