엔비디아, 가속 컴퓨팅·생성형 AI 위한 ‘GH200 그레이스 호퍼 플랫폼’ 공개
상태바
엔비디아, 가속 컴퓨팅·생성형 AI 위한 ‘GH200 그레이스 호퍼 플랫폼’ 공개
  • 강석오 기자
  • 승인 2023.08.10 09:45
  • 댓글 0
이 기사를 공유합니다

HBM3e 프로세서로 혁신적인 메모리와 대역폭 제공
쉽게 확장 가능한 서버 디자인과 뛰어난 성능 발휘 위한 다중 GPU 연결 기능 탑재

[데이터넷] 엔비디아는 가속 컴퓨팅과 생성형 AI를 위한 차세대 엔비디아 GH200 그레이스 호퍼 플랫폼을 발표했다. 이 플랫폼은 세계 최초로 HBM3e 프로세서가 탑재된 새로운 그레이스 호퍼 슈퍼칩을 기반으로 한다.

GH200 그레이스 호퍼 플랫폼은 대규모 언어 모델, 추천 시스템, 벡터 데이터베이스를 비롯해 전 세계적으로 가장 복합한 생성형 AI 워크로드를 처리할 수 있도록 개발됐으며, 다양한 구성으로 제공될 예정이다.

현 세대 제품보다 최대 3.5배 많은 메모리 용량과 3배 높은 대역폭을 제공하는 듀얼 구성은 144개의 Arm 네오버스 코어, 8페타플롭의 AI 성능, 282GB의 최신 HBM3e 메모리 기술을 갖춘 단일 서버로 구성된다.

젠슨 황(Jensen Huang) 엔비디아 CEO는 “급증하는 생성형 AI 수요 충족을 위해 데이터센터에는 전문적인 요구 사항을 갖춘 가속화된 컴퓨팅 플랫폼이 필요하다. 새로운 GH200 그레이스 호퍼 슈퍼칩 플랫폼은 탁월한 메모리 기술과 대역폭을 통해 처리량을 개선하고, 성능의 저하 없이 GPU를 연결해 성능을 통합한다. 여기에 전체 데이터센터에 쉽게 배포할 수 있는 서버 설계를 통해 이를 실현할 수 있다”고 설명했다.

새로운 플랫폼에 사용된 그레이스 호퍼 슈퍼칩은 엔비디아 NV링크로 추가 슈퍼칩과 연결할 수 있으며, 이들이 함께 작동해 생성형 AI에 사용되는 거대한 모델을 배포할 수 있다. 일관된 고속 기술은 GPU가 CPU 메모리에 완전히 액세스할 수 있도록 지원해 듀얼 구성 시 총 1.2TB의 빠른 메모리를 제공한다.

HBM3e 메모리는 기존 HBM3보다 데이터 전송 속도가 50% 빠르며, 초당 총 10TB의 대역폭을 제공한다. 이를 통해 새로운 플랫폼에서 이전 버전보다 3.5배 용량이 큰 모델을 실행할 수 있으며, 3배 빠른 메모리 대역폭으로 성능을 개선할 수 있다.

선도적인 제조사들은 이전에 발표된 그레이스 호퍼 슈퍼칩을 기반으로 한 시스템을 선보이고 있다. HBM3e가 탑재된 차세대 그레이스 호퍼 슈퍼칩 플랫폼은 기술의 도입을 확대하기 위해 올해 초 컴퓨텍스에서 공개된 엔비디아 MGX 서버 사양과 호환된다. 모든 시스템 제조사는 MGX를 통해 100가지 이상의 서버 변형에 그레이스 호퍼를 신속하고 비용 효율적으로 추가할 수 있다.

한편 주요 제조사는 2024년 2분기에 이 플랫폼을 기반으로 한 시스템을 제공할 것으로 예상된다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.