슈퍼마이크로, 엔비디아 A100 GPU 기반 서버 포트폴리오 확장
상태바
슈퍼마이크로, 엔비디아 A100 GPU 기반 서버 포트폴리오 확장
  • 윤현기 기자
  • 승인 2020.05.15 10:21
  • 댓글 0
이 기사를 공유합니다

AI·딥러닝·데이터 과학·컴퓨팅 워크로드에 최적화된 GPU 서버 포트폴리오 성능 강화
슈퍼마이크로 AS-2124GQ-NART 서버
슈퍼마이크로 AS-2124GQ-NART 서버

[데이터넷] 슈퍼마이크로는 엔비디아 A100 GPU를 활용한 신규 서버 2종을 출시했다고 15일 밝혔다.

슈퍼마이크로의 신규 GPU 서버 포트폴리오는 인공지능(AI), 딥러닝, 데이터 과학 및 컴퓨팅 워크로드에 최적화된 제품으로, 엔비디아 HGX-2 시스템 기술을 확장해 새로운 엔비디아 HGX A100 4GPU 보드(기존 코드명 ‘레드스톤’)를 구현하는 2U 시스템과, 5페타플롭의 AI 성능을 제공하는 엔비디아 HGX A100 8GPU 보드(기존 코드명 ‘델타’) 기반 4U 시스템이다.

슈퍼마이크로의 새로운 2U 시스템은 HPC 및 AI 응용 프로그램을 위한 균형 잡힌 데이터센터 플랫폼이다. 최대 성능을 위해 4개의 직접 연결 엔비디아 A100 텐서코어 GPU가 장착된 엔비디아 HGX A100 4GPU 보드 연결에 PCI-E 4.0을 사용하며, GPU-to-GPU 고속 연결에는 엔비디아 NV링크를 사용한다.

1개의 PCI-E 4.0 x8 및 최대 4개의 PCI-E 4.0 x16 확장 슬롯을 지원하며, 초당 최대 200Gb 대역폭까지 지원하는 인피니밴드 HDR과 같이, GPU 다이렉트 RDMA와 호환되는 고속 네트워크 카드 및 스토리지를 지원해 컴퓨팅, 네트워킹 및 스토리지 성능을 향상시킨다.

AI·머신러닝에 최적화된 슈퍼마이크로의 새로운 4U 시스템은 8개의 A100 텐서코어 GPU를 지원하며, 처리 요구 사항이 늘어나 규모를 확장하려는 고객에게 적합하다. 초당 최대 600GB의 GPU-to-GPU 대역폭에 대응하는 엔비디아 NV스위치를 거쳐 8개의 A100 GPU가 모두 상호 연결되는 1개의 엔비디아 HGX A100 8GPU 보드를 갖췄으며, GPU 다이렉트 RDMA 고속 네트워크 카드용으로 8개의 확장 슬롯을 구비하고 있다.

이 시스템은 딥러닝 학습에 이상적이기 때문에, 데이터센터 고객은 해당 스케일업 플랫폼을 이용해 차세대 AI를 개발할 수 있다. 또한 10개의 x16 확장 슬롯을 지원해 데이터 사이언티스트의 생산성을 극대화할 수 있다.

고객은 슈퍼마이크로의 광범위한 1U, 2U, 4U, 10U 멀티 GPU 서버 포트폴리오에 새로운 엔비디아 A100 GPU 장착함으로써 상당한 성능 향상을 기대할 수 있다. 슈퍼마이크로의 새로운 A+ GPU 시스템은 PCI-E 스위치를 거치지 않고 CPU와 GPU를 PCI-E 4.0 x16 레인으로 직접 연결함으로써 지연 시간을 최소화하며, 최고 대역폭을 지원한다. 또한 최대 8개의 풀 하이트 더블 와이드(또는 싱글 와이드) GPU를 지원해 가속화 성능을 최대화한다.

최대 100G의 고성능 네트워킹 연결을 포함해 다양한 용도로 최대 3개의 고성능 PCI-E 4.0 확장 슬롯을 지원하며, 이 외에 추가되는 AIOM 슬롯은 슈퍼마이크로 AIOM 카드 또는 OCP 3.0 메자닌 카드를 지원한다.

찰스 리앙(Charles Liang) 슈퍼마이크로 CEO 겸 사장은 “새로운 시스템은 HPC, 데이터 분석, 딥러닝 학습 및 추론을 위한 모든 가속화된 워크로드의 성능을 크게 향상시킨다”며 “GPU 가속 컴퓨팅이 진화하고 지속적으로 데이터센터를 혁신함에 따라, 슈퍼마이크로는 고객에게 최신 시스템 향상을 제공하고 GPU 활용을 최적화하면서 모든 규모에서 최대 가속을 달성할 수 있도록 돕는다”고 말했다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.