엔비디아, ‘암페어’ 아키텍처 기반 데이터센터 GPU ‘A100’ 출시
상태바
엔비디아, ‘암페어’ 아키텍처 기반 데이터센터 GPU ‘A100’ 출시
  • 윤현기 기자
  • 승인 2020.05.15 09:53
  • 댓글 0
이 기사를 공유합니다

엘라스틱 네트워킹·멀티 인스턴스 GPU 적용…AI 훈련·추론 성능 최대 20배 향상
엔비디아 A100 GPU
엔비디아 A100 GPU

[데이터넷] 엔비디아(CEO 젠슨 황)는 암페어(Ampere) 아키텍처를 기반으로 한 데이터센터용 GPU ‘엔비디아 A100’을 출시했다고 15일 밝혔다.

A100은 엔비디아 8세대 GPU에서 지원 가능한 최대 성능을 제공해 인공지능(AI) 훈련 및 추론을 통합하고, 이전 세대 프로세서 대비 최대 20배까지 성능을 향상시킨다. 또한 A100은 범용 워크로드 가속기로 데이터 분석, 과학 컴퓨팅 및 클라우드 그래픽용으로도 설계됐다.

A100에 적용된 새로운 엘라스틱 컴퓨팅 기술은 각 작업에 따라 적합한 규모의 컴퓨팅 파워를 제공할 수 있도록 한다. 멀티 인스턴스 GPU 기능을 사용하면 A100 GPU를 각각 최대 7개의 독립 인스턴스로 분할해 추론 과제를 수행할 수 있으며, 3세대 엔비디아 NV링크(NVLink) 인터커넥트 기술은 여러 A100 GPU가 대규모의 훈련 과제를 위해 하나의 거대한 GPU로 작동할 수 있게 한다.

엔비디아 HGX A100 서버 플랫폼
엔비디아 HGX A100 서버 플랫폼

뿐만 아니라 엔비디아는 파트너의 서버 개발을 가속화하기 위해 여러 GPU 구성의 통합 베이스보드 형태의 서버 빌딩 블록인 HGX A100을 선보였다. 4개의 GPU가 탑재된 HGX A100은 NV링크와 GPU간의 완전한 상호 연결을 제공한다.

8개의 GPU가 HGX A100은 엔비디아 NV스위치(NVSwitch)를 통해 완전한 GPU-to-GPU 대역폭을 제공한다. 새로운 멀티 인스턴스 GPU 아키텍처가 적용된 HGX A100은 각각 엔비디아 T4보다 빠른 56개의 소형 GPU부터, 8개의 GPU로 10페타플롭(PF)의 AI 성능을 제공하는 거대한 서버까지 구성 가능하다.

젠슨 황(Jensen Huang) 엔비디아 창립자 겸 CEO는 “엔비디아 A100 GPU는 AI 성능을 20배까지 향상시키며, 데이터 분석부터 훈련 및 추론에 이르는 엔드투엔드 머신러닝 가속기”라며 “A100을 통해 하나의 플랫폼에서 스케일업(scale-up) 및 스케일아웃(scale-out) 워크로드를 가속화할 수 있게 됐으며, 이로써 처리량을 높이는 동시에 데이터센터 비용을 절감할 것”이라고 설명했다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.