[데이터넷] 엔비디아(CEO 젠슨 황)는 암페어(Ampere) 아키텍처를 기반으로 한 데이터센터용 GPU ‘엔비디아 A100’을 출시했다고 15일 밝혔다.
A100은 엔비디아 8세대 GPU에서 지원 가능한 최대 성능을 제공해 인공지능(AI) 훈련 및 추론을 통합하고, 이전 세대 프로세서 대비 최대 20배까지 성능을 향상시킨다. 또한 A100은 범용 워크로드 가속기로 데이터 분석, 과학 컴퓨팅 및 클라우드 그래픽용으로도 설계됐다.
A100에 적용된 새로운 엘라스틱 컴퓨팅 기술은 각 작업에 따라 적합한 규모의 컴퓨팅 파워를 제공할 수 있도록 한다. 멀티 인스턴스 GPU 기능을 사용하면 A100 GPU를 각각 최대 7개의 독립 인스턴스로 분할해 추론 과제를 수행할 수 있으며, 3세대 엔비디아 NV링크(NVLink) 인터커넥트 기술은 여러 A100 GPU가 대규모의 훈련 과제를 위해 하나의 거대한 GPU로 작동할 수 있게 한다.
뿐만 아니라 엔비디아는 파트너의 서버 개발을 가속화하기 위해 여러 GPU 구성의 통합 베이스보드 형태의 서버 빌딩 블록인 HGX A100을 선보였다. 4개의 GPU가 탑재된 HGX A100은 NV링크와 GPU간의 완전한 상호 연결을 제공한다.
8개의 GPU가 HGX A100은 엔비디아 NV스위치(NVSwitch)를 통해 완전한 GPU-to-GPU 대역폭을 제공한다. 새로운 멀티 인스턴스 GPU 아키텍처가 적용된 HGX A100은 각각 엔비디아 T4보다 빠른 56개의 소형 GPU부터, 8개의 GPU로 10페타플롭(PF)의 AI 성능을 제공하는 거대한 서버까지 구성 가능하다.
젠슨 황(Jensen Huang) 엔비디아 창립자 겸 CEO는 “엔비디아 A100 GPU는 AI 성능을 20배까지 향상시키며, 데이터 분석부터 훈련 및 추론에 이르는 엔드투엔드 머신러닝 가속기”라며 “A100을 통해 하나의 플랫폼에서 스케일업(scale-up) 및 스케일아웃(scale-out) 워크로드를 가속화할 수 있게 됐으며, 이로써 처리량을 높이는 동시에 데이터센터 비용을 절감할 것”이라고 설명했다.