엔비디아(CEO 젠슨 황)는 마이크로소프트의 클라우드 플랫폼 ‘애저(Azure)’에 엔비디아 GPU 클라우드(NGC)를 지원한다고 30일 밝혔다.
애저에서 지원되는 NGC의 즉시 실행 가능한 컨테이너를 통해 개발자는 소프트웨어 통합 및 테스트의 복잡성을 제거하는 동시에, 필요에 따라 확장 가능한 온디맨드 GPU 컴퓨팅에 엑세스할 수 있다.
텐서플로(TensorFlow), 마이크로소프트 코그니티브 툴킷(Microsoft Cognitive Toolkit), 파이토치(PyTorch) 및 엔비디아 텐서RT(NVIDIA TensorRT)와 같이 널리 사용되는 딥 러닝 소프트웨어를 실행하기 위해 신뢰할 수 있는 소프트웨어 스택을 구축 및 테스트하는 것은 다소 까다로우며 많은 시간을 요하는 작업이다. 또한 운영체제(OS) 레벨과 드라이버, 라이브러리 및 런타임에 종속성을 갖으며, 많은 패키지는 서로 다른 버전의 지원 구성요소를 권장한다.
더불어 프레임워크와 애플리케이션은 자주 업데이트되므로 새 버전이 출시될 때마다 이 작업을 반복해야 한다. 이상적인 것은 새로운 버전을 테스트해 이전 버전과 동일한 혹은 더 나은 성능을 제공하는지 확인하는 것이며, 이러한 일련의 과정은 프로젝트를 시작하기 전에 이뤄져야 한다.
HPC의 경우 어려운 작업은 시스템 클러스터에 최신 소프트웨어를 배포하는 것이다. 정확한 종속성을 찾고 설치하고 테스트하는 것은 물론, 이 작업을 멀티테넌트(multi-tenant) 환경에서 여러 시스템에 걸쳐 수행해야 한다.
NGC는 GPU 가속 소프트웨어로 사전 구성된 컨테이너를 제공함으로써 이러한 복잡성을 제거해준다. 엔비디아의 지속적인 연구개발(R&D) 투자의 결과, 딥 러닝 컨테이너는 컨테이너가 최신 GPU 기능을 활용하도록 지원한다. 또한 엔비디아는 최상의 성능을 보장하기 위해 매달 업데이트되는 딥 러닝 컨테이너에서 전체 소프트웨어 스택을 테스트, 조정 및 최적화한다.
뿐만 아니라 엔비디아는 커뮤니티 및 프레임워크 개발자들과 긴밀히 협력함으로써 오픈소스 프로젝트에 기여하고 있다. 엔비디아의 오픈소스 프로젝트 기여는 2017년에만 800건에 달한다. 이와 더불어 NGC에서 제공되는 다른 컨테이너 개발자와 협업해 애플리케이션을 최적화하고 성능 및 호환성을 테스트하고 있다.
사용자들은 딥 러닝 소프트웨어, HPC 애플리케이션, HPC 시각화 툴 및 NGC 컨테이너 레지스트리의 다양한 파트너 애플리케이션에 대한 35개의 GPU 가속 컨테이너에 액세스해 엔비디아 GPU를 통해 마이크로소프트 애저 인스턴트를 실행할 수 있다. 다른 종류 혹은 다른 수량의 GPU를 가진 경우라도 동일한 NGC 컨테이너는 애저 인스턴스에서 작동된다.
이러한 NGC 컨테이너를 실행하기 위해 애저 마켓플레이스에서 엔비디아 이미지를 클릭하는 것 외에도, 애저 NCv2, NCv3 및 ND와 같은 VM상의 NGC에서 애저 배치 AI를 다운로드해 실행할 수 있다. 이렇듯 간단한 깃허브(GitHub) 지침에 따라 NGC 컨테이너로 애저 배치 AI를 시작할 수 있다.