VAST데이터·엔비디아, 공동 개발 AI 인프라 레퍼런스 아키텍처 공개
상태바
VAST데이터·엔비디아, 공동 개발 AI 인프라 레퍼런스 아키텍처 공개
  • 강석오 기자
  • 승인 2021.01.27 11:17
  • 댓글 0
이 기사를 공유합니다

페타바이트 규모 GPU, 올플래시 기반 AI 인프라 위한 레퍼런스 아키텍처
한국 파트너 유클릭, AI 솔루션 라인업 강화로 고객 데이터 가치 극대화

[데이터넷] 인공지능(AI) 전용 스토리지 기업인 VAST데이터와 엔비디아가 차세대 AI, HPC 인프라를 위한 새로운 레퍼런스 아키텍처를 발표했다.

이 아키텍처는 VAST데이터의 유니버셜 스토리지 플랫폼과 엔비디아의 DGX A100 시스템을 토대로 대규모 트레이닝 및 페타바이트 규모의 데이터 분석 같은 고성능을 요구하는 환경을 위한 것이다.

양사는 AI와 빅데이터 관련 기업의 성능 요구 수준이 빠르게 높아지고 있는데, 이를 만족하는 서버와 스토리지 인프라 구성이 너무 복잡하고 비용이 많이 드는 문제를 해결하기 위해 레퍼런스 아키텍처를 개발에 뜻을 모았다.

양사가 공동으로 설계, 구축, 테스트한 새로운 레퍼런스 아키텍처는 페타바이트 규모의 AI 인프라를 원스톱 솔루션처럼 간편하게 구축할 수 있도록 돕는다. 이를 통해 고성능 대용량 AI, HPC 인프라 구축에 필요한 시간, 비용, 복잡성 문제를 모두 해결한다.

지금까지 기업은 워크로드 특성에 맞게 GPU 집약적인 인프라 또는 스토리지 부문을 강화한 인프라 중 하나를 선택하는 식으로 투자해 왔다. 이런 식의 접근은 AI, HPC, 빅데이터 관련 AI 개발자와 데이터 과학자의 요구에 맞지 않는다. 이들이 원하는 인프라는 GPU의 강력한 병렬 컴퓨팅 능력과 스토리지의 빠른 성능과 확장성 모두가 필요하기 때문으로, 새롭게 발표된 레퍼런스 아키텍처는 이런 요구를 반영해 설계됐다.

최근 출시된 VAST데이터 라이트스피트(LightSpeed) 플랫폼과 엔비디아의 범용 AI 시스템인 DGX A100을 기반으로 구축된 이 아키텍처는 NFS-오버-RDMA, NFS 멀티패스 및 엔비디아 GPUDirect 스토리지 기술을 적극적으로 활용해 통합 패브릭을 구성한다. 이런 특징으로 GPU 집약적 및 스토리지 집약적 AI 워크로드 모두에 140GB/s 이상의 처리량을 제공한다.

제프 덴워스(Jeff Denworth) VAST데이터 CMO는 “기업 그리고 조직에 속한 데이터 과학팀은 더 이상 인프라 구성의 한계에 구속되지 않아도 된다”며 “엔비디아와 협력해 고객에게 턴키 방식으로 페타바이트 규모의 AI 인프라 솔루션을 제공할 수 있게 됐고, 더불어 수십 년 동안 타협할 수밖에 없었던 스토리지 비용과 성능 사이의 고민까지 해결한다”고 말했다.

토니 페이크데이(Tony Paikeday) 엔비디아 AI 시스템 수석 책임자는 “AI 워크로드는 AI에 최적화된 전문 인프라가 필요하며, 이런 이유로 DGX POD 생태계의 새로운 구성원인 VAST데이터의 기술과 AI 플랫폼 최적화에 대한 엔비디아의 깊은 이해를 결합했다”며 “새로운 레퍼런스 아키텍처는 고객에게 AI 성공을 달성하기 위한 승리 공식을 제공할 것”이라고 설명했다.

VAST데이터는 새로운 레퍼런스 아키텍처를 금융, 소매, 교육, 제조 등 산업별 한국의 주요 AI 선도 주자들을 대상으로 적극 소개할 계획이다. VAST데이터의 한국 파트너인 유클릭은 새로운 레퍼런스 아키텍처로 AI 솔루션 라인업을 강화해 고객들이 데이터 가치를 극대화할 수 있도록 도울 방침이다.

유클릭 엄남한 대표는 “AI 데이터센터를 구축해 운영하는 많은 고객이 데이터 처리 병목 현상을 우려하고 있는 것을 잘 알고 있고, 이를 해결하기 위해 노력하고 있다”며 “유클릭은 VAST데이터 스토리지와 엔비디아 DGX A100 시스템을 결합해 산업 표준 NFS 파일 시스템을 이용한 GPU 기반 컴퓨팅이란 새로운 길을 제시하고 있고, 이를 통해 AI 데이터센터 성능 병목 문제를 해결하고 있다”고 밝혔다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.