[SAN에서의 네트워킹③] SAN과 인피니밴드 네트워킹
상태바
[SAN에서의 네트워킹③] SAN과 인피니밴드 네트워킹
  • 김주철 차장 / 한국스토리지텍 시스템컨설턴트
  • 승인 2002.06.20 00:00
  • 댓글 0
이 기사를 공유합니다

지금까지 1, 2부에 걸쳐 SAN을 둘러싼 파이버채널과 IP 네트워크간의 공생과 경쟁을 위한 상호 관계를 살펴보았다. 1, 2부를 다시 한번 요약하자면, 파이버채널을 두고 FCIP와 iSCSI가 대립적인 관계를 형성하고 있고, iFCP는 중계자 역할을 하고 있다고 볼 수 있다. 극단적인 논자들은 파이버채널의 역할과 기능을 매우 국소적으로 폄하하고 IP 네트워크가 SAN의 주류로 부상할 것이라고 호언하고 있다. 하지만 그 결과는 파이버채널이 갖고 있는 광 대역폭의 장점과 IP 네트워크가 갖고 있는 광범위하게 구축되어 있는 기반구조의 장점 중에서 고객이 어느 쪽을 선호하는가에 의해서 결정될 것으로 보인다. 그리고 양 진영이 각자 갖고 있는 장점을 살리고 단점을 얼마만큼 효과적으로 극복하는지가 고객의 선택을 이끄는 핵심 사안이라고 할 수 있다.

이렇듯 파이버채널 진영과 기가비트 네트워크 진영간의 스토리지 네트워크를 둘러싼 주도권 싸움이 이루어지고 있는 와중에 ‘인피니밴드(InfiniBand)’라는 새로운 네트워크가 등장하고 있다. 인피니밴드는 원래 네트워크 자체를 위한 프로토콜이라기보다는 현재 서버의 버스(Bus)를 대체하기 위한 의도로 개발된 새로운 버스 아키텍처이다.

서버 아키텍처와 서버 I/O에 혁신적인 변화를 가져다 줄 것으로 기대되는 인피니밴드는 초기에는 인텔 진영의 ‘차세대 I/O(Next Generation I/O)’와 IBM, 컴팩 및 휴렛팩커드 진영의 ‘미래의 I/O(Future I/O)’의 두 개 표준으로 진행되었으나 현재는 IBTA(InfiniBand Trade Association)로 통합되어 표준이 진행되고 있다.

인피니밴드의 출현은 현재 서버 내부에 장착되어 있는 버스가 이미 한계에 도달해 정보기술의 발전에 여러 가지 문제점을 제공하고 제약 요인이 되고 있다는 사실에서 출발한다. 서버의 CPU는 이미 GHz 시대를 구가하고 있고, 버스 하단의 채널과 네트워크 역시 Gbps의 대역폭을 갖고 있다. 그러나 버스의 표준이라 할 수 있는 PCI(Peripheral Component Interconnect) 버스는 그에 상응하는 대역폭을 제공하지 못함으로써 ‘불완전한 컴퓨팅 인터페이스(Problematic Computing Interface)’라는 오명을 갖기에 이르렀다.

먼저 현재 버스의 표준으로 자리잡고 있는 PCI 버스의 특징과 대두되고 있는 문제점들이 무엇인지 짚어보고 이러한 문제들이 인피니밴드가 어떤 기능으로 해결하는지 살펴보도록 하겠다.

1. PCI 버스의 특징과 문제점

PCI의 메모리 공유 아키텍처(Shared Memory Architecture)

PCI 버스는 메모리 공유 아키텍처를 사용한다<그림 1>. 이러한 메모리 공유 아키텍처는 다양한 I/O 컨트롤러의 주소 공간을 분리하기 어렵게 되어 있다는 것이 문제이다. 이것은 특정 어댑터 카드에 장애가 발생할 경우에 다른 어댑터 카드의 메모리 공간을 침해할 수 있는 원인이 되고 있다. 또한 메모리 공유 아키텍처는 CPU가 어댑터에 있는 I/O 컨트롤러와 직접 관계하도록 요구하는데, 이것은 I/O 컨트롤러 상에서 데이터를 처리하는 동안 CPU의 속도가 버스의 속도로 저하되는 요인이 되고, PCI 버스에서 임의의 장애가 발생했을 때 CPU가 직접적인 타격을 받게 되는 원인이 되기도 한다.

PCI의 DMA(Direct Memory Access)

PCI 어댑터 카드는 시스템 메모리와 I/O 매체간에 데이터 블록을 전달하기 위해 DMA(Direct Memory Access)를 사용한다. 그리고 각각의 PCI 어댑터는 각자의 DMA 엔진을 갖고 있다. 이것은 각 PCI 어댑터가 다양한 장치 드라이버(Device Driver) 개발에 필요한 선행되는 프로그램 인터페이스를 갖고 있다는 것을 의미한다. 결국, 현실적으로 PCI 버스 환경에서는 다양한 주변 장치(예를 들면, 디스크와 테이프 장치를 위한 드라이버)를 위해 표준화된 장치 드라이버의 개발이 불가능한 것이다.

PCI의 공유 및 병렬 버스

PCI는 공유 및 병렬 버스를 사용한다. 이것은 버스가 실행할 수 있는 속도와 해당 버스의 속도에 맞게 장착할 수 있는 어댑터의 수를 제한한다. PCI 버스는 최대 66MHz, 64비트로 처리할 경우 528MB/sec의 대역폭을 갖는다. 이는 2Gbps 파이버채널 하나(양방향 통신, Full duplex, 400MB/sec) 또는 10Gbps 이더넷 하나(약 400MB/sec)의 대역폭과 비슷하다. 즉, PCI 어댑터가 최고의 속도를 구현하기 위해서는 PCI 버스에 하나의 어댑터 카드가 적합하다는 것이다. 또한, 병렬 버스는 지원 가능한 거리가 수 센티미터로 제한되어 PCI 어댑터가 항상 서버에 내장되어야 하기 때문에 시스템 디자인의 유연성을 크게 떨어뜨린다. 이것은 현재의 흉측한 서버 모양의 최대 원인 제공자인 것이다.

PCI의 I/O 브리지

PCI의 I/O 브리지는 중재자(Arbiter) 역할을 한다. 이는 시스템의 무결성(Integrity)이 버스에서 상호 작용하는 모든 어댑터카드의 상태에 의해 결정됨을 의미한다. 만일 어느 하나의 어댑터 카드가 오동작을 하거나 결함이 발생했을 경우, 해당 카드를 격리하는 것 외에는 진단할 방법이 시스템에는 없다. 결국에는 격리 능력의 결함으로 특정 어댑터 카드의 장애는 시스템 전체의 장애로 파급되고 이러한 격리 능력의 결함은 어댑터 카드의 상호작용에 따른 대역폭의 공정한 분배를 불가능하게 만들고 있다.

PCI의 RAS(Reliability, Availability, Serviceability)

신뢰성(Reliability, 시스템이나 구성요소가 특정 기간 동안 안정된 조건하에서 요구된 기능을 수행할 수 있는 능력) 측면에서 보면, PCI 버스는 약 100여개의 신호를 구성한다. 만일 이 중에 하나의 신호라도 동작을 하지 않으면 버스 자체가 정상적으로 동작하지 않는다. 하나의 PCI 버스 신호만 보면 장애 가능성은 매우 낮지만, 회로보드의 끝을 버스에 접촉하는 어댑터 카드에서는 신호장애의 확률이 신호수의 배수로 증가한다.

PCI 버스의 장애 가능성은 버스 신호의 수에 신호 하나의 장애 가능성을 곱한 값에 비례하고 PCI의 공유 버스 특성에 의해 시스템에 장착된 PCI 어댑터의 수에 비례한다. 따라서 PCI의 신뢰성은 공유된 버스와 버스 신호의 수에 의해 크게 저하된다.

가용성(Availability, 시스템이나 구성요소를 사용하고자 할 때 즉시 작동 또는 접근 가능한 정도) 측면에서 보면, PCI 공유 버스의 특성상 PCI 버스는 장애가 발생한 특정 카드를 격리할 수 있는 능력이 없다. 또한 PCI 버스 브리지와 어댑터 카드간의 접속을 이중화 할 수 있는 방법이 없다.

편리성(Serviceability, 구성요소를 설치, 교체 및 제거 용이성) 측면에서 보면, PCI 버스는 편리성을 고려하기가 매우 어렵다. 일부 핫 플러그가 가능한 PCI 카드를 제공하지만 기업 규모의 가용성 관점에서 보면 매우 취약하다. 이러한 이유 때문에 IP 전문가들은 핫 플러그가 가능한 PCI 카드를 사용하지 않는다. 또한 어댑터 카드는 서버의 내부에 장착되기 때문에 어댑터 카드를 설치하거나 제거할 때 반드시 버스의 전원을 내려야 하는 문제를 야기한다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.