Tech Info - 전력 소모를 최대한 줄여라
상태바
Tech Info - 전력 소모를 최대한 줄여라
  • 승인 2006.09.15 00:00
  • 댓글 0
이 기사를 공유합니다

전력 소모를 최대한 줄여라
미래보장형은 모듈러식 재설계 … AC에서 DC로 교체 바람직

전기 수요가 높아지는 것뿐만 아니라 프로세서 사이클, 메모리 및 스토리지의 필요조건이 늘어나는 것 또한 데이터 센터에서 매일 더 많은 전력을 소모하고 있다는 얘기며, 이는 곧 더 많은 지출을 하고 있다는 얘기다. 투자의 미래를 보장받을 수 있으려면 모듈러 데이터 센터를 어떻게 설계해야 할까?

로버트 프랜시스 그룹(Robert Frances Group)의 조사 보고서에 따르면, IT 임원들이 인프라에서 접하게 될 가장 큰 걱정거리는 데이터 센터의 전력 이용량으로 밝혀졌다. 5년 전만해도 랙당 평균 전력 필요조건은 1~3 킬로와트였다.
하지만 각각의 랙에 들어가는 장비 밀도와 함께 프로세서 사이클, 메모리 및 스토리지에 대한 필요조건이 계속 성장하면서, 고밀도 블레이드 서버 이행에서는 랙당 24~30 킬로와트가 소모되고 있다. 뿐만 아니라 전기세 인상과 늘어나는 전력 소모를 생각하면 왜 이 문제가 갈수록 중요해지고 있는지가 더욱 분명해진다.
우리는 최근에 인프라를 책임진 228명의 美 네트워크컴퓨팅지 독자들을 대상으로 설문조사를 실시하고, 내년 한 해 동안 데이터 센터의 쿨링과 전력 용량을 늘릴 가능성이 얼마나 되는지를 물어 보았다. 사실 이들 가운데 37%는 용량 확장이 있을 것이라고, 혹은 있을 것 같다고 답했으며, 25%는 이 문제에 대해 숙고 중이라고 말했다.
데이터 센터 전력 필요조건에서의 이러한 위기 상황을 해결하기 위해서는 데이터 센터를 다시 설계하거나 새로운 데이터 센터를 만들어야 한다. 투자의 미래를 보장받을 수 있는 열쇠는 모듈러 식의 유연한 설계다. 그리고 효율성 문제도 무시할 수가 없는데, 향후 10년 동안 에너지 요금이 내려갈 일은 없을 것이기 때문이다.

쿨링 용량
우리가 여기서 초점을 두고 있는 것은 데이터 센터 전력 설계지만, 데이터 센터 내의 전력에 대한 어떠한 이야기에든 쿨링이 빠질 수는 없다. 24 킬로와트의 전력(약 30kVa)을 소모하는 하나의 장비 랙에는 6~7톤, 즉 약 7만8천BTU의 쿨링 용량이 필요하다. 그리고 이것은 등식의 일부분에 불과하며, CFM(Cubic Feet per Minute)으로 측정되는 기류도 또한 마찬가지로 중요하다.
우리 24 킬로와트 랙에 있는 장비는 제조업체 사양 안에서 작동 온도를 유지하기 위해 3천800 CFM의 기류가 필요할 것이다. 평균적인 데이터 센터는 랙당 300 CFM을 전달하도록 설계돼 있지만, 보통 데이터 센터의 올림마루(raised-floor)에 있는 구멍 뚫린 바닥 타일이 전달할 수 있는 기류는 600~700CFM밖에 되지 않기 때문에(그것도 이 마루가 이 정도의 기류를 허용할 만큼 충분히 높고, 마루 아래 공간이 복잡한 전력선과 데이터 케이블로 대폭 제한되지 않는다는 전제 하에서다), 설계상 이중적인 문제가 발생한다.
데이터 센터의 올림마루 용으로 가장 적당한 높이를 파악하기 위해서는 기류와 무게간 적절한 균형점을 찾아야 한다. 마루가 높을수록 기류는 많아지지만, 마루가 버틸 수 있는 하중은 줄어든다. 보통 올림마루 데이터 센터의 보통의 높이는 30인치다.

효율성 평가
이미 구매 평가의 정식 항목으로 장비 효율성을 평가하지 않았다면, 다음 번에는 가장 중요한 구성요소로 간주하라. 이러한 생각은 전력과 쿨링 비용이 계속 늘어난다는 관점에서 가장 적은 TCO에 도달하기 위해서다.
썬마이크로시스템즈의 SWaP(Space, Watts and Performance) 메트릭은 특정 장비 조각에 대해 TCO에 미치는 효율성 효과를 측정하기 위한 장비 업체의 좋은 시도다. 이 메트릭은 랙 공간 곱하기 전력 소모량에서 초당 처리 횟수(operations per second)를 나눈 수로 결정이 된다. SWaP에 민감해진 사람이 충분히 많아지면 다음 번 서버에는 세탁기, 건조기 및 온수기에 붙어 있는 스티커와 유사하게 장비 작동에 대한 평균 연간 효용비용을 나타내 주는 밝고 노란 ‘DOE EnergyGuide’ 스티커가 붙어 있을 것이다.
사용자 시설의 스태프는 재설계에 있어 필요한 전력 양에 대한 지침을 원할 것이다. 그리고 아마도 사용자는 장비의 상표 라벨을 이용해 여기에 대한 질문에 대답을 만들어 주고 싶을 것이다. 이러한 방법을 이용할 경우 라벨에 있는 와트 수를 더해 현재 사용하고 있는 전력 양을 파악한 다음, 예상되는 성장을 기반으로 필요한 추가 전력 양을 추산해 볼 것이다. 하지만 이런 식으로 하면 전력 필요조건을 과대하게 잡게 되며 필요 이상으로 지출을 하게 되는데, 그 이유는 상표에 있는 와트량 데이터는 장비를 돌리는 데 필요한 전력 양이 아니라 생산될 수 있는 전력 양을 나타내기 때문이다.
최근 아메리칸 파워 컨버전(American Power Conversion) 연구에 따르면, 100% 활용도로 돌아가는 완전 파퓰레이팅된 IBM 블레이드센터(BladeCenter)는 상표에 지시된 것(5천400와트)보다 25%나 적은 전력(4천50)을 소모한다. 상표에 있는 것과 실제 소모된 전력 값의 차이는 이렇듯 크기 때문에 상표를 이용해 필요조건을 계산해서는 안 된다.
데이터 센터를 재설계할 때가 아직 일년이 넘게 남았다면 지금 전력 이용량 감시 시스템 구입을 고려해 보라. 시간이 흐르는 동안에 소모된 기존의 전력 값을 정확히 평가함으로써 미래의 성장 필요조건을 정확하게 파악하고 가장 잘 예측할 수 있다.
장비 업체들도 실제 전력 소비량을 제공해야 할 필요가 있다는 사실을 서서히 알아가고 있긴 하지만, 일일 기반으로 전력 사용량을 모니터링하지 않을 경우 이 정보를 알 수 있도록 업체와 좋은 게약을 맺어야 할 필요가 있다. 또한 다음 데이터 센터 장비 RFP에서는 업체측에 실제 전력 소모량 정보를 요청하는 것을 반드시 기억하라. 이렇게 구해 둔 정보는 유용하게 사용될 것이다.

모듈성 통해 미래 보장
새 데이터 센터나 재설계된 데이터 센터에서 첫 날부터 모든 랙에 24 킬로와트의 전력을 가져가야 할 필요는 없을 것이다. 하지만 아마도 데이터 센터를 완전히 다시 설계할 수 있으려면 랙에 더 많은 전력을 가져가야 할 것이며, 따라서 시기 적절한 방식으로 미래의 비즈니스 컴퓨팅에 대응해 실현돼야 할 전력 경로를 계획해 두는 게 중요하다.
대부분의 데이터 센터 등급 PDU(power distribution units)와 UPS 업체들은 처음에 총 25~50%의 용량을 전달할 수 있는 모듈러 용량의 시스템을 랙 크기 캐비넷에서 제공하고 있다. 전력 필요가 늘어나면 바닥 공간을 추가하거나 다운타임이 없이 기존의 캐비넷에 추가 전력 모듈을 쉽게 설치할 수 있다. 회로, 비상 전력발생 및 배터리 백업 등과 같은 전력 공급망이 모두 추가 전력 필요조건을 지원할 수 있어야 한다는 사실을 명심하라.
처음부터 완전 로딩된 PDU-UPS 콤보 하나를 설치하는 대신, 앞으로의 확장을 염두에 두고 보다 듬성 듬성 구성된 콤보를 두 개 남짓 배치하도록 하라. 처음에 바닥 공간과 자본을 더 차지하겠지만, 업그레이드 경로를 확실히 알 수 있고 다운타임이 최소화될 것이다.
APC의 흥미로운 제품인 인프라스트럭처 쿨링 디스트리뷰션 유니트(InfraStraXure Cooling Distri- bution Unit)는 이런 모듈러 UPS가 전력 쪽에서 제공하는 것과 같은 모듈성을 데이터 센터로 가져다 준다. 쿨링 디스트리뷰션 유니트는 랙 절반 폭의 30kVA 쿨링 유니트로 하나에서 12갈래의 균형 잡힌 차가운 물을 공급한다.
쿨링 디스트리뷰션 유니트와 APC의 인프라스트럭처 인로(InRow) RC 데이터 센터 쿨링 유니트간 파이핑은 쉽고 간편하게 설치할 수 있는 매끈하고 유연한 파이핑을 통해 이뤄진다. 30kVA의 쿨링에서 시작해 절반 랙 폭의 쿨링 유니트를 추가함으로써 최고 360kVA까지 높일 수 있다. 물론 냉각수 플랜트는 쿨링 필요가 높아질수록 커져야겠지만, 데이터 센터 자체 내에서의 변화는 크지 않을 것이다.
리버트(Liebert) 또한 물을 이용한, 혹은 물이 없는 데이터 센터 쿨링 제품 라인인 XD(X-treme Density)를 통해 이와 유사한 모듈러 방식을 제공하고 있다. XD 라인 쿨러는 천정에 장착되거나(XDO 모델), 혹은 장비 랙 위에 설치될 수 있기 때문에(XDV 모델) 소중한 바닥 공간을 절약해 준다. XD 라인은 확장성이 있으며, 리버트에 의하면 평방 피트당 500와트 이상의 쿨링 효과를 낼 수 있다고 한다.

AC vs DC
데이터 센터 내에서 AC 전력을 DC 전력 서버와 스토리지로 바꿈으로써 얻을 수 있는 에너지 절감 효과에 10~25%에 이르기까지 의견 차가 크다. 전기통신 업계에서는 수년 전부터 DC 전력 장비를 사용하고 있으며, 따라서 이 경로로 가는 데는 선례가 있는 셈이지만, 엔터프라이즈 데이터 센터에서 DC 전력을 추진하기 위해서는 큰 절감 효과가 제시돼야 한다. 이러한 교체 배후의 주된 동력은 오늘날 AC 전력공급기의 비효율성이다.
대부분의 서버에서 발견되는 전형적인 AC 투 DC 전력 공급기는 70~80%의 효율이며, 이는 곧 한 조각의 장비로 전달되는 모든 와트의 20~30%가 열만 내뿜는다는 것을 의미한다. 장비를 돌리는 데 낭비되는 전기에 대해서 지불하고 있을 뿐만 아니라 낭비되는 전기로 인해 발생되는 열을 식히는 데 대한 전기료까지 물고 있는 셈이다. 좋지 않은 일이다. DC 전력을 사용하는 데이터 센터에서는 정류기(시설의 AC 그리드 전력을 DC 전력을 바꿔주는 장비)가 90% 효율성으로 작동하지만, 데이터 센터에 이것을 배치할 필요는 없다.
DC 전력으로 전환하기 위해서는 완전 교체(rip-and-replace) 정신이 필요할 것이며, 예를 들어 모든 PDU와 UPS가 교체돼야 한다. 그리고 기존의 전력 케이블도 교체해야 하는데, 그 이유는 이들이 저전압 고전류의 DC 전력을 전달할 만큼 충분히 크지 못하기 때문이다. 랙은 랙 안에서 DC 전력을 배포하기 위해 큰 동선 모선(copper bus bar)으로 개장돼야 하며, 랙 안에 있는 각 시스템도 전환돼야 한다.
처음부터 DC 전력용으로 새 데이터 센터를 설계한 기업이라 하더라도 잠재적인 함정을 알고 있어야 한다. DC 기반 장비는 업체 수가 더 적기 때문에 초기 비용이 유사한 AC 기반 장비보다 더 높아질 수 있다. 늘어나는 선행 투자는 연간 운영비 절감으로 상쇄가 되겠지만, 장기적인 절감효과 가능성을 파악하기 위해 신중한 비용 대 이점 분석이 이뤄져야 한다.
마지막으로 데이터 센터 엔지니어와 IT 전문가들은 AC는 잘 알고 있지만 DC에 대해서는 상대적으로 적은 지식을 갖고 있기 때문에, DC 전력 데이터 센터를 이행하는 계획에서는 어떤 것이든 재교육비를 감안해야 한다.
그러나 업체들이 계속해서 AC 전력 공급기의 효율성 을 향상시키기 위해 노력 중이라는 사실을 주목해야 한다. 예를 들어 IBM은 자사의 블레이드센터가 90% 효율성을 달성했다고 자랑하고 있다. 이럿듯 향상된 효율성에는 그만한 선행 투자가 따르겠지만, 이 돈은 장비의 전체 수명 동안의 전력 비용을 감안할 때 총소유비용이 대폭 낮아지기 때문에 그만한 가치가 있다. AC 효율성 향상이 추세가 되어가면 DC의 주요 경쟁력은 훨씬 힘을 잃게 될 것이다.
내년이나 내후년에 새로운 전력 및 쿨링 인프라를 설치할 계획이라면 DC 경로를 택함으로써 첨단을 걸을 수가 있다. IBM, HP 및 썬이 모두 DC 전력 시스템을 공급하고 있긴 하지만, DC 전력 하드웨어에 대한 선택은 보다 한정적이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.