> 뉴스 > 테크가이드 > 통신/네트워크
  • 트위터
  • 페이스북
  • 구플러스
  • 네이버밴드
  • 카카오스토리
     
Tech View - 데이터 센터 구축
2005년 11월 17일 00:00:00
협업능력 증진·강력한 인프라, 두 마리 토끼를 한 번에

NWC 시러큐스 랩의 새로운 변신 … 전원·쿨링은 APM 이용



최근까지만 해도 네트워크 컴퓨팅지의 시러큐스 랩은 두 개 건물에 나뉘어져 있었지만 지금은 하나의 새 설비로 통합됐다. 공사가 마무리된 지가 불과 몇 개월밖에 지나지 않아 결과를 확신하기는 아직 이르지만, 여러 가지 징후들로 미루어 우리의 첨단 랩은 충분히 그 역할을 해내고 있는 것 같다. 처음 계획에서부터, 우리가 경험한 데이터 센터 이전의 노하우를 소개한다.



2003년, 美 네트워크컴퓨팅지의 선임 기술 에디터이자 시러큐스 정보대학 기술부문 부학장인 데이브 몰타는 두 개의 시러큐스 리얼월드 랩을 2004년 완공될 예정인 정보대학 안에 하나의 새 설비로 통합시킬 것을 제안했다.
우리는 몰타가 수장을 맡고 있는 응용기술 연구센터인 CENT(Center for Emerging Network Technologies)와 결연을 맺게 될 것이며, 무엇보다도 가장 좋은 것은 데이터 센터 공간, 스태프 작업공간, 그리고 이사 비용 등을 모두 대학에서 부담한다는 사실이었다. 데이터 센터 전원과 쿨링, 그리고 구조화 와이어링(structured wiring)만 추가하면 우리는 멋진 첨단 테스팅 랩을 가지게 된다고 하니, 우리로서는 도저히 거절할 수 없는 제안이었으며, 당연히 거절하지 못했다.

강력한 인프라 구축
우리는 즉시 이전 계획을 세우기 시작했다. 곧 2004년이 되자 우리의 새 설비 건축 스케줄이 사실상 그렇게 꿈처럼 이뤄질 수 없다는 사실이 밝혀졌다. 그리고 2년 동안은 못 박는 망치 소리 하나 들리지 않았다. 마침내 2005년 하인즈홀에서 파견된 일군의 일꾼들이 정보대학과 네트워크컴퓨팅에서 사용할 수 있도록 2층 전체를 부수고 개조했다. 그리고 우리는 7월에 이전할 준비를 하라는 통고를 받았다.
데이터 센터 내의 네트워크 토폴로지를 바꾸는 데 대해서는 걱정할 필요가 없었다. 우리는 현재 세 개의 클래스 C 라우터블 네트워크와 하나의 논라우터블(nonroutable) 네트워크를 소닉월 프로 3080 방화벽 뒤에서 돌리고 있다. 라우터블 클래스 C 네트워크들 가운데 하나는 메일, DNS, 액티브 디렉토리, 스토리지 및 원격 KVM IP 액세스 등과 같은 영구 생산 서버용이며, 다른 두 개는 ARIN(American Registry for Internet Numbers)에 따라 네트워크컴퓨팅에 할당되어 테스팅 장비용으로 사용되고 있다.
대학 ISP는 새 데이터 센터용으로 이 두 개의 네트워크를 라우팅하는 것을 허용했다. 우리의 논라우터블 네트워크는 소닉월 GMS 시스템과 생산 네트워크로의 VPN 클라이언트 접속용으로 사용되고 있으며, 필요에 따라 우리는 논라우터블 네트워크를 추가로 셋업한다.
이제 새 설비에 대한 우리의 목표를 짚고 넘어갈 때다. 우선 우리는 네트워크컴퓨팅과 그 출판사인 시큐어 엔터프라이즈에서 근무하는 6명의 풀타임 스태프와 핵심 프리랜서들간의 협업 가능성을 극대화시키고자 했다(이들은 모두 대학의 두 개 건물들 사이에 나뉘어져 있다). 건물간 거리는 몇 백 야드밖에 되지 않지만 공동체 심리를 연구해 본 사람이면 누구나 알 수 있듯 이 거리는 특히 매년 8개월간 계속되는 시러큐스의 빙하기간을 생각하면 수백 야드 씩이나 될 수가 있다. 둘째, 우리는 전원, 쿨링 및 구조화 와이어링을 모두 포함하면서 우리 데이터 센터를 다음 10년까지 끄떡없게 해줄 강력한 인프라와, 첫 번째 목표를 달성하는 데 도움이 되도록 설계된 작업 공간을 원했다.

전원과 쿨링
카운트 다운이 시작되고 새 데이터센터를 위한 인프라를 계획하고 이행하는 데 7개월의 시간이 잡혔다. 2003년에 이미 전원과 쿨링 부분을 처리했었지만, 그 사이에 많은 것들이 변해 있었다. 때문에 신속하게 설계 및 설치가 가능한 기성품 셋업을 위해 APM(American Power Conversion)을 찾았다.
우리는 수년 간 APC를 이용해 왔으며, 확장성이 있으면서 신속하게 설치와 이행이 가능한 전원과 쿨링용 데이터 센터 제품이 있다는 말을 익히 들어 알고 있었기 때문이었다. 이미 소규모로 랩에서 우리는 APC 랙과 UPS를 사용하고 있었고, 이들 장비의 품질은 언제나 만족스러웠다. 새 데이터 센터에 대해 이들과 이야기를 나눈 결과 가능성 있는 계획을 몇 가지 만들어 낼 수 있었다.
우리 설계에는 9개 장비 랙 각각에 최고 5kW의 전원을 전달할 수 있는 PDU(Power Distribution Unit)와, 새 설비로 이동할 계획인 일부 브레드 랙에 있는 독립 장비로 공급될 별도의 전원이 있는 40kW의 UPS가 포함됐다. 시러큐스 대학의 건축담당 엔지니어는 3단계 480V 서비스를 통해 공급이 가능한 장비를 설치할 것을 요청했는데, APC는 자사의 타입 B 인프라스트럭셔(Type B Infrastruxure) 라인을 통해 208V, 480V 및 600V의 3단계 피드를 지원하기 때문에 이것은 문제가 되지 않았다.
40kW의 전원을 데이터 센터에 두고 있었기 때문에 장비에서 생성되는 열기를 제거하는 데 40kW(12톤)의 쿨링이 필요했다. 이 건물은 쿨링용으로 냉각수를 이용하며, APC에는 우리의 필요를 정확히 충족시킬 수 있는 네트워크에어 IR(NetworkAIR In Row)이라는 쿨링 기술이 있었다. 여기서 IR이란 쿨링 시스템이 랙 열(row)로 직접 통합될 수 있다는 것을 의미한다.
네트워크에어 IR은 데이터 센터 바닥에서 랙 세 개어치의 면적을 차지하며, ‘뜨거운 통로(hot aisle)’나 장비 랙 뒤에서 공기를 빼내고 신선한 공기를 필요로 하는 장비의 랙 앞에 이것을 배포해줄 수 있도록 만들어졌다. 우리는 480V 유틸리티 피드에서 나오지만 유틸리티 전원고장시 UPS로부터 208V 피드로 백업을 받는 모델을 택했다.
APC는 계약자 측에 대략적인 유틸리티 사양을 제공했으며, 우리는 이전하기 약 3주 전에 장비가 도착하도록 일정을 맞추었다. 이렇게 하면 계약자는 데이터 센터 바닥공사와 벽면 페인트 공사를 할 시간을 벌고 APC는 이전하기 전 장비를 설치할 시간을 갖게 된다. 우리는 또한 장비를 설치하고 이사하는 사이에 UPS/PUD와 쿨링 장비가 사양에 맞게 작동하는지를 확인할 수 있는 일주일의 시간을 원했다.
APC는 모든 게 화물 엘리베이터에 맞고 출입구를 통과할 수 있는지 확인하기 위해 사이트 설문조사를 실시했다. 계약자측은 트랙터/트레일러가 적재장에 도착할 수 있을 것이라고 우리측과 APC측에 보증을 했으며, 따라서 이제 모든 세팅이 끝난 것처럼 보였다.


사소한(?) 문제들
소형 트랙터/트레일러는 적재장에 갈 수 있었지만 3톤의 장비를 실은 초대형 트럭은 타이트한 회전과 협소한 공간 때문에 적재장에서 50피트 떨어진 곳까지밖에 들어갈 수가 없었다. 대학의 현장 건축매니저인 고디 칼슨이 대형 디젤전력 텔레스코픽 자재 핸들러를 가동시키고, 팰릿(pallet)을 트럭에서 적재장으로 옮김으로써 문제는 이 문제는 해결됐다. APC측의 운송업자가 장비를 적재장에서 데이터 센터로 옮기고 UPS, PDU 및 네트워크에어를 최종 배치했으며, 건물 계약업체의 전기기사와 배관공이 건물의 전기와 수도를 연결해서 APC에서 바로 사용할 수 있는 준비를 마쳤다.
APC는 전원과 쿨링을 위한 두 개의 전문가 집단을 이용해 시작한다는 계획을 세웠다. 얼마 지나지 않아 기술자들은 건물 배관공과 전기기사가 설치 매뉴얼을 보는 데 서투르다는 사실을 깨달았다. 이들은 매뉴얼을 대충 훑어보려 했으며 표시해 둔 부분을 놓쳤다. 쿨링 유니트로 연결된 냉각수 파이프와 전기 콘딧은 유니트의 나머지 부분이 적절히 조립될 수 있도록 다시 작업돼야 했다. 이것을 스케줄링하는 데는 시간이 필요했기 때문에 쿨링 전문가는 떠났다.
APC 전원 전문가는 하루 온종일 끝도 없어 보이는 박스를 풀어헤치고 모든 조각들을 맞췄다. 하루가 끝날 때 즈음 이들은 데이터 센터에 있는 두 열의 장비 랙으로 40kW의 UPS 보호 전원을 공급하는 스위치를 켤 수 있었다.
한편 배관공과 전기기사를 투입해 파이프와 콘딧을 정리하도록 함으로써 우리는 다양한 쿨링 시스템 조각들을 조립할 수 있었다. 며칠이 지나고 몇 가닥 흰머리가 생긴 후 우리는 마침내 시설을 재가동할 수 있었으며, APC에서 다시 방문해 무사히 네트워크에어에 시동을 걸 수 있었다.
우리의 APC 전원 및 쿨링 시스템에는 특별 용도로 제작된 관리 시스템에 연결된 지능적인 장비가 포함돼 있다. 장비로 공급되는 전력 다음으로 목록에 가장 마지막에 올라 있는 항목은 ISX 매니저(ISX Manager) 소프트웨어에 대한 얼마간의 엔드유저 교육이었다. ISX 매니저는 우리의 UPS, PDU, 각각의 랙 PDU, 그리고 우리가 설치한 세 가지 환경 모니터를 자동 탐색했다. 네트워크에어 IR을 탐색하는 데는 문제가 있었지만, APC 기술지원팀으로 전화를 걸어 해결했다.
관리 인터페이스를 통해 우리는 각 장비로 들어가서 데이터가 글로벌 스레숄드를 초과할 때 경보를 보낼 수 있었다. APC의 원격 모니터링 기능도 또한 도움이 되었다. 알람이 ISX 매니저에 있는 어떤 장비 안에서든 트리거링이 될 때는 원격 모니터링 서비스가 우리가 지정한 연락처를 전화와 이메일로 통보해 준다.
ⓒ 데이터넷(http://www.datanet.co.kr) 무단전재 및 재배포금지 | 저작권문의  

     

인기기사

 
가장 많이 본 기사
인사·동정·부음
전체기사의견(0)  
 
   * 200자까지 쓰실 수 있습니다. (현재 0 byte/최대 400byte)
   * 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
전체기사의견(0)
사명: (주)화산미디어 | 주소: 서울시 강남구 강남대로 124길 26 유성빌딩 2층 | 전화: 070-8282-6180 | 팩스: 02-3446-6170
등록번호: 서울아03408 | 등록년월일: 2014년 11월 4일 | 발행년월일: 2003년 12월 17일 | 사업자등록번호: 211-88-24920
발행인/편집인: 정용달 | 통신판매업신고: 서울강남-01549호 | 개인정보관리 및 청소년보호 책임자: 박하석 | 호스팅 사업자: (주)아이네임즈
Copyright 2010 데이터넷. All rights reserved. mail to webmaster@datanet.co.kr