기업 컴퓨팅으로 대표되는 서버의 핵심 요소인 프로세서와 칩을 생산하는 업체인 만큼, 인텔이 데이터센터를 어떤 식으로 운영되는지는 늘상 업계의 관심사다.
인텔은 2년 전인 2009년부터 본격적으로 자사 데이터센터에 가상화와 자동화 관리 소프트웨어 등 클라우드 요소 기술을 도입하며 클라우드 환경으로 전환하고 있다. 고집적화되고 있는 데이터센터 환경을 위해 가장 큰 신경을 쓰는 부분은 바로 냉각(Cooling)이다.
서버와 네트워크 등 IT장비에서 발생되는 열을 식히기 위해 사용되는 냉각 비용은 데이터센터에서 사용되는 전력 가운데 약 절반 정도를 차지하고 있다. 이에 따라 냉각을 어떻게 효율적으로 하느냐는 데이터센터 운영의 향배를 결정짓는다고 해도 과언이 아니다.
26일(현지시간) 말레이시아에서 개최된 ‘인텔 APAC 클라우드 서밋 2011’ 행사에서는 인텔 아시아태평양 지역의 허브(hub) 역할을 담당하고 있는 말레이시아 데이터센터를 방문하는 시간을 가졌다. 보안상의 이유로 구체적인 데이터센터 위치는 밝히지 않았다.
말레이시아에 위치한 데이터센터는 미국을 제외하고는 가장 큰 규모를 자랑한다. 지난 2002년 구축된 이후 2004년과 2006년에 거쳐 2번의 대대적인 공사가 있었다. 이 시점은 인텔이 혁신적인 서버 프로세서들을 내놓을 때와 맞물린다.
성능이 좋아진 서버 프로세서가 출시될 때마다, 말레이시아 데이터센터에서는 기존에 사용되고 있는 서버들을 통합하는 작업을 벌여왔다. 이 때문에 지난 2009년 약 4000대에 달했던 서버는 2011년 7월 기준 오히려 3200대로 줄어들었다.
이날 말레이시아 데이터센터 투어를 맡은 림 픙닌(Lim P’ng Nean) 코어 서비스 운영팀 데이터센터 매니저는 “말레이시아 데이터센터는 현재 전체 인텔 직원의 약 절반 정도에 해당하는 4만명 직원의 업무를 지원하고 있다”며 “이중 70%는 칩 설계를 위해 사용되고 있다”고 설명했다. 나머지 30%는 공장과 사무실, 엔지니어링 등을 위한 용도로 사용된다.
1만 3000평방미터(약 4000평)의 건물 내에 자리잡고 있는 데이터센터는 현재 560대의 캐비넷(서버를 탑재하는 공간)에 약 3200대의 서버를 운영하고 있다.
약 3번의 보안 관문을 통과하니 최신 프로세서들로 무장된 고밀도(고성능) 서버 구역과 비교적 낮은 사양의 서버를 보아놓은 저밀도(저성능) 서버 구역을 나눠서 운영하고 있었다.
IT전시장이라도 해도 될 만큼 다양한 업체의 서버와 스토리지, 네트워크 스위치 등의 제품으로 구성돼 있는 것이 눈에 띄었다.
무엇보다 인텔이 가장 많은 신경을 쓴 부분은 효과적인 냉방을 통한 전력 절감이다. 특히 서버가 빼곡하게 탑재된 고밀도 서버 구역의 경우, 발열이 심하기 때문이다. 이를 위해 인텔은 공기순환(Air Flow)를 활용한 2가지의 형태의 냉방 방식을 고안해 냈다.
첫 번째는 별도의 ‘핫 아일 컨테인먼트(hot aisle containment)’다. 국내에서는 KT의 천안 클라우드데이터센터에서 이러한 방식을 도입했다. 이는 서버에서 나오는 뜨거운 공기와 이를 식히기 위한 찬공기가 섞이지 않도록 해 냉방 효율을 높일 수 있도록 하는 것이다.
뜨거운 공기가 나오는 서버 뒷면을 아예 차단하기 위해 자체 제작한 플라스틱 소재의 가림막을 천장까지 연결한 것이다. 따라서 이 구역 안은 바깥 데이터센터 온도(약 20°C)보다 훨씬 높은 편이다. 오히려 덥기까지 하다. 림 픙닌 매니저는 “이같은 냉방 방식을 통해 4배 이상의 전력 효율을 높일 수 있었다”고 설명했다.
두 번째 방식은 바로 굴뚝 타입의 캐비넷(Chimney Type Cabinet)이다. 쉽게 설명하면 굴뚝(Chimney)의 원리를 이용한 방식인데, 캐비넷 위에 별도의 박스를 천장과 연결되도록 하나 더 붙인 것이다. 이 또한 인텔이 특수 제작한 것으로 일반 랙보다 폭은 오히려 좁은 편이다.
굴뚝과 같이 서버에서 방출되는 뜨거운 공기를 위에서(별도의 박스) 재빠르게 빨아들이는 원리로 설계됐다. 이 역시 서버에서 배출되는 뜨거운 공기가 외부의 찬 공기와 섞이지 않도록 해 냉방 효율을 높인 것이다.
한편 말레이시아 데이터센터의 가상화 적용율은 현재 약 20~30%에 불과하다. 이는 저밀도 구역을 함께 운영하기 때문. 현재 평균적으로 한 대의 서버에 약 10개의 가상머신(VM)을 운영하는데 이를 추후 40개 VM까지 늘린다는 설명이다.