<테마특강>차세대 시스템 연결망 기술 인피니밴드

◆모상만(ETRI 병렬시스템연구팀장)

91년 연세대학교 대학원 컴퓨터과학과 석사

98∼현재 한국정보통신대학원(ICU) 박사 과정

91∼현재 한국전자통신연구원 병렬시스템 연구팀장

smmoh@etri.re.kr

인터넷 기술과 멀티미디어 처리기술의 발전은 인터넷기반형 서비스의 대중화를 가능케 했다. 이로 인해 인터넷접속서비스, 전자상거래, 인터넷게임, 인터넷방송국, 인터넷데이터센터(IDC), 사이버대학 등과 같은 인터넷기반 상용서비스가 하나의 산업분야로 부상했다.

이같은 인터넷 서비스의 급성장과 대중화에 따라 기업용 서버(enterprise server)와 고속 연산용 서버(high performance computing server)로 양분돼 오던 컴퓨터 서버 시장에 「인터넷 서버」라는 새로운 시장이 등장하게 됐다. 인터넷 서버 구축을 위한 제품군과 사용환경이 컴퓨터 서버 시장의 큰 영역으로 부상하기에 이른 것이다.

인터넷 서버는 기능상 분산처리시스템과 원격저장장치를 고속 랜(LAN), 클러스터 연결망, 스토리지 연결망 등을 사용해 연결한 이기종 클러스터 시스템으로 정의할 수 있다. 클러스터 기술은 여러 개의 프로세싱 노드를 클러스터 연결망으로 연결해 가용성과 확장성 높은 시스템을 우수한 가격대비 성능으로 구축할 수 있게 해준다.

클러스터 기술의 발전은 <그림 1>에 나타난 바와 같이 서버 팜(server farm)으로 불리는 대규모 클러스터 구조로의 변화를 이끌고 있으며 하나의 시스템 연결망으로 통합돼가는 추세다.

이에따라 시장 지배력이 큰 회사들을 주축으로 새로운 시스템 연결망 개발이 진행돼 왔으며 지난해 10월에 이르러서는 「인피니밴드(InfiniBand)」라는 업계 표준 연결망 규격을 제정, 상품화에 나서게 됐다.

서버 구조가 분산공유저장장치를 포함하는 대규모 클러스터 시스템으로 진화함에 따라 서버넷(servernet)·미리넷(myrinet) 등으로 대표되는 클러스터 연결망과 FC-AL로 대표되는 스토리지 연결망을 하나의 시스템 영역 연결망으로 통합할 필요성이 제기됐다.

현재 클러스터 연결망이나 스토리지 연결망에 접속된 노드는 내부적으로 PCI 버스를 통해 연결망에 접속하는 다중계층구조이다. 따라서 각 노드의 전송 능력은 PCI 버스 성능에 의해서 제한되고 있다. PCI 버스는 공유버스구조를 갖는 입출력 버스로 공유 버스라는 구조적 단점으로 확장성 및 성능 향상에 한계를 갖는다.

또 PCI 버스는 동작중 장·탈착 및 고장분리 기능이 제공되지 않아 시스템 상에서 단일점 고장(single point failure) 지점으로 지적되고 있다. 따라서 시스템 상에서 PCI 버스를 제거하고 프로세서 인터페이스 이하의 모든 연결을 스위치 기반형 단일 연결망으로 구성해 가용성 및 확장성을 보장하고 점대점 연결을 통한 고속 직렬 통신 방법을 사용하여 전송 속도를 향상시킨 새로운 시스템 영역 연결망이 필요하게 됐다.

PCI 버스를 통한 입출력 처리는 지정된 공유 메모리 공간에 프로세서가 읽기와 쓰기를 반복해야 하는 로드·스토어(load·store) 방식으로 프로세서의 데이터 복제 오버헤드가 과도한 단점을 갖는다. 따라서 프로세서와 입출력 장치 사이에 구성된 독립적인 메시지 패싱 인터페이스로 주기억 장치와 입출력 장치간의 직접적인 데이터 전송을 보장하여 공유 메모리 매핑 방식에서 발생하는 데이터 복제 오버헤드를 제거할 수 있는 채널기반형 통신 방식으로의 전환이 성능 향상을 위해서 필수적이다.

채널기반형 메시지 패싱은 중형 클러스터 컴퓨터에서 사용되던 VIA(Virtual Interface Architecture)를 적용한 것으로 프로세서 상호간 또는 프로세서와 입출력 장치간에 독립적인 사용자 수준 메시지 패싱 인터페이스를 제공해 운용체계(OS)의 간섭없이 통신을 가능하게 한다. 채널은 점대점 연결망 사용을 위한 사용자가 프로그램할 수 있는 레지스터 레벨 인터페이스로 정의할 수 있다. 또 채널을 제어하는 하드웨어는 DMA(Direct Memory Access) 엔진을 사용해 주기억 장치와 통신 상대방 사이의 직접 데이터 송수신을 가능하게 한다.

따라서 프로세서는 입출력 장치의 제어와 접근 및 데이터 전송에 관련된 작업 부하를 줄임으로써 시스템 성능을 향상시킬 수 있다.

인피니밴드의 구조(IBA:InfiniBand Architecture)는 상호 독립적인 프로세서 플랫폼, 입출력 처리 플랫폼 그리고 입출력 장치를 연결하는 시스템 연결망(SAN:System Area Network)으로 입출력 장치 구성 및 입출력 처리에 최적화된 스토리지 연결망과 프로세서 상호간 통신에 최적화된 클러스터 연결망을 통합한 새로운 연결망으로 통신 및 관리 메커니즘을 포함하고 있다.

또 소규모 서버 시스템에서 대규모 인터넷 서버 및 수퍼 컴퓨터에 이르기까지 다양한 영역에서 사용이 가능하다. 더욱이 인터넷 통신 프로토콜에 친숙하게 설계되어 있어 인터넷 접속, 인트라넷 접속, 원격 서버 접속을 손쉽게 구현할 수 있게 한다.

IBA는 복수의 디바이스간에 동시 전송을 가능하게 하며, 높은 전송 대역폭과 낮은 전송 지연시간을 제공하고 높은 확장성 보장을 위해 스위치기반형 연결망으로 정의되었다. IBA는 통신 처리에 있어 프로세서의 부하를 최소화할 수 있도록 프로토콜 및 프로토콜 처리 하드웨어를 정의하고 있으며 이를 통해 무복사(zero processor-copy) 데이터 전송, 커널 오버헤드 최소화, DMA, 고확장성 및 고가용성 기능을 제공하고 있다.

IBA 연결망은 스위치기반 비정형 연결망으로 종단 노드(프로세서 노드, 입출력 노드)가 연결되는 여러 개의 서브넷으로 구성된다. 서브넷은 종단 노드와 스위치, 라우터로 구성되며 서브넷 간 연결은 라우터를 통해 이루어 진다. 하나의 서브넷에는 최대 6만5536(216)개의 종단 노드를 연결할 수 있는 고확장성이 제공된다. 각 종단 노드는 IBA 연결망 접속을 위한 채널 어댑터를 가지며, 프로세서 노드 쪽에서는 호스트 채널 어댑터(HCA:Host Channel Adapter)를 사용하고 입출력 처리 노드 및 입출력 장치 쪽에서는 타깃 채널 어댑터(TCA:Target Channel Adapter)를 사용한다.

각 노드는 메시지 전송을 위해 사전에 호스트 메모리에 메시지 전송을 위해서 사용할 영역을 가상주소를 사용·지정해야 한다. 사용자 프로그램은 메시지 전송 요구 및 메시지 데이터를 지정된 영역에 위치시키게 되고 HCA 또는 TCA는 운용체계의 간섭없이 지정된 영역에서 메시지 전송 요구와 해당 데이터를 가상주소를 사용해 읽어내어 IBA 연결망으로 전송한다.

인텔·IBM 등 강력한 시장 지배력을 가지고 있는 IBTA 운영위원회 회원사를 주축으로 현재 인피니밴드 시제품 개발이 진행 중에 있는 것으로 알려지고 있다.

이들 회사들 외에도 델·컴팩·선 등 시스템 업체들은 인피니밴드 연결망을 사용한 서버, 자료 저장 시스템 등을 현재 개발하고 있고 어댑텍·쓰리콤 같은 입출력 장치용 제어기 생산 업체들은 자사용 입출력 제어기를 TCA로 재설계하고 있는 것으로 전해진다.

인피니밴드 관련 제품은 올해 말 또는 2002년 시장에 출시될 것으로 예측되고 있다. 초기 시장 진입은 대규모 클러스터 구조를 갖는 IDC 시스템과 자료 저장장치 분야일 것으로 예상된다. 지난해 IDC의 시장 예측에 의하면 인텔 프로세서를 채택하는 서버를 기준으로 예측할 때 인피니밴드 서버 시장은 전체 서버 시장의 10% 미만으로 예측되지만 2003년에 이르러 40% 이상의 시장 점유율을 갖는 성장기를 거쳐 2004년에는 서버 시장의 80%를 차지하는 주력 제품이 될 것으로 예상하고 있다.

현재 국내에서는 ETRI를 중심으로 몇몇 벤처기업이 인피니밴드 기술 개발을 준비하고 있지만 아직은 초기 단계에 그치고 있다. 하지만 강력한 시장 지배력을 가진 기업군이 추진하는 기술인 만큼 그 파급 효과가 매우 클 것으로 예상돼 국내에서도 인피니밴드 기술 개발을 더 이상 늦춰서는 안될 것으로 보인다.

인피니밴드 구조는 스위치기반 점대점 연결망과 기존 클러스터 컴퓨팅에서 사용돼온 채널기반형 메시지 패싱을 접목한 형태로 클러스터 연결망과 스토리지 연결망을 통합한 시스템 연결망을 표방하고 있다.

현재 인피니밴드 표준화 기구인 IBTA에는 인텔을 비롯한 컴퓨터 분야 선진 대기업들이 대거 참여해 선도기술과 강력한 시장 지배력으로 인피니밴드 기술의 확산을 시도하고 있으며 지난해 10월 표준 규격 발표에 이어 올해 말부터는 이를 지원하는 칩세트가 상용화되기 시작할 것으로 예상되고 있다. 인피니밴드의 상용화 초기 제품은 현재 설치된 서버에서 인피니밴드 연결망을 사용할 수 있도록 지원하는 PCI 대 인피니밴드 브리지 칩세트와 연결망을 구성하는 스위치로 예상된다.

이러한 칩세트를 이용한 IDC 시스템과 자료 저장장치 시스템이 초기 시장 진입 제품으로 추측된다. 인피니밴드의 상용화는 서버 구조의 진화를 의미하는 것이며 아울러 현재 PCI 인터페이스로 제품화된 입출력 장치들이 인피니밴드 입출력 장치로 서서히 대체될 것으로 보인다. 서버 구조 역시 모듈 단위로 인피니밴드 연결망에 접속되는 형태로 구성될 것이며 이를 통해 입출력 기능이 향상되는 클러스터 컴퓨팅 기술이 서버 기술의 주류로 자리 잡을 것으로 전망된다.

브랜드 뉴스룸