파네시아, 차세대 AI인프라 관련 기술백서 공개...CXL 활용 차세대 연결·메모리 기술 통합 슈퍼클러스터 구조 제안

AI 및 LLM 핵심 콘셉트 및 현대 데이터센터 마주한 도전과제 소개
AI인프라 한계 극복하기 위한 방안인 CXL 기반 인프라 구조 제안
자체 구축 CXL 3.0 프로토타입 활용한 실제 응용 가속사례 공유

Photo Image
파네시아 기술백서 표지.

파네시아(대표 정명수)가 AI 인프라 설계에 대한 비전을 담은 기술 백서 'AI 인프라 혁신의 중심, 메모리·링크 중심의 연결 반도체와 데이터센터 연결 솔루션'를 공개했다. 이 백서에서 파네시아는 현대 AI 모델 트렌드와 이를 처리하는 현대 AI 인프라의 한계를 소개하고, 컴퓨트익스프레스링크(CXL)를 비롯해 NVLink, UALink(Ultra Accelerator Link), 고대역폭메모리(HBM) 등 다양한 연결 기술 및 메모리 기술을 활용해 AI 인프라를 개선하는 방안에 대해 다룬다.

파네시아는 기존의 고정된 GPU 기반 구조에서 벗어나 다양한 연결기술을 활용해 유연하고, 확장성이 뛰어나며, 효율적으로 통신을 수행하는 구조를 구축함으로써 AI 인프라가 마주한 현안을 해결하겠다는 방침이다.

정명수 대표는 “작년 8월 키노트 발표를 준비하며 정리한 AI 인프라에 대한 의견을 보다 정제된 형태로, 많은 사람에게 공유하기 위해 이 기술리포트를 작성하게 됐다”며 “AI를 잘 모르는 독자들도 AI와 LLM을 이해할 수 있도록 최대한 쉽게 설명하고, 이러한 AI 서비스 특성을 고려했을 때 미래 AI 인프라가 어떻게 바뀔 것인가에 대한 논의를 다루었다”고 말했다.

파네시아가 이번에 공개한 백서는 크게 △변화하는 AI 모델 패러다임과 이를 위한 현대 데이터센터 구조 △CXL 기반 컴포저블 구조: CXL을 활용한 데이터센터 구조 개선 방안 및 실제 응용 가속 사례 △CXL을 넘어, 다양한 연결기술을 함께 활용해 구축하는 AI 인프라 구조 3가지 파트로 구성된다.

최근 챗봇, 이미지 생성, 영상처리 등 시계열 데이터를 다루는 AI 모델이 많이 활용되고 있다. 본 백서는 이와 같은 시퀀스-투-시퀀스 모델 구조와 작동 그리고 순환 신경망(RNN)부터 대규모 언어모델(LLM)까지 이어지는 시퀀스-투-시퀀스 AI 모델의 변천사에 대해 되짚어보는 내용으로 시작한다. 이를 처리하는 현대 AI 인프라 구조에 대해 설명하고, 현재 구조 한계점에 대해 논의한다. 파네시아는 특히 동기화 과정에서 발생하는 '통신 오버헤드'와 GPU 등 고정적인 구조로 인해 야기되는 '낮은 자원 활용도'를 AI 인프라의 문제로 보고 이에 대해 논의한다.

앞서 설명한 문제에 대해 해결하기 위해, 파네시아는 차세대 연결기술인 CXL을 활용하는 솔루션에 대해 소개한다. CXL 개념과 특징에 대해 전반적으로 설명하고, 이러한 CXL을 통해 캐시 일관성을 자동으로 보장하여 불필요한 통신을 최소화하고, 보다 유연한 확장을 가능케함으로써 기존 AI 인프라 한계를 해결할 수 있다는 메시지를 전한다. 파네시아가 보유한 CXL 설계자산(IP), CXL 스위치 등 기술을 활용하여 실제로 CXL 프로토타입을 구축하고, 이를 활용해 실제 AI 응용을 가속한 다양한 사례를 소개하며 실용성에 대해 논의한다.

본 백서에서 다루는 것은 CXL에 한정되지 않는다. 파네시아는 CXL을 넘어 다양한 연결기술과 통합하여 더 나은 AI 인프라 구조를 구축하는 방법에 대해서도 제안한다. 핵심은 슈퍼클러스터 구조로, UALink, NVLink, NVLink Fusion 등 가속기에 특화된 연결기술로 구축된 클러스터들의 확장성과 호환성, 그리고 통신 효율을 개선하기 위해 CXL 기술을 적용한 구조다. 파네시아는 이러한 연결기술 통합을 통해 각 연결기술이 가지는 장점들을 종합할 수 있음을 설명한다. HBM, 실리콘 포토닉스 등 최신 메모리 기술 및 연결 기술의 실용적인 활용 방안에 대해 논의하며 마무리된다.

파네시아가 이번에 공개한 AI 인프라 관련 기술 백서는 파네시아의 홈페이지를 통해 확인할 수 있다.


김현민 기자 minkim@etnews.com

브랜드 뉴스룸