Photo Image
2023년 제6회 AI EXPO KOREA 슈퍼마이크로 한국총판 슈퍼솔루션 참가 사진(제공:슈퍼솔루션)

슈퍼마이크로 한국총판 슈퍼솔루션은 슈퍼마이크로가 오는 5월 1일부터 3일까지 코엑스(COEX)에서 열리는 '국제인공지능산업대전(AI EXPO KOREA 2024)'에 참가할 예정이라고 1일 밝혔다.

이번 전시회는 AI 칩에서부터 데이터센터, 클라우드까지 AI 인프라를 한눈에 확인하고 AI가 가져오는 비즈니스와 산업의 혁신은 무엇인지에 대한 해답을 찾아볼 수 있는 컨퍼런스가 펼쳐질 예정이다. 특히 데이터 수집·가공에서 부터 AI인프라·플랫폼·솔루션, 국내외 AI 기업의 비즈니스 전략 등 생성 AI 시대를 혁신으로 이끌 AI의 모든 것을 확인 할 수 있다.

슈퍼마이크로는 주요 전시 품목으로 'AI Elemental Technologies·H/W·S/W' 분야에서 △H100 △MI300 △MGX 시리즈를 선보일 예정이다.

HGX H100 GPU 플랫폼 엔비디아 H100 텐서 코어 GPU(Tensor Core GPU)는 기존 엔비디아 암페어(NVIDIA Ampere) 텐서 코어 GPU보다 AI 추론 성능을 최대 30배, HPC 애플리케이션 성능을 최대 7배 높여 AI, HPC, 데이터 분석, 과학 컴퓨팅 분야에서 막강한 성능을 제공한다. 엔비디아 HGX H100 GPU 플랫폼에 장착되는 엔비디아 H100 SMX5 GPU는 SMX5소켓을 통해 H100 PCIe 5.0 GPU 보다 더 많은 대역폭과 전력을 제공받으며, 엔비디아 NV링크(NVLink)와 NV스위치(NVSwitch) 고속 인터커넥트(Interconnect)를 통해 GPU끼리 최대 900 GB/s의 넓은 대역폭으로 유기적 연결로 초고속 데이터를 주고 받을 수 있다.

AMD Instinct MI300 시리즈 가속기는 오랫동안 가속화된 고성능 컴퓨팅 애플리케이션과 빠르게 증가하는 생성형 AI에 대한 수요 모두에 대해 우위 성능을 제공한다.

AMD Instinct MI300X 가속기를 탑재한 슈퍼마이크로 8U 8-GPU 시스템은 빠르게 발전하는 AI 인프라 요구 사항에 대해 비교할 수 없는 유연성을 제공한다 . 서버 노드 당 1.5TB HBM3의 대규모 풀은 물리적 GPU 메모리 내에 초대형 LLM을 포함하고 훈련 시간을 최소화하며 노드 당 동시 추론 인스턴스 수를 최대화하여 AI 훈련 병목 현상을 제거한다 .

또한 AMD Instinct MI300A 가속기를 탑재 한 수냉식 2U 쿼드 APU 시스템은 4개의 AMD Instinct™ MI300A 가속기가 통합되어 있으며, 각 APU는 고성능 AMD CPU , GPU 및 HBM3 메모리를 결합하여 총 912개의 AMD CDNA™ 3 GPU 컴퓨팅 유닛 과 96개의 'Zen 4' 코어를 하나의 시스템에 통합한다. 슈퍼마이크로의 직접 칩 맞춤형 액체 냉각 기술은 데이터 센터 에너지 비용을 51% 이상 절감하면서 탁월한 TCO를 실현한다.

슈퍼마이크로 엔비디아 MGX 시스템은 지능형 열 설계부터 구성요소 선택까지 모든 측면에서 효율성을 향상시키도록 설계됐다. 엔비디아 그레이스 슈퍼칩 CPU는 144 코어를 갖췄으며 현재 업계표준 x86 CPU대비 와트 당 최대 2배 성능을 제공한다. 특정 슈퍼마이크로 엔비디아 MGX 시스템은 1U에서 두 개의 노드로 구성될 수 있으며 두 개의 그레이스 CPU 슈퍼칩에 총 288코어를 탑재해 하이퍼스케일 및 엣지 데이터센터에 뛰어난 컴퓨팅 집적도와 에너지효율성을 제공한다.


한편 슈퍼마이크로 한국총판 슈퍼솔루션은 AI서버, 머신러닝, 딥러닝 등의 다양한 AI 인프라와 플랫폼·솔루션을 제공할 수 있는 국내 유일한 기업으로 디지털 전환시대에 따른 다양한 AI 고객군들이 다량의 워크로드를 처리할 수 있도록 AI 시스템 고도화 수요에 적합한 AI 및 HPC 리소스를 제공하고, 소프트웨어 기반 플랫폼을 다양화하여 AI, 빅데이터 분석, 클라우드 등 고객 맞춤형으로 GPU 시스템을 제공해 AI 혁신 선도기업으로 자리잡고 있다.


구교현 기자 kyo@etnews.com