디노티시아 'AI 전용 스토리지' 시장 출사표…“연산 넘어 기억 공략”

Photo Image
정무경 디노티시아 대표

국내 팹리스 스타트업 디노티시아(대표 정무경)가 생성형 인공지능(AI)을 위한 새로운 통합 스토리지 솔루션 전략을 선보였다. 사람이 아닌 AI가 소비하기에 최적화된 데이터 구조의 'AI 스토리지'를 통해 인프라 시장의 패러다임을 바꾸겠다는 포부다.

디노티시아는 3일 서울 강남구 콜럼버스 스페이스에서 기자간담회를 열고 'AI 스토리지 아키텍처' 사업 전략을 공개했다. 데이터 낭비와 비효율이 심한 기존 방식에서 탈피해, AI가 원천 데이터를 직접 탐색하는 구조의 스토리지와 전용 가속기 반도체 VDPU(Vector Data Processing Unit)를 연계한 모델을 제시했다. 여기에 단기 작업 메모리인 'KV-캐시(Cache)'까지 아우르는 단일 데이터 스택 통합을 향후 방향성으로 내걸었다.

현재 거대언어모델(LLM)의 한계는 △실시간 정보 부재 △개인화 서비스 불가 △할루시네이션(환각 현상) △장기기억 불가로 요약된다. 대부분의 LLM이 사전 학습된 데이터에 의존하기 때문에, 실시간 정보나 개별 이용자의 최신 정보를 반영하기 어렵기 때문이다.

이를 보완하는 기술이 검색 증강 생성(RAG)이다. AI가 신뢰할 수 있는 외부 데이터에서 관련 내용을 검색한 후, 이 내용을 기반으로 정보를 증강(Augment)해 답변을 생성하는 방식이다.

디노티시아는 엔비디아 등 글로벌 빅테크가 제시한 차세대 아키텍처 규격(ICMS)과 호환되는 기술을 확보, GPU 메모리에만 머물던 KV 캐시를 스토리지 계층으로 끌어내려 효율적으로 관리하는 기술을 개발 중이다. 이를 통해 대규모 서비스 환경에서도 추론 효율을 극대화하고 인프라 비용을 줄일 수 있을 것으로 예상된다.

고성능 AI 스토리지를 뒷받침하기 위해 디노티시아는 의미 기반 검색을 전담하는 전용 가속 반도체 'VDPU'를 독자 설계했다. 기존 CPU나 GPU 같은 범용 프로세서에서 검색 기능을 분리해 하드웨어 차원에서 직접 가속함으로써, 대규모 데이터 환경에서도 안정적인 검색 성능과 높은 전력 효율을 동시에 확보했다는 설명이다. VDPU는 작년 12월 테이프아웃(시제품 생산 의뢰)을 완료했으며, 내년 중 본격 양산에 돌입할 계획이다.

정무경 대표는 “생성형AI의 외부 지식과 장기기억, 단기기억은 결국 스토리지 시스템으로 구현돼야 한다”며 “디노티시아는 '씨홀스' 스토리지를 기반으로 AI가 필요로 하는 모든 정보와 기억을 제공하는 인프라를 구축해 나가겠다”고 말했다.


이형두 기자 dudu@etnews.com

브랜드 뉴스룸