딥엑스가 인공지능(AI) 하드웨어 플랫폼을 개방해 신경망처리장치(NPU) 확산을 추진한다. 쉽게 연결할 수 있는 모듈 형태로 NPU를 공급해 언제 어디서나 AI를 쓸 수 있게 한다는 것이다.
김정욱 딥엑스 부사장은 19일 서울 서초구 엘타워에서 열린 '테크서밋 2023'에서 “지속적으로 늘어나는 방대한 양의 데이터를 실시간 처리하려면 AI 알고리즘을 사용할 수밖에 없다”면서 이같이 밝혔다.
딥엑스는 독자 설계한 NPU로 '엣지(Edge)'용 AI 반도체를 개발한 기업이다. 엣지는 데이터센터나 중앙 네트워크 시스템 끝단에서 작동하는 기기를 의미한다. CCTV가 될 수 있고, 드론, 자동차도 엣지 기기에 포함된다.
NPU는 엣지 디바이스(사람과 가장 가까이에 있는 기기, 사람이 사용하는 기기)에서 AI에 특화해 저전력 상황에서 최대의 연산을 할 수 있도록 선택과 집중을 한 제품이다.
딥엑스는 NPU를 적용한 AI 프로세서 4종을 개발했다. 로우엔드 2종, 미드엔드 1종, 하이엔드 1종이다. NPU 개발에 그치지 않고 NPU 칩을 모듈과 결합한 '오픈 AI 하드웨어 플랫폼 이니셔티브'를 추진한다. AI 시장에서 고가 그래픽처리장치(GPU)의 대안을 제시하고 NPU 확산하기 위한 조처다.
오픈 AI 하드웨어 플랫폼을 활용하면, AI 모델을 직접 테스트하고 활용해 볼 수 있다. 대표 사례가 AI 반도체가 탑재되지 않은 구형 카메라도 플랫폼을 통해 AI 영역으로 끌어들이는 것이다.
김 부사장은 “앞으로 AI는 어디에서나 사용될 것”이라면서 “칩 솔루션 비즈니스와 함께 학교나 고객사 등에 배포하는 모듈 비즈니스를 준비하고 있다”고 밝혔다.
딥엑스의 행보는 탄탄한 NPU 역량에 기반을 뒀다. 바로 '전성비'다. 전성비는 소비전력 당 AI 성능을 나타내는 척도로 엣지용 AI 반도체 경쟁력을 좌우하는 핵심 요소다. GPU로 AI 환경을 조성할 경우 대규모 전력 공급이 필요하지만 엣지 환경에는 적합하지 않다. 딥엑스는 적은 전력으로도 높은 AI 성능을 구현한 NPU 기술을 확보하고 있다.
김 부사장은 “GPU와 NPU를 비교하면 전성비가 10배 이상 차이가 난다”며 “(엣지 환경에서는) 비용 측면에서도 소비자에게 NPU가 10배 이상 효율을 제공할 수 있다”고 설명했다.
NPU 확산 속도를 높이려면 넘어야 할 산도 있다. 바로 확장성과 정확성이다. 다양한 AI 모델을 구동할 수 있어야 하고, GPU 대비 소폭 부족한 정확도도 개선해야한다. 딥엑스는 정수형 8비트를 연산 기본 단위로 사용, 고성능 GPU 대비 AI 정확도가 떨어지지 않는다고 김 부사장은 설명했다. 그는 “엣지용 AI 요구사항인 성능과 소비 전력, 가격 측면에서 차별화된 경쟁력을 제공, 앞으로 다가올 AI 시대 대표 주자로 성장할 수 있도록 노력할 것”이라고 밝혔다.
김영호 기자 lloydmind@etnews.com