전체메뉴 검색창 열기 / 닫기
닫기

[이슈분석] 인텔 인사이드 AI 시대 연다

발행일2017.07.12 20:16

인텔이 11일(현지시간) 공식 발표한 제온 스케일러블 프로세서는 머신러닝(기계학습)과 딥러닝 또는 이를 기반으로 추론 기능을 제공하는 인공지능(AI) 구현 인프라 시장에서도 좋은 성과를 낼 것으로 예상된다.

이날 인텔은 제온 스케일러블 프로세서 최고 사양 제품인 제온 플래티넘(8180)과 전 세대인 제온 E5 2699 v4 프로세서의 AI 연산 성능 벤치마크 테스트 결과를 공개했다. 이미지 추론, 인식학습 프로그램인 레스넷을 돌려 봤더니 제온 플래티넘이 학습 성능은 2.2배, 추론 성능은 2.4배 각각 우수한 것으로 나타났다. 또 다른 딥러닝 프로그램인 알렉스넷, 구글넷, VGG넷에서도 비슷한 결과가 나왔다.

이런 성과를 낼 수 있게 된 배경은 고급벡터확장(AVX)512 명령어 세트가 제온 스케일러블 프로세서에 새로 탑재됐기 때문이다. 벡터 연산은 다중 데이터를 병렬로 처리한다. 병렬 처리 능력은 멀티미디어 작업 처리 때 유용하다. 병렬 처리 능력은 딥러닝 등 복잡한 연산을 할 때도 빛을 발한다. AVX512는 기존의 AVX256 대비 병렬 연산 처리 속도가 2배에 가깝게 향상됐다. 제온 플래티넘은 기존(24개)보다 늘어난 최대 28 코어를 지원한다. 8개 소켓을 통해 AI용 서버 한 대에 최대 224개 코어를 넣을 수 있다. 개선된 캐시 메모리 구조, 외부 메모리 채널 확대 등 전반에 걸친 설계가 AI 연산에 최적화됐다.

인텔은 총 4가지 솔루션으로 AI 인프라 시장을 공략한다. 제온 스케일러블 프로세서는 기존 인프라의 큰 변경 없이 빠르게 AI 투자를 확대할 수 있다. 더욱 빠른 병렬 연산을 위한 신형 제온파이 프로세서(코드명 나이츠 밀)를 올 4분기에 출시할 예정이다. 제온파이는 칩 하나에 수십개 코어를 내장, 병렬 연산 능력을 높인 제품이다. 기존 2세대 제온파이(코드명 나이츠 랜딩)에는 칩 하나에 72개 코어가 탑재돼 있다. 동급 그래픽처리장치(GPU)보다 성능이 좋다는 게 인텔의 설명이다.

범용 딥러닝 소프트웨어(SW)가 아니라 직접 개발한 AI 딥러닝 SW를 쓰고자 하는 고객사는 프로그래머블반도체(FPGA) 아리아10, 스트라틱스10으로 대응한다. FPGA는 고객사가 설계를 변경할 수 있는 반도체다. 고객사가 직접 개발한 SW에 맞춤형으로 대응할 수 있어 유연성이 높다.

오로지 딥러닝에만 특화된 프로세서도 올해 4분기에 나올 전망이다. 딥러닝 전용 가속 하드웨어(HW)와 고대역폭 메모리, 인텔 프로세서가 통합된 형태다. 개발 코드명은 크레스트(Crest) 시리즈다. 제온파이와 마찬가지로 그래픽처리장치(GPU)보다 고효율로, 딥러닝을 할 수 있는 수준인 것으로 전해졌다. 인텔은 지난해 8월 AI 딥러닝 프레임워크와 플랫폼, HW 기술을 갖춘 네르바나를 인수했다. 크레스트 시리즈는 인텔 프로세서와 네르바나 기술이 합쳐진 첫 제품이다.

인텔 관계자는 “현재 대부분 AI 플랫폼이 인텔 솔루션 기반 위에서 구성되고 있다”면서 “앞으로도 다채로운 솔루션으로 AI 시장에서도 '인텔 인사이드' 비전을 달성하겠다”고 설명했다.

뉴욕(미국)=한주엽 반도체 전문기자 powerusr@etnews.com


주요뉴스