
카카오가 19일 허깅페이스에 자체 개발한 차세대 언어모델 '카나나-2'를 오픈소스로 공개했다. 에이전틱(Agentic) 인공지능(AI) 구현에 최적화된 고성능·고효율 기술 경쟁력을 과시했다.
카카오는 지난해 자체 개발 AI 모델 카나나 라인업을 선보인 이래 경량 사이즈 모델부터 고난이도 문제 해결에 특화된 '카나나-1.5'까지 꾸준히 오픈소스로 추가 공개해왔다. 이번에 선보인 카나나-2 모델은 성능과 효율을 획기적으로 개선한 최신 연구 성과다. 사용자 명령 맥락을 파악하고 능동적으로 동작하는 '동료'와 같은 AI 구현에 초점을 맞췄다.
이번에 공개된 모델은 총 3종이다. 기본 모델인 '베이스(Base)', 사후 학습으로 지시 이행 능력을 높인 '인스트럭트(Instruct)', 이번에 처음 선보이는 '추론(Thinking)' 특화 모델로 구성됐다. 특히 개발자들이 자체 데이터를 활용해 자유롭게 모델을 파인튜닝할 수 있도록 학습 단계의 '웨이트(Weight·학습된 매개변수 값)'를 모두 공개했다.
카나나-2는 에이전틱 AI 구현의 핵심인 '도구 호출(Tool Calling)' 기능과 '사용자 지시 이행(Instruction following)' 능력이 비약적으로 향상됐다. 이전 모델인 '카나나-1.5-32.5b' 대비 '다중 대화 도구 호출(Multi-turn tool calling)' 능력을 3배 이상 높였다. 복잡한 단계별 요구 사항을 정확하게 이해하고 수행하도록 설계됐다. 지원 언어 역시 기존 한국어, 영어에서 한국어, 영어, 일본어, 중국어, 태국어, 베트남어까지 6개로 확장했다.
기술적으로는 효율성을 극대화하기 위해 최신 아키텍처를 도입했다. 긴 입력(Input)을 효율적으로 처리하는 방식인 '멀티헤드 잠재 어텐션(MLA)' 기법을 적용했으며, 추론 시 필요한 파라미터만 활성화하는 '전문가 혼합(MoE)' 구조를 적용했다. 이를 통해 적은 메모리 자원으로도 긴 문맥을 효율적으로 처리할 수 있다. 추론 시 필요한 파라미터만 활성화 해 연산 비용과 응답 속도가 개선됐다. 대규모 동시 접속 요청을 압도적으로 빠르게 처리한다.
성능 지표에서도 글로벌 수준의 경쟁력을 확인했다. 인스트럭트 모델은 동일한 구조의 최신 모델 'Qwen3-30B-A3B'와 유사한 수준을 달성했다. 추론 특화 모델은 다양한 사고 능력이 요구되는 벤치마크에서 '추론 모드(Thinking Mode)'를 적용한 'Qwen3-30B-A3B'와 유사한 성능을 보였다.
카카오는 향후 동일한 전문가 혼합 구조를 기반으로 모델 규모를 확장하고, 고차원적인 지시 이행 능력을 확보할 계획이다. 복잡한 AI 에이전트 시나리오에 특화된 모델을 개발하고, 온 디바이스 경량화 모델을 고도화한다.
김병학 카카오 카나나 성과리더는 “높은 성능에 초점을 둔 모델을 넘어 실제 AI 서비스에 적용돼 빠르고 효과적으로 동작할 수 있는 실용성을 갖춘 AI 모델을 개발하겠다”면서 “꾸준히 오픈소스로 공유하며 국내외 AI 연구 생태계 활성화에도 기여하겠다”고 말했다.
변상근 기자 sgbyun@etnews.com



















