알리바바 클라우드가 70억개 파라미터를 갖춘 대규모 언어 모델(LLM) 'Qwen-7B'와 'Qwen-7B-Chat'을 오픈소스로 공개했다.
'Qwen-7B'는 2조개 이상 토큰을 사전 학습했다. 중국어·영어·기타 다국어 자료, 코드, 수학 등 전문 지식도 포괄한다. 사전 학습된 'Qwen-7B' 모델은 대규모 다중작업 언어이해(MMLU) 벤치마크에서 좋은 성과를 거두었다. 주요 사전학습 오픈소스 모델 성능을 능가했다. 인문학, 사회과학, STEM(과학, 기술, 공학, 수학), 기타 분야를 포함한 총 52개 주제를 다루고 있다.
'Qwen-7B'와 'Qwen-7B-챗 모델'은 클라우드와 온프레미스 모두에서 배포된다. 사용자는 효과적으로 고품질 생성형 모델을 구축할 수 있다.
알리바바 클라우드는 LLM 모델을 무료 개방한다. 월간 활성 이용자(MAU) 수가 1억명 이하 기업은 이 모델을 상업적 용도로 무상 사용할 수 있다. 1억명 이상 사용자를 보유한 프로그램은 알리바바 클라우드에 라이선스를 요청해야 한다.
징런 저우 알리바바 클라우드 최고기술책임자(CTO)는 “알리바바 클라우드는 독자적인 LLM을 오픈소스로 공개하여, 많은 개발자와 중소기업이 생성형 AI 이점을 누릴 수 있도록 지원한다”며 “개방적인 접근 방식으로 집단지성을 발휘해 오픈소스 커뮤니티 활성화에 기여할 수 있기를 희망한다”고 말했다.
박두호 기자 walnut_park@etnews.com