네이버가 세계 최고 권위 자연어처리(NLP)학회인 'EMNLP(Empirical Methods in Natural Language Processing) 2024'에서 검색 기술 관련 정규 논문이 채택되는 성과를 거뒀다고 18일 밝혔다.
올해로 28회차를 맞은 EMNLP는 NAACL, ACL과 함께 자연어처리 분야에서 글로벌 최고 AI 학회로 꼽힌다. AI 번역, 챗봇, 기계 독해 등 언어 데이터 기반 자연어처리 접근법에 대한 다양한 연구를 다룬다. EMNLP 2024는 11월 12일부터 16일까지 미국 플로리다에서 진행된다. 네이버는 이 자리에서 검색 기술 관련 연구를 포함해 채택된 논문 4건을 발표할 예정이다.
특히 네이버는 이번 연구 성과를 실제 네이버 검색 서비스에 직간접적으로 활용해 검색 품질과 사용성을 높이는 등 서비스 가치 창출과 연구의 실효성 측면에서 의미를 더했다.
네이버 생성형 AI 검색 서비스인 '큐(CUE):'에 적용된 알고리즘에 대한 연구 논문이 채택됐다. 해당 연구는 SLM(Small Language Model)을 사용하는 모듈식 접근법을 통해, 유해 질의를 탐지하고 적절한 답변을 제공할 수 있는 학습 메커니즘을 다룬 연구이다.
네이버는 연구 성과를 지난해 11월 큐:에 적용해 AI 안정성을 강화하는데 활용하고 있다. 예를 들어, 범죄·유해 등 불법정보나, 저작권법 및 사생활 침해, 개인정보유출, 욕설·비속어 등과 관련한 질의를 판별해 무분별한 답변이 제공되지 않도록 안전한 생성형 AI 검색 환경을 구축하고 있다.
아울러 통합검색 결과 상단에 검색어와 연관된 주요 정보를 요약해서 제공하는 '지식스니펫' 서비스에서 정보를 추출할 때, 텍스트 뿐 만 아니라 리스트, 테이블 등 복잡한 형태의 스니펫(정보)까지 AI가 효과적으로 처리하는 기술을 제안했다.
해당 기술은 내년 상반기 지식스니펫 적용을 목표로 하고 있으며, 롱테일 질의(길고 복잡한 검색어)에도 정확히 답변하는 비율을 높여 사용자가 원하는 정보를 빠르게 확인할 수 있도록 성능을 높이는데 기여할 예정이다.
초거대 생성형 언어모델(LLM) 문서 랭킹 능력을 작은 생성형 언어모델(sLLM)에 이식시켜 검색 서비스에 적용하는 방법에 관한 논문도 채택됐다. 사용자가 원하는 결과를 실시간으로 제공해야 하는 검색 서비스에서 속도 저하 없이도 LLM 만큼 품질을 낼 수 있는 기술을 고안해 제안한 것이다.
김광현 네이버 검색·데이터 플랫폼 부문장은 “이번 연구를 통해 국내 검색 시장을 선도해온 네이버의 검색 기술을 세계 무대에서도 인정받은 것”이라며 “앞으로도 개선된 검색 정확도와 생성형 AI 실험을 바탕으로 사용자들에게 최적화된 검색 결과를 제공할 수 있는 경쟁력 있는 검색 서비스를 지속 선보일 것”이라고 말했다.
손지혜 기자 jh@etnews.com