네이버·카카오, 'AI 안전성' 힘쓴다…연구·정책 수립 박차

Photo Image

네이버와 카카오가 인공지능(AI) 사업 확대에 나서며 관련 연구와 정책 수립 등 'AI 안전성' 확보에 적극 나섰다.

12일 네이버와 카카오에 따르면 각 사는 올해 AI 조직을 꾸리며 AI 사업에 본격 시동을 건 가운데, AI 세이프티 전략을 강화 중이다.

네이버는 올해 초 퓨처 AI센터를 설립했다. 네이버 CEO 직속으로 설립된 AI 안전성 연구 및 책임감 있는 AI 개발을 위한 글로벌 AI 연구 및 정책 조직이다.

'AI 안전성', '지속 가능한 AI'를 중요한 연구 주제로 보고 자체적으로 또는 글로벌 유수 연구기관 및 기업들과 함께 AI 신뢰성, 안전성 관련 연구를 수행 중이다. 서울대-네이버 초대규모 AI 연구센터를 설립하고 연구 협력을 진행 중이다. 최근 '신뢰성 있는 초거대 AI'를 중요한 아젠다로 꼽아 연구 중이다.

세계 최고 권위 자연어처리(NLP) 학회(ACL)에서 초거대 AI 윤리 관련 논문이 채택되기도 했다. 초거대 언어 모델이 종교, 도덕 등 사회적 이슈에 대해 편향적으로 발언하는 문제를 완화하기 위한 한국어 데이터셋을 제안한 것이 골자다.

정책적으로는 AI 윤리 준칙을 발표하고 AI 윤리 자문 프로세스인 'CHEC'를 도입했다. 서비스에 산업적인 시각뿐만 아니라 사회적인 관점까지 더하는 상호작용 과정을 진행하기 위해서다.

이에 따라 하이퍼클로바X는 레드티밍, 전문 데이터 확보, 강화학습 알고리즘 개선 등 다양한 방법을 통해 생성 정보의 정확성, 편향성, 안전성 등을 개선 중이다.

카카오는 이번달 카나나라는 AI 전담 조직을 설립했다. CEO 산하 조직으로 AI 모델 개발 중심의 '카나나 알파'와 AI 서비스 중심의 '카나나 엑스'로 나눠 운영한다.

자사 서비스에 AI를 접목하기에 앞서 카카오는 4월 글로벌 오픈 소스 커뮤니티인 'AI 얼라이언스(AI Alliance)'에 가입을 완료했다. 글로벌 기준에 부합하는 안전하고 책임감 있는 AI 개발을 위해서다. AI의 안전과 보안, 신뢰를 개선하며 전 세계 사람과 사회에 대한 혜택을 극대화하는 데 중점을 둔다. 향후 다양한 프로젝트와 활동을 이어갈 계획이다.

이 외에도 기술윤리 위원회의 행보를 담은 보고서를 발간했다. 이를 기반으로 카카오 공동체의 기술윤리 거버넌스 체계를 고도화 중이며 기술의 안정성·투명성 강화 측면에서 AI 개발 원칙 수립 및 AI 윤리 규정 자가점검 도구 개발을 진행한 바 있다.


손지혜 기자 jh@etnews.com


브랜드 뉴스룸