네카오, AI 안전·신뢰부터 챙긴다…컨트롤타워 재정비

Photo Image

네이버와 카카오가 인공지능(AI) 서비스 안전성과 신뢰도 제고를 위해 컨트롤타워를 재정비 했다. 향후 출시할 AI 서비스와 기술에 대한 리스크를 최소화하기 위해서다.

카카오는 최근 기존 '공동체 기술윤리 위원회'를 '그룹 기술윤리 소위원회'로 재편했다고 28일 밝혔다. 소위원회 리더는 이상호 카나나X(Kanana X) 리더가 맡았다.

소위원회의 역할은 계열사별 기술 리스크를 선제적으로 점검·대응·관리하는 것이다. 기존 공동체 기술 윤리 위원회가 계열사별 기술 윤리 현황을 공유하고 발전 방안을 모색했다면, 이제는 AI 리스크 예방에 무게를 싣겠다는 의도로 해석된다. 하나의 기술 윤리 정책을 수립해 그룹 정책의 통일성도 꾀할 수 있을 전망이다.

체크리스트도 개발했다. AI 기술과 서비스 개발 단계를 △계획 및 설계 △데이터 수집 및 처리 △AI 모델 개발·기획 및 구현 △운영 및 모니터링 등 4단계로 구분했다. 사회 윤리와 서비스 품질 검토에 필요한 항목들로 구성했다는 설명이다. 각 계열사는 서비스 출시 전 기술윤리 총괄 책임하에 체크리스트를 작성한 후 법무 검토와 대표이사 승인을 거쳐 소위원회에 제출해야 한다.

네이버는 앞서 지난 상반기 AI 세이프티 거버넌스를 구축했다. 거버넌스를 △퓨처 AI 센터(Future AI Center) △리스크관리워킹그룹 △이사회(리스크관리위원회)로 나눴다. 다양한 분야에 전문성을 보유한 구성원 간 협업을 통해 AI 시스템의 위험을 인식·평가 및 관리하기 위해서다.

하정우 센터장이 이끄는 퓨처 AI 센터는 AI 안전성 선행 연구를 진행하고 AI 시스템 위험에 대해 실무적으로 논의하는 기구다. 네이버 내 다양한 부서가 참여한다. 실무적으로 논의된 위험에 대해 리스크관리워킹그룹이 이사회에 보고할 사항을 판단하고 이사회는 AI 시스템 위험에 대해 최종적인 의사결정을 내린다.

생성형 AI의 안전성을 위한 '레드팀(red team)'도 운영 중이다. 레드티밍, 전문 데이터 확보, 강화학습 알고리즘 개선 등 다양한 방법을 통해 생성 정보의 정확성, 편향성, 안전성 등을 개선 중이다.

양 사의 이같은 움직임은 서비스 출시 전 AI 시스템과 관련한 위험을 예방하기 위한 것이다. 네이버와 카카오는 연내 신규 AI 기술을 개발하고 접목 서비스를 출시할 예정이다.

네이버는 올해 하반기 멀티모달 기술을 확대할 계획이다. 생성형 AI 하이퍼클로바X를 바탕으로 텍스트, 이미지, 음성까지 처리할 수 있도록 한다. 거대 시각 언어 모델인 '하이퍼클로바X 비전'을 대화형 AI 비서인 클로바X에 적용해 다양한 산업군에서의 이미지 정보 처리 효율을 높인다. 음성을 합성할 수 있는 '스피치X(Speech X)' 기술도 출시할 계획이다.

카카오의 경우 대화형 플랫폼 형태의 B2C AI 서비스를 연내 선보인다. 카카오톡과는 별도 애플리케이션(앱) 형태로 출시할 예정이다.

업계 관계자는 “일상생활에서 AI 영향력이 커지고 있으나 AI 시스템은 완벽하기 어렵다”라며 “더 안전한 기술 제공을 위해 기업들이 서비스 본격 출시 전 안전성 관련 거버넌스를 구축한 것”이라고 말했다.


손지혜 기자 jh@etnews.com


브랜드 뉴스룸