네이버, UN에서 AI 안전 정책 사례 공유

Photo Image
박우철 네이버 정책·RM 아젠다 변호사(오른쪽에서 두 번째)가 5일(현지시간) 스위스의 UN 제네바 사무소에서 열린 '신기술에 대한 인권 기반의 접근: 컨셉에서 구체적 적용으로' 행사에서 네이버 AI 안전 정책 사례에 대해 발표하고 있다. 〈자료 네이버〉

네이버가 유엔(UN)에서 자사의 인공지능(AI) 윤리 자문 프로세스를 소개했다.

네이버는 5일(현지시간) 스위스의 UN 제네바 사무소에서 열린 '신기술에 대한 인권 기반의 접근: 컨셉에서 구체적 적용으로' 행사에 참석해 안전한 AI 생태계 구축을 위한 네이버의 정책에 대해 알렸다.

이번 행사에는 서울대 인공지능 정책 이니셔티브(SAPI) 연구진과 윤성덕 주제네바 대한민국 대표부 대사, 임용 서울대 교수, 스테판 손넨버그 교수, 그리고 UN 인권최고대표사무소 관계자 등이 참여했다. AI를 비롯한 새로운 디지털 기술을 인권을 바탕으로 발전시키기 위한 다양한 방안을 논의했다.

이 자리에서 네이버는 안전한 AI를 위한 추상적 원칙을 산업 실무 적용 사례를 공유했다. 박우철 네이버 정책·RM 아젠다 변호사는 2022년부터 운영중인 네이버 AI 윤리 자문 프로세스 'CHEC(Consultation on Human-centered AI's Ethical Considerations)'를 소개했다. CHEC는 '네이버 AI 윤리 준칙'을 실제 서비스 출시 과정에 적용하기 위해 설계한 정책이다. 일방적 점검이 아닌 기획·개발 단계에서부터 사회적 관점을 함께 고려하는 상호작용 과정이라는 특징이 있다.

박우철 변호사는 “현장의 상황을 알지 못하면 AI 윤리 원칙은 진부한 이야기가 될 수 있다”면서 “네이버는 AI 윤리 원칙을 현장에서 활용하도록 만들기 위해 SAPI와 같은 학계 전문가와 협업하는 등 많은 노력을 기울였다”고 말했다.

네이버 AI 윤리 준칙을 구체화하기 위한 다른 정책에 대한 소개도 이어졌다. 2023년에 공개한 '사람을 위한 클로바X 활용 가이드'는 빠르게 발전하는 생성형 AI 기술에 네이버 AI 윤리 준칙이 어떻게 적용될 지에 대해 고민한 결과물이다. 나아가 올해에는 AI 시스템을 개발하고 배포하는 과정에서 AI의 잠재적 위험을 더욱 체계적으로 인식·평가·관리하기 위해 네이버 ASF(AI Safety Framework)도 새롭게 구축했다.

임용 서울대 교수는 “이번 행사로 신기술과 관련된 인권 기반 접근을 업무에 도입하기 위한 보다 실천적인 방안이 공유돼 의미 있게 생각한다”면서 “향후 AI 정책 입안자, 기업과 협업을 강화하며 AI에 대한 인권 기반의 접근이 확산되도록 노력하겠다”고 밝혔다.


변상근 기자 sgbyun@etnews.com


브랜드 뉴스룸