지난해에 이어 서울대(SAPI)와 두 번째로 공동 웨비나 개최
별도의 자문 프로세스 통해 서비스 부서에 AI 정책 관점의 의견 전달
방적인 점검 아닌 상호작용 과정…협업 사례 모아 'NAVER-SAPI AI 리포트'로 발간 예정
네이버는 28일 서울대 AI 정책 이니셔티브(SNU AI Policy Initiative, SAPI)와 공동 웨비나를 개최하고 SAPI와 함께 만든 '네이버 AI 윤리 자문 프로세스'를 소개했다. 이번 웨비나는 지난해에 이어 두 번째로 개최됐다. 첫 공동 웨비나에서는 네이버의 모든 구성원이 AI 개발과 이용 시 준수해야 하는 원칙인 '네이버 AI 윤리 준칙'을 공개했다.
네이버 AI 윤리 자문 프로세스는 네이버 AI 윤리 준칙이 네이버의 AI 서비스에 어떻게 실질적으로 적용될 수 있는지에 대한 고민의 결과다. 이날 공동 웨비나에서 발표를 맡은 네이버 아젠다 리서치(Agenda Research) 박우철 리더는 “그동안 AI 정책 관점을 반영할 수 있도록 서비스 부서에 의견을 전달해 왔으나, 보다 충분한 시간을 갖고 의견을 제공하는 것이 필요하다는 피드백이 있어 별도 프로세스를 구축했다”고 도입 배경을 설명했다.
박 리더는 네이버 AI 윤리 자문 프로세스를 통해 서비스에 산업적인 시각뿐만 아니라 사회적인 관점을 더해 '사람을 위한 AI'라는 가치를 부여할 수 있을 것이라고 전망했다. 이러한 의미를 담아 자문 프로세스에 '체크(CHEC: Consultation on Human-Centered AI's Ethical Considerations)'라는 이름을 붙였다. 필요하면 외부 전문가 자문도 연계해 보다 전문적인 AI 정책 관점을 제공할 계획이라고 강조했다.
체크는 일방적인 점검 절차가 아닌 서비스 담당자와 상호작용 과정이다. 이를 통해 현실적인 개선이 가능하다는 설명이다. 체크에는 △AI 윤리 준칙 적용 △기본 정보 및 활용 사례 △사용자 커뮤니케이션 △서비스 산출물 정보 △어뷰징 우려 사항 △개인정보 영향 검토의 6개 항목이 있어, 구체적인 논의가 이뤄질 수 있을 전망이다.
박 리더는 “체크는 일방적인 제안이 아니라 현실적으로 가능한 부분이 무엇인지 함께 논의하는 과정”이라며 “사회적 인식과 산업적 제약 사항을 함께 논의하며 현실적인 자문 의견을 전달할 것”이라고 말했다.
네이버는 체크를 활용한 내부 협업 사례가 축적되면 이를 'NAVER-SAPI AI 리포트'를 통해 사내·외에 공유할 계획이라고 밝혔다. 사례를 통해 원칙을 구체화하는 사례 중심 커뮤니케이션으로 AI 윤리 준칙을 자연스럽게 준수하는 기업 문화를 형성해 나가는 한편, 실제 서비스에 AI 윤리 관점을 적용하면서 얻은 경험과 노하우를 사회에 공유해 네이버가 다시 한 번 AI 윤리 논의를 이끌어갈 수 있을 것으로 보인다.
실제 네이버는 AI 기술력뿐만 아니라 AI 윤리 분야 논의도 적극적으로 주도하고 있다. 지난해에도 NAVER-SAPI AI 리포트를 발간해 AI 윤리 준칙의 수립 과정을 자세히 소개했다. AI 윤리 준칙 실천 방안 중 하나로 프로젝트 진행 또는 서비스 개발 시 AI 윤리 준칙과 관련된 사안을 논의할 수 있는 메일링 그룹 형태의 유연한 사내커뮤니케이션 채널도 마련해 운영하고 있다. 또한 독일 튀빙겐대학교와 '신뢰 가능한 AI' 연구에 협력하고 있고, 올해 6월에는 컴퓨터공학 공정성 분야에서 세계적 권위 학회인 'ACM FAccT(ACM Conference on Fairness, Accountability, and Transparency)'에서 초대규모 AI 윤리를 주제로 워크숍 및 튜토리얼을 개최하는 등 관련 산학 협력 및 선행 연구에도 적극적이다.
한편, 이날 공동 웨비나에서는 서울대학교 법학전문대학원 박상철 교수가 글로벌 AI 거버넌스 및 규제 현황을 소개하고, 개발자의 관점에서 어떻게 이를 이해하고 대비할 수 있는지 설명하는 자리를 가졌다. 박 교수는 현재 EU의 AI 규제 체계를 기반으로 국내에서 논의되고 있는 관련 법안 등은 기존 규제와의 중복 등 불합리한 지점이 있어, AI 규제 체계도 합리화가 필요하다고 강조했다
성현희기자 sunghh@etnews.com