인공지능(AI) 챗봇 '이루다'가 일주일 동안 인터넷을 뜨겁게 달궜다. 개발사는 각종 논란 끝에 결국 서비스 잠정 중단을 선언했다. 이루다 논란은 우리 사회에 AI 관련 각종 질문을 던졌다. AI 윤리 문제가 대표적이다. AI가 인종, 성별 등 차별을 조장해선 안되며 AI 학습을 위한 데이터의 보호 문제도 이슈가 됐다. 전문가들은 이루다 논란을 개별 기업 문제로 치부하기보다 우리나라 AI 산업과 서비스가 한 단계 발전하기 위한 계기로 삼아야한다고 조언한다. 제2, 제3의 이루다 서비스가 지속 등장하기 위해 법적 제도와 사회적 공감대 마련이 중요하다는 지적이다.

Photo Image

◇AI 챗봇 어디까지 왔나…영화 '허(HER)'는 먼 미래

AI 챗봇은 사람과 문자, 음성인식 등 대화를 통해 질문에 맞는 답이나 정보를 제공하는 커뮤니케이션 도구이다. AI 기술이 발전하면서 방대한 양의 대화를 분석해 질문 의도에 맞는 답변을 찾아내는 방향으로 진화 중이다. 해외뿐 아니라 국내도 공공기관을 비롯해 금융기관, 대기업 등에서 맞춤형 챗봇을 도입해 민원 업무를 처리하고 있다.

그러나 영화 '허(HER)'에서 나오는 여자 AI 주인공 '사만다'처럼 자연스러운 대화가 가능한 수준까지 이르기에는 기술수준이 미흡하다.

지난해 비영리 연구단체 오픈AI가 'GPT 3'를 공개하면서 AI 챗봇이 한 단계 진일보할 것이라는 기대감은 높아졌다. GPT 3는 챗봇의 기본이 되는 자연어처리모델 가운데 가장 높은 기술로 평가받는다. GPT 3 역시 이제 초보단계일 뿐 해결해야할 과제는 많다.

이경전 경희대 교수는 “이루다는 기존 우리나라에서 출시된 대화형 챗봇 가운데에서 가장 발전했지만 이 대화 역시 사람으로 치면 어린 아이 수준”이라면서 “GPT 3가 현재 세계에서 가장 발전한 기술이지만 미션 크리티컬(핵심) 업무에 사용하기에는 아직 부족하고 여러 수정과 발전을 거쳐야한다”고 말했다.

◇이제 첫 걸음마 뗀 AI 윤리…정부·기업 앞장서야

AI 챗봇과 각종 AI 서비스는 초기 단계지만 AI 윤리 중요성과 필요성은 수 년 전부터 국내외서 제기됐다. 우리나라를 비롯해 주요 국가와 기업은 AI 윤리 헌장, 가이드라인 등을 만들며 다가올 AI 시대를 대비한다. AI기술과 서비스 개발·유통 등 전 단계에 걸쳐 기업이나 서비스 개발자가 지켜야할 의무와 책임 등을 명시하고 오남용, 피해 등을 방지하기 위해서다.

미국 정부는 2017년 'AI 미래에 관한 준비'를 시작으로 2019년 'AI 이니셔티브에 관한 행정명령' 등 AI 윤리 규범을 규정했다. 일본은 2018년 'AI 활용 원칙안'을 제정했고, 2019년 유럽연합(EU) 'AI 윤리 가이드라인', 경제협력개발기구(OECD)가 2019년 'AI 원칙 권고안 합의'를 각각 마련했다. 그 해 우리나라가 제안한 내용을 토대로 G20은 경제장관회의에서 'AI 개발 및 활용에 관한 기본원칙'을 채택했다. 정부는 지난해 말 사람 중심의 AI를 위한 '인공지능 윤리기준'을 마련해 발표했다.

글로벌 기업과 국내 대기업도 AI 윤리 가이드라인 마련에 주력한다.

마이크로소프트(MS)가 대표적이다. MS는 2016년 AI 챗봇 '테이'를 선보였다가 16시간 만에 운영을 중단했다. 10대 청소년과 대화용 챗봇이었으나 혐오와 차별 섞인 발언으로 비난을 받았다. MS는 이때부터 AI 윤리 문제에 집중했다. 2017년 AI윤리 규칙을 담은 'AI 디자인 원칙'과 'AI 윤리 디자인 가이드'를 제시했고, 2018년 AI 윤리 기준을 명시한 '책임 AI 원칙'을 발표했다. 이후 구글, IBM 등 AI 글로벌 기업이 AI 윤리 헌장 또는 가이드라인 마련에 동참했다.

국내는 카카오가 2018년 업계 처음으로 '알고리즘 윤리 헌장'을 발표했다. 알고리즘 기본원칙, 차별에 대한 경계, 알고리즘에 대한 설명 등을 원칙으로 삼았다. 카카오 외에 일부 대기업도 AI 윤리 가이드라인 등에 관심을 기울이는 추세다.

고학수 한국인공지능법학회장(서울대 교수)은 “정부가 지난해 윤리기준을 마련했지만 추상적이기 때문에 산업 현장에서 AI 서비스 개발에 참조할 수 있는 세부적 가이드라인이나 구체화하는 후속작업이 필요하다”면서 “기업도 가이드라인 마련 뿐 아니라 AI 관련 서비스 출시 이전부터 부작용 등을 예측하고 대응안을 모색하는 등 노력이 동반돼야한다”고 말했다.

◇제2, 제3 이루다 나오려면…

전문가들은 제2, 제3의 이루다 서비스가 지속 나오기 위해 AI와 AI 윤리에 대한 기업과 이용자 등 사회 전반 공감대 마련이 중요하다고 조언한다.

손승현 변호사(법무법인 101)는 “발생할 모든 상황을 미리 고려해 정확한 AI 윤리 판단 구조를 짜는 것은 사실상 불가능하다”면서 “단순한 규칙이나 원칙 제시가 아닌 복잡한 경험 기반에서 윤리가 구현돼야한다”고 말했다. 이어 “경험 기반 윤리는 제조사 혼자 구현하는 것이 아니라 사회 구성원 모두가 납득하고 공유하는 가치에 대한 충분한 토론과 고민, 합의가 있어야한다”면서 “AI 제조자, 이용자, 기업 등 AI를 활용하는 사회 모든 구성원이 AI 윤리성에 지속 관심 기울여야한다”고 덧붙였다.

제품과 서비스를 개발하는 기업 역할도 중요하다.

이경일 솔트룩스 대표는 “이루다처럼 일부 문제점 지적이 나와도 이런 시도가 끊임없이 이어져야 사회적 합의를 거치는 과정에서 서비스와 산업이 발전 한다”면서 “AI 기업도 낭만과 순수 의도만 갖고 서비스를 개발하기보다 기업의 책임과 절차상 발생 가능한 문제점을 늘 고민해야한다”고 말했다.

김지선기자 river@etnews.com