전체메뉴 검색창 열기 / 닫기
닫기

AI 로봇, 사회적 차별 '안돼'…정부, 최초로 AI 윤리 가이드라인 마련 착수

발행일2017.10.10 13:52

인공지능(AI) 로봇이나 무인자율자동차 등은 개발 과정에서 인종·종교 등 사회적 차별요소를 배제해야 한다. 개발자는 사회적 약자를 위한 접근성을 보장하고 공급자는 오작동 등에 대한 책임과 보상 원칙을 마련해야 한다. 정부가 이같은 내용을 담은 AI 윤리 가이드라인 마련에 착수했다.

과학기술정보통신부와 한국정보화진흥원·정보문화포럼은 최근 '지능정보사회 법제도 포럼'을 출범, 지능정보사회 윤리 가이드라인 마련작업을 시작했다. 개발자·공급자·이용자 대상 윤리 가이드라인을 마련, 인간 중심 지능정보사회를 구현한다. 이해관계자 의견을 수렴해 연내 확정한다.

Photo Image<ⓒ게티이미지뱅크>

가이드라인 기본 원칙은 공공성·책무성·통제성·투명성 확보다. 개발자, 공급자, 이용자가 지켜야할 원칙을 명시한다.

공공성을 위해 개발자는 기술개발 과정에 사회적 차별요소를 배제한다. 사회적 약자의 접근성을 보장하고 사회문제 해결에 도움을 준다. 공급자는 공공 이익에 부합한 제품과 서비스를 공급한다. 이용자는 악용하지 않으며 타인에게 피해를 주지 않는다. 공정한 리뷰와 개선 활동을 한다.

책무성을 위해 개발자는 이용 과정과 결과에 책임을 진다. 기술개발 정보 교류와 품질인증 기준을 만족시킨다. 연구·개발과정에서 윤리적 절차를 이행한다. 공급자는 오작동과 사고 대비 합리적 책임·보상 기준을 수립한다. 이용자는 교체·갱신·폐기 과정에서 규정을 준수한다.

통제성도 갖춘다. 개발자는 발생 가능한 문제를 검토한다. 오작동과 위험 대비 제어장치를 마련한다. 공급자는 위험 등을 사전 검증한다. 이용자 선택을 최대한 보장한다. 이용자는 자의적으로 조작하거나 타인 권리를 침해하지 않는다.

투명성 확보 근거도 마련했다. 개발자가 기술을 은닉하지 못하도록 했다. 이용 시 부작용을 예측해 공급자와 공유한다. 공급자는 발생 위험과 잠재 위험을 이용자에게 고지한다. 정확한 이용방법과 관련 매뉴얼을 제공한다. 이용자는 수집된 개인정보 감시 역할을 한다.

김명주 서울여대 정보보호학과 교수는 “윤리 가이드라인 전제조건은 인간 중심 지능정보기술을 구현하는 것”이라면서 “다양한 의견수렴과 국내외 윤리개발그룹 교류 등으로 지능정보사회 윤리헌장을 만들겠다”고 말했다. 이경화 학부모정보감시단 대표는 “일반인도 알기 쉽도록 윤리 가이드라인을 만들어야 한다”면서 “실제 적용 가능한 가이드라인을 만들어 달라”고 당부했다.

Photo Image<게티이미지뱅크>

윤리 가이드라인 마련은 AI 기술 발전에 따른 부작용 때문이다. 실제로 AI가 잘못 개입해 주식거래가 폭락한 사례가 있다. AI 음성서비스 오류로 잘못된 물건을 주문하거나 경찰 신고가 이뤄진다. 여론 조작에도 활용된다. 데이터 과학자는 머신러닝에 의해 AI가 인종·종교 등 인간의 편견까지 프로그래밍 된다고 우려했다.

선진국은 AI 윤리 가이드라인 마련에 적극적이다. 미국은 지난해 3월 '빅데이터 분석과 머신러닝에 의한 차별 위험성 대비 사전예방 윤리적 가이드라인'을 제시했다. 유럽연합(EU)은 '로봇법'을 제정, 로봇윤리 13원칙을 마련했다. 일본은 지난해 주요 7개국 정보통신장관 회의에서 '인공지능 연구와 개발에 관한 국제규칙 제정과 산학관 회의 창설'을 제안했다.

우리나라는 선진국 대비 늦다. '지능형 로봇개발 및 보급 촉진법'에 지능형 로봇윤리헌장을 담은 개정안이 국회 발의된 상태다. AI 안전성 관련 연구와 제도 정비, AI 관련 법적책임 연구는 연말까지 진행한다. 자율주행 인증제도 정비는 2020년 완료 목표다.

이원태 정보통신정책연구원 디지털사회정책그룹장은 “지능정보사회 대비 규범 대응이 법제도적 접근에 치중돼 사용자와 시민이 참여하는 윤리적 접근은 미흡하다”고 지적했다.

[전자신문 CIOBIZ] 신혜권 SW/IT서비스 전문기자 hkshin@etnews.com

댓글 보기


주요뉴스