[이슈분석]인공지능 윤리·법적 가이드라인 마련해야

인공지능(AI)이 사람처럼 판단하고, 오히려 사람보다 더 뛰어난 능력을 발휘하면서 AI에 대한 법 및 윤리성 문제가 국내외에서 이슈로 떠올랐다. 미국에서는 마이크로소프트(MS)의 챗봇이 정치·인종 편향 발언을 해 논란이 되기도 했다.

AI가 인간 생활에 영향을 미칠 수 있을 정도로 발전하면서 AI 윤리성과 중립성 가이드라인을 마련해야 한다는 주장이 힘을 얻고 있다. 최근 국제전기전자협회(IEEE)는 AI 시스템 윤리 지침서 초안을 발표하기도 했다. 초안은 “AI 개발은 한쪽으로 편향되지 않고 궁극으로 인류에 혜택을 주는 `디자인 윤리`를 추구해야 한다”는 내용을 담았다. 또 초안은 AI가 △인권을 보장하고 △투명하게 작동하며 △자동화된 결정이 어떻게 도출되는지 설명할 수 있어야 한다고 지적했다.

Photo Image

이와 함께 개발자들은 투명하고 평가 가능한 표준을 기반으로 본인이 만든 알고리즘이나 시스템 특징을 규정할 수 있도록 했다. AI 특성상 정확한 결과 예측이 힘들기 때문에 표준을 기반으로 AI 의사결정 과정을 확인, 발생 가능한 위험을 경감시켜야 한다는 것이다. 항공기가 블랙박스로 비행 데이터를 기록하는 것처럼 AI 의사결정 과정을 거꾸로 추적, 의사결정의 어떤 부분이 위험한 행동을 유발하는지 제공해야 한다는 지적이다.

또 개인정보 보호를 위해 데이터를 수집할 때 어떤 정보가 수집될지 세부 항목을 반드시 마련하도록 했다. 미래 정보 제공에 대한 동의는 제한되고 자세히 이뤄져야 한다는 것이다.

AI의 법 책임 소재도 논란거리다. AI 로봇이 악용되거나 사고가 발생하는 등 윤리 문제가 발생했을 때 책임 소재를 가리기가 쉽지 않다. 자율주행자동차가 사고를 냈을 때 책임을 제조업체가 져야 할지 차량 소유자가 져야 할지 명확한 가이드라인이 없다.

결국 AI 규제 가이드라인 마련에 장기 연구가 선행돼야 한다는 것이 전문가들의 지적이다. 전문가들은 “혁신을 가로막지 않으면서 사회 합의로 가이드라인을 마련하는데 집중할 것”을 주문한다.

권상희기자 shkwon@etnews.com