인공지능(AI)으로 인한 차별 문제를 관리할 제도적 논의 필요성이 제기됐다.
고학수 서울대 법학전문대학원 교수는 12일 서울 강남에서 열린 '네이버 프라이버시 백서 발간 기념 세미나'에서 “머신러닝은 과거의 차별적 의사결정을 답습하거나 심화할 수 있다”고 말했다.
고 교수는 “방대한 데이터를 활용해 학습하는 인공지능(AI)은 법적 분쟁 시 불투명성 이슈에 휘말릴 수 있다”고 예상했다. 의사결정을 내린 구조와 의도를 사람이 이해하기 어렵고, 근거가 되는 데이터 전수조사에 한계가 있다는 것이다.
고 교수는 “재판을 거쳐 책임을 부과하기 위해서는 반드시 투명한 입증이 필요한 것은 아니다”면서도 “불투명성을 유지하려는 당사자에게 (법제도 변화를 통해) 입증책임을 부과하고, 입증하지 못하는 부분에 불이익을 부과해 책임을 지울 수 있다”고 제안했다.
AI 차별을 막기 위한 사전 행정규제에 대해서는 주로 한계를 지적했다. 데이터 정확성을 확보하는 것이 차별의 질적 구조를 해소하기 어렵고 알고리즘 규제는 자칫 허점을 노려 이익을 취하려는 조작에 오용될 위험이 높다는 것이다.
고 교수는 “차등적 대우가 존재하는지 여부와 그 차등적 대우가 부당해 법적으로 차별에 해당하는지 여부는 전혀 별개 이야기”라고 덧붙였다.
김시소 게임/인터넷 전문기자 siso@etnews.com