Photo Image
<tvN드라마 스타트업 포스터.>

“무인도에서 평생을 살아온 타잔 앞에 제인이 나타나. 제인에게 돌멩이를 주니 싫어해. 그런데 꽃을 가져다 주니 좋아해. 소리 치면 싫어하고 웃어주니 좋아해. 그렇게 경험을 하면서 제인의 마음을 얻어가는 법을 배워.”

코딩 천재 남도산(남주혁)은 서달미(배수지)에게 머신러닝에 대해 이렇게 설명한다. 설명을 들은 달미는 머신러닝을 '낭만적인 기술'이라 평가한다.

tvN 드라마 스타트업은 능력은 있지만 일자리가 없는 청춘들이 한국의 실리콘밸리인 샌드박스에 입성해 스타트업을 만들기 위해 고군분투하는 이야기를 다룬다. 도산과 달미는 머신러닝 알고리즘을 이용해 AI 솔루션을 개발하는 회사를 창업하고자 한다.

AI의 기술은 눈부시게 발전했다. AI를 통해 범죄를 예방하고 치매도 진단하며 음악을 창작하기도 한다. AI가 보안관이자 의사이자 예술가 등 다방면으로 인간의 삶에 도움과 낭만을 준다.

하지만 AI가 낭만적인 기술이기만 할까. 명암은 분명히 존재한다. AI로 인한 공정성 이슈가 있다. 데이터 대표성이 결여됐거나 편향된 데이터를 통해 AI가 학습하게 되면 의도치 않은 차별과 불공정이 발생한다. 2015년 구글 포토는 흑인을 고릴라로 분류해 알고리즘에 의한 인종차별 논란이 불거졌다. 구글은 사과하고 수정 조치를 하겠다고 했지만 해당 오류를 고치지 못하고 '고릴라'라는 태그를 삭제하는 미봉책을 적용했다.

알고리즘 설계 단계에서 차별적 요소가 포함된 변수가 들어가는 것도 문제다. 최근 영국에서는 코로나19로 대입시험을 치르지 못하게 되자 알고리즘을 통해 가상의 성적을 산출하기로 했다. 그러나 시험 감독청이 일부 학교에 학업 능력 가중치를 부여해 논란이 야기됐다. 소속 학교의 역대 학업능력을 고려한 것인데, 부유한 학생들에게 유리하게 작용했다. 학생들은 “Fxxx the algorithm”이라는 구호를 외치며 시위에 나섰고 결국 정책은 철회됐다.

의도적 조작이나 개입이 가능하도록 AI가 설계된다면 확증편향을 공고히 하는 데에 문제가 된다. 포털 사이트의 뉴스 배열이나 편집 공정성 이슈 등이 예다. 공정거래위원회는 네이버가 쇼핑, 동영상 검색 서비스 등의 알고리즘을 조작했다며 과징금 267억원을 부과한 바 있다.

박정호 SK텔레콤 사장은 '누구(NUGU) 콘퍼런스'에서 AI가 야기하는 사회 양분화에 대해 우려했다. 박 사장은 “유튜브나 넷플릭스에서 흔히 접할 수 있는 AI 추천 목록들이 오히려 사람들의 '확증편향'을 조장하고 사회 분열을 초래한다고 생각한다”며 “음악이나 기호는 괜찮지만 실제로 많은 부분에서 확증편향적으로 몰고 가지 않는 좀 더 나은 AI가 나오길 바란다”고 말했다.

그럼에도 AI는 잘못이 없다. 편향된 데이터는 대부분 인간에 의해 만들어진다. AI는 그것을 학습한 알고리즘일 뿐이다. AI로 인한 확증편향을 우려하는 건 우리 사회에 편견과 차별이 만연해 있다는 방증이다. 낭만적인 AI가 생성되려면 우리가 낭만적으로 살아야 한다.

손지혜기자 jh@etnews.com