[황보현우의 AI시대] 〈8〉AI 알고리즘은 공정한가?

Photo Image
황보현우 홍콩과기대(HKUST) 겸임교수·전 하나금융지주 그룹데이터총괄

올해 한국 프로야구에는 주목할 만한 사실이 있다. 여느 해보다 젊은 선수들의 활약이 두드러진다는 점이다. 타자 개인순위를 살펴보면 기아타이거즈 김도영, 삼성라이온즈 김영웅, 롯데자이언츠 황성빈 등 프로 무대에 데뷔한지 채 3년이 넘지 않는 선수들이 타격 각 부문에서 수위권에 이름을 올리고 있다. 기본적으로 선수들의 뛰어난 기량이 그 원인이지만, 올해부터 KBO 리그에 도입된 인공지능(AI) 심판을 원인으로 지목하기도 한다.

그렇다면 AI 심판의 등장이 신인급 선수들의 맹활약과 무슨 관계가 있을까? 전문가들은 심판들이 유명 선수에게 유리한 판정을 하는 경향이 있다는 마태 효과(Matthew Effect)가 AI에는 더 이상 통하지 않는다는 점을 지적한다.

미국의 사회학자인 로버트 머튼(Robert K. Merton)은 부유한 사람은 더 부유해지고, 가난한 사람은 더욱 가난해지는 '부익부 빈익빈' 현상을 마태복음의 성경 구절을 인용하여 마태 효과라 부른 바 있다. 마태복음에는 '무릇 있는 자는 더욱 받아 풍족하게 되고, 없는 자는 있는 것까지도 빼앗기리라'는 구절이 등장한다.

머튼은 1969년 그의 저서 '사회 이론과 기능주의 분석'(Social Theory and Functional Analysis)에서 동일한 연구 성과를 낸 과학자 중 저명한 과학자가 무명 과학자에 비해 훨씬 많은 보상을 받는 현상을 마태 효과로 설명한 바 있다. 마태 효과는 여러 사람이 동일한 주장을 하더라도 과학적 성과물의 용어는 저명한 사람의 이름으로 결정된다는 스티븐 스티글러(Steven Stigler)의 명자유래 법칙(Law of Eponymy)과도 궤를 같이 한다.

그러나 야구에서의 AI 심판은 알고리즘에 따라 모든 선수에게 동일한 판정을 내린다. 공을 던지는 투수가 무명 선수이건, 메이저리그 출신 류현진 선수이건 상관하지 않는다. 판정의 공정성이 보장되는 것이다. 베테랑 선수들은 '내가 아는 스트라이크 존과 다르다'며 AI 심판에 불만을 제기하기도 한다. 하지만 AI 심판은 모든 선수에게 동일한 스트라이크 존을 적용한다. 만약 스트라이크 존에 문제가 있다면 합의를 통해 AI 알고리즘을 수정하면 된다.

AI 심판의 등장으로 인해 과거 '미트질'을 잘 한다고 평가받던 포수의 프레이밍이 사라지고 있다. 포수들은 더 이상 프레이밍이 아니라 투수 리드와 포구, 도루 견제에 집중하게 됐다. 선수들이 심판 판정을 위한 형식이 아닌 야구 경기의 본질에 집중하게 된 것이다.

하지만 AI 알고리즘은 야구의 AI 심판처럼 공정하기만 한 것은 아니다.

최근 공정거래위원회는 쿠팡이 AI 알고리즘 조작을 통해 자체 브랜드(PB) 상품을 부당하게 우대했다며 1400억원의 과징금을 부과했다. 공정위는 쿠팡이 AI 알고리즘을 통해 '쿠팡 랭킹순' 검색 순위를 조정한 것이 위계에 의한 고객 유인이라고 판단한 것이다.

지난해 세계적 전자상거래 기업인 아마존 또한 '프로젝트 네시'로 알려진 AI 알고리즘 조작을 통해 10억달러가 넘는 부당이익을 취한 혐의로 미 연방거래위원회(FTC)로부터 소송을 당한 바 있다. 지난 달에는 구글에서 검색 엔진 최적화(Search Engine Optimization:SEO)와 관련한 AI 알고리즘이 유출되면서 기존 구글의 주장과는 달리 사용자의 클릭 데이터가 검색 순위 노출 결정에 활용되고 있음이 밝혀졌다.

구글, 유튜브, 페이스북과 같은 빅테크 기업들은 사용자의 클릭율과 체류시간을 향상시키고, 매출과 이익을 극대화하기 위해 AI 알고리즘을 활용한다. 그 결과 초등학생에게 성인 콘텐츠를 추천하기도 하고, 가짜 뉴스로 정치 팬덤을 키우는 유튜브 채널의 인기가 급상승하기도 한다.

빅테크 기업들은 고객 맞춤형 AI 알고리즘이라는 명분 아래 정치적으로 편향된 콘텐츠를 노출하기도 한다. 이로 인해 사용자는 기존의 성향과 비슷한 콘텐츠만 시청하게 되어 기존에 가졌던 '추정을 확신으로' '성향을 신념으로' 공고화시키는 폐해를 초래한다. AI 알고리즘이 사고의 유연성을 보유한 사람들을 보수와 진보로 갈라 놓는 사회 양극화를 초래하는 주범이 된 것이다.

AI 알고리즘은 우리가 원리를 설명할 수 없는 블랙박스(black box)에 가깝다. 더불어 사법, 의료 분야에서의 AI 알고리즘 오류와 편향은 사회적으로 치명적인 결과를 초래할 수 있기 때문에 사후적인 오류 수정보다 사전 예방을 통한 부작용의 최소화에 노력을 기울여야 한다. 지금이 바로 정부와 AI 전문가들이 앞장서 가짜 뉴스의 확대 재생산, 사회 양극화 등 AI 알고리즘의 부작용을 최소화하기 위한 제도적 장치를 마련할 시기다.

황보현우 홍콩과기대(HKUST) 겸임교수·전 하나금융지주 그룹데이터총괄


브랜드 뉴스룸