유튜브·넷플릭스·네이버 등 미디어·커머스 플랫폼에서 제공하는 추천 알고리즘이 사용자 데이터 학습에 기반한 인공지능(AI) 기술인 만큼 AI로 분류해야 한다는 의견이 나왔다.
특히 계엄·탄핵 정국에서 여론 분열을 심화한 유튜브와 같이 사용자 선호에 기반해 일상생활·산업 등에 강력한 영향을 미치는 AI 기반 추천 알고리즘은 '고영향 AI'로 보고 법·제도 차원에서 관리해야 한다는 필요성이 제기됐다.

17일 데이터·AI학계에 따르면, 플랫폼의 관심사 기반 추천 알고리즘은 사용자의 과거 행동 데이터를 중심으로 콘텐츠를 필터링하는 '필터 버블'이나 사용자가 자신의 기존 관점을 확인해주는 정보만 반복적으로 접하게 하는 폐쇄 정보 환경인 '에코 챔버' 현상 등을 통해 사회 양극화를 심화할 가능성이 높다.
유튜브 추천 알고리즘은 영상 제목·설명·썸네일·태그 등 메타데이터와 영상 내용 자체를 분석하는 △콘텐츠 영상 분석, 시청 기록·검색 기록·체류 시간·좋아요·싫어요·댓글·공유 등 △다양한 사용자 상호작용, 비슷한 취향을 가진 사용자들이 좋아한 콘텐츠를 추천하는 △협업 필터링 방식으로 작동한다.
구글이 유튜브 알고리즘 작동원리를 공개하지 않는 등 폐쇄적으로 운영하는 가운데 국내외 학계에서 반복적인 테스트로 분석해낸 결과다. 이렇듯 사용자 관심사에만 기반한 추천 알고리즘은 사용자를 보다 좁은 범위의 콘텐츠에 노출, '정보 고립'을 초래할 가능성이 높다는 게 전문가 의견이다.
킬리안 L. 맥러플린 미국 프린스턴대 교수는 '인간과 알고리즘 상호작용' 논문을 통해 “도덕적이고 감정적인 정보가 온라인 정보 생태계에서 특별한 우위를 점하게 된다”며 “분노나 도덕적 공분을 일으키는 콘텐츠가 알고리즘에 의해 더 많이 추천되고 확산되고 있다”고 지적했다.
실제 2020년 조 바이든 대통령 당선 이후 미국 의회 폭동이나 우리나라 서부지방법원 폭력 사태는 편향된 유튜브 추천 알고리즘에 영향을 받았다는 게 중론이다.
이에 법·제도에 기반한 추천 알고리즘 관리 필요성이 제기된다. 유튜브와 같이 사회적 영향력이 큰 추천 알고리즘을 내년 1월 시행될 AI기본법상 고영향 AI로 분류, 추천 알고리즘 책임성과 작동방식 투명성을 강화해야 한다는 취지다.
법·제도적 관리 없이는 기업의 무조건적 선의에 기댈 수밖에 없다. 네이버가 다크패턴 방지대책으로 편향된 알고리즘을 최소화하고 넷플릭스는 다양성을 고려한 추천 알고리즘을 제공하는 반면, 구글은 유튜브 알고리즘을 방치한다는 평가를 받음에도 사용자나 정부 차원 대응 수단이 없는 게 현실이다.
차경진 한양대 교수(비즈니스인포메틱스학과장)는 “유튜브 추천 알고리즘은 더 이상 중립적 기술이 아닌 기술 설계와 경제적 인센티브가 결합된 결과”라며 “추천 알고리즘이 민주주의 근간을 흔드는 강력한 영향력을 가진 AI 시스템이 될 수 있다는 관점에서 AI기본법 '고영향 AI' 범주에 포함, 알고리즘의 주요 매개변수와 작동원리를 확인하는 등 적절한 규제와 감독이 필요하다”고 말했다.
박종진 기자 truth@etnews.com