페이스북이 자사 플랫폼에서 각종 혐오 표현·게시물을 이용자 신고이전에 90% 이상 차단하고 있다고 28일 밝혔다. 인공지능(AI) 기술을 적용한 덕분이다.
페이스북은 28일 서울 역삼동 사옥에서 기자간담회를 열고 2·3분기 커뮤니티 집행 보고서를 공개했다.
페이스북은 2분기와 3분기 글로벌에서 각각 200만개, 250만개 자살·자해 콘텐츠에 조치를 취했다. 2분기에는 조치 콘텐츠 중 96.1%를 이용자 신고 이전에 삭제했다. 3분기 사전 삭제율은 97.3%로 높였다. 인스타그램은 2분기 약 83만5000개 콘텐츠를 삭제하고, 이 가운데 77.8%를 사전에 감지했다. 3분기에는 84만5000개 콘텐츠를 삭제하고, 그 중 79.1%를 사전에 지웠다.
이슬람국가(ISIS)와 테러 연계 조직과 관련된 콘텐츠를 사전 감지 및 삭제하는 비율은 기존과 동일하게 99% 이상 유지했다. 테러 조직 관련 콘텐츠 사전 감지율은 페이스북 98.5%, 인스타그램 92.2%로 나타났다.
아동 나체 이미지와 아동에 대한 성착취의 경우, 내부 데이터베이스에 위반 사항을 추가해 더 많은 유해 콘텐츠를 발견했다.
페이스북은 3분기 아동과 관련해 삭제한 콘텐츠가 1160만개라고 밝혔다. 이중 99% 이상은 사전에 감지했다. 인스타그램은 3분기 75만4000개 아동 관련 콘텐츠를 삭제했는데 이 중 94.6%를 사전에 감지했다.
욕설 등 혐오 발언은 보다 고차원적인 인공지능 시스템을 도입했다. 페이스북은 △판별된 텍스트와 동일한 문자열 혹은 이미지를 포함하고 있는지 식별해내는 매칭 기능 △혐오발언 콘텐츠에서 나타나는 공통적인 문구나 패턴의 유사성을 평가하는 머신러닝 식별 기능(classifiers) 등 감지 기법을 통해 혐오 발언을 제재한다고 밝혔다.
이날 한국을 찾은 소피 보겔 페이스북 아시아태평양 정책 커뮤니케이션 매니저는 “페이스북에는 잠재적 유해 콘텐츠를 검토하는 인원이 1만5000여명 수준으로 존재한다”면서 “이와 더불어 페이스북은 유해 콘텐츠를 사전에 감지하고, 이용자 신고에 대응하기 위해 AI에 많은 투자를 이어오고 있다”고 말했다.
유동연 페이스북 콘텐츠 정책 매니저는 “페이스북과 인스타그램은 AI에 5년간 지속적인 투자해 유해 콘텐츠 감지와 삭제율을 높였다”고 강조했다
김시소기자 siso@etnews.com