구글이 생성형 인공지능(AI)과 거대언어모델(LLM)을 활용해 디지털 광고 생태계를 보호한다. 지난해 55억개 이상의 악성 광고를 차단하거나 삭제하며 이용자 보호에 적극 참여했다. 이는 1분에 1만개를 삭제한 수준으로 LLM을 접목한 기술 덕이라는 분석이다.
구글은 27일 연례 광고 안전 보고서(Ads Safety Report)를 발표하고 AI를 활용한 광고 생태 정화 노력에 대해 설명했다.
지난해 구글은 △생성형 AI 및 LLM을 활용한 광고 안전 조치 △속임수 및 사기로부터 이용자를 보호하기 위한 기술 개발 △공정한 선거를 위한 투명성 확보 등을 시행했다.
이를 통해 55억개의 악성광고를 삭제하고 69억개 이상의 광고 제한 조치를 시행했으며, 1270만개가 넘는 광고주 계정을 차단했다. 이는 전 분야에서 전년 대비 두 배가량 증가한 수치다.
빠르고 정확하게 대규모 악성 광고 탐지가 가능했던 배경에는 LLM이 있다. LLM은 대량의 콘텐츠를 신속하게 검토하고 해석하는 동시에 해당 콘텐츠를 정확히 판단한다. 기존 머신러닝 모델에 비해 필터링 정확도가 높다.
예컨대 전통적인 머신러닝 모델은 아직까지 한 사안에 대해 객관적으로 다루는 콘텐츠와 사안에 대한 주장이 마치 사실인 것처럼 다루는 콘텐츠에 대해 명확히 구분하지 못한다. 반면 LLM은 정상적인 콘텐츠와 미세한 사기성 콘텐츠 사이의 뉘앙스를 구분한다. 구글이 정책 위반 건을 정확히 탐지해 집행할 수 있도록 돕는다.
선거 관련 악성 딥페이크 광고 콘텐츠에도 신속 대응한다. 악성 행위자의 행동 패턴을 파악하고 자동화된 집행 모델을 훈련시켜 유사 광고를 탐지한다. 대규모로 해당 광고를 삭제하기도 한다. 이 외에도 선거 관련 광고에는 광고주에 대한 신원 확인 및 투명성 요건을 적용한다. 모든 선거 광고에는 자금 출처가 공개돼야 한다.
구글은 광고 및 게시자 정책도 업데이트했다. 지난해 '제한적 광고 게재 정책'을 도입했다. 신뢰도가 떨어지는 광고주에 대해서는 '광고주 파악 기간(get-to-know-you period)'을 도입해 특정 상황에서 광고 노출을 제한한다.
아울러 광고 투명성 센터를 론칭했다. 검색, 유튜브, 디스플레이에 표시되는 광고에 대해 쉽고 빠르게 파악할 수 있도록 지원한다. 적합성 관리 기능도 추가했다. 광고주가 유튜브 등에서 광고 노출을 피하고 싶은 콘텐츠 주제를 간단하고 빠르게 제외할 수 있다.
구글은 앞으로도 다양한 악성 광고에 대비할 수 있도록 정책을 개선해나갈 방침이다. 아울러 기술 개발에 대한 투자를 이어갈 예정이다.
구글 관계자는 “앞으로도 구글은 악성·허위 광고를 차단하기 위해 전폭 투자할 것”이라며 “딥페이크 등 신종 유해 콘텐츠로 인한 피해를 예방하고 최소화하기 위해 다양한 혁신 기술을 도입하고 더 많은 기여를 하기 위해 노력하겠다”라고 말했다.
손지혜 기자 jh@etnews.com