국내외 플랫폼 기업들이 딥페이크와 생성형 인공지능(AI)으로 만든 콘텐츠를 식별하는 기술 개발에 적극 나섰다. 악의적 콘텐츠로 인한 이용자 피해와 혼란을 방지하고 서비스 신뢰도를 높이기 위한 방안에 초점을 맞춘다.
13일 업계에 따르면 네이버는 생성형 AI 콘텐츠 공동 대응을 위해 '글로벌 기술 표준(C2PA)' 채택을 추진 중이다.
C2PA란 콘텐츠 출처 및 진위 여부를 확인하기 위한 연합체이자 기술이다. 기술 표준은 암호화 기법을 이용해 콘텐츠 출처 등 세부 정보를 콘텐츠에 기록토록 하는 오픈 소스 인터넷 프로토콜이다. C2PA 프로토콜을 채택하면 사진에 출처 데이터가 표시된다.
네이버는 자체 탐지 기술 고도화에도 힘쓴다. 비가시성 메타 정보 피처 반영 및 생성 콘텐츠를 탐지하는 기술 확보를 목표로 새로운 기술을 연구개발 중이다.
카카오는 생성형 AI 이미지에 대한 식별 기능을 강화했다. 우선 카카오톡 채널인 '칼로 AI 프로필' 기능에 비가시성 워터마크를 먼저 도입했다. 이미지 생성 웹 기반 전문가 툴인 'Karlo.ai'에도 이달 도입할 예정이다.
비가시성 워터마크는 일반 사용자 눈에는 보이지 않는 워터마크를 적용하는 기술이다. 이미지 훼손 없이 칼로로 생성된 이미지라는 정보를 담을 수 있다. 비가시성 워터마크는 사용자가 이미지를 일부 편집하더라도 제거되거나 훼손되지 않는다.
구글 딥마인드는 AI로 생성된 이미지를 워터마킹하고 판별할 수 있는 툴 'SynthID'를 지난해 발표했다. 워터마크는 사람 눈으로는 감지할 수 없지만 이미지를 훼손하지 않으면서 필터 추가, 색상 변경, 다양한 손실, 압축 방식 등 수정 후에도 판별할 수 있다. 구글은 자사의 생성형 AI뿐만 아니라 다른 생성형 AI가 만든 이미지도 식별할 수 있게끔 발전시킬 예정이다.
유튜브는 AI 도구 사용 등을 통해 변형됐거나 합성된 콘텐츠를 제작한 크리에이터에게 사실을 공개하도록 요청할 예정이다. 이와 함께 콘텐츠의 일부가 변형 또는 합성되었음을 알리는 새로운 라벨을 콘텐츠의 설명 패널에 추가할 계획이다. 일부 합성 콘텐츠는 라벨의 여부와 관계없이 커뮤니티 가이드를 위반하면 플랫폼에서 삭제한다.
틱톡은 생성형 AI로 만들어진 콘텐츠에 라벨을 부착한다. 사용자가 이 같은 가이드라인을 실천할 수 있도록 돕는 라벨링 도구를 출시하기도 했다.
플랫폼 기업들은 이 같은 기술 개발로 무분별한 기술 오남용으로 인한 이용자 피해가 감소할 수 있을 것이로 기대했다. 트래킹을 통해 생산자를 찾아낼 수 있어 악성 콘텐츠 생산에 심리적 장벽을 높일 수 있을 것이라는 판단이다. 또 유통 단계에서도 악의적으로 생성된 콘텐츠를 인지하지 못한 채 공유하는 것을 방지할 수 있다.
업계 관계자는 “모니터링이 100% 정확하게 이뤄지지 않으면 악성 콘텐츠가 무분별하게 유통될 수 있다”면서 “기술 활용 및 콘텐츠 유통에 있어 글로벌 경계가 사라지는 가운데, 국내외 플랫폼 간의 대응 협의 및 기술 공조가 필요하다”고 말했다.
손지혜 기자 jh@etnews.com