인공지능(AI)으로 생성한 아동 성적 학대 자료(CSAM)의 양이 증가하고 있다는 조사가 나왔다.
영국에 본부를 둔 인터넷 감시재단(IWF)은 최근 이 같은 내용을 담은 보고서를 발표했다.
IWF는 지난 3월 한달간 다크웹 내 범죄 가능성이 높은 이미지·동영상 1만2148개를 조사한 결과, AI로 만든 CSAM 이미지와 동영상은 3512개로 전체의 29%였다. 이는 IWF가 지난해 9월 한달간 적발한 2978개보다 약 17% 늘어난 수치다.
또한 이번에 찾은 CSAM 자료가 6개월 전에 비해 더 극단적이거나 노골적인 성행위를 묘사하고 있다고 IWF는 설명했다.
IWF는 “AI 기술의 발달로 기술을 조금만 익힌 사람은 누구나 그럴듯한 딥페이크 동영상을 제작할 수 있다”며 “클릭 한 번으로 수백 개 이미지가 쏟아져 나오는데 일부 결과물은 거의 흠잡을 데 없이 사실적”이라고 우려했다.
정부, 빅테크 등이 딥페이크 활용 성범죄 등 AI로 인한 문제에 대응하고 있지만 효과를 보지 못하고 있다.
미국 연방수사국(FBI)는 이메일 성명을 통해 아동을 대상으로 한 범죄를 심각하게 받아들이고 있으며 다양한 법 집행 기관과 함께 각 혐의를 조사하고 있다고 밝혔다.
아마존, 구글, 마이크로소프트(MS) 등 미국 빅테크 7곳은 지난해 여름 AI 안전성, 투명성과 관련한 지침을 준수하겠다고 공개 서약서에 서명한 바 있다.
그러나 빅테크 개발 서비스 외에 무료로 사용할 수 있는 수많은 소규모 AI 프로그램에 대한 통제는 이뤄지지 않고 있다고 IWF는 설명했다.
수지 하그리브스 IWF 최고경영자(CEO)는 “산업, 규제 기관, 정부가 위협에 어떻게 대응하는지 면밀히 지켜볼 것”이라며 “아이들의 고통이 AI 도구로 악화되지 않고, 재구상되고 재현되지 않도록 할 것”이라고 말했다.
현대인 기자 modernman@etnews.com