AI 안전성 확보하려면…대시민 교육 확대 필요

Photo Image

최근 생성형 인공지능(AI) 기술의 가파른 발전으로 인한 가짜영상, 이미지 '딥페이크' 문제가 제기되면서, 이에 대응할 수 있는 대시민 교육의 중요성이 높아지고 있다.

선거 등을 앞두고 유명인이나 기업인 등을 중심으로 딥페이크 영상이 공유, 확산되는 것은 물론이고 일상생활에서도 악의적으로 AI를 활용하는 사례가 빠르게 늘고 있기 때문이다.

여성가족부가 발표한 '2022년 아동청소년 대상 성범죄 발생 추세와 동향 분석 결과'에서도 디지털 성범죄는 더욱 교묘해지거나 딥페이크 영상물 제작 범죄도 크게 증가한 것으로 나타났다.

피해자의 얼굴과 음란물을 합성하는 '딥페이크 영상물' 제작은 14건으로, 2019년(1건)보다 급증했다. 소셜미디어(SNS)와 디지털 기술에 능한 청소년 세대일수록 이러한 딥페이크 제작에 거리낌이 없는 실정이다.

AI 악용의 위험성이 커지면서 정부는 과학기술정보통신부를 중심으로 올해부터 본격적으로 AI 리터러시 교육과 정부지원사업에서 고위험 영역 과제 대상 AI 신뢰성 검·인증, AI 안전테스트 프레임워크 개발 등을 추진할 예정이다.

방송통신위원회에서도 딥페이크 근절을 위한 기업 대상 자율 규제를 강화해달라고 요청하기도 했다.

내달 21, 22일에는 한국과 영국 공동 주최로 'AI 서울 정상회의'를 열어 AI의 잠재적 위험성을 인식하고 AI 기술 개발과 활용에 안전장치를 마련할 계획이다.

이미 각국 정부는 AI 안전성을 높이기 위한 규제를 시작했다. 중국 정부가 가장 먼저 작년 1월부터 딥페이크 규제에 착수했고, 영국은 최근 딥페이크로 음란물을 만들기만해도 공유·유포 여부와 관계없이 처벌할 수 있다고 밝혔다.

그러나 전문가들은 이러한 규제가 기업의 알고리즘이나 처벌에 초점이 맞춰져 있는 점을 한계로 지적했다.

기업에선 생성형 AI 기술로 만든 영상이나 이미지 등에 워터마크 등의 이른바 '꼬리표'를 자발적으로 표시하고 있지만, 이용자 차원에서 악용하는 것은 막기가 어려운 실정이다.

AI 전문기업 대표는 “음성의 경우 원본과 합성 데이터를 사실상 구분하기 힘들다”며 “오픈AI의 영상 생성 AI 서비스 '소라'에서 보듯 영상도 곧 원본과 합성을 구별하기 어려워질 것”이라고 말했다.

김명주 서울여대 교수(국제인공지능윤리협회장)은 “AI 활용에 대한 좋은 점과 나쁜 점을 알 수 있도록 대시민 교육 강화가 필요하다”며 “학교는 물론이고 공공기관과 일반 직장에서도 AI 윤리교육을 병행해야 한다”고 말했다.


김명희 기자 noprint@etnews.com

AI