Photo Image
황보현우 하나은행 자문위원·홍콩과기대(HKUST) 겸임교수

지난 2월 홍콩의 한 금융사에서 딥페이크(deepfake) 사기로 2억홍콩달러(약 342억원)를 송금하는 금융사고가 발생했다. 단순한 보이스피싱이 아니라 화상회의에 등장한 상급자의 얼굴과 목소리를 확인한 후였기에 충격은 더 컸다. 사기꾼들은 상급자뿐 아니라 화상회의에 참석한 모든 직원들을 딥페이크로 재현했다. 이처럼 인공지능(AI) 기술의 부작용은 우리에게 현실로 다가왔다.

AI 기술의 발전으로 인한 디스토피아(dystopia)의 도래는 이미 40년 전부터 언급되어 왔다. 영화 '터미네이터'(1984)에 등장하는 AI 스카이넷(Skynet)은 미 국방부가 인류 평화를 위해 만든 첨단 방어 체계였지만, 본래 의도와 다르게 인간에게 무차별적 공격을 감행하는 존재로 등장한다. AI가 인류에게 위협적인 존재로 부각된 것이다.

AI의 4대 구루(guru)라 불리는 제프리 힌턴 캐나다 토론토대 교수와 요수아 벤지오 몬트리올대 교수는 'AI가 인간 능력을 넘어섬에 따라 향후 AI가 인간을 지배할 수도 있다'는 사실을 꾸준히 경고해 왔다. 이들은 'AI가 기후 변화보다 인류에 더 큰 위협이 될 수 있으며, 우리가 확실히 통제할 수 있을 때까지 더이상 AI를 발전시켜서는 안된다'고 주장한다. 이러한 맥락에서 작년 4월 3만여명의 AI 분야 교수, 연구자들은 'AI 개발을 6개월만이라도 멈추자'는 서한을 발표하기도 했다.

AI는 '알라딘'에서 주인의 소원을 들어주는 램프 요정 '지니(Genie)'와 같은 존재다. 지니는 우리가 원하는 바를 그대로 실현시켜 주지만, 그것이 반드시 좋은 결과로 귀결되지는 않는다. 우리가 소원을 잘못 말할 수도 있고, 악당 '자파(Jafar)'가 요술 램프를 빼앗아 지니에게 소원을 빌 수도 있기 때문이다.

테슬라의 최고경영자인 일론 머스크가 '우리는 AI에게 소원을 조심해서 빌어야 한다'고 언급한 것처럼 AI는 역사상 가장 파괴적인 힘을 가졌기에, 우리는 AI의 부작용에 주의를 기울여야 한다. AI의 부작용이나 폐해의 가짓수는 셀 수 없을 만큼 다양하다.

첫째, 환각(hallucination)이다. 챗GPT가 만들어낸 해프닝인 조선왕조실록에 기재된 '세종대왕의 맥북 던짐 사건'은 빙산의 일각에 불과하다. 우리 눈에 진짜처럼 보이는 텍스트, 이미지, 동영상이 AI가 만들어낸 가짜일 수 있기 때문에 이제 '보는 것이 곧 믿는 것'(Seeing is believing)이라는 프란시스 베이컨의 격언은 더 이상 유효하지 않게 되었다.

둘째, 편향(bias)으로 인한 차별이다. 아마존이 과거 채용 데이터로 학습시킨 AI가 여성 지원자에게 낮은 점수를 준다거나, 영국 정부가 비자 발급 심사를 위해 개발한 AI가 유색인종의 비자 신청을 높은 비율로 거부한 것이 그 예이다. 이러한 사례들은 편향되거나, 오염된 데이터로 학습한 AI가 위험한 차별을 초래할 수 있음을 보여준다.

셋째, 보이스피싱, 해킹 등 범죄에의 악용 가능성이다. 딥페이크로 가짜 뉴스를 생성하고, 여론을 조작하는 것을 넘어, 악의적으로 여성 사진을 누드로 편집하고, 유명 인사의 사진을 위조하는 인권 침해가 빈번히 발생하고 있다. 또 AI 챗봇에게 특정 방식으로 대화를 유도하면서 개발사가 만들어 둔 제한을 깨거나, 무기나 마약 제조, 살인 등 범죄를 위한 답변을 유도하는 '탈옥' 'AI 학대'와 같은 문제점도 속출하고 있다.

넷째, 지식재산권 침해와 개인정보 유출이다. AI가 데이터를 학습하는 과정에서 기존의 저작권을 침해하거나, 개인정보를 노출하는 사례가 발생하고 있다. 3월 개인정보보호위원회는 6개 기업이 대규모 언어모형을 개발하는 과정에서 주민등록번호 등 개인정보 노출이 있었음을 지적하고, 개인정보보호 취약점을 보완하기 위해 학습 데이터에서 주요 식별 정보를 제거할 것을 권고한 바 있다.

그렇다면 AI의 부작용을 최소화하기 위해 우리는 어떤 노력을 해야 할까?

먼저 데이터와 개인정보보호, AI와 산업보안을 함께 교육하고, 발전시켜 나가야 한다. 이들은 AI산업 발전을 위해 대체재가 아닌 보완재로서 서로 분리할 수 없는 하나의 패키지다. 최근 서울의 모 대학에서 데이터&프라이버시 융합전공을 개설한다는 소식은 반갑지 않을 수 없다. 왜냐하면 AI와 보안을 모두 잘 아는 융합형 인재가 바로 국가와 기업이 필요로 하는 인재이기 때문이다.

더불어 AI 윤리 가이드라인과 보안 산업 육성 정책 수립이 필요하다. 지난 3월 유엔총회에서 AI의 안전한 사용에 관한 합의를 마련하자는 결의를 만장일치로 통과시킨 것은 반가운 소식이다. 유엔총회 결의가 국제법상 구속력은 없지만, 향후 국제 사회가 AI와 관련한 규제와 거버넌스를 논의하는데 시금석이 될 수 있기 때문이다.

이러한 관점에서 우리나라에서도 '인공지능기본법'의 제정이 필요하다. AI는 기술의 발전 속도와 더불어 국가 차원의 제도 경쟁력이 중요하기 때문이다. 일단 먼저 법적, 제도적 프레임워크를 만들어야 AI와 관련한 치열한 기술 전쟁, 윤리 전쟁에서 뒤처지지 않을 수 있다.

황보현우 하나은행 자문위원·홍콩과기대(HKUST) 겸임교수