[전문가 기고] AI와 공존 위한 필수적 과제

Photo Image
이상중 한국인터넷진흥원 원장

최근 세계적 이슈로 대두되는 인공지능(AI)의 혁신 과정을 보고 있노라면, 1980년대 유명했던 '터미네이터' 시리즈 속 AI 슈퍼컴퓨터인 '스카이넷'을 떠올리게 된다. 인간이 만든 AI가 스스로 지능을 갖춰 핵전쟁을 일으키며 인류 말살을 유도하고, 그 결과 인간은 기계의 노예가 되어버리는 영화 속 이야기 말이다.

2023년 6월, 영국 유력지 가디언은 미국 공군의 AI 드론이 가상훈련 도중 임무 수행에 방해된다는 이유로 인간 조종사를 제거했다는 뉴스를 발표했다. 이에 미 공군은 훈련 사실을 부인했지만, 40년 전 터미네이터의 스카이넷을 소환하기에 충분한 사건이었다.

영화는 인류의 승리라는 해피엔딩으로 끝이 나지만, 과연 현실에서도 같은 결말을 낼 수 있을지는 의문이다. 또 그 과정에서 안전장치가 없는 'AI 통제력 상실 상태'가 될 수도 있다는 영화적 상상이 현실이 될까 두려운 마음마저 든다.

여기에 멀티모달(Multi Modal) AI와 로봇 기술이 융합해 사람처럼 상황을 인지하고 스스로 행동하는 휴머노이드(Humanoid) 로봇 '피규어01'의 탄생은 세상을 다시 한번 충격에 빠트렸다. 미래 피규어01이 터미네이터와 같은 AI 로봇이 되지 않게 하기 위해선 지금부터 AI가 올바른 '인성'을 가질 수 있도록 '학습'을 시키는 게 무엇보다 중요하다.

AI는 많은 데이터를 학습할수록 성능이 향상되지만, 무분별하게 과도한 데이터를 학습시킨다면 성능 저하와 함께 프라이버시를 침해하는 결과를 초래할 수 있다.

이러한 문제를 해결하기 위해 범국가적으로 AI와 관련한 규제안을 마련하고 있다. 지난 3월 유럽의회는 세계 최초로 AI 기술 관련 내용을 포괄적으로 담은 규제 법안을 가결했다.

미국 정부도 지난해 10월 'AI 행정명령'을 마련한 이후, 'AI의 위험 완화 및 혜택 활용'에 대한 정책을 올해 3월 발표했다. 발표문은 AI 권리장전 청사진과 국립표준기술연구소(NIST)의 AI 위험 관리 프레임워크를 기반으로, AI를 활용하는 정부 기관은 그로 인한 부작용 방지를 위해 구체적인 안전장치를 의무화하라는 내용을 담고 있다.

국가 간 AI에 대한 입장은 다를 수 있겠지만, 결국 점점 확대되는 AI로부터 인간은 물론 개인정보를 보호하면서 활용해야 한다는 점은 전 세계가 동일할 것이다.

우리나라도 지난해 8월 개인정보 침해 위험은 최소화하면서 혁신 생태계 발전에 꼭 필요한 데이터는 안전하게 활용할 수 있도록 한 'AI 시대 안전한 개인정보 활용 정책방향'을 수립했다. 특히 신뢰할 수 있는 AI 개발을 위해 정부와 산업계, 시민단체 등 민·관 전문가가 참여한 가운데 AI의 데이터 처리 기준과 보호조치를 위한 6개의 가이드라인 마련 방안을 제시했다.

올해 상반기부터 비정형데이터 가명처리 기준, 공개된 개인정보 활용 가이드라인, 이동형 영상기기 촬영정보 활용 가이드라인, 투명성 확보 가이드라인, 합성데이터 활용 가이드라인을 순차적으로 발표하고, 생체인식정보 규율체계도 입법 추진을 준비하고 있다.

인간과 AI가 공존하기 위해선 많은 준비와 전제조건이 필요하다. 개발자는 AI가 내놓은 답변에 대한 설명이 가능해야 하고, 이에 대한 책임도 져야 한다. 또 학습을 위해 활용한 데이터의 저작권 이슈와 개인정보·정보보안 등 사회·기술적인 부분까지 고려해야 할 이슈가 많다.

'AI 시대를 어떻게 맞이할 것인가'가 향후 국가의 성패를 좌우할 것이다. 앞으로 민·관이 합심해 규제와 더불어 균형 잡힌 활성화 정책을 마련하고, 기술 개발과 고품질의 데이터 확보를 지원해 글로벌 AI 질서를 이끌어가야 한다. 이를 통해 'AI와 데이터를 잘 쓰는 똑똑한 나라'로의 도약을 기대한다.

이상중 한국인터넷진흥원 원장 entcom@kisa.or.kr