Photo Image
<정교일 한국전자통신연구원(ETRI) 로봇협업지능연구실 연구전문위원>

지난 2016년 3월, 이세돌 9단과 알파고 간 펼쳐진 세기의 바둑 대결은 우리에게 인공지능(AI)이 무엇인지 확실하게 알려줬다. 이로써 AI 시대가 또다시 개화됐다고 말한다. 이후 AI는 마치 만병통치약처럼 우리 사회 문제를 모두 해결하고 정보화 사회를 뛰어넘어 지능화 사회로 진입하게 만드는 4번 타자로 등장했다.

AI가 잘 동작하기 위해서는 무엇보다 양질의 데이터 확보가 필요하다. 정부는 그동안 디지털 뉴딜 대표과제로 '디지털 댐' 구축에 나서며 데이터 확보와 활용에 힘을 쏟아 부었다.

이처럼 수많은 데이터로 학습한 AI는 점점 고도화되고 진화 중이다. 의료, 국방, 도시, 에너지 등 다양한 산업 분야에 적용하거나 활용하기 위해 많은 연구자가 노력하고 있다. 혹시나 데이터가 부족할 경우, 실제 데이터를 활용해 존재하지 않는 데이터까지 척척 만들어내는 기법인 '적대적 생성 신경망(GAN)' 기술도 많은 연구자와 개발자들이 적극 활용하고 있다.

하지만 AI와 데이터 세상 이면에는 어두운 면도 있다. 수많은 데이터가 필요한 AI 시대에서 정보 불평등, 이들 정보로부터 발생하기 쉬운 개인 프라이버시 침해 등은 어렵지 않게 나타날 수 있는 현상이다.

가장 대표 사례는 '가짜 뉴스' 생산이다. 가짜 뉴스로 인한 인신공격, 명예 훼손, 무분별한 비판 등도 문제지만 이를 해소하기 위한 비용 부담 등 그 후유증은 사회악이라 할 만큼 크다. 코로나19 팬데믹 상황에도 마스크 보급이나 백신접종 등 민감한 주제와 관련해 가짜 뉴스가 범람한 게 사실이다. 방역 당국 입장에서는 정책 혼선은 물론 신뢰에 금이 가는 심각한 문제가 아닐 수 없었다.

우리는 지난 3월, 대한민국 20대 대통령 선거를 치렀다. 또 보름 후면 전국동시지방선거도 해야 한다. 특히나 선거철이 되면 출처를 알 수 없는 가운데 마구 등장하는 가짜 뉴스가 유권자 판단을 흐린다. 정확하지 않거나 사실이 아닌 정보전염병(infodemic) 현상이 만연해진다. 이로 인한 사회적 비용도 만만치 않다.

메타(옛 페이스북)는 전 세계 최대 SNS 플랫폼 운영회사다. 이들이 가장 민감하게 생각하는 게 바로 가짜 뉴스고 그릇된 정보 양산과 확산이다. 메타는 잘못된 정보 공유를 막기 위해 다음 세 가지 전략을 세웠다.

첫째, 커뮤니티 규정 및 광고 정책 위반 계정과 콘텐츠 삭제다. 둘째는 가짜 뉴스와 낚시성 콘텐츠 배포 축소고, 셋째는 사람들이 보는 게시물 전후 문맥을 제공해 더 고품질 정보 전달하는 것이다. 물론 이와 같은 방법으로 잘 걸러내면 좋겠지만 아무래도 한계가 있을 것이다.

일반적으로 가짜 뉴스 유포에 대한 처벌은 법이나 규제로 사후에 조절하는 경우가 많다. 따라서 근본적인 뉴스 생산에 대해서는 돌이킬 수 없고 생산자 윤리에 의존할 수밖에 없다.

그렇지만 최근 놀랍게 발전하는 AI를 활용하면 가짜 뉴스를 걸러낼 수 있다고 생각한다. 각종 URL, 발생 시점 등은 물론 앞뒤 문맥이나 상황 등을 유추하고 AI와 빅데이터를 활용한다면 가능할 것이다. 뉴스 전후 관계를 조사하고 관련 근거, 발생 시점, 자료 출처나 사진 이미지 내 조작 흔적 등을 AI를 이용해 찾아내면 된다. AI로 거른 기사 콘텐츠들은 뉴스 신뢰도를 증가시켜 정보 전달과 의미 있는 기사로서 가치를 되찾게 될 것이다. 이를 위해 정부에서는 가짜 뉴스 생산과 유통을 억제할 수 있는 기술개발은 물론 인력 양성에 더 적극적인 투자가 필요해 보인다.

공학적 노력과 함께 가짜 뉴스를 생산하는 정보 생산자도 윤리적 책임감을 느껴야 한다. 사회적으로 가짜 뉴스 유해성을 인지하고 정보 생산자와 소비자가 객관성·신뢰성의 합의가 이뤄진다면 무분별한 정보의 인포데믹 현상도 막을 수 있다. 독자는 오염되지 않은 정보를 누릴 권리가 있기 때문이다.

정교일 한국전자통신연구원(ETRI) 로봇협업지능연구실 연구전문위원 kyoil@etri.re.kr