'KAIST 킬러 로봇' 해프닝으로 '나쁜 인공지능(AI)' 논란이 다시 불붙었다. AI 기술이 급격히 발전하면서 이에 따른 공포감도 확산됐다. AI가 인간의 한계를 뛰어넘었을 때 어떤 일이 벌어질지 누구도 예견하기 어렵기 때문이다.
인간의 고유 영역이라고 여겨졌던 '지능'을 기계에 내맡길 때 생기는 필연적 불안감이다. '킬러 로봇'은 더 심각한 사례다. 기계가 자체 판단으로 인간을 살해할 수 있다는 공포다. 영화 속 '터미네이터'가 현실화하기 전에 윤리 규범을 마련해야 한다는 경고가 이어지고 있다.
KAIST 킬러 로봇 논란은 29개국 과학자 57명이 지난 5일 “KAIST가 한화시스템과 공동 설립한 국방인공지능융합연구센터가 다양한 킬러로봇을 개발할 가능성이 있다”며 '보이콧 성명'을 발표하면서 시작됐다. 이들은 KAIST가 AI를 활용한 공격용 대량 살상 무기를 개발할 수 있다고 우려하며 공동연구를 비롯한 모든 협력을 중단하겠다고 선언했다.
성명을 주도한 토비 월시 호주 뉴스우스웨일스대 교수는 사이언스와 인터뷰에서 “KAIST의 연구는 무인 드론과 잠수정, 순항미사일, 자율 경계 로봇이나 전투 로봇 개발에 적용될 수 있다”면서 “서명 교수들은 KAIST 총장이 공식적으로 인간의 통제를 벗어난 자율 무기를 개발하지 않겠다고 보장하지 않는 한 이 대학 구성원과의 모든 협력을 중단하기로 결정했다”고 강조했다.
성명에는 제프리 힌튼 캐나다 토론토대 교수, 요수아 벤지오 캐나다 몬트리울대 교수 같은 유명 학자도 이름을 올렸다. 이들은 전 세계 AI 연구자 사이에서 '4대 구루(스승)'로 꼽힌다. 월시 교수도 2015년부터 국제적인 AI 킬러 로봇 반대 활동을 벌여온 학자로 유명하다.
KAIST는 성명 직후 신성철 총장 명의의 서신을 모든 참여 교수에게 발송, 진화에 나섰다. 국방인공지능융합연구센터가 살상용 무기 체계 개발과는 무관하고 KAIST는 인간 존엄성에 반하는 연구 활동을 수행하지 않겠다는 게 골자다. 일부 학자는 의혹이 해소됐다는 답신을 보낸 것으로 알려졌다.
신 총장은 서신에서 “KAIST는 AI를 포함한 모든 기술 적용에 대한 윤리적 우려를 상당 부분 알고 있다”면서 “한화시스템과 공동 개설한 연구센터는 자율 무기체계를 개발하려는 목적이 아니고 연구 활동은 개별 공격을 목표로 하지 않는다는 점을 다시 한 번 강조한다”고 못 박았다.
국방인공지능융합연구센터는 방위산업 관련 물류 시스템, 무인항법, 지능형 항공훈련 시스템 등에 대한 알고리즘 개발이 목표다. 살상용 무기와 무관하다는 설명이다. 실제 우리나라 무기 개발 체계에서는 대학이 무기 개발에 참여할 수 없다.
KAIST 해프닝은 AI 기술 오용에 따른 두려움을 단적으로 보여준 사례다. AI에 의해 작동하는 '자율 살상 무기'에 인간미는 기대하기 어렵기 때문이다. 정해진 목표 달성을 위해서라면 거침 없이 인명을 살상할 수 있다.
'강한 AI'와 결합한 자율 살상 무기는 더 심각하다. AI는 인지와 판단에 한정된 '약한 AI'와 자의식을 갖춘 '강한 AI'로 나뉜다. 현재 기술 수준은 약한 AI에 머물지만 더 폭넓은 인지 능력과 자의식을 갖춘 강한 AI도 언젠가는 등장할 전망이다. 강한 AI와 무기 체계가 결합하면 영화 터미네이터의 '스카이넷'이 현실화할 수 있다. 인공지능 의지에 따른 인명 살상이 가능한 단계다.
새로운 기술 등장에 따른 불안감 확산은 일반적 사회 현상이다. 하지만 AI는 인간의 고유 특성인 '지능'에 도전한다는 점에서 차원이 다른 파급력을 갖는다. '사피엔스' 저자 유발 하라리는 AI가 인간 활동 대부분을 대체 가능한 수준으로 발전하고 인류는 스스로 '인류의 새로운 모델'을 찾아야 할 것이라고 예견했다. AI가 인간과 기계, 인간과 인간 간 관계를 완전히 바꿀 것이라는 설명이다.
AI와 국방 기술 간 결합은 여러 전망 가운데서도 가장 뜨거운 화두다. 유엔 인권위원회는 2013년 미국, 이스라엘, 영국, 일본 등이 AI를 이용한 '킬러 로봇'을 개발 중이거나 전투에 투입하고 있다는 보고서를 내놨다. 스티븐 호킹, 일론 머스크 등도 AI를 활용한 무기가 인류 멸망을 초래할 수 있다는 경고를 수차례 내놨다. 이번 성명도 유엔 차원의 킬러 로봇 논의와 관련이 있다고 월시 교수는 설명했다.
과학기술계 내부 논의도 활발하다. 얀 탈린 스카이프 설립자 등 정보기술(IT) 전문가 주도로 설립된 비영리 연구단체 '퓨처 오브 라이프 인스티튜트(FLI)'는 지난해 '착한 AI 연구'를 위한 '아실로마 원칙'을 내놨다. 연구 이슈, 윤리와 가치, 장기 이슈 3개 부문에서 23개 원칙을 도출했다. “AI 연구의 목표는 목적 없는 지능이 아닌 인간에게 유용한 지능을 개발하는 것”임을 천명했다. 카카오도 올해 1월 국내 기업 최초로 '알고리즘 윤리 헌장'을 발표해 이런 움직임에 동참했다.
송준영기자 songjy@etnews.com