[이슈분석]킬러 로봇 해프닝이 남긴 과제...AI·로봇 활용 국제 윤리 기준 만들어야

Photo Image
ⓒ게티이미지

공상과학(SF) 소설가 아이작 아시모프는 1942년 소설 '런어라운드'에서 로봇 3원칙을 제시했다. 원칙 중 첫째는 '로봇은 인간을 다치게 해서는 안 된다. 위험에 처한 인간을 내버려둬서도 안 된다'이다. 그러나 각국의 치열한 개발 경쟁, 인공지능(AI)과 로봇 기술 융합으로 인간을 살상하는 '킬러 로봇'에 대한 두려움이 커지고 있다.

국내에서도 최근 KAIST가 살상 로봇 기술을 지원한다는 오해를 받는 사건이 있었다. 세계 로봇 학자 57명은 최근 스위스 제네바에서 열리는 유엔의 자율살상무기 관련 논의를 앞두고 KAIST와 앞으로 어떤 협력도 하지 않겠다며 보이콧을 선언했다. KAIST가 지난 2월 한화그룹 계열사인 한화시스템과 손잡고 문을 연 국방인공지능 융합연구센터가 '킬러 로봇' 연관 기술을 개발할 수도 있다는 이유였다. 이후 KAIST가 '킬러 로봇' 개발 계획이 전혀 없다고 해명하고 외국학자들은 보이콧을 철회하면서 일단락됐다. 하지만 AI와 로봇 활용에 대한 윤리기준 마련이 필요하다는 점은 중요한 과제로 남았다. 군사적 문제와 연관이 큰 만큼 구체적이고 실효성 있는 국제 합의 도출이 시급하다.

Photo Image

◇킬러 로봇 금지론 비등…도입 찬성론도 제기

군사 영역에 로봇·AI 기술 도입을 경계하는 목소리는 과학계와 시민단체를 중심으로 지속 제기됐다. 킬러 로봇 도입 금지론자들은 기계가 임의로 인간을 해칠 경우 인간 존엄성이 크게 훼손될 것이라고 우려한다.

이번에 보이콧 사태를 주도한 토비 월시 호주 뉴사우스웨일스대 교수는 대표 반대론자다. 그는 2015년 국제 AI학회에서 스티븐 호킹, 노암 촘스키 등 1000여명 학자들과 함께 킬러 로봇 개발 경쟁 위험성을 경고하는 서한을 작성했다. 이 서한에서 “킬러 로봇이 내일의 칼라시니코프(세계에서 가장 많이 생산된 소총)가 될 수 있다”며 킬러 로봇 개발을 비판했다.

2017년에는 엘론 머스크 테슬라 CEO, 무스타파 술레이만 구글 딥마인드 공동창업자 등 26개국 AI·로봇 과학자 116명과 함께 킬러 로봇 금지를 요구하는 서한을 국제연합(UN)에 보냈다. 국제인권단체 휴먼라이츠워치와 하버드 로스쿨 인권연구소도 2016년 킬러 로봇 위험성을 경고하는 공동보고서를 냈다.

하지만 각국 킬러 로봇 경쟁이 지속되는 상황 속에서 도입을 찬성하는 입장도 속속 등장하고 있다. 로봇은 감정에 치우치지 않고 오인 확률도 떨어지기 때문에 오히려 더 나은 결정을 내릴 수 있다는 것이다. 비용을 절감하고 인명 피해도 줄일 수 있다면 굳이 기술을 활용하지 않을 이유가 없다는 입장이다. 인간이 스스로 능력과 도덕성을 지나치게 관대하게 가정하고 있다고 비판한다.

로자 브룩스 미국 조지타운대 법대 교수는 미국 외교전문지 포린 폴리시를 통해 “전쟁 상황에서 인간은 분노, 두려움, 공포로 잘못된 판단을 내리기 쉽다”면서 “로봇이 인간보다 훨씬 잘 국제인도법을 준수하게 될 것”이라고 주장했다.

현실주의 시각에서 다른 국가가 개발하고 있는 상황을 고려하면 안보를 위해 방어를 위한 킬러 로봇 개발을 허용해야 한다는 주장도 제기된다. 매리 앤 윌리엄스 호주 시드니공과대학 교수는 “호주 같은 국가가 방어형 킬러 로봇을 개발하는 것을 막으면 금지령을 무시한 다른 국가에게 취약하게 될 것”이라며 “킬러 로봇 금지가 유일한 전략이 될 수 없다. 그 이상이 필요하다”고 말했다.

◇명확하고 실효성 있는 국제 대안 마련 시급

우리나라도 AI와 로봇 관련 윤리규범을 마련하려는 시도가 이어진다. 박정 더불어민주당 의원이 로봇 윤리 강화를 포함한 지능형로봇법 개정안, 박영선 더불어민주당 의원이 지능형로봇윤리헌장을 담은 로봇기본법 개정안을 발의한 상태다. 유럽연합(EU)은 이미 지난해 AI 로봇 법적 지위를 '전자인간'으로 규정하는 결의안을 통과시켰다.

미국, 러시아, 중국 등 강대국이 개발 경쟁을 펼치고 있는 상황을 고려하면 단일 국가 합의만으로 킬러 로봇 금지 노력이 결실을 맺기 힘들다. 지속적인 우려 목소리에도 아직까지 킬러 로봇 관련 국제합의가 도출되지 못한 상황이다. 지난해 11월 스위스 제네바에서 열린 특정재래식무기금지협약(CCW) 회의에서 자율살상무기(킬러 로봇)이 주제로 다뤄졌지만 합의를 이끌어내지 못했다. UN 차원 논의였지만 안보리 상임 이사국이 미온적 입장을 보였다. 월시 교수가 KAIST에 격렬한 반응을 보인 것도 킬러 로봇 반대 여론을 확산하기 위한 전략이란 분석이 나오는 이유다.

실효성 있는 대안을 마련하려면 원론적 차원 합의만으론 어렵다. 현재는 국제적으로 합의된 킬러 로봇에 대한 정의도 없는 상황이다. 전문가들은 군사 영역에 AI, 로봇 기술을 어디까지 허용하고 어디부터 금지해야할지 명확하게 규정해야 한다고 조언한다. 미국은 자동화 무기를 사용할 경우에도 마지막 결정은 인간이 내리도록 운영한다. 완전 자율화에서 최종 판단 영역을 빼 인간에게 주는 방안이다. 레이저 무기처럼 인간에게는 사용하지 못하게 합의하는 방안도 있다.

살상용 영역 활용을 전면 금지하는 경우에도 비살상용 기술을 어디까지 허용해야 하는지 세부적으로 결정해야 한다. 단순히 탐지하고 판별하는 영역까지는 허용할 것인지, 기계가 정보만 제공하고 인간이 판별해야 하는지 이론이 제기될 수 있다. 지뢰제거, 물류 효율화 등 영역에선 AI와 로봇 도입이 오히려 인명 피해와 군비 감축에 도움이 될 수 있다. 이미 산업 현장에서도 이용되는 기술이다.

고경철 KAIST 연구교수는 “이번 보이콧 논란은 KAIST 연구에 대한 오해에 비롯된 사건에 불과하지만 AI와 윤리문제에 대해 세계와 우리국민이 더욱 관심을 기울이는 계기가 됐다”면서 “첨단기술의 윤리적 활용에 대한 명확한 기준과 합의를 마련해야 한다”고 말했다.


오대석기자 ods@etnews.com


브랜드 뉴스룸