
AI안전연구소가 인공지능(AI) 기술 개발·사용에 따른 다양한 위험을 체계적으로 정리한 'AI 위험성 지도' 개발에 착수했다. 올해 상반기 내에 문제정의를 마무리하고, 연내 지도 초안을 완성할 계획이다.
'AI 위험성 지도' 프로젝트는 개인, 기업, 정부가 AI 시스템을 개발하거나 운영, 정책 수립 과정에서 고려해야 할 위험 요인을 프레임워크 형태로 구조화하는 작업이다.
AI로 발생하는 단순 위험 요소를 나열하는 것이 아니라 위험을 원인과 위험 영역별로 분류하고 데이터베이스화해 실제 정책과 서비스 설계에 적용할 수 있도록 돕는 것이 핵심이다.
AI안전연구소는 국내외 다양한 AI 위험에 체계적·전문적으로 대응하고 미국, 유럽 등 주요국의 AI 안전 연구기관들과 협력하는 것을 주된 목적으로 지난해 11월 설립됐다.
이번 지도 작성은 미국 매사추세츠공과대학(MIT)이 주도하고 있는 'AI 위험 저장소(AI Risk Repository)' 프로젝트와 국제 공동 연구 등을 통해 진행되고 있다.
MIT의 AI 위험 저장소는 AI로 인한 위험을 정리하고 이러한 위험이 어떻게, 언제, 왜 발생하는지를 분류하고 있다. 65개의 기존 프레임워크와 AI 위험 분류에서 추출한 1600여개 이상의 위험 사례를 수집·분류하고 있다. AI안전연구소는 우리나라 현실에 맞는 유형과 분류체계 등을 정립해나갈 방침이다.
AI 위험성 지도가 마련되면 국내 개발자나 기업들이 AI 기반 서비스를 기획·운영하기 전 혹은 해외 진출을 추진할 때 자사 시스템의 위험을 사전 점검하고, 이를 기반으로 개선·보완할 수 있는 도구로 활용할 수 있다.
AI 기술 발전이 가속화되고 확산이 빨라지면서 개인정보 유출과 데이터 조작, 저작권 침해, 인권 침해 등 AI로 인한 위협 사례가 늘어나고 있다. 유럽연합(EU) 차원의 AI법에 이어 국내의 AI기본법이 국회를 통과하면서 안전하고 신뢰할 수 있는 AI 개발, 활용 지침에 대한 관심도 높아지는 상황이다.
김명주 AI안전연구소장은 “최근 딥시크 사태에서 보듯이 민감한 질문에 대해 AI가 적절한 답을 못 내놓기도 하고 개인정보 유출 등의 위험도 있다는 것도 확인됐다”며 “AI 위험성 지도는 국내외 산업계와 공공부문에서 AI 관련 위험 여부를 종합적으로 판단할 수 있는 기준이 될 수 있다”고 말했다.
김명희 기자 noprint@etnews.com