인공지능(AI) 안전연구소가 연내 출범을 앞둔 가운데 AI 정책 수행과 AI 시장 모니터링 등 기능이 연구소의 필수 기능이 돼야 한다는 정책 제언이 나왔다.
정보통신산업진흥원(NIPA)은 최근 외부 용역 연구보고서를 통해 AI 안전연구소의 한국형 모델을 제시했다.
NIPA는 선진국의 AI 안전연구소 법령과 기능을 분석해 한국에 적합한 기능, 역할을 언급했다.
미국, 유럽연합, 영국, 일본 등 주요 선진국은 AI 기술 개발과 함께 AI 안전연구소를 설립해 AI 기술이 초래할 부작용과 위험을 체계적으로 연구하고 있다. 한국 정부도 지난 5월에 열린 'AI 서울정상회의'에서 AI 안전연구소를 설치를 발표한 바 있다.
NIPA는 AI안전연구소가 과학기술정보통신부의 AI 정책을 지원하고, AI 안전 정책을 실행하는 실질적인 운영 기능을 가져야 한다고 제언했다.
또 AI 서비스 시장을 모니터링하고 AI 시스템 취약점을 점검하는 'AI 레드티밍' 역할을 수행해야 한다고 강조했다.
NIPA는 국내 AI 안전연구소 출범 과제로 해외 AI안전연구소, 국제 기구와 협력해 글로벌 표준에 맞는 안전 프레임워크를 만드는 것을 꼽았다. 새로운 기술과 시장 동향을 파악하고 국제 표준화에 참여해야 한다는 것이다.
NIPA는 22대 국회에서 AI 안전 법률을 마련하고, 여기에 해외 연구소 기능을 참조해 법·제도 차원에서 구체적인 AI 안전연구소 역할 정립해야 한다고 분석했다.
미국은 지난해 2월 미국AI안전연구소 지원을 위해 AI 개발자, 사용자, 학계, 정부, 업계 연구원, 시민사회단체 등 274개 기업·조직이 모여 AI안전연구소 컨소시엄(AISIC)을 설립했다. 정부에 AI 관련 정책과 규제를 직접 제안하며, AI 기술 배포를 지원한다.
영국 AI 안전연구소는 AI 오동작 장지 기술, 워터마크 기술, 개인정보보호, 고위험 응답 방지, 비상정지 등 AI 안전 기술을 개발했다.
유럽연합(EU)은 AI 기술에서 민주주의, 안전, 건강, 법치 등 기본권을 보호할 수 있는 법안을 제정하기도 했다. 고위험AI를 정의하고, AI 시스템 제공자, 배포자에게 의무와 감시장치도 강화했다.
NIPA 관계자는 “한국 AI 안전연구소가 안전하게 AI 기술을 사용할 수 있는 중추적 역할을 할 것으로 기대한다”고 말했다.
박두호 기자 walnut_park@etnews.com