지난 4월 21일 유럽연합(EU)집행위원회는 인공지능(AI) 법안을 내놓았다. 유럽의회 투표와 회원국 승인이 필요하기 때문에 순조롭게 진행돼도 최종 입법까지는 2년 이상 소요된다. 법안은 AI가 사람에 미치는 위험 정도에 따라 용납할 수 없는 위험(unacceptable risk), 고위험(high risk), 저위험(limited risk), 최소 위험(minimum risk)으로 나눠 규제하고 있다.
첫째 용납할 수 없는 위험 단계의 AI는 사람 행동을 조작하는 경우 아동, 장애인 등 약자를 이용하거나 공격하는 경우 등이다. 인간의 존엄, 자유, 평등, 민주주의에 대한 명백한 도전이다. 시장에 나오지 못하게 금지한다.
둘째 고위험 AI는 △운송·교통, 기계, 무선장비 및 의료기기 등 사람의 안전과 관계된 경우 △가스, 전기 등 중요 인프라에 이용되는 경우 △잠재적 가해자 또는 피해자가 될 위험 평가, 거짓말탐지 등 감정상태 확인, 증거 신뢰성 평가, 범죄 분석에 사용되는 경우 등이 해당한다. 고위험 AI는 허용하되 위험관리시스템을 기획·설계·구축할 의무를 부과한다.
셋째 저위험 AI는 명의 도용 등 사람을 속일 수 있는 AI를 말한다. 이용자가 속지 않도록 투명성 확보 의무를 부여한다.
넷째 최소위험 AI는 게임 등 권리침해 및 안전위험이 최소화된 경우로, 규제하지 않는다. 벌칙은 용납할 수 없는 위험의 AI를 활용한 경우 최대 3000만유로(약 400억원), 세계 연간매출액의 6% 이 둘 가운데 높은 금액의 벌금을 부과한다.
EU가 AI 입법을 추진하는 이유는 뭘까. 위험성에 따라 AI 허용 여부를 결정하고 AI 기업의 의무 사항을 정해 시민보호와 산업 육성이라는 두 마리 토끼를 잡겠다는 것이다. 이보다 앞서 2015년 5월 유럽디지털 단일 마켓 전략은 EU 회원국 간 경제·정치 통합을 통해 EU 경쟁국에 대한 공동 대응, EU 기반의 강력한 데이터·AI 기업 탄생을 위한 시장 조성 및 경쟁력 지원을 목표로 했다.
그러나 2008년 금융위기 이후 계속된 경제 침체, 2020년 브렉시트(영국의 EU 탈퇴) 및 코로나19 팬데믹 등 위기에서 각 회원국의 피해 정도, 대응 방법, 정치 상황 등 편차가 커서 EU 전체의 일사분란한 대응이 쉽지 않았다.
구글 등 글로벌 디지털기업의 약진에도 EU 국적의 데이터·AI 기업은 성장세가 미흡했다. 글로벌 디지털 기업에 대한 공정거래법, 개인정보보호법 위반 등 과징금 제재만으로 유럽 시장을 보호하기에는 한계가 있다. 그 결과 글로벌 디지털 기업의 영향력이 큰 고위험 AI를 견제하고 저위험 AI 또는 경쟁력이 있는 AI 분야에서 EU 기업을 육성할 수 있는 토양 마련에 집중하고 있다. 이를 뒷받침하기 위해 EU 자체를 EU 회원국 기업을 위한 공통의 단일시장으로 만들려는 전략이다.
이에 대해 미국은 경제만이 아니라 외교·안보에서 미국 중심의 세계 복귀로 실리와 명예를 한꺼번에 얻는 전략을 추진하고 있다. 파리기후협약·세계보건기구(WHO) 복귀를 추진하는 한편 AI 이니셔티브(initiative), 반도체장비 수출제한 정책을 유지하고 있다. 미국의 AI 등 디지털 기업은 특허 세계 최고를 달성하는 기술 수준을 바탕으로 안정적인 궤도에 올라 규제를 견딜 수 있는 내성을 이미 갖춘 상태고, 경쟁국에는 많은 비용을 수반하는 규제 수준을 요구하고 있다. 그들만의 기준을 국제표준으로 강요하기도 한다.
우리는 어떻게 해야 할까. EU AI 법안을 베끼는 것은 퍼스트 무버를 꿈꾸는 국가로서 할 일이 아니다. 입법 사대주의에서 벗어나야 한다. 미국·EU 기업 대비 국내 기업의 데이터·AI 기술 수준, 산업 발전 정도와 경쟁 여건을 검토해야 한다. EU AI 법안의 국내 도입이 국내 데이터·AI 산업 발전 또는 해외 진출에 도움이 될지 비판적으로 분석해야 한다. 정부는 조연이지 주연이 아니다. AI 기술 개발, 상품화, 건전한 소비 등 민간 활력을 최고치로 끌어올리기 위한 생태계 조성에 집중해야 한다.
이상직 법무법인 태평양 변호사(국가지식재산위원) sangjik.lee@bkl.co.kr