Photo Image

저 하늘엔 별이 빛나고 내 마음엔 도덕이 빛난다. 철학자 이마누엘 칸트가 실천이성비판에서 한 말이다. 황사와 미세먼지 가득한 요즘 밤하늘이라면 별 밝기에 버금가는 도덕 정도는 내 마음속에도 있다.

마음속 도덕을 행동으로 드러낼 때의 기준이 윤리다. 지난해 12월 23일 정부는 인공지능(AI) 윤리기준을 발표했다. 정부, 공공기관, 기업, 고객이 AI 개발 및 활용 과정에서 지켜야 할 주요 원칙과 핵심 요건을 담았다.

사람 중심 AI를 목적으로 인간존엄성 원칙(행복추구, 인권보장, 개인정보보호, 다양성 존중, 해악금지), 사회공공선 원칙(공공성, 개방성, 연대성, 포용성, 데이터 관리), 목적성 원칙(책임성, 통제성, 안전성, 투명성, 견고성)을 정하고 있다.

Photo Image

유럽연합(EU)·미국 등 각국 정부와 연구기관, 카카오, 구글 등 국내외 기업도 다양한 윤리기준을 제시했다. 최근 EU는 AI로 말미암아 닥칠 위험을 용납할 수 없는 위험(사람의 자유 방해 등), 높은 위험(도로교통, 수술, 생체인증 등), 낮은 위험(챗봇 등), 최소한도 위험(비디오게임 등) 등 단계별로 분류하고 합당한 규제를 법으로 만들라고 제안했다.

윤리와 법은 어디가 다를까. 윤리는 양심에 따라 마땅히 해야 할 도리다. 법은 반드시 지켜야 할 강제규범이다. 윤리를 위반하면 비난을 받는 데 그치지만 법을 위반하면 처벌을 받는다.

Photo Image

위반해도 처벌할 수 없는데 AI 윤리기준은 왜 필요할까. 윤리기준은 의학실험, 수술 등 치료와 의약품, 자율주행, 로봇 등 생명·신체 안전 등에 중대한 피해가 발생할 수 있는 분야에서 논의된다. AI 활용은 도로교통·수술 등 생명 또는 신체를 위험에 빠뜨리거나 범죄 악용, 범인 체포·구속 등 법을 집행하는 과정에서 인간의 가치를 훼손할 수 있다. 경각심을 높이려면 윤리기준이 필요하다. 이 대목에서 AI 통제가 중요하면 윤리기준이 아니라 바로 법으로 규제하는 것이 맞지 않을까 하는 의문이 든다. AI라 해도 개인정보보호법, 신용정보법, 민법, 형법, 각종 사업법 등 현행법이 당연히 적용된다. 그러나 AI가 딥러닝을 통해 사람의 정신활동을 크게 능가한다면 그 위험을 미리 가늠하기 어렵다. 현행법이 충분하지 않을 수 있다. 새로운 법이 필요해도 AI가 야기하는 위험에 대한 연구와 해결책 마련에 시간이 필요하다. 그래서 먼저 윤리기준으로 통제하는 것이다. 섣불리 법을 적용했다가 AI 산업 발전을 가로막을 수 있는 것도 고민했다.

윤리기준을 만들면 모든 것이 해결될까. 아니다. 윤리기준은 강제성이 없다. 내용은 추상적이고 모호하다. 윤리기준에 다양성 원칙으로 'AI는 다양성에 따른 불공정 대우를 최소화하는 데 사용해야 한다'고 정한다면 어떻게 행동해야 윤리기준을 지키는 것이 될까. 기업이 윤리기준을 마련해서 지키는 시늉만 해도 책임감경 등 면죄부를 받을 가능성이 있다. 그러나 윤리기준을 마련했다고 해서 AI 위험이 사라진 것은 아니다. AI 기업이 자정 의지와 자정 능력으로 시장에서 자정 기능을 작동할 수 있는 시스템을 만들어야 한다. 그 과정에 정부, 고객, 전문가 그룹도 당연히 참여해야 한다.

Photo Image

윤리기준이 있으니 법은 없어도 되는 것일까. EU에서 입법을 제안한 만큼 국내에서도 법을 통해 AI 부작용을 해소해야 한다는 견해가 나올 것이다. 윤리기준은 정부, 공공기관, 기업, 고객이 그 내용을 숙지하고 경각심을 불러일으키는 것에서 그친다. AI는 빅데이터를 AI 알고리즘에 넣어 분석 결과를 제시하기 때문에 무엇이 나올지는 알 수 없다. 혜택이 있을 수 있지만 피해가 발생할 수도 있다. 피해가 생명이나 신체 안전과 관계된 것이라면 더욱 걱정스럽다. 그래서 입법 검토는 해야 한다. 그러나 신중해야 한다. AI 부작용을 막으려다 AI 자체를 막는 실수를 저지를 수 있다. AI 활용 증대와 부작용 억제는 어느 하나도 포기할 수 없다. 외과의사가 도려내야 할 환부를 들여다보듯 꼼꼼한 대비가 지금 당장 필요한 이유다.

이상직 법무법인 태평양 변호사(AI-IP특별전문위원회 위원장) sangjik.lee@bkl.co.kr