[기고] '인공지능 신뢰성'은 다가온 미래다

Photo Image
고인선 법무법인 원 변호사

2022년 11월 챗GPT가 출시된 지 1년 반이 지나지 않았다. 사람들은 '대화가 가능한' 인공지능(AI)에 놀랐지만 어느덧 익숙해졌고, AI가 우리의 앞날에 함께할 것이라는 사실을 받아들이고 있는 것으로 보인다. 거의 모든 산업 분야에서 AI를 이용한 제품과 서비스가 쏟아지고 있고 AI는 우리의 일상과 산업에 깊숙이 녹아들고 있다. 이러한 상황에서 인간과 AI의 공존을 위한 '인공지능 신뢰성(AI Trustworthy)'에 대한 관심이 높아지고 있다.

'인공지능 신뢰성'이란 AI 사용자가 AI 모델 및 AI 모델이 만들어내는 산출물, 의사결정, 표현, 결과를 신뢰할 수 있는 정도를 말한다. 구체적으로는 △안전성 △보안성 △정확성·품질 △투명성 △공정성·윤리성 등을 기준으로 삼을 수 있다. 안전성은 AI 모델이 사용자 및 사용 환경에 해를 끼치지 않도록 통제될 수 있어야 한다는 것이고, 보안성은 AI 모델이 외부 공격으로부터 안전하고 개인정보를 보호하며 시스템 자체의 무결성을 유지할 수 있는 능력을 말한다. 정확성·품질은 AI 모델의 작업 내지 산출물이 객관적 사실에 부합하며 사용자가 기대하는 요구 수준을 만족시킬 수 있어야 한다는 것이다. 투명성은 AI 모델의 작동 원리와 의사결정 과정이 명확하게 이해되고 설명 가능한 것이어야 한다는 기준이다. 공정성·윤리성은 AI 모델, 그 시스템, 산출물이 보편타당한 윤리적 가치를 존중하고 공정하게 작동되어야 한다는 요구다.

'인공지능 신뢰성'과 관련해 각국 정부, 공공기관, 학술단체, 표준단체, AI 기업 등에서 여러 논의를 진행하고 있고 기준이 될 수 있는 내용을 제시하고는 있으나, 현 시점에서 바이블이라고 할 만한 명확한 기준은 마련되어 있지 않다. 다만 구체화된 법률안으로는 '유럽연합(EU) 인공지능법'이 선두에 서 있다. 올해 3월 EU 의회에서 승인되어 2026년 시행을 앞두고 있는 'EU 인공지능법'은 '인공지능 신뢰성'에 관한 내용을 담고 있다. 인간의 건강·안전·권리에 미치는 영향에 따라 AI 모델의 위험도를 4등급으로 나누었다. '수용할 수 없는 위험'은 기본권 침해 우려 등으로 금지되는 AI다. '고위험 인공지능'은 인간의 건강, 안전, 기본권에 높은 위험을 야기할 수 있는 AI로 위험관리시스템 구축, 데이터 거버넌스 구축, 사용자에 대한 투명성 및 정보 제공, 사람에 의한 감독 등 강력한 규제를 받게 된다. '제한적 위험 인공지능'은 고위험 인공지능만큼 강력한 규제가 적용되지는 않지만, 투명성 의무가 부과되며 AI 생성물임을 고지할 의무 등이 있다. 마지막으로 '저위험 인공지능'에 대하여는 위 법상의 규제가 적용되지 않는다.

'EU 인공지능법'은 EU 내에서 제공되는 AI 공급자, EU 내 위치한 AI 시스템의 사용자들 뿐만 아니라, 제3국에서 이용되거나 출시된 서비스라고 하더라도 그 결과물이 EU 내에서 활용되는 경우에도 적용된다. AI 모델은 출시국가에 관계 없이 전 세계를 대상으로 하는 경우가 많으므로 사실상 우리나라 기업도 적용을 받게 될 것이다.

'인공지능 신뢰성' 문제가 우리의 현재이자 미래로 다가온 지금, 우리는 어떤 점들을 고려해야 할까. AI 모델을 개발하거나 관련 서비스를 출시하는 공급자는, 불완전한 기준이라고 하더라도, 'EU 인공지능법' 등 현재까지 나와있는 AI 관련 규정을 참조해 '인공지능 신뢰성' 기준 충족 여부를 점검해야 한다. 그렇지 않으면 사업을 진행하며 낭패를 볼 수 있다. AI 모델을 이용하는 사용자는 AI 모델 활용에 있어 저작권, 퍼블리시티권, 개인정보 등 타인의 권리 침해 및 혹시 모를 위법행위를 주의해야 할 것이다. 정확하고 안전하며 윤리적으로 운용되는 AI는 우리의 삶과 사회 발전에 긍정적인 영향을 미칠 수 있다. 좋은 사회가 좋은 AI를 만들고, 좋은 AI는 좋은 사회를 만든다.

고인선 법무법인 원 변호사 isgo@onelawpartners.com


브랜드 뉴스룸