[기고]인공지능도 결국은 측정품질이다

Photo Image
이경범 한국표준과학연구원 책임연구원

인공지능(AI)이 세상을 변화시키고 있다. 오늘날 AI는 과학기술 분야뿐만 아니라 생활 주변에까지 스며들어 사회, 경제, 생활 등의 인간의 다양한 영역에 영향을 미치고 있다. 연일 무수한 언론매체에서 AI 관련 신기술 개발, 활용 및 교육에 대한 뉴스를 보도하고 있다. 정부도 AI 관련 초대형 국책사업을 수립해 2021년도 예산에 포함했다. AI 학습용 데이터 구축, 데이터 표준화와 품질 제고 등 데이터 가공 및 활용에 이르는 전주기 과정을 포함한다고 한다.

그러나 측정학자인 필자의 눈에는 AI가 핵심적인 분야에서 활용되기 위해서 꼭 필요한 연구개발(R&D) 전략 하나가 빠진 느낌이다. 바로 AI가 결과에 대한 신뢰성 정량과 측정품질 보증을 스스로 수행하도록 하는 것이다.

기존 측정학에서 의사결정은 인간의 과거 경험이나 관습에 의해 수행됐다. 인간은 과거 경험을 바탕으로 효과적이라고 알려진 의사결정 규칙을 선택한다. 반면 AI는 인간의 과거 경험이나 관습 대신 학습용 빅데이터를 사용해 자동으로 최적의 의사결정 규칙을 채택한다. AI에 의한 의사결정 결과는 인간에 의한 의사결정 방법이 적용되기 힘든 경우, 가령 고차원 입력량에 대한 의사결정 문제에도 유효하다.

이같이 AI의 의사결정 능력은 빅데이터라는 강력한 힘으로 가능하므로 데이터의 일반적인 품질관리 중요성은 잘 알려져 있으나 측정불확도와 측정 품질보증의 중요성은 간과되고 있다. AI학습용 데이터의 측정불확도가 전파되면 AI가 잘못된 결정에 도달할 가능성이 존재하는데 이 확률을 위험수준이라고 한다. 측정불확도가 측정값의 신뢰도를 나타내는 것처럼 위험수준은 AI 의사결정에 대한 신뢰도를 정량화하는 수치다. 모든 측정결과에 측정불확도를 표기하는 것과 같이 모든 AI 결과에 위험수준이 표기돼야 한다. 여기서 중요한 것은 AI 스스로 위험수준을 평가해 표시할 수 있어야 하므로 학습용데이터 구축 단계부터 데이터에 대한 측정불확도를 고려해야 한다는 점이다.

학습용데이터를 사용하지 않는 강화학습기반 AI인 경우에도 측정품질에 대한 고려가 반드시 필요하다. 한 예로 자율주행차량에 적용되는 AI는 주변환경과 상호작용해 얻는 정보인 보상을 학습하고, 최대보상을 이끌 수 있는 행동을 선택한다. 그런데 차량에 장착된 센서의 교정불확도에 의해 학습한 보상이 불확실할 가능성이 언제나 존재하고, 이로 인해 최적의 행동을 선택하지 못할 수 있다. 자율주행차량 AI의 잘못된 판정결과는 알파고의 악수보다 훨씬 비싼 희생을 치르게 된다.

요즘 설명가능 AI(XAI) 관련 연구가 활발하다. 측정학에서도 '측정소급성'이란 비슷한 개념이 있다. 국제적으로 안전, 환경, 보건 등의 규제 관련 분야에는 측정소급성이 있는 측정결과만을 사용할 수 있다. 이 개념을 확장하면 측정소급성 있는 학습데이터나 센서에 의한 AI 결과만이 국제적인 규제 관련 분야에서 인정받을 수 있을 것이다.

앞으로는 소급가능 AI(TAI)가 필요하고 TAI는 분류나 회귀기반의 단일의사 분야와 강화학습기반의 순차적 다중의사 분야에 모두 적용될 것이다. 이를 위해서는 'AI학습용 데이터 구축' 사업에 선제적으로 측정소급성과 측정불확도에 대한 정보를 포함하고 위험수준 평가 알고리즘을 개발해야 한다. 천문학적인 비용을 들여 구축된 '데이터댐' 의 데이터가 AI 장난감에서만 사용되지 않기 위해서는 말이다.

이경범 한국표준과학연구원 책임연구원 lee@kriss.re.kr


브랜드 뉴스룸