인공지능(AI) 기술이 빠르게 발전하면서 인간 전문가보다 더 똑똑한 AI 시스템이 화제가 되고 있다. '알파고'에서 경험했듯 바둑과 같은 특정 게임에서는 컴퓨터가 인간 챔피언보다 더 빠르고 정확하게 수를 판단한다. 이 같은 AI의 능력은 이제 거의 모든 산업 분야에 적용돼 인간이 실수를 줄이고 더 좋은 성과를 내도록 보조하고 있다.
예를 들어 미국 뉴욕경찰국은 1994년에 컴프스탯(컴퓨터 스태티스틱스)이라는 범죄예측 프로그램을 도입했다. 이 프로그램은 범죄 빅데이터를 분석해서 범행 발생 가능성이 짙은 지역을 각 경찰서에 알려주고, 그 지역 순찰을 강화하는 방식으로 범죄 발생률을 감소시켰다. 컴프스탯의 성공은 다양한 치안 AI 탄생으로 이어졌다.
그런데 AI가 의사결정을 할 때 가끔 비윤리적인 성향을 보이는 사례가 나타나면서 'AI와 윤리'라는 이슈가 매우 중요하게 대두되고 있다. 채용 시 남성과 여성에게 가산점을 차별하거나 화상으로 백인은 잘 인식하면서 흑인은 그렇지 못한 경우 등이다. 뉴욕경찰국 범죄예측 AI의 경우도 예방이란 명분으로 범죄와 관련 없는 사람의 초상권 등 각종 인격권과 사생활 비밀을 침해할 위험이 있다.
이런 비윤리적 결과를 놓고 AI 개발 회사의 윤리성을 문제 삼는 경우가 빈번하게 나타난다. 이런 접근은 주의해야 할 필요가 있다. AI 시스템이 제대로 작동하지 않는 상황은 크게 두 가지로 나눠 볼 수 있다. 첫 번째는 AI가 사회 통념상 윤리적이지 못한 방식으로 의사결정을 하는 경우, 두 번째는 학습 데이터가 오염됐거나 설명 가능성이 옅다는 등의 이유로 AI에 대한 신뢰성이 떨어지는 경우다.
이 두 가지 문제는 AI 기술이 아직 완전하지 못해서 발생하는 것이다. AI 시스템이 비윤리적이기 때문이 아니라 기술적인 한계로 그런 현상이 나타난 것이다. AI 시스템의 한계는 이상적인 수준으로 나아가는 과정에서 나타난 현상이다. 즉 기술 발전과 보완을 통해 점차 개선해 나가야 할 문제이다.
그럼에도 비윤리적인 결과가 나오는 경우 이를 곧 AI의 개발자가 비윤리적인 것으로 해석하는 현상을 우리는 많이 봤다. 발전 과정에서 나타난 문제를 비윤리적이라고 매도하면 선의의 도전적인 연구 의지까지 꺾을 위험성이 있다.
또 AI 기술 활용에서 중요한 것이 사회적 합의 문제다. 자율주행차 사고 뉴스를 보면 아직 이에 대한 대중의 신뢰가 높다고 보긴 어렵다.
도로 위의 모든 자동차가 자율주행으로 바뀔 경우 교통사고가 현재보다 90%까지 줄어들 수 있다는 연구 결과가 있다. 세계보건기구(WHO)에 따르면 자동차 사고로 인한 사망자가 세계적으로 연간 130만명이라고 한다. 자율주행차 기술을 통해 이 가운데 90%의 목숨을 살릴 수도 있는 것이다. 하지만 자율주행차로 말미암아 발생하는 10% 사고 사망자에 대한 책임은 누가 질 것인가에 대한 답을 내리지 못한다면 그런 기술 진보는 언감생심이다.
AI 기술로 인한 편의와 효용이 크지만 그 가운데 나타나는 피해 보상을 누가 어떤 방법으로 분담할 것인지는 아직 사회적으로 합의되지 않았다. 그런데 이런 합의를 이루기 전에 나오는 과도한 우려는 필요 이상의 규제를 마련할 공산이 높다. 이제 성장 단계에 있는 AI 기술의 발전을 위해서는 부작용에 과민하게 대응하기보다 원인을 파악해서 방지할 수 있는 기술 개발을 장려하는 것이 중요하다. 그렇지 않으면 부작용에 주목한 나머지 기회마저 놓칠 위험성이 있다.
기업 역시 신뢰받는 AI 기술 개발에 더 큰 관심을 기울일 필요가 있다. 신뢰할 수 있는 AI를 만드는 것과 함께 공정성, 안정성, 투명성 등을 확보하기 위한 노력도 게을리하지 말아야 한다. 현재 기술 수준에서 오류를 방지하기 위해 최선을 다하고, 그 과정을 투명하게 공개하는 것이 중요하다. 또 사회문화적 영향에 대한 고찰로 시민 편익을 최대화하기 위해 공학자뿐만 아니라 법학자, 사회학자 등 다양한 분야의 전문가들이 참여하는 논의를 이제부터 시작할 필요가 있다.
서정연 LG AI연구원 AI 인재육성위원장 pr_brand@lgresearch.ai