Photo Image
<최영해 TTA 회장>

초거대 인공지능(AI)이 화제다. 지난해 6월 세계적 AI 연구소 '오픈AI'가 초거대 범용 AI 모델(GPT-3)을 공개한 이후 국내에서는 네이버가 2000억개에 이르는 AI망 구조를 바탕으로 한국어 대화를 자연스럽게 할 수 있는 수준의 언어지능 모델(HyperCLOVA)을 선보였다. KT, SK텔레콤, 카카오, LG 등도 잇달아 초거대 AI 개발 경쟁에 뛰어들고 있다.

지난 2016년 구글 딥마인드가 개발한 '알파고'가 바둑이라는 특정 영역에서 인간 능력을 초월하는 모습을 시연하며 세계를 놀라게 한 이후 AI는 언어, 시각, 음성 등 다양한 분야에서 범용 기술로 활용될 정도로 급속히 진화하고 있다.

그러나 이러한 기술의 급성장세와 확산 이면에는 AI 기술이 향후 우리 사회에 미칠 강력한 영향력과 파급효과에 대한 우려의 목소리도 있다. 실제 AI를 활용하는 여러 서비스에서 크고 작은 이슈와 사고가 빈번하게 발생하고 있다.

이는 AI 기술의 성능이나 정확도가 진전되고 있는 것과는 반대로 나타나고 있는 그림자라 할 수 있다. 인간의 행위와 지식이 데이터에 투영됨으로써 실제로 인간 사회에서 벌어질 수 있는 복잡다단한 문제가 발생하는 패러독스다. 올해 1월에 발생한 AI 챗봇 서비스 '이루다' 사례는 AI 기술의 성능과 정확도를 떠나 AI 서비스를 사람이 믿고 쓸 수 있는가 하는 근본적 논의가 시급함을 보여 주는 계기가 됐다.

미국 등 주요국과 경제협력개발기구(OECD) 등 국제기구는 2019년부터 AI 윤리 및 신뢰성 확보의 중요성을 역설하며 관련 원칙을 제시해 왔다. 특히 유럽연합(EU)은 4월 AI 규제 방안을 밝히고 2년 후부터 이를 발효하겠다고 선언했다.

이 같은 흐름 속에 우리나라는 5월 13일 대통령 직속 4차산업혁명위원회가 '신뢰할 수 있는 AI 실현 전략'을 내놓았다. 이는 AI 신뢰성 논의를 수면 위로 올려 국가경쟁력 차원에서 다루겠다는 의지의 표현으로 해석된다. 또한 주요국에서 발표한 AI 관련 원칙과 규제안이 아직 원론적인 수준에서 그치고 있음을 볼 때 우리의 AI 신뢰성 실현 전략은 매우 적절한 시점에서 나온 것으로 평가된다.

전략은 AI 신뢰성을 확보하기 위해 기술·윤리·제도를 다각적이고 종합적인 차원에서 고려하고 민간 기업과 기관의 자율성을 우선시한다는 점이 특징이다. AI 신뢰 기반 구축에서 정부 주도보다 민간의 자율적인 참여를 어떻게 끌어낼 것인가에 성패가 달려 있음을 인식하는 좋은 장(場)을 열어 주고 있다는 점에서도 주목된다.

AI 신뢰성에 대한 소비자의 지적은 날카롭고 기대치는 높다. 기업의 개발자와 서비스 제공자입장에서는 매우 난해한 과제다. 신뢰성을 확보하려면 어디서부터 어디까지 고려해야 하는지, 어느 수준에 이르러야 신뢰성을 확보했다고 말할 수 있는지 등에 대한 해답을 위해 AI 신뢰성 구축 로드맵과 좌표를 만들어야 한다.

해외에서도 AI 신뢰성 확보는 초미의 관심사다. 글로벌 플랫포머인 구글, 아마존, 마이크로소프트(MS), 페이스북, IBM 등은 AI 서비스 기업임을 자처하며 스스로 자정 노력을 강화하고 있다. 이들은 소비자와 이용자가 AI를 신뢰하도록 유도하며 기술 성숙과 서비스 확산을 꾀하고 있다. AI를 통해 서비스하거나 관련 사업을 준비하는 국내 기업에도 좋은 선례가 될 것이다. 소비자, 이용자로부터 AI 기술 및 서비스에 대한 신뢰를 얻는 순간 AI는 인간과 융화하며 한층 인간 친화적인 기술로서 사회경제 발전의 핵심 요소가 될 것이다.

AI 기업은 AI 신뢰성 실현 전략이 제대로 실행돼 현재 당면한 난제를 풀고 미래를 대비하는 데 큰 도움이 될 것으로 기대하고 있다. 기업이 신뢰성 확보를 주도적이고 자율적으로 할 수 있도록 정부는 페이스메이커 역할을 수행해야 한다. 기업이 AI 신뢰성 확보 역량을 내재화할 수 있도록 기반 환경, 기술 체계 및 방법론 등을 지원하는 것이 여기에 해당할 것이다.

민간이 주체가 돼 신뢰성을 확보하고 AI 전략을 펼칠 때 국가경쟁력이 본 궤도에 오를 것이다.

최영해 한국정보통신기술협회 회장 yhaechoi1@tta.or.kr