“인공지능(AI)은 사람을 모방한 기계여서 완벽할 수 없습니다. 신뢰할 수 있는 AI로 거듭나려면 정부 규제보다는 기업의 책임과 노력이 더 필요합니다.”
김유철 LG AI연구원 AI X부문장은 24일 전자신문이 서울 삼성동 그랜드인터컨티넨털 서울 파르나스호텔에서 주최한 ET테크리더스 포럼 3회차 강연에서 AI 발전 방안을 이 같이 제시했다.
김 부문장은 AI 경쟁력을 높이기 위해서는 기술 이해가 우선돼야 한다고 강조했다. 그는 AI를 특정 '기능'에는 특화됐지만 '지능'을 갖지 못한 기계라고 규정했다. 대용량 데이터를 기반으로 반복적인 학습을 통해 특정 영역에서 뛰어난 기능을 보이지만, 종합적인 추론이나 예지력 등을 갖지 못한 한계가 있다는 것이다.
김 부문장은 “많은 사람은 AI가 사람보다 완벽하고 공명정대하다고 여기지만 기본적으로 사람을 모방한 기계인 만큼 완벽할 수 없다”면서 “그럼에도 판사를 비롯해 수많은 직업이 AI로 대체할 수 있다는 주장까지 나오는 등 AI에 대한 기대와 수요는 커지고 있는 상황”이라고 설명했다.
최근 AI는 특정 기능에 한정된 한계 외에도 공공성, 윤리성 등 문제도 제기된다. 실제 한 글로벌 IT기업이 개발한 AI로 특정 직업을 그려달라고 하자 변호사는 남성, 승무원은 여성으로만 그리는 편향성을 보였다. 이는 인간이 학습 시킨 데이터 오류나 편향성 탓이다. 적용 영역이 확대됨에 따라 무결성을 담보하지 못한다는 불안감도 덩달아 커지고 있다.
김 부문장은 AI를 '자율주행 자동차'에 비유하며 사회적 합의를 거쳐 활용을 확대해야 한다고 강조했다. 그는 “자율주행 자동차 사고로 해마다 10만명씩 사망하는데, 결과만 놓고 보면 절대적으로 완벽하지 않은 기술”이라면서도 “하지만 직접 운전해서 발생하는 사고 사망자의 10분의 1수준에 불과해 기술 개발과 적용이 확대되는 것”이라고 말했다.
완벽하고 신뢰할 수 있는 AI 조건으로는 공공성과 투명성 확보를 꼽았다. 이 과정에서 정부 규제는 최소화하되 기업 스스로 편향성, 차별성을 해소할 기술 개발과 거버넌스 구축까지 필요하다고 제시했다. 최근 LG가 인간존중, 공정성, 안전성, 책임성, 투명성을 바탕으로 5대 AI 윤리원칙을 발표한 것이 대표 사례다.
김 부문장은 “AI가 완벽하지 않다고 해서 정부가 규제를 통해 기술과 산업을 제어한다면 기술혁신을 가로막는 부작용을 낳을 것”이라면서 “기업이 주도적으로 편향과 차별을 없애는 기술과 이를 지속 수행할 거버넌스를 마련한다면 AI에 대한 무분별한 두려움을 극복할 수 있다”고 설명했다.
◇ET테크리더스포럼은 전자신문이 올해 창간 40주년을 맞아 처음 개최하는 것으로 경영과 사업전략 관점에서 기술 트렌드를 공유하고 미래 방향성을 제시하는 자리다. 1기 포럼은 국내 주요 기업 최고경영자(CEO), 임원과 정·관계 인사 등 회원 30여명으로 출범했다. 올 연말까지 약 20주차 프로그램으로 진행된다.
정용철기자 jungyc@etnews.com
문의: 리더스포럼사무국 etedu@etnews.com