“챗GPT 부상으로 인공지능(AI)에 대한 관심이 뜨거워지고 있는 요즘, 신뢰할 수 있는 AI 개발을 위해 기업의 끊임없는 노력이 필요합니다.”
김유철 LG AI연구원 AI X 유닛 부문장은 “AI는 아직 발전 중인, 완성되지 않은 기술”이라고 밝혔다. 그렇기 때문에 AI에 대한 지나친 기대나 과도한 불안과 불신 모두 바람직하지 못하다고 말했다.
그는 “정치, 외교와 같이 의견이 첨예하게 대립하는 사안은 AI가 답변하기 어려운 것이 사실”이라며 “개인별로 선호도, 이념 등에 차이가 있기 때문에 최근 AI는 관련된 주제에 대한 답변을 회피하거나 다양한 의견에 대해 각각 근거를 제시하는 식의 답변으로 발전하고 있다”라고 설명했다.
그러면서 “정치는 다수결로만 진행되는 의사결정이 아니며 소외계층이나 소수 의견까지 고려해 최적의 답을 찾아가는 고도의 활동이기 때문에 현시점의 AI에 정치적 의사결정을 묻기보다는 의사결정 과정의 참고 수단 중 하나로 활용해야 한다”라고 덧붙였다.
김 부문장은 “정당한 방식으로 입수한 학습 데이터를 소중하게 사용하고 결과물에 있어 편향과 차별을 최소화하며, 의사결정의 근거를 투명하게 설명해주는 AI 개발을 통해 대중의 신뢰를 확보할 수 있는 방향으로 AI 서비스가 발전될 것”이라고 말했다.
앞으로 AI는 사실관계가 명확한 답변이 필요한 질문에 대해 답변의 근거를 명확하게 제시해 줘야 할 뿐만 아니라 논리적 추론 역량을 강화해 인과관계에 근거한 정확한 답변을 제공해 주는 방식으로 발전할 것이라는 얘기다.
김 부문장에 따르면 AI 업계에서는 논리적 추론을 할 수 있는 리즈닝(Reasoning) 기술 연구, 근거 있는 답변을 제공하기 위한 익스플래너블(Explainable) AI 기술 연구, 개인 정보나 부정확한 답변의 근거가 되는 학습 데이터를 선별적으로 삭제하는 언러닝(Unlearning) 기술 연구, 학습 데이터나 결과물에 편향이나 혐오 표현이 있는지를 감지하고 이를 제거해 주는 연구 등이 이뤄지고 있다.
그는 “이런 기술이 확보되면서 조만간 AI가 스스로 윤리적 기준을 학습하고 사용자에 맞게 대응 수위를 조절하는 방법으로 발전해 나갈 것”이라고 예상했다. 이어 “다만 AI 기술은 빠르게 발전하고 있으며 사회도 변화하기 때문에, AI 윤리에 대한 명확한 기준을 도출하는 데는 오랜 시일이 걸릴 수 있다”라며 “그렇기 때문에 기업 입장에서는 명확한 기준을 기다리는 것보다는, 스스로 자발적 노력도 필요하다”라고 강조했다.
김 부문장은 “신뢰할 수 있는 AI를 만들기 위한 노력은 연구개발 영역에서뿐만 아니라 전사적인 범위에서 이뤄져야 한다”라며 “LG는 다양한 선도기술 연구와 함께 AI를 활용하는 모든 제품과 서비스에 AI 윤리원칙을 실현하면서 신뢰할 수 있는 AI를 만들 것”이라고 덧붙였다.
함봉균기자 hbkone@etnews.com