30년 경력 미국의 한 변호사가 챗GPT를 활용해 찾은 판례와 함께 의견서를 제출했다. 그러나 판사 포함, 아무도 의견서에 기재된 판례와 인용구를 찾지 못했다. 제시한 판례의 사건번호를 검색한 결과 무관한 사건의 판례가 나왔다. 제출한 판례는 모두 가짜인 것으로 판명났다. 챗GPT가 생성한 가짜 판례였던 것. 해당 변호사는 세 차례나 챗GPT에 '진짜 판례가 맞냐'고 거듭 확인했으나 챗GPT는 끝까지 '그렇다'고 주장했다.
철학적인 답변부터 의학 지식, 코딩, 창작의 영역인 소설 등을 불과 수 초 만에 일필휘지로 생성해 내는 AI에게 인간의 수준을 뛰어넘었다며 찬사를 보낸다. 거침없는 답변, 확신에 찬 태도, 주장을 뒷받침할 만한 근거는 이용자의 경계를 낮춘다.
하지만 그만큼 생성형 AI '할루시네이션'에 대한 우려가 커지고 있다. 할루시네이션은 초거대 AI에 필연적으로 나타나는 오류다. 통상 AI가 학습한 적이 없는 영역에서 발생한다. 한 번도 경험하지 못한 사안에 대해 잘못된 주장을 하거나 존재하지 않는 사실을 생성하게 된다. 정보의 맥락이나 의미를 오해해 생뚱맞은 답변을 내놓기도 한다. 고강도 트레이닝이 필요한 전문 영역이나 맞춤형 학습이 요구되는 특정 사회·문화·역사 성격의 질문에 할루시네이션이 종종 발생한다. 의료, 법률 등 전문 분야에서 할루시네이션이 발생할 경우 치명적이다.
할루시네이션 문제가 해결되지 않는다면 점점 더 많은 이용자가 챗GPT 같은 생성형 AI를 사용하며 거짓된 정보를 사실인 것처럼 믿을 수 있다. 대한상공회의소에 따르면 국민 3명 중 1명은 챗GPT를 사용해본 것으로 집계됐다. 신뢰도 또한 높았다. 응답자 10명 중 9명은 챗GPT 답변 내용에 대해 보통 이상의 신뢰도를 가지고 있다고 밝혔다.
할루시네이션을 해결할 수 있는 산업군 별 '전문 생성형 AI'가 필요하다. 생성형 AI를 접목하고 직접 고도화한 리걸테크에서 신뢰 회복 가능성을 확인할 수 있다. 인텔리콘이 개발한 리걸GPT는 생성형 AI에 방대한 법률 특화 데이터를 학습시켰다. 법률 지식 베이스를 다시 결합해 정확하고 구체적인 답변을 내놓는다.
'교통사고가 났는데 명함을 주고 그냥 가면 무슨 죄인가'라고 질문할 경우 챗GPT는 “명함을 주고 그냥 가능 경우 법적인 문제가 될 수 있다”는 일반론적 답변을 내놓는다. 이와 달리 로GPT(LawGPT)는 “운전자가 '도로교통법' 제54조 1항에 따라 즉시 정차해 구호 등 필요한 조치를 해야 하며, 명함을 주고 가는 것은 구호의무를 불이행한 것으로 간주해 '특정범죄 가중처벌 등에 관한 법률'에 해당할 수 있다”는 판례를 제시한다.
더 많은 분야에서 전문 AI를 만드는 것이 생성형 AI 신뢰 회복의 길이다. 이용자는 신뢰할 수 있는 생성형 AI를 원한다. 설명 가능한 AI가 인기를 끄는 것은 이에 대한 방증이다. 이용자가 AI를 신뢰하지 못할 경우 사용을 중단할 수 있다. 전문 AI로 신뢰도를 높여 이용자가 AI를 지속 사용할 수 있도록 하고, 해당 데이터를 통해 AI가 학습할 수 있는 기회를 만들어 신뢰도를 높이는 선순환 구조를 이어가야 한다.
손지혜 기자 jh@etnews.com