인공지능(AI) 기술 기반 챗봇 서비스가 일상화되면서 챗봇의 정확성, 위탁운영에 따른 책임소재 등 리스크에 대비해야 한다는 목소리가 높아진다.
한국지능정보사회진흥원은 AI 챗봇 확산에 따른 문제점과 그에 대한 대응 방향을 정리한 '캐나다 챗봇 손해배상 사건의 주용 내용 및 시사점' 연구 보고서를 발간했다.
보고서는 캐나다 민사분쟁해결재판소(이하 재판소)가 에어캐나다에 대해 내린 판결을 예로 들면서 몇몇 시사점을 제시했다.
지난 2월 14일 캐나다 재판소는 에어캐나다가 비행기 표 안내를 돕는 챗봇이 잘못된 정보를 제공해 손해 본 승객에게 배상을 하라는 판결을 내렸다.
에어캐나다가 챗봇에 자사의 최신 정책 데이터를 학습시키지 않아 부정확한 정보를 제공했고, 재판소는 이를 '과실에 의한 부실표시'에 따른 불법행위로 간주했다.
보고서는 에어캐나다 판례는 챗봇 서비스가 정보의 정확성과 최신성을 보장하지 않으면 고객에게 민사상 피해를 줄 수 있다고 지목했다. 기업은 비용 절감을 위해 챗봇 서비스를 도입했지만 잘못된 정보를 제공하면 더 큰 배상금을 지불해야 한다는 것이다.
보고서는 또 운영사가 챗봇 도입 이후에 정확도를 유지하기 위한 책임감이 필요하다고 밝혔다.
AI 기업은 운영사에 챗봇을 제공한다. 운영사는 자사 데이터를 입력시켜 파인튜닝(미세조정) 과정을 거친다. 운영사는 리스크 관리를 위해 정기적으로 학습데이터를 최신화하고 정보의 정확성 검증 작업을 이어가야 한다.
채은선 한국지능정보사회진흥원(NIA) 수석연구원은 “운영사가 자체 거버넌스를 마련해 그 안에서 챗봇이 정확한 정보를 주는지 모니터링 등에 투자해 리스크를 관리할 수 있다”며 “제3의 외부기관이 감사를 맡아 데이터 학습 최신화 여부와 보안 관리를 감시할 수도 있다”고 말했다.
챗봇 위탁 운영 과정에서 AI 개발자와 운영사 사이의 불분명한 책임소재도 존재한다. 챗봇 서비스가 일상화되면서 추후 생길 분쟁 문제에 대한 법적 기준이 필요한 상황이다.
국내법에는 아직 AI 개발자와 운영사 사이의 책임 분배에 대한 구체적인 법적 기준이 마련돼 있지 않다.
챗봇 개발사 관계자는 “AI 개발사는 환각 현상 최소화에 집중하고 있으나 이 문제를 완전히 해결할 수 있다고 장담할 수 없다”며 “고객에게 민사상 피해가 생겼을 때, 챗봇의 환각 현상 때문인지 운영사의 데이터 학습의 문제인지 명확하게 가려내기 어려울 수 있어 분쟁 가능성은 존재한다”고 설명했다.
박두호 기자 walnut_park@etnews.com