
생성형 인공지능(AI) 챗봇이 학습 도구를 넘어 감정을 나누는 '친구'로 자리 잡고 있다. 그러나 전문가들은 “AI는 실제로 공감하는 존재가 아니다”라며 아동·청소년의 정서적 의존 가능성을 경고했다. AI의 공감 능력을 어디까지 신뢰해야 하는지, 이를 어떻게 가르칠 것인지가 새로운 교육 과제로 떠올랐다.
이 같은 문제의식은 26일 서울 종로구 NC문화재단에서 열린 '모두의 인공지능 윤리 컨퍼런스'에서 집중적으로 논의됐다. 국제인공지능윤리협회와 NC문화재단이 공동 주최하고 방송미디어통신위원회와 AI안전연구소가 후원한 이번 행사는 '감정 교류 AI의 올바른 개발과 활용'을 주제로 진행됐다.
교육 전문가들은 AI 활용 능력 교육을 넘어 AI의 한계와 특성을 이해하고 인간과 기계의 관계를 비판적으로 인식하도록 돕는 'AI 윤리 및 리터러시 교육'으로 확장돼야 한다고 입을 모았다.
박형빈 서울교육대학교 윤리교육과 교수는 “AI는 실제 감정을 경험하거나 공감하는 존재가 아니라 통계적 패턴을 기반으로 공감적 표현을 생성하는 시스템”이라며 “인간의 뇌는 이를 실제 사회적 신호처럼 받아들이기 때문에 아동·청소년의 경우 AI와 정서적 유대감을 형성하고 의존할 가능성이 있다”고 설명했다.
이러한 우려는 해외에서 실제 사회 문제로 나타나며 교육적 대응 필요성을 더욱 분명히 하고 있다. 미국에서는 캐릭터.AI(Character.AI) 등 감정 교류 AI에 과도하게 몰입한 청소년들이 현실과 가상의 경계를 혼동하고 극단적 선택에 이르는 사건이 발생하면서 사회적 충격을 줬다.
박 교수는 이를 '공감의 환상'으로 규정했다. 그는 “AI와의 반복적 상호작용은 현실 인간관계에서 필요한 갈등 조율 능력과 도덕적 인내심 형성을 저해할 수 있다”며 “결과적으로 감정 조절 기능이 외부 시스템에 의존하는 '정서적 외재화'로 이어질 위험이 있다”고 말했다.

이 같은 변화는 교육의 역할과 방향 전환을 강하게 요구하고 있다. 박 교수는 “학생들이 AI 반응을 실제 공감으로 오해하지 않도록 돕는 교육이 중요하다”며 “AI는 갈등을 조율하거나 책임을 요구하는 존재가 아니기 때문에 학생들이 인간관계 속에서 형성되는 공감과 책임의 의미를 직접 경험하고 학습할 수 있도록 교육이 보완돼야 한다”고 덧붙였다.
AI 챗봇은 정신 건강 측면에서도 양면성을 띠고 있어 균형 잡힌 접근도 요구된다는 주장도 있었다.
차유진 KAIST 의과학연구센터 연구교수는 “AI 챗봇은 사회적 불안을 겪는 학생들에게 대화 기회를 제공하고 정서적 위안을 주는 긍정적 역할을 한다”면서도 “AI와 상호작용이 늘어나는 상황에서 학생들이 인간의 감정과 관계의 의미를 균형 있게 이해하는 역량을 기르는 것이 중요하다”고 말했다.
전창배 국제인공지능윤리협회 이사장은 “AI가 사람들에게 위로와 도움을 주는 긍정적 역할을 하는 동시에 정서적 의존과 정체성 혼란 등 새로운 윤리적 과제도 함께 제기되고 있다”며 “AI 시대에는 기술 활용 능력뿐 아니라 AI를 올바르게 이해하고 책임 있게 사용할 수 있도록 돕는 교육과 사회적 논의가 지속돼야 한다”고 강조했다.
권미현 기자 mhkwon@etnews.com


















