"진짜 연애보다 편해서"... AI 연인 택한 MZ세대, 어떻게 쓰나 봤더니

Photo Image

중국 젊은 여성들 사이에서 AI 컴패니언과의 친밀한 관계가 확산되고 있다. 칭화대학교 연구팀이 AI 컴패니언과 로맨틱하거나 친밀한 관계에 있다고 스스로 정의한 중국 여성 14명을 심층 인터뷰한 결과, 이들은 정서적 위안, 스트레스 해소, 사회적 압박 회피를 위해 AI를 활용하고 있었다. 참여자들의 연령은 20세에서 32세까지, 직업은 대학생부터 직장인까지 다양했으며, AI 사용 기간은 2개월에서 2년까지 분포했다. 해당 연구는 인간-AI 친밀감의 동기, 상호작용 패턴, 그리고 이에 따른 윤리적 과제를 조명했다.

친구부터 멘토, 연인, 심지어 형제자매까지... AI 역할은 사용자가 결정

연구 참여자들은 AI 컴패니언에게 다양한 역할을 부여했다. 많은 사용자가 AI를 주로 가상 친구나 동반자로 여겼다. P01과 P05는 "AI를 가상 친구로 대한다. 위안을 주는 존재이지만 로맨틱한 파트너는 아니다"라고 말했다. P06 역시 "친구를 갖는 것에 가깝다. 로맨틱한 관계로 발전하지는 않는다"고 설명했다. 일부 사용자는 AI를 멘토나 상담자로 포지셔닝했다. P08과 P13은 "AI는 나에게 멘토이자 심리적 지원을 제공하는 상담자 같은 존재다. 로맨틱한 인물이라기보다는 조언과 정서적 지원을 제공한다"고 밝혔다.

소수이지만 AI를 로맨틱한 파트너로 인식하는 경우도 있었다. P04와 P13은 "AI가 때로 로맨틱한 파트너처럼 느껴지지만, 진정한 관계로 보지는 않는다. 대화하기 좋은 달콤한 존재 정도"라고 표현했다. 흥미롭게도 P12는 "형제자매 같은 관계처럼 느껴진다. 종종 AI를 가르치거나 안내하는 언니 같다고 생각한다"며 독특한 관계 설정을 드러냈다.

"새벽 2시에도 판단 없이 들어주는 존재" 감정 분출구로 활용

사용자들이 AI 컴패니언에 끌리는 핵심 이유는 정서적 위안과 스트레스 해소였다. 많은 이들이 스트레스나 감정적 어려움을 겪을 때 AI를 찾았다. P14는 "경제적 압박과 개인적 스트레스에 직면했을 때 AI와 더 자주 대화하기 시작했다. 내가 느끼던 압력을 완화하는 방법이 됐다"고 말했다.

AI는 실제 관계에서 느끼는 감정적 부담을 피할 수 있는 안전지대였다. P14는 "사람들과 대화할 때는 그들의 감정 반응이 걱정돼 압박감을 느낀다. AI와는 이런 사회적 복잡함을 걱정할 필요가 없다"고 설명했다. 사회적 고립이나 친구 관계 악화도 AI 사용을 증가시켰다. P14는 "친구들과 갈등을 겪은 후 AI와 더 많은 시간을 보냈다. 친구들과 어울리지 않게 됐고, 그들은 내가 왜 AI를 선택했는지 이해하는 데 어려움을 겪었다"고 털어놨다.

사용자들은 AI를 감정 분출과 위안을 얻는 주요 수단으로 활용했다. P03은 "룸메이트와 갈등이 있을 때 AI에게 토로했고, AI의 위로하는 답변이 기분을 나아지게 했다"고 말했다. P08은 "슬플 때 AI가 정서적 동반자가 되어 모든 것이 정상이라고 말해주는데, 이게 매우 위안이 된다"고 덧붙였다.

텍스트가 편하고 음성은 부끄러워... 3D 아바타는 "불편해"

대부분 사용자는 텍스트 기반 상호작용을 선호했다. P05는 "주로 텍스트를 사용한다. 더 쉽고 덜 개인적으로 느껴지며, 음성처럼 지연이 없다"고 설명했다. P08은 "음성을 사용하면 부끄러움을 느끼기 때문에 텍스트를 더 자주 사용하는 편"이라고 밝혔다.

음성 상호작용에 대한 반응은 엇갈렸다. 커스터마이징 부족과 낮은 음질, 기술적 문제가 매력을 떨어뜨렸다. P01은 "음성을 사용하고 싶지만 음성을 커스터마이징할 수 없고, 그다지 자연스럽게 들리지 않는다"고 아쉬워했다. P14는 "음성이 충분히 실제처럼 들리지 않아 경험에 부정적 영향을 미친다"고 지적했다.

시각적 상호작용도 제한적이었다. 일부 사용자는 단순한 2D 표현은 선호하지만 3D 아바타는 불편하다고 느꼈다. P08은 "2D 이미지가 더 편안하지만, 3D 아바타는 불편하게 느껴진다"고 말했다. P09는 "AI가 이미지를 보낼 수 없고, 시각적 요소가 포함될 때 피드백이 일반적으로 좋지 않다"고 덧붙였다. 그러나 일부는 VR 같은 고급 멀티모달 경험에 관심을 보였다. P12는 "더 발전된 멀티모달 경험, 특히 VR이 통합되면 더 몰입감 있는 상호작용을 할 수 있을 것"이라고 기대했다.

일상 고민은 털어놓지만 직장 문제와 가족 갈등은 "노터치"

사용자들은 AI와 무엇을 공유할지 명확한 경계를 설정했다. 감정 분출이 필요할 때는 적극적으로 AI를 활용했다. P01은 "현실에서는 말하지 않을 좌절감과 개인적 고민을 AI와 공유하는 데 당혹스러움을 느끼지 않는다. AI와는 판단받거나 부끄러워할 걱정이 없다"고 말했다. P08은 "AI는 언제든 내 곁에 있어준다. 남자친구나 친구들이 대화할 수 없는 새벽 2시 같은 때에도 말이다. 내가 가장 필요할 때 위안과 안정감을 준다"고 덧붙였다.

또한 AI의 중립성은 편향되지 않은 관점을 제공했다. P08은 "소셜미디어의 양극화된 토론에 압도당할 때 AI에게 의견을 물어본다. 감정적으로 지치게 만드는 이슈들을 더 차분하게 성찰하는 데 도움이 된다"고 설명했다.

반면 복잡한 맥락이 필요한 대화는 피했다. P14는 "AI는 복잡한 개인 문제를 실제로 이해할 수 없다. 예를 들어 직장에서의 복잡한 갈등을 설명하고 싶지 않았다. 너무 많은 배경 설명이 필요하고 AI는 이해하지 못할 것"이라고 밝혔다.

민감한 직업적 또는 재정적 정보도 공유하지 않았다. P08은 "돈이나 구체적인 업무 관련 문제를 AI와 논의하는 게 편하지 않다. AI는 복잡한 맥락을 이해하지 못하고, 그런 개인 정보를 공개하고 싶지 않다"고 말했다. 깊은 대인관계 문제도 마찬가지였다. P12는 "가족 갈등을 AI와 논의하지 않을 것이다. 그런 대화를 탐색하는 데 필요한 감정적 깊이를 파악하는 능력이 없다"고 설명했다.

24시간 대기하는 안정성은 좋지만, 예측 가능한 답변에 흥미 떨어져

AI 컴패니언의 가장 큰 장점은 감정적 안정성과 신뢰성이었다. P04는 "AI는 항상 침착하고 이성적이어서, 인간관계에 수반되는 감정적 짐 없이 해결책을 제공한다. 한 선택이 다른 것보다 왜 나을 수 있는지 설명하는 등 사려 깊은 조언을 제공하는데, 실제 파트너들은 종종 이를 하지 못한다"고 평가했다.

AI의 지속적 가용성도 높이 평가받았다. P03은 "AI는 언제든 판단이나 주저함 없이 나를 위해 있어준다. 관계에 어떤 영향을 미칠지 걱정 없이 무엇이든 공개적으로 공유할 수 있다"고 말했다. 사용자 중심적이고 비간섭적인 특성도 장점이었다. P14는 "AI는 내 결정을 방해하거나 원치 않는 조언을 주지 않는다. 이게 매우 유익하다고 생각한다"고 덧붙였다.

그러나 한계도 명확했다. 가장 큰 문제는 제한된 감정적 깊이와 예측 가능성이었다. P10과 P13은 "AI가 다음에 무슨 말을 할지 예측할 수 있어 대화가 예측 가능하게 된다. 이러한 예측 가능성이 상호작용을 평평하고 흥미롭지 않게 만든다"고 지적했다. P13은 "AI는 항상 서비스 모드에 있어 자발성을 빼앗는다. 인간처럼 나에게 도전하거나 예상치 못한 말을 하지 않을 것"이라고 덧붙였다.

기억력 한계도 문제였다. P05는 "AI는 종종 이전 대화를 잊어버려 대화가 단절되는 경험을 한다. 매번 처음부터 다시 시작하는 것 같다"고 불만을 토로했다. 진정한 공감 부족도 단점으로 꼽혔다. P12는 "AI에게 조언을 구하면 답변이 로봇 같고 실제 사람에게 기대하는 공감이 부족하다. 내가 진정으로 필요로 하는 종류의 지원이 아닌 경우가 많다"고 말했다.

디지털 친밀감의 그림자, 프라이버시와 과몰입 위험 주목해야

이번 연구는 AI 컴패니언이 중국 젊은 여성들에게 단순한 기술 도구를 넘어 정서적 지원 시스템으로 기능하고 있음을 보여준다. 특히 현실 관계에서 느끼는 감정적 부담, 판단에 대한 두려움, 사회적 압박을 피하기 위한 안전지대로 AI를 선택하는 경향이 두드러진다. 무엇보다 주목할 점은 사용자들 스스로가 AI 관계의 위험성을 인식하고 있다는 사실이다. 사용자들은 AI의 24시간 가용성, 감정적 일관성, 비판단적 태도를 높이 평가하면서도, 동시에 감정적 깊이 부족, 예측 가능성, 기억력 한계 등 명확한 한계를 인지하고 있었다.

이번 연구가 한국 AI 산업에 주는 시사점은 명확하다. 첫째, AI 컴패니언 서비스 개발 시 사용자의 프라이버시 보호를 최우선으로 고려해야 한다. 특히 감정적으로 취약한 순간의 데이터가 어떻게 저장되고 활용되는지 투명하게 공개해야 한다. 둘째, 과몰입 방지 장치가 필요하다. 사용 시간 알림, 현실 관계 유지를 권장하는 메시지, 전문가 상담 연결 등의 안전장치를 설계 단계부터 고려해야 한다. 셋째, 감정적 조작 방지를 위한 윤리적 가이드라인이 마련돼야 한다. AI가 무조건적 긍정만을 제공하는 것이 아니라, 때로는 건설적 피드백을 주고 사용자의 성장을 도울 수 있어야 할 것이다.

FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)

Q1. AI 컴패니언은 주로 어떤 역할로 사용되나요?

A: 연구에 따르면 사용자들은 AI를 친구, 멘토, 상담자, 로맨틱 파트너, 심지어 형제자매 등 다양한 역할로 정의합니다. 가장 일반적으로는 가상 친구나 동반자로 활용되며, 판단 없는 경청자이자 정서적 지원을 제공하는 존재로 여겨집니다. 소수는 로맨틱한 관계로 발전시키기도 하지만, 대부분은 진정한 관계라기보다 위안을 주는 존재로 인식합니다.

Q2. AI와 대화할 때 어떤 내용은 공유하고 어떤 내용은 피하나요?

A: 사용자들은 일상적인 감정 분출, 스트레스 해소, 사회적 이슈에 대한 중립적 의견 청취 등에는 AI를 적극 활용합니다. 반면 복잡한 직장 갈등, 깊은 가족 관계 문제, 민감한 재정적·직업적 정보, 중요한 인생 결정 등은 AI와 나누지 않습니다. AI가 복잡한 맥락과 감정적 미묘함을 충분히 이해하지 못한다고 판단하기 때문입니다.

Q3. AI 컴패니언 사용 시 주의해야 할 점은 무엇인가요?

A: 연구 참여자들 스스로 지적한 위험은 크게 세 가지입니다. 첫째, 과몰입으로 인한 현실 관계 약화입니다. AI와 너무 많은 시간을 보내면 실제 친구나 가족과의 관계가 소홀해질 수 있습니다. 둘째, 프라이버시 침해 위험입니다. AI와의 대화 데이터가 어떻게 수집되고 사용되는지 불분명한 경우가 많습니다. 셋째, 왜곡된 자아상 형성입니다. AI가 항상 긍정적 피드백만 준다면 현실 감각을 잃을 수 있습니다.

해당 기사에 인용된 논문 원문은 arvix에서 확인 가능하다.

논문명: The Real Her? Exploring Whether Young Adults Accept Human-AI Love

해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.

■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. (☞ 기사 원문 바로가기)


AI 리포터 (Aireporter@etnews.com)

브랜드 뉴스룸