미국, 영국, 호주, 캐나다 차주 도입… 연내 확대 도입

인스타그램에서 일정 시간 동안 '자살', '자해'같은 용어를 반복적으로 검색할 경우 부모에게 즉시 알리는 기능을 도입했다.
26일(현지시간) 미국 CBS 뉴스에 따르면 메타는 부모 감독 기능이 설정된 인스타그램 계정을 대상으로 청소년 자녀가 일정 시간 내에 극단적 선택과 관련된 표현을 여러 차례 검색하면 보호자에게 알림을 보내는 신규 기능을 출시했다.
이 기능이 작동하면 보호자는 이메일과 문자 메시지, 왓츠앱 및 앱 내 알림 등을 통해 자녀의 검색 사실을 실시간으로 전달받게 된다. 또한 단순 통보를 넘어 부모가 자녀와 대화를 시도할 때 참고할 수 있는 전문가 상담 자료와 대화 가이드 등 지원 자료도 함께 제공한다.
다음주 출시하는 신규 기능은 미국, 영국, 호주, 캐나다 등 주요 영어권 국가에 도입된다. 한국 등 그 외 지역에는 추후 알림이 발송되는 형태로 순차적으로 도입될 것으로 보인다.
메타는 지난해 10월부터 18세 미만 사용자가 '알코올'이나 '잔인한 이미지' 등 선정적이거나 폭력적인 키워드를 검색할 수 없도록 하는 연령 기반 콘텐츠 제한을 도입했다. 이와 함께 '자살' '자해' '섭식 장애' 같은 검색어도 제한됐다.
유해 콘텐츠 노출 차단, 도움 기관 안내 등 수동적 방식 대응에 주력해온 메타는 알림 기능을 도입해 부모의 조기 개입을 가능하게 하는 직접적인 안전장치를 마련하게 됐다.
메타는 또한 청소년이 인공지능(AI)과 대화에서 자살, 자해 관련 주제로 특정 유형의 대화를 시도할 경우 부모에게 통지하는 유사 기능도 개발 중이라고 밝혔다. 최근 청소년이 도움을 얻기 위해 AI에 의존하는 경향이 커지고 있는 점을 반영한 조치다.
서희원 기자 shw@etnews.com


















