
최근 미국 로스앤젤레스 법원 배심원단이 메타와 구글을 상대로 내린 판결은 기술 업계에 거대한 지각변동을 일으켰다. 이번 재판은 20세 여성인 원고(케일리 G. M.)가 미성년 시절 인스타그램과 유튜브의 무한 스크롤, 끊임없는 알림 등 중독적인 설계로 인해 심각한 신체 이형증, 우울증, 자살 충동에 시달렸다고 주장하며 제기한 소송이다.
배심원단은 메타에 420만달러(약 63억5000만원), 구글에 180만달러(약 27억2000만원)의 손해배상 책임을 물었다. 판결의 핵심은 두 회사가 애플리케이션(앱) 설계 과정에서 명백한 '과실'이 있었으며, 서비스의 위험성에 대해 사용자에게 '충분히 경고하지 않았다'는 점을 인정한 것이다. 이는 소셜 미디어가 단순한 콘텐츠 중개자가 아니라, 설계 자체로 해를 끼칠 수 있는 '위험한 제조물'이 될 수 있음을 법적으로 명시한 사례다.
이번 판결에서 주목할 대목은 기업이 스스로 수행한 '안전 연구'가 오히려 기업을 공격하는 스모킹건이 되었다는 점이다. 배심원들은 메타의 임원 이메일과 내부 연구 문서를 꼼꼼히 검토했으며, 그 과정에서 인스타그램 내 10대들의 유해한 경험을 인지하고도 방치했거나, 소셜 미디어 사용 중단 시 정신 건강이 개선된다는 연구를 경영진이 중단시켰다는 정황이 드러났다.
기업이 위험을 파악하기 위해 투자한 연구가 훗날 “위험을 알고도 제품을 출시했다”는 비도덕성을 증명하는 유죄의 증거로 돌변한 것이다. 이 판결은 1990년대 담배 회사들이 니코틴의 유해성을 알고도 은폐했다가 몰락했던 '빅 타바코 모먼트(Big Tobacco Moment)'에 비유되며, 향후 인공지능(AI) 업계에도 동일한 법적 리스크가 닥칠 것임을 예고하고 있다.
이제 AI와 플랫폼 기업들은 단순히 '혁신의 속도'에만 매몰될 것이 아니라, 사법적 리스크 관리 차원에서 다음과 같은 생존 전략을 수립해야 한다.
첫째, '방어적 연구'에서 '객관적 검증'으로 체질을 개선해야 한다. 내부의 폐쇄적인 연구는 소송에서 독이 될 수 있다. 이제 기업은 안전 연구의 독립성을 보장하거나, 제3자 외부 기관을 통한 정기적인 '안전 감사' 체계를 정례화해야 한다. “우리는 몰랐다”는 항변 대신 “우리는 객관적인 외부 표준에 따라 위험을 관리했다”는 기록을 남기는 것이 실효적인 방어책이다.
둘째, '설계에 의한 안전'을 경영의 기본값으로 설정해야 한다. 이번 판결은 콘텐츠가 아닌 '설계 방식'(알고리즘, 무한 스크롤 등)에 책임을 물었다. AI 기업들 역시 챗봇이 사용자에게 아부하거나 중독을 유도하는 성향을 주입하지 않았는지 개발 단계부터 법무·윤리팀이 밀착 검토해야 한다. 특히 아동 및 청소년 사용자에 대해서는 일반인과 차등화된 엄격한 보호 알고리즘을 적용하는 것이 필수적이다.
셋째, '선의의 안전 연구'에 대한 법적 보호 장치를 적극 요구해야 한다. 기업이 스스로 결함을 찾고 수정하려는 노력이 징벌적 손해배상의 근거가 된다면, 어떤 기업도 안전 연구에 투자하지 않을 것이다. 이 점은 정책적인 방향에서 면밀하게 고려해 봐야 할 것이다.
메타와 구글에 대한 이번 판결은 사회가 기업에 요구하는 정도가 어느 정도인지를 가늠할 수 있는 매우 중요한 바로미터라 생각한다. AI라는 더 강력한 기술의 파고 앞에서, 기업들은 위험을 숨기는 것이 아니라 위험을 다루는 역량을 투명하게 증명해야할 것이다. 이번 판결을 '규제'가 아닌 '새로운 표준'을 정립할 기회로 삼는 기업만이, 다가올 사회적 책임의 파도를 넘어 지속 가능한 성장을 이뤄낼 수 있을 것이라 믿는다.
김경환 법무법인 민후 변호사



















