인공지능(AI)이 우리 사회 전반에 스며들고 있다. 기업은 AI로 업무를 자동화하고, 모든 국민이 모든 영역에서 AI를 활용하기 시작했다. 정부는 AI를 국가 경쟁력의 핵심으로 선언하고 있다. 이 흐름은 거스를 수 없고, 거슬러서도 안 된다. 다만 과감하게 들어가되, 세밀하게 점검해야 한다. AI가 만들어내는 새로운 유형의 위험을 간과한 채 속도만 앞세우면, 그 피해는 고스란히 시민에게 돌아간다.
미국에서 벌어진 리얼페이지(RealPage) 사건은 이를 극명하게 보여준다. 시애틀의 한 세입자가 재계약 조건 통지서를 받았다. 월세가 30% 올라 있었다. 옆 건물도, 그 옆 건물도 마찬가지였다. 빈집이 넘쳐나는데 가격은 내려가지 않았다. 집주인들이 모여 담합한 것일까. 아니었다. 그들은 서로 만난 적도 없었다. 다만 같은 AI 소프트웨어(SW)를 쓰고 있었을 뿐이다. 리얼페이지의 알고리즘 '일드스타'는 임대업자들의 계약 데이터를 통합 분석해 '최적의 임대료'를 제시했다. 경쟁자들이 독립적으로 가격을 결정해야 할 시장에서, 하나의 알고리즘이 가격을 조율한 것이다. 2024년 미국 법무부는 셔먼법 위반으로 조사를 시작했고, 알고리즘을 매개로 한 묵시적 담합이라는 새로운 법적 개념이 등장했다.
유럽에서는 다른 유형의 문제가 불거졌다. 헝가리의 부다페스트 은행이 고객 상담 전화에서 AI로 감정을 분석하고, 그 결과를 마케팅에 활용했다. 고객은 통화 녹음 사실은 알았지만, AI가 자신의 감정을 읽고 있다는 사실은 몰랐다. 헝가리 당국은 GDPR 투명성 의무 위반으로 약 67만유로의 과징금을 부과하며, AI가 직접 결정을 내리지 않더라도 인간의 판단에 영향을 미치면 고지 의무가 발생한다는 원칙을 세웠다.
이 사례들이 던지는 메시지는 분명하다. AI는 단순한 보조 도구가 아니라 시장 질서와 개인의 권리에 직접 영향을 미치는 행위자가 되었다는 것이다. 금융, 노동, 치안 분야는 더욱 치밀한 검토가 필요하다. 은행이 AI로 대출 심사를 하면서 특정 지역이나 연령대를 체계적으로 배제한다면 이는 보이지 않는 차별이다. 기업이 AI로 채용 서류를 걸러내면서 편향된 알고리즘을 사용한다면, 공정한 기회의 원칙이 무너진다. 경찰이 AI 예측 치안 시스템으로 특정 지역에 순찰을 집중한다면, 그것이 범죄 예방인지 차별적 감시인지 누가 판단할 것인가.
의료와 교육도 안전지대가 아니다. AI가 환자의 진료 우선순위를 정하거나 보험 청구를 자동 심사할 때, 그 기준이 인종이나 소득 수준에 따라 왜곡된다면 생명과 건강의 형평성이 흔들린다. 학교에서 AI가 학생의 학습 능력을 평가하고 진로를 추천할 때, 과거 데이터에 내재된 편향이 아이의 미래를 제한한다면 교육의 본질이 훼손된다. 이 분야들은 시민의 생존과 성장에 직결되기에, AI 도입의 편리함 이면에 숨은 위험을 더 엄격하게 들여다봐야 한다.
과감한 AI 도입은 거스를 수 없는 대세다. 그러나 과감함과 무모함은 다르다. 미국은 반독점 소송으로 알고리즘 규제의 선례를 쌓고 있고, EU는 AI법과 GDPR의 이중 구조로 체계적 규율 틀을 완성해가고 있다. 우리나라도 올해 시행된 AI 기본법을 출발점 삼아, 분야별 위험 수준에 맞는 적절한 규율 체계를 서둘러 정비해야 한다. 알고리즘의 작동 원리를 설명할 수 있어야 하고, 그 결과에 이의를 제기할 수 있어야 한다. “알고리즘이 결정했다”는 말로 책임을 회피할 수 없는 시대다. 기술의 속도에 법이 뒤처지지 않는 것, 이것이 AI 시대를 맞는 우리 사회의 첫 번째 과제다.

김경진 전 국회의원 2016kimkj@gmail.com


















