[송민택 교수의 핀테크 4.0] 금융 추천알고리즘, 편익과 편향의 균형

Photo Image
송민택 교수

데이터와 인공지능(AI)의 발전에 힘입어 추천알고리즘은 더욱 정교해지고 있다. 나도 몰랐던, 그리고 나보다 내 성향을 잘 파악해 그에 맞는 서비스나 상품을 추천 받는 시대다. 영화를 고를 때나 쇼핑할 때나 흔히 경험하는 장면들이다. 금융 분야도 추천알고리즘에 의한 서비스가 보편화됐다.

일부 금융사는 추천알고리즘으로 고객 만족도 향상과 교차 판매를 통해 고객 경험 개선 효과를 톡톡히 얻는 것으로 알려져 있다. 금융소비자도 추천알고리즘의 편익에 주목한다. 특히 금융지식이나 정보가 미흡한 소비자의 금융 포용성을 넓히는 기회로도 작용한다. 예컨대 복잡한 상품들 중에서 개인의 위험 선호도와 목표에 부합하는 펀드를 추천 받거나 소비 패턴 분석을 통해 불필요한 지출을 줄이고 저축을 늘리는 맞춤형 조언을 받을 수 있기 때문이다.

그러나 편익의 이면에는 편향과 개인정보 침해 위험이 도사리고 있다. 알고리즘은 보편적으로 과거 데이터로 학습되기 때문에, 기존의 편견이나 차별적 요소가 그대로 반영될 수 있다. 즉, 특정 연령대나 성별에 따른 대출 승인률이 낮았던 과거 데이터를 학습한 알고리즘은 이러한 편향을 그대로 답습할 가능성이 높다. 이는 금융 서비스의 공정성과 형평성을 해치는 결과를 초래하기도 한다.

편향성 이슈의 또 다른 현상은 필터버블이다. 추천알고리즘이 사용자의 과거 행동과 선호도에 기반해 정보를 제공하다 보니, 사용자는 자신의 기존 관점과 일치하는 정보만을 접하게 된다. 따라서 보수적 성향을 가진 고객은 항상 안전 자산만 제안 받기 때문에 새로운 투자 기회를 놓칠 수 있다. 이는 장기적으로 금융 시장의 다양성과 역동성을 저해하는 요인이 된다.

이에 대한 해결책 중 하나는 알고리즘의 투명성과 개인정보 보호 강화다. 금융기관은 알고리즘의 결정 과정을 명확히 설명해야 하며, 잠재적인 편향을 식별하고 수정할 수 있어야 한다. 또 개인정보의 수집과 활용 과정에서 정보주체의 권리를 보장하고 철저한 데이터 보안이 요구된다. 최근 일부 금융사가 AI윤리위원회나 옴부즈만 제도의 도입 및 윤리원칙 수립 등을 주도하는 것도 추천알고리즘에 대한 신뢰를 높이기 위한 일련의 조치로 보인다.

다양한 인구 집단과 금융 행태를 포괄하는 데이터셋의 구축 등 데이터의 다양성 확보도 중요한 과제다. 이 과정에서 개인정보의 비식별화와 안전한 관리가 전제돼야 함은 물론이다. 이렇게 되면, 사회관계망서비스(SNS) 활동이나 온라인 행동 패턴 등 대체 데이터를 활용한 폭넓은 금융 서비스도 가능해진다. 소비자 교육 강화 및 인식도 제고돼야 한다. 소비자가 추천알고리즘의 장단점과 정보 위험을 제대로 이해한다면, 맹목적 수용이 아니라 자신의 상황에 맞게 주체적으로 판단할 것이다.

한편, 정책당국의 역할도 빠질 수 없다. EU는 'AI법' 제정으로 고위험 AI에 대한 엄격한 규제를 도입했고, 미국은 '알고리즘책임법' 발의를 통해 AI에 대한 영향 평가 의무화를 준비하고 있다. 이런 빠른 움직임과 달리 국내는 아직 'AI 가이드라인' 수준에 머물러 있다. 국회에 관련 법안이 발의되어 있는 만큼 시급하게 제정돼야 한다. 또 내용면에서도 소비자 보호와 공정성을 담보하면서 산업 진흥과 금융 혁신을 동시에 도모하는 균형 잡힌 접근이 필요하다.

이처럼 금융 분야의 추천알고리즘은 편익과 편향성, 개인정보 보호 문제를 동시에 품고 있다. 다른 산업도 유사한 문제를 안고 있지만, 금융 분야는 위험 발생시 그 결과가 매우 심각하다. 따라서 편익을 극대화하면서, 불공정 문제와 개인정보 침해 위험을 최소화하는 노력은 지속적인 숙제다. 이를 위해 투명성 제고 및 다양한 데이터의 안전한 확보, 적절한 규제와 정책 수립, 소비자 교육 강화 및 인식제고는 필수적으로 수행돼야 한다.

송민택 공학박사 pascal@apthefin.com