Photo Image
게티이미지뱅크 제공

지난 4월 구글은 인종 편견을 보인 비전 인공지능(AI) 알고리즘에 대해 사과했다. 비전 AI는 이미지를 분석해 연관 단어를 기록하는 AI다. 당시 한 독일 매체가 실험한 결과 비전 AI가 피부색에 따라 다른 결과를 나타냈다. 밝은 피부를 가진 사람이 체온계를 들고 있는 경우에는 체온계로 표시했지만 짙은 피부색 손이 체온계를 들고 있을 때는 총으로 기록했다. 구글은 인종차별적 결과로 인해 피해를 입은 이들에게 사과하고 AI 알고리즘을 수정했다고 밝혔다.

AI를 적용하는 기술과 서비스가 늘면서 이 같은 폐해를 막아야 한다는 주장이 이어진다. 미국 연방거래위원회(FTC)는 AI와 알고리즘 사용에 관한 별도 지침을 발표했다. AI와 알고리즘을 개발하는 기업과 개발자 등이 지켜야 할 원칙을 제시했다.

FTC는 지침에서 △투명성 △설명 가능성 △공정성 △견고성과 실증적 타당성 △책임성을 적시했다.

기업이나 개발자는 AI와 알고리즘을 다룰 때 생체정보 등 이용자 민감한 데이터를 수집할 때 투명하게 고지해야 한다. AI 서비스를 제공할 때 허위 계정, 딥페이크 등 AI를 부적절하게 활용해 소비자를 기만하면 안 된다.

AI와 알고리즘을 이용해 소비자에게 불리한 결정을 내릴 때 이유를 구체적으로 설명해야 한다. 결과에 영향을 미친 상위 주요 요인을 최소 네 가지 이상 공개할 수 있어야 한다. AI와 알고리즘에 의해 거래조건이 변경될 때 소비자에게 반드시 통보해야 한다.

AI 사용 시 인종, 종교, 국적, 성별 등 특정 집단과 계층 차별을 금지해야 한다. 알고리즘이 차별을 유발하지 않도록 사용 전후 엄격한 관리가 필요하다.

기업은 AI 모형이 설계 의도와 맞게 작동하고 불법적 차별을 일으키지 않도록 AI 모형 유효성을 검사해야 한다. 제공한 데이터가 정확성·무결성을 갖도록 명문화된 정책과 절차를 마련해야 한다.


기업이나 개발자가 개발한 AI에 대해 책임을 다하는 체계를 구축해야 한다. 개발된 AI 툴 악용과 무단이용 가능성을 검토해야 한다. 범죄에 악용될 가능성을 검토하고 대비책을 마련해야 한다.


김지선기자 river@etnews.com