생성형 인공지능(AI)이 아프리카계 미국인 방언(AAVE) 사용자를 차별한다는 보고서가 나왔다.
논문 공개 사이트 '아카이브(arXiv)'에 최근 공개된 보고서에 따르면, 오픈AI '챗GPT'와 구글 '제미나이' 등 생성형 AI가 AAVE 사용자에 대한 인종 차별을 하는 것으로 나타났다.
보고서 작성에 참가한 전문가들은 생성형 AI가 AAVE 사용자와 '표준 미국 영어'로 불리는 것을 사용하는 사람들을 어떻게 묘사하는지 실험했다. 예컨대 AAVE인 'I be so happy (…) they be feelin' too real.'과 표준 미국 영어인 'I am so happy (…) they feel too real.' 문장을 비교했다.
비교 결과, 생성형 AI는 AAVE 사용자를 '멍청하고', '게으르다'고 묘사할 가능성이 훨씬 높았다.
또한 법정 진술에서 AAVE를 사용한 가상의 피고인에게 사형을 권고할 확률도 더 높았다. 생성형 AI는 이미 미국 법률 시스템에서 법원 녹취록 작성 및 법률 연구 수행과 같은 행정 작업을 지원하는 데 사용된다.
해당 보고서의 공저자 발렌틴 호프만은 “10년 전, 심지어 5년 전만 해도 우리는 AI가 오늘날 어떻게 사용될 지 전혀 몰랐다”며 생성형 AI의 인종차별에 대한 이번 보고서에 주목할 것을 촉구했다.
제미나이는 최근 교황, 아인슈타인 등을 유색인종 이미지로 묘사해 논란이 된 바 있다. 구글은 제미나이의 이미지 생성 기능을 중단했다.
직장 내 차별에 대한 정부 기구인 평등고용기회위원회(EEOC)는 최근 AI 기반 차별로부터 근로자를 보호하기 시작했다. 지난해 9월 AI가 고용연령차벌볍(ADEA)을 위반한 첫 사례가 EEOC에 제기됐다.
세계 최대 인공지능 플랫폼 '허깅페이스' AI 윤리 연구원인 아비지트 고쉬는 “혁신을 멈추거나 AI 연구를 늦출 필요는 없지만, 특정 민감한 영역에서 AI 기술 사용을 줄이고 규제하는 것은 훌륭한 첫 번째 단계”라고 말했다.
박두호 기자 walnut_park@etnews.com