KAIST, 'AI 챗봇 이미지 데이터 훈련' 비용 최소화 기반 마련

Photo Image
연구팀에서 개발한 재레이블링을 위한 핵심집합 선별 방법론 동작 개념도

한국과학기술원(KAIST·총장 이광형)은 이재길 전산학부 교수팀이 심층신경망 훈련 비용을 최소화할 수 있도록 훈련 데이터 양을 줄이는 새로운 데이터 선택 기술을 개발했다고 2일 밝혔다.

대용량 심층 학습용 훈련 데이터는 레이블 오류를 포함한다.

최신 인공지능(AI) 방법론인 재 레이블링(Re-labeling) 학습법은 훈련 도중 레이블 오류를 스스로 수정하면서 높은 심층신경망 성능을 달성하는데, 그 추가 과정들로 훈련에 필요한 시간이 더욱 증가한다는 단점이 있다.

한편 막대한 훈련 시간을 줄이려는 방법으로 중복되거나 성능 향상에 도움이 되지 않는 데이터를 제거해 훈련 데이터 크기를 줄이는 핵심 집합 선별 방식이 큰 주목을 받고 있다.

그러나 기존 핵심 집합 선별 방식은 훈련 데이터에 레이블 오류가 없다고 가정한 표준 학습법을 위해 개발됐고, 재레이블링 학습법을 위한 핵심 집합 선별 방식에 관한 연구는 부족한 실정이다.

연구팀이 개발한 기술은 레이블 오류를 스스로 수정하는 최신 재레이블링 학습법을 위해 핵심 집합 선별을 수행해 심층 학습 훈련 비용을 최소화할 수 있도록 해준다.

따라서, 레이블 오류가 포함된 현실적인 훈련 데이터를 지원하므로 실용성이 매우 높다.

또 이 교수팀은 특정 데이터의 레이블 오류 수정 정확도가 해당 데이터 이웃 데이터의 신뢰도와 높은 상관관계가 있음을 발견했다.

즉, 이웃 데이터 신뢰도가 높으면 레이블 오류 수정 정확도가 커지는 경향이 있다. 이웃 데이터의 신뢰도는 심층신경망의 충분한 훈련 전에도 측정할 수 있으므로, 각 데이터의 레이블 수정 가능 여부를 예측할 수 있게 된다.

연구팀은 이런 발견을 기반으로 전체 훈련 데이터의 총합 이웃 신뢰도를 최대화하는 데이터 부분 집합을 선별해 레이블 수정 정확도와 일반화 성능을 최대화하는 재레이블링을 위한 핵심 집합 선별을 제안했다.

총합 이웃 신뢰도를 최대화하는 부분 집합을 찾는 조합 최적화 문제의 효율적인 해법을 위해 총합 이웃 신뢰도를 가장 증가시키는 데이터를 차례차례 선택하는 탐욕 알고리즘(greedy algorithm)을 도입했다.

연구팀은 이미지 분류 문제에 대해 다양한 실세계의 훈련 데이터를 사용해 방법론을 검증했다. 그 결과, 레이블 오류가 없다는 가정에 따른 표준 학습법에서는 최대 9%, 재레이블링 학습법에서는 최대 21% 최종 예측 정확도가 기존 방법론에 비해 향상되었고, 모든 범위의 데이터 선별 비율에서 일관되게 최고 성능을 달성했다.

또 총합 이웃 신뢰도를 최대화한 효율적 탐욕 알고리즘을 통해 기존 방법론에 비해 획기적으로 시간을 줄이고 수백만 장의 이미지를 포함하는 초대용량 훈련 데이터에도 쉽게 확장될 수 있음을 확인했다.

제1 저자인 박동민 박사과정 학생은 “이번 기술은 오류를 포함한 데이터에 대한 최신 인공지능 방법론의 훈련 가속화를 위한 획기적인 방법” 이라며 “다양한 데이터 상황에서의 강건성이 검증됐기 때문에, 실생활의 기계 학습 문제에 폭넓게 적용될 수 있어 전반적인 심층 학습의 훈련 데이터 준비 비용 절감에 기여할 것”이라고 밝혔다.

이재길 교수도 “이 기술이 파이토치(PyTorch) 혹은 텐서플로우(TensorFlow)와 같은 기존의 심층 학습 라이브러리에 추가되면 기계 학습 및 심층 학습 학계에 큰 파급효과를 낼 수 있을 것”이라고 말했다.

KAIST 데이터사이언스대학원에 재학 중인 박동민 박사과정 학생이 제1 저자, 최설아 석사과정, 김도영 박사과정 학생이 제2, 제3 저자로 각각 참여한 이번 연구는 최고권위 국제학술대회 '신경정보처리시스템학회(NeurIPS) 2023'에서 올 12월 발표될 예정이다.


김영준 기자 kyj85@etnews.com


브랜드 뉴스룸