`기계가 사람의 감정을 헤아리려고 귀를 기울인다?’
인간과 기계 사이의 대화 수단 중 하나인 감성인식에 대한 연구가 크게 늘어나고 있다. 주로 음성인식 위주로 연구가 진행되는 가운데 생체신호의 패턴을 분석해 감정을 분류하는 신기술 연구에 대한 투자도 늘려야 한다는 지적이다.
인공지능랩을 운영중인 중앙대 심규보 교수에 따르면 지난 91년이후 미국 전기전자공학회(IEEE)에 발표된 감성인식 관련 논문이 90년대 연간 1∼2건, 2000년 3건, 2002년 9건에서 2004년 28건, 지난 해 22건으로 2004년 이후 크게 늘어나는 추세다. 음성인식 분야에서 감성인식 연구가 추진되고 있으며 이미지 처리 분야에서 로봇아이(eye) 등의 연구가 진행되는 등 로봇이 인간과의 커뮤니케이션을 원활하게 하기 위한 연구가 큰 관심을 모은데 따른 것.
91년 이후 진행된 연구중 67%가 음성을 활용한 감성인식이었고 이중 15%가 음성과 얼굴인식을 동시에 활용한 방식으로 연구돼 주로 음성을 통한 감성인식 연구가 주를 이루고 있다. 18%는 얼굴 표정 이미지를 인식하는 방식으로, 나머지는 생체의 변화, 몸 동작 등으로 기계가 인간의 감정을 인식하는 연구를 진행했다고 심 교수는 전했다.
사용된 감성의 개수는 분노, 즐거움, 두려움, 슬픔, 놀람, 혐오 등 6가지를 적용한 경우가 가장 많았고 정신적인 사랑(플라토닉 러브)와 낭만적 사랑(로맨틱 러브), 복수심까지 포함해 8가지 종류의 감정까지 인식한 경우도 등장했다.
심 교수는 “로봇의 인간 감성인식 수단으로 얼굴표정을 이용할 것으로 예상하기 쉬우나 이미지처리의 어려움으로 주로 음성인식 위주로 연구가 진행돼 왔다”며 “음의 높이나 음색의 종류가 감정에 따라 변화하는 특성에 따라 감성을 인식하는 알고리듬 연구를 진행하고 있다”고 설명했다.
그는 “단순한 엔터테인먼트용이 아닌 업무효율의 증대를 위해 감성인식이 필요하다”며 “감정에 따라 변화하는 생체신호를 수집, 분석하는 연구와 특징추출방법 연구에 대한 관심을 더 키워야 한다”고 강조했다.
김용석기자@전자신문, yskim@
관련 통계자료 다운로드 감성인식 연구 IEEE 논문 제출 현황