DGIST, 주변 환경 3D 인식 자율주행 핵심기술 개발

자율주행 핵심 기술인 3D 객체 추정의 성능을 증가시키는 메트릭 학습 기술 개발

대구경북과학기술원(DGIST·총장 이건우)은 임성훈 전기전자컴퓨터공학과 교수팀이 단안 카메라를 이용해 3D 객체 위치를 높은 정확도로 추정할 수 있는 딥러닝 기술을 개발했다고 19일 밝혔다. 기존 자율주행 기술의 원가를 줄이고 차량을 경량화하는데 응용 가능할 것으로 기대된다.

3D 객체 추정은 자율주행차가 주변 환경을 인식하고, 안전하게 움직일 수 있게 하는 중요한 기술이다. 이 기술을 통해 자율주행차는 주변의 사람, 도로 표지판, 다른 차량 등의 위치와 거리 및 크기를 정확하게 파악해 안전한 주행이 가능하게 된다.

Photo Image
왼쪽부터 임성훈 DGIST 교수, 최원혁 석박사통합과정생, 신민규 석사과정생

기존 단안 카메라를 이용한 객체 추정 방법은 비용이 저렴하다는 장점이 있지만 한장의 이미지만으로 3D 정보를 얻어내는 것이 어렵다는 단점이 있다. 특히, 객체와 카메라 간 거리를 정확히 추정하는데 어려움이 있다.

연구팀은 신경망이 객체의 깊이를 잘 구분할 수 있도록 돕는 새로운 메트릭 학습 기법을 제안했다. 각각의 객체 깊이 정보를 이용해 신경망이 형성하는 특징 공간을 정렬하게 함으로써 깊이를 쉽게 구분하도록 도와준다.

제안된 메트릭 학습 기법은 거의 모든 기존 단안 카메라 추정 신경망에 적용이 가능하다. 또 이미지 내에서 객체의 위치를 특정하는 과정에서 발생하는 오류를 보정할 수 있는 새로운 방법을 제안해 깊이 추정과 전체적인 3D객체 추정의 성능을 효과적으로 개선할 수 있었다.

임성훈 교수는 “이번 연구를 통해 개발한 학습기법은 자율주행 시각인지 모델의 연산 시간을 유지하면서 성능을 크게 향상시키는 기술”이라며 “앞으로 자율주행 기술의 발전에 매우 긍정적인 영향을 미칠 것으로 기대된다.”고 말했다.

이번 연구 결과는 관련 분야 학회 'Neural Information Processing Systems 2023'에 게재 승인됐고, 최근 열린 학회에서 포스터 세션으로 발표됐다.

대구=정재훈 기자 jhoon@etnews.com