
경희대학교는 컴퓨터공학부 차오닝 장, 홍충선, 이승규, 배성호, 김정욱 교수 연구팀이 모바일 응용프로그램용 초경량화된 비전 기반 딥러닝 모델인 'MobileSAM(Segment Anything Model)'을 개발했다고 밝혔다.
종전의 SAM은 클릭 한 번으로 이미지 속 모든 객체를 분리할 수 있어 컴퓨터 비전 분야에서 혁신기술로 주목받고 있다. 하지만 이미지 인코더 모델 용량이 크고, 이미지 처리 속도가 느리다는 문제가 있었다.
경희대 연구팀은 SAM의 단점을 해결하면서 모바일 환경에서도 실시간 처리가 가능한 비전 모델을 개발했다. 연구팀이 개발한 MobileSAM은 상용 SAM 인코더 모델 파라미터 수를 100분의 1로 줄이고 실행속도도 60배 높였다. 이와 동시에 영상품질은 기존 수준을 유지하는 경량화된 딥러닝 기술이다.
MobileSAM은 이미지 처리 및 컴퓨터 비전 분야에서 우수성을 인정받고 있다. 온라인 AI 전문가 커뮤니티에 빠르게 확산하며 연구자들 사이에서 주목받고 있다.
이번 연구결과는 모바일 환경 속 딥러닝 연구에 새로운 표준을 제시했다. 향후 모바일, 사물인터넷(IoT) 등 다양한 분야에서 딥러닝 응용개발에 활용될 전망이다.

또 MobileSAM은 자율주행 및 감시 분야에도 높은 잠재력을 가지고 있다. 긴급한 상황에서 경량화된 딥러닝 기술을 활용해 자율주행 시스템에서 실시간 객체를 검출하고, 위험 상황을 감지한다. 사람의 전체 모습을 실시간 추적해 보안 및 범죄예방에도 도움 줄 수 있다.
차오닝 장 교수는 “MobileSAM은 최신 컴퓨터 비전 연구에 새로운 가능성을 갖고 있다. 비전 기반 모델 경량화와 모바일 환경에서 실시간 처리 가능성을 보여줬다”며 “더 많은 연구자가 MobileSAM을 활용해 혁신적인 응용 프로그램을 개발하길 기대한다”고 말했다.
MobileSAM 프로젝트는 오픈 소스로 공개돼 다른 연구자와의 교류 및 공유를 촉진하고 있다. 오픈소스 커뮤니티인 GitHub에서 MobileSAM에 대한 소스 코드와 관련 문서를 확인할 수 있다.
용인=김동성 기자 estar@etnews.com