Photo Image

스마트폰을 허공에서 손짓으로 조작하는 시대가 열린다.

애플이 화면으로부터 떨어진 비접촉 상태에서 손가락 입력이 가능한 '멀티 호버링' 기술을 준비하고 있기 때문이다. 멀티터치로 스마트폰 사용자환경(UI) 혁명을 일으킨 애플이 또 다른 혁신을 몰고 올 것으로 예상된다.

26일 업계에 따르면 애플은 2019년 아이폰 적용을 목표로 부품업계와 멀티 호버링 상용화를 추진하고 있는 것으로 전해졌다. 50㎜ 떨어진 비접촉 상태에서 3개 이상 손가락을 인식하는 것이 목표다.

스마트폰 화면과 손가락이 떨어진 상태에서도 실제 터치하듯 손가락 입력이 가능하고, 멀티터치의 확대·축소와 같은 손가락 동작(제스처)으로 특정한 명령이 실행되는 것이다.

멀티 호버링 기술은 정전 용량 기술을 토대로 한다. 정전 용량 방식은 손가락이 닿을 때 발생하는 전류 변화를 인식해서 작동하는 원리다. 현재 스마트폰 터치에 대부분 쓰이는 기술이다.

멀티 호버링은 새로운 기술로 감도를 증폭시켜서 구현한다. 비접촉 상태에서도 전류 변화를 인식하도록 하는 것이다. 감도를 올리면 화면에 손이 닿기 전에도 인식할 수 있다. 그러나 그동안 높이에 한계가 있었고(기존 30㎜ 한계), 오작동(고스트 터치) 발생으로 실제 상용화를 위한 구현은 어려웠다.

Photo Image
2007년 애플이 아이폰에서 첫 선을 보인 멀티터치 기술은 전 세계 스마트폰 인터페이스의 판도를 바꿨다. 사진은 스티브 잡스의 아이폰 발표 모습(자료: 유튜브 캡처).

애플이 기술 한계를 극복하고 멀티 호버링 기술을 도입하려는 건 새로운 사용자경험(UX)을 제공하기 위한 것으로 풀이된다. 이 기술이 실현되면 스마트폰의 UI가 크게 달라질 것으로 예상되기 때문이다.

한 예로 영화 '마이너리티 리포트'에서 주인공이 허공에서 손짓으로 정보를 검색하고 화면을 이리저리 옮기는 장면을 아이폰 위에서 구현할 수 있다. 또 화면 속 가상의 물체를 만지는 듯한 느낌을 줄 수 있다.

멀티 호버링은 애플이 준비하고 있는 증강현실(AR), 가상현실(VR)과도 연관된 것으로 추측된다. 애플은 2019년형 아이폰 후면에 타임오브플라이트(TOF) 센서를 탑재할 계획이다. TOF는 거리 측정, 사물의 3차원 형상을 습득할 수 있는 기술이다. TOF와 멀티 호버링이 조합을 이룰 경우 TOF로 AR, VR를 찍고 멀티 호버링으로 가상의 물체를 터치하는 느낌을 제공할 수 있다.

멀티 호버링은 또 화면에 직접 손을 대지 않아도 되기 때문에 좀 더 부드럽고 자연스러운 입력이 가능하다. 이와 함께 신체 접촉 유무를 파악하는 근접 센서 역할을 대신할 수 있어 풀스크린 스마트폰 디자인에 유리하다.

부품 업계와 스마트폰 제조사는 애플의 움직임을 파악하고 대응책 마련에 착수한 것으로 알려졌다. 부품 업체 관계자는 “중국 스마트폰 업체인 A사는 대응 기술 찾기에 나섰고, 부품 업체인 대만 B사는 안드로이드 스마트폰 제조사를 상대로 멀티 호버링 부품을 공급하는 사업을 구상하고 있다”면서 “애플의 행보가 알려지면서 업계가 바빠졌다”고 말했다.

호버링 기술은 국내에서 선보인 적이 있다. 삼성전자 스마트폰 갤럭시노트용 펜에 호버링이 구현됐다. 노트 펜은 화면에 닿지 않은 비접촉 상태에서도 명령어가 실행된다. 그러나 이는 펜인 데다 싱글 터치 방식이다. 싱글 터치로는 다양한 제스처 구현이 어렵다.

멀티터치로 대표되는 손가락 제스처로 휴대폰 인터페이스를 뒤바꾼 애플이 또다시 스마트폰 업계의 판도를 바꿔 놓을 지 내년이 주목된다.

Photo Image
프랑스 포게일사의 멀티 호버링 시연 장면. 평면의 화면 위에서 3차원 입체감을 구현한 인터페이스가 인상적이다.(자료: 유튜브 캡처)
Photo Image
프랑스 포게일사가 선보인 멀티 호버링 시연 동영상.

윤건일 전자/부품 전문기자 benyun@etnews.com