칼럼

[테크프론티어] 사람에게 보다 자연스러운 인터페이스를 구현하는 기술들 – 내츄럴 유저 인터페이스(NUI)의 시대

최근 발표한 삼성전자의 갤럭시 S4에 눈의 움직임을 활용한 기술이 채택되었다. 눈동자의 움직임에 따라 화면을 이동시키는 아이스크롤링 기술과 아이포즈라는 기술까지 등장했다. 이는 화면에서 아래로 눈이 위치하면 자동으로 화면이 스크롤되는 것과 눈을 떼면 재생 중이던 비디오 영상이 멈추는 기술을 말한다. 또한 손을 대지 않고도 터치하는 것과 같은 에어뷰와 에어터치라는 기술도 채택되었다.

이런 뉴스를 접하면서 자연스러운 인터페이스를 의미하는 내츄럴UI (NUI) 기술이 점점 우리 일상에서 활용되고 있는 시대가 되고 있음을 느낄 수 있다. NUI의 대표적인 것은 음성, 제스처, 눈동자 추적 기술들이다.
이미 닌텐도 위나 마이크로소프트의 엑스박스360용 키넥트를 통해서 음성 움직임, 제스처를 이용한 사용자 인터페이스가 얼마나 흥미롭고 실용성이 있는 가를 알게 되었다. 키넥트는 이후 PC용으로 나오면서 많은 UX 개발자들에게 새로운 도전 기회를 제공했다.

사람들의 가장 많이 사용하는 기기가 스마트폰이나 태블릿으로 변화되면서 작은 크기의 화면은 우리에게 새로운 인터페이스가 필요함을 알게 해 주었고, 이 후 많은 새로운 방식의 사용자 인터페이스가 등장하게 되었다.
우리가 가장 자연스럽게 생각하는 인터페이스 방식은 역시 음성을 통한 정보 접근과 명령이다.이를 구현한 애플의 시리나 안드로이드의 구글보이스 등을 통해 이제 간단한 말로 휴대폰에 명령을 하거나 검색을 할 수 있다는 것을 보여줬다. .

그러나 아직 오류가 20-25% 수준으로, 일상화되기에는 부족하다는 것이 실제 사용에서 느끼고 있다. 초기의 열광적인 반응과 사용의 즐거움은 시간이 가면서 그 한계를 보이고, 이제 모든 사람들에게 실망감을 주는 기술이 되었다.
사실 시리는 음성인식뿐만 아니라 디지털 비서의 역할을 수행하고자 했기 때문에 인식뿐만 아니라 문맥을 이해하고 그에 따른 적절한 대응까지 보여줄 수 있음을 강조해서 사용자들이 지나친 기대를 갖게 했다. 이는 단지 사용자 인터페이스를 넘어서 비서의 역할은 더 어려운 과제임을 다시 한번 인식하게 했다.

이에 반해 구글보이스는 비서 역할 보다는 음성 검색이라는 기능에 좀 더 초점을 맞췄다. 따라서 더 빠른 응답을 보였고, 더 많은 정보를 검색할 수 있었다. 사실 시리는 정보 확인을 애플과 제휴한 서비스를 통한 정보 검색이기 때문에 큐레이션에 가깝고, 구글의 보이스는 ‘지식 그래프’라는 5억건의 데이터를 기반으로 한 것이기 때문에 그 정보의 범위와 질이 다를 수 밖에 없다.
그러나 이 두 기술은 아직 완전한 실용화에는 시간이 더 필요함을 우리에게 다시 한 번 깨우쳐 준 사례이다. 2011년 이후 두 음성 인터페이스는 크게 진전을 이루고 있지 못하다.

제스처 인식은 영화 마이너리티 리포트 이후 많은 사람이 언젠가 실현될 것이라는 기대를 주었고, 점차 여러 기기에서 등장하기 시작했다. 키넥트 이후에 최근 등장한 립모션(Leap Motion)이라는 새로운 3차원 모션 트래킹 장치는 수많은 뉴스의 관심을 받았다.
아직 선주문을 받고 있는 상황이지만 79.99불이라는 낮은 가격에 기존 키넥트보다 200배 정확도를 갖는 다는 점에서 이미 수십만 대가 주문되었다고 한다.

또 다른 제스처 장치로는 유명한 스타트업 액셀러레이터인 Y-컴비네이터를 통해서 소개된 탈믹 랩의 묘(MYO)라는 장치이다. 이는 제스처뿐 만 아니라 근육의 전기 신호에 따라 다양한 움직임을 인식하고 장치를 제어할 수 있는 기술이다. 2013년 말에 시장에 나올 예정이다.

스마트폰에는 이미 에어터치라는 이름으로 화면을 넘기거나, 전화를 받을 때 단지 손짓으로만 작동할 수 있는 제스처 인식이 소개되었지만 이제 이러한 다양한 유형의 제스처 인식은 데스크탑 뿐 만 아니라 모바일 기기를 제어하거나 사용하는데 매우 색다른 경험과 유용함을 제공할 것이다.

제스처에는 몇 가지 극복할 점이 있다. 이는 사람들의 제스처가 의미하는 것이 문화적으로 다른 의미를 갖는다는 것이다. 어떻게 어디서나 쉽게 이해하고 통용될 수 있는 제스처 언어를 만들어 내는가는 또 다른 연구 과제이다.
두 번째로는 우리 손이 원래 갖고 있는 촉감과 쥐는 느낌이다. 햅틱 피드백이라고 말하는 이런 느낌과 인터페이스를 공중에서 손을 움직이면서 갖지 못한다는 점은 아직도 3차원 모션 인식이나 인터페이스에서 구현해야 하는 미래 기술의 한 방향이다.

눈의 움직임을 통한 제어는 이번 삼성의 발표에서 주목을 받고 있으며 지난 CES에서 소개된 ‘토비’라는 회사는 데스크톱에서도 눈동자의 위치를 통해 터치보다 더 자연스럽게 커서의 위치를 제어할 수 있다는 토비 게이즈라는 기술을 선보였다.
많은 미래를 얘기하는 영상을 보면 단지 쳐다보고, 제스처를 하고, 음성으로 명령하는 모습을 보여주고 있는데 이런 기술이 점차 현실화되고 우리 주변에서 올해를 기점으로 다양하게 나타날 것이다.

다만 공공장소에서 이리 저리 허공에 손을 움직이거나 음성 인식이 안되어서 여러 번 떠들어야 하고, 팔에 뭔가를 끼고 다니고, 모바일 기기나 컴퓨터를 째려 보는 모습 역시 몇 년간은 우리 주변에서 웃음을 자아내는 경우도 많이 발생할 것이다.

Advertisements
기본