UI의 혁신, 모션 인식 기술 스타트업 MYO
11월 1, 2013
칼, 총, 삽, 컴퓨터, 스마트폰, 테블릿

이것은 모두 인간이 스스로의 능력을 극대화 하고자 만들어낸 도구이다. 그리고 그 도구들은 도구 나름대로의 사용법이 있으며, 각 사용법은 또다시 사용자가 최대한 편하고 효율적으로 사용케 하는 손잡이 형태나 위치들이 각각 따로 정해져 있다.

우리는 사용자가 도구를 사용하면서 겪는 경험을 User Experience로 부르며, 각각의 도구는 그것의 사용을 편하게 하기 위한 최적의 그립 감, 손잡이 위치 등 접점이 존재하는데 그것을 User Interface라 부른다. 이러한 도구-User Interface의 예로는 멀리로는 인간의 기억을 보조하기 위한 도구인 수접이나 메모장과 그 UI인 필기구를 생각해 볼 수 있으며,  가까이로는 컴퓨터와 키보드 등을 도구-UI의 예로 볼 수 있다. 이러한 도구-UI의 관계는 일반적으로는 도구의 발달이 선행되고 UI 기술이 그것을 따르는 형태로 발전을 이루고 있으나 반대로 UI기술의 진화로 인해 도구/장치의 발전이 이루어 지기도 한다.

마우스라는 UI로 인해 컴퓨터 활용의 폭이 더 커질 수 있었으며, 터치 기술로 인해 스마트 폰과 테블릿의 사용성이 극대화 되기도 하였다. 또한 스타일러스 팬이라는 새로운 UI가 갤럭시 노트의 성공을 견인하였다.

그리고 이제는 기기를 직접 몸에 입거나 부착하는 형태의 장비와 그 UI가 주목 받고 있다. 한창 개발중인 구글글라스나 갤럭시 노트3를 보완하기 위한 갤럭시 기어 등이 가장 최신의 장치들인데, 이러한 Wearable 장치들은 사용자들이 그 장치를 보다 편하게 빠르게 이용한다는 장점이 있지만 그 UI 방식은 터치나 음성 인식 등 기존 스마트 기기에 비해서 큰 발전을 이루었다고 보기는 어렵다.

 

그런데 터치 보다, 더 빠르게, 더 편한 UI의 구현을 시도한 스타트업이 있다.

 캐나다의 스타트업인 Thalmic Labs(바로가기 https://www.thalmic.com)가 개발중인 MYO가 바로 그것인데, 위 사진에서 볼 수 있듯이 팔에 착용한 밴드가 사용자의 근육에서 발생하는 전기신호를 분석하여, 동작을 인식한다.

위 동영상에서 처럼 사용자의 동작을 인식해 그것을 새로운 명령으로  원하는 기기에 입력할 수 있는 것이다. 위 동영상에서는 간단한 프로그램 조작, 프리젠테이션, 게임 등 다양한 분야의 예를 보여주고 있는데, API가 공개(아직은 준비중이라고 한다)되면 MYO를 UI로 이용한 더 많은 다양한 하드웨어/소프트웨어 제품군들이 등장할 수 있다.

Stephen Lake, Aaron Grant, Matthew Bailey, 세 사람이 2012년 5월 설립된 Thalmic Labs은 그 가능성을 인정받아 지금까지 총 $15.6M(약 164억원, Seed, Series A)을 Spark Capital, Intel Capital, Formation 8, FundersClub 등으로 부터 투자받았으며, Y Combinator의 Paul Graham등이 개인투자자로 참여하고 있다.

그리고 이들이 Beyond Apps : Futuristic Technologies 를 주제로 열리는 미래창조과학부 주최, 한국콘텐츠 진흥원 주관의 스마트콘텐츠 컨퍼런스  2013(http://www.smartcontent2013.org/)에 찾아온다. 이번 컨퍼런스에 연사로 참여하는 Thalmic Lab의 창업자인 Stephen Lake 는 MYO 뿐만 아니라 모션 인식 기술에 대한 글로벌 동향과 그 가능성에 대해서 한국의 관계자들에게 그 경험과 인사이트를 공유할 것이다.

최기영
국내외 스타트업 관련 트랜드 및 스타트업 비즈니스 분석, 투자자를 위한 스타트업 Deal Sourcing 탐색등을 담당합니다 (kychoi@besuccess.com)

익명 댓글

avatar