KR20200058823A - 모션인식용 웨어러블 밴드 제스처 인식방법 및 장치 - Google Patents

모션인식용 웨어러블 밴드 제스처 인식방법 및 장치 Download PDF

Info

Publication number
KR20200058823A
KR20200058823A KR1020180143411A KR20180143411A KR20200058823A KR 20200058823 A KR20200058823 A KR 20200058823A KR 1020180143411 A KR1020180143411 A KR 1020180143411A KR 20180143411 A KR20180143411 A KR 20180143411A KR 20200058823 A KR20200058823 A KR 20200058823A
Authority
KR
South Korea
Prior art keywords
gesture
gesture recognition
user
recognition
motion information
Prior art date
Application number
KR1020180143411A
Other languages
English (en)
Inventor
강철준
Original Assignee
주식회사 어포스텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 어포스텍 filed Critical 주식회사 어포스텍
Priority to KR1020180143411A priority Critical patent/KR20200058823A/ko
Publication of KR20200058823A publication Critical patent/KR20200058823A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

모션인식용 웨어러블 밴드 제스처 인식방법이 개시된다. 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 단계; 및 입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 단계;를 포함한다. 본 발명에 따르면, 입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 제스처 인식방법, 제스운행 중인처 인식장치 및 기록매체를 제공할 수 있게 되어, 적용기기 내부 전체 공간에서 제스처 인식이 가능해지고 인식률을 더욱 향상시킬 수 있게 되며, 적용기기에서도 비교적 정확한 제스처 인식을 할 수 있게 된다.

Description

모션인식용 웨어러블 밴드 제스처 인식방법 및 장치{Method and system for wearable band gesture recognition based on motion recognition}
본 발명은 모션 인식기술에 관한 것으로, 더욱 상세하게는 특정 공간 내에서 사용자의 제스처를 인식하기 위한 제스처 인식방법 및 장치에 관한 것이다.
기존 사용자 동작을 이용한 제스처 인식은 카메라를 이용하여 사용자의 제스처 영상을 획득한 후 영상처리를 통해 이뤄졌다. 최근에는 카메라 영상에서 사용자의 손과 손가락 모양, 손의 움직임 등을 해석하여 다양한 제스처 인식이 가능해졌다.
그러나 카메라를 이용한 영상으로 제스처를 인식하는 방법은 특정 환경, 특히 외부에서부터 발생하는 강한 조도 및 빛 번짐 현상 등으로 인한 인식 오류가 발생되는 문제가 있으며, 사용자의 의도치 않은 움직임에 의해 잘못된 제스처로 인식될 수도 있으며 이로 인해 특정 공간에 적용한 프로그램의 오작동 가능성도 존재한다. 또한, 지정된 카메라에 의해 촬영되는 제스처 인식영역 안에서의 제스처 동작만이 유효하므로, 제스처 인식 수행 공간의 제약이 발생한다는 단점도 존재한다.
이에 따라, 외부 인자(빛, 소리 등)에 영향을 받지 않고 지정 공간의 제약을 받지 않는 제스처 인식 방법 및 그 시스템이 필요하다.
여기서 특정 공간과 지정 공간은 야외가 아닌 적용기기, 강의실, 방안의 실내를 뜻하고 있으며, 실내공간에서 제스쳐로 적용 어플리케이션의 기능 구동시키는 사항을 나타낸다.
도 1은 종래의 적용기기 룸미러 아래쪽에 카메라가 장착돼있어 표시된 영역에서만 제스처 인식을 수행하는 모습을 도시한 도면이다. 또한, 도 2는 종래의 센터페시아 부분에 존재하는 카메라로 지정영역에서만 제스처 인식을 수행하는 것을 도시한 도면이다.
적용기기 내부에서의 수행 공간 제약 없는 사용자 동작 인식을 위해서, 사용자가 직접 착용한 웨어러블 장치에서 발생하는 움직임 정보가 사용될 수동 있다. 종래의 웨어러블 장치에서 발생하는 제스처 인식 기술을 살펴보면, 적용기기와 같은 외부로 명령을 내리기 위한 목적은 아니었다. 웨어러블 장치 자체에 포함된 센서(가속도계, 각속도계 등)의 움직임을 이용하여 손목 움직임, 걸음걸이 파악 등의 단순 기능에 국한되어 있다. 따라서 적용기기와 같이 진동 및 움직임이 잦은 공간에서는 정확한 움직임을 파악하는 것이 매우 어렵다.
도 3은 종래의 손목의 움직임을 파악하여 웨어러블 장치(워치)의 화면 온/오프 기능을 수행하고 외부 디바이스와 연동하는 것을 도시한 도면이다. 웨어러블 장치는 연동을 위해 센서의 움직임 정보를 외부 디바이스(태블릿, 스마트 폰 등)로 전달할 수도 있다. 도 4는 종래의 웨어러블 장치를 이용하여 외부디바이스와 연동되어 제스처를 인식하는 것이 도시된 도면이다.
하지만, 웨어러블 장치를 이용하여 제스처를 인식하더라도, 적용기기 내부에서는 다양한 움직임으로 인해 정확도가 떨어지게 된다. 이에 따라, 적용기기 내부에서 더욱 인식률이 높은 제스처 인식 방법을 제공하기 위한 방안의 모색이 필요하다.
대한민국 등록특허공보 제10-1639351호 : 웨어러블 입력 시스템 및 모션 인식 방법
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 제스처 인식방법, 제스처 인식장치 및 기록매체를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 제스처 인식방법은, 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 단계; 및 입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 단계;를 포함한다.
그리고, 인식단계는, 입력된 적용기기 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 설정하는 단계; 및 설정된 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정하는 단계;를 포함한다.
또한, 설정 단계는, 입력된 적용기기 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 복수개의 단계 중 하나의 단계로 설정하고, 설정된 단계에 대응되는 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정할 수도 있다.
그리고, 제스처 인식 준비상태, 제스처 인식 준비완료상태, 제스처 인식 불가 상태 및 인식 가능한 제스처 타입 범위의 단계 설정상태 중 적어도 하나를 포함하는 제스처 인식 관련 상태를 적용기기의 디스플레이 화면에 표시하는 단계를 더 포함할 수도 있다.
그리고, 제스처 타입은, 상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입 중 두개 이상을 포함할 수도 있다.
또한, 움직임 정보 입력 단계는, 웨어러블 장치에 포함된 센서에 의해 감지된 사용자의 움직임 정보를 웨어러블 장치로부터 입력을 수도 있다.
한편, 본 발명의 일 실시예에 따른, 제스처 인식장치는, 적용기기 상태 정보 및 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 인터페이스; 및 입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 입력된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 프로세서;를 포함한다.
한편, 본 발명의 일 실시예에 따른, 컴퓨터로 읽을 수 있는 기록매체는, 적용기기 상태 정보를 입력받는 단계; 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 단계; 및 입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 단계;를 포함하는 제스처 인식방법을 수행하는 컴퓨터 프로그램이 수록된다.
한편, 본 발명의 일 실시예에 따른, 적용기기는, 적용기기 상태 정보 및 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 인터페이스; 및 입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 대응되는 명령을 실행하는 프로세서;를 포함한다.
본 발명의 다양한 실시예에 따르면, 입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 제스처 인식방법, 제스운행 중인처 인식장치 및 기록매체를 제공할 수 있게 되어, 적용기기 내부 전체 공간에서 제스처 인식이 가능해지고 인식률을 더욱 향상시킬 수 있게 되며, 적용기기에서도 비교적 정확한 제스처 인식을 할 수 있게 된다.
도 1은 종래의 적용기기 룸미러 아래쪽에 카메라가 장착돼있어 표시된 영역에서만 제스처 인식을 수행하는 모습을 도시한 도면,
도 2는 종래의 센터페시아 부분에 존재하는 카메라로 지정영역에서만 제스처 인식을 수행하는 것을 도시한 도면,
도 3은 종래의 손목의 움직임을 파악하여 웨어러블 장치(워치)의 화면 온/오프 기능을 수행하고 외부 디바이스와 연동하는 것을 도시한 도면,
도 4는 종래의 웨어러블 장치를 이용하여 외부디바이스와 연동되어 제스처를 인식하는 것이 도시된 도면,
도 5는 본 발명의 일 실시예에 따른, 제스처 인식 과정을 개념적으로 도시한 도면,
도 6은 본 발명의 일 실시예에 따른, 제스처 인식 장치의 구성을 도시한 도면,
도 7는 본 발명의 일 실시예에 따른, 적용기기상태정보에 따른 단계별 동작 가능 설정된 제스처 범위를 도시한 표,
도 8은 본 발명의 일 실시예에 따른, 제스처 인식 과정을 세부적으로 도시한 도면,
도 9은 본 발명의 일 실시예에 따른, 축값의 증감 관계 특성 계산식(cross-correlation matrix)을 도시한 도면,
도 10는 본 발명의 일 실시예에 따른, 제스처 인식방법을 설명하기 위해 제공되는 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 5는 본 발명의 일 실시예에 따른, 제스처 인식 과정을 개념적으로 도시한 도면이다.
도 5에 도시된 바와 같이, 제스처 인식장치(Gesture Recognition System)(100)는 적용기기에서 움직임 센서부(10)를 포함하는 웨어러블 장치(시계형, 밴드형 등)를 착용한 사용자의 특정 움직임 정보를 운행중인 적용기기의 정보와 융합하여 유의미한 제스처로 인식하게 된다. 제스처 인식장치(100)는 제스처를 수행하는 사용자의 적용기기 내부에서 실행 범위에 대한 지역적인 제약을 받지 않고 적용기기 외부에서부터 발생하는 빛, 소음 의 외부 요인으로부터 영향을 받지 않고 제스처를 인식할 수 있게 된다.
제스처 인식장치(100)는 움직임 센서 정보를 제스처로 해석하고, 적용기기 정보를 수집하여 동작 가능 범위로 설정된 제스처 범위 내인지 여부를 판단하게 된다.
이와 같이 본 제스처 인식장치(100)는 적용기기내 환경에서 가속도계와 각속도계 센서를 포함하는 움직임 센서부(10)를 이용하여 제스처를 구분하게 되며, 적용기기에서 발생하는 정보를 수집하고 분석하여 동작 가능한 유효한 제스처인지 여부를 판단하는데 사용하게 된다.
적용기기상태정보 수집장치는 도 8의 적용기기상태정보 수집부(20)를 나타내며, 사용자가 제스처 동작 수행시, 사용자의 동작과 관계없이 움직임 정보의 오류가 발생될 수 있는 상황을 파악하기 위해 정보를 수집하는 모듈을 내장한다. 이때, 적용기기상태정보 수집부(20)는 적용기기의 데이터, 적용기기의 실제 움직임을 볼 수 있는 적용기기 센서와 연동되며, 적용기기실행 데이터 정보 등을 수집하게 된다.
디스플레이 장치는 제스처 인식장치(100)가 포함될 수 있다. 하지만, 제스처 인식장치(100)는 이외에도 적용기기(30)의 다양한 부분에 포함될 수 있음은 물론이다. 제스처 인식장치(100)를 포함하는 디스플레이 장치는 이러한 적용기기정보과 웨어러블 디바이스의 움직임 정보를 취합하여, 사용자의 제스처를 인식할 수 있게 된다.
이하에서는, 제스처 인식장치(100)의 상세한 구조를 설명한다. 도 8은 본 발명의 일 실시예에 따른, 제스처 인식장치(100)의 구성을 도시한 도면이다. 도 8에 도시된 바와 같이, 제스처 인식장치(100)는 움직임 센서부(10) 및 적용기기상태정보 수집부(20)와 유선 또는 무선으로 연결된다. 또한, 제스처 인식장치(100)는 인터페이스(110), 프로세서(120), 디스플레이(130) 및 저장부(140)를 포함한다.
움직임 센서부(10)는 상술한 바와 같이 사용자가 착용하고 있는 웨어러블 장치에 포함되어 있으며, 9축 센서를 포함하여 사용자의 움직임 정보를 계속적으로 생성한다. 움직임 센서부(10)는 생성된 움직임 정보를 유선 또는 무선 네트워크를 통해 제스처 인식장치(100)로 전달한다.
적용기기상태정보 수집부(20)는 운행 중인 적용기기의 실제 움직임을 볼 수 있는 적용기기 센서와 연동되며, 적용기기 실행 정보를 기록한다. 그리고, 적용기기상태정보 수집부(20)는 기록된 정보를 유선 또는 무선 네트워크를 통해서 제스처 인식장치(100)로 전달한다.
인터페이스(110)는 유선 또는 무선 네트워크의 데이터를 송수신하며, 움직임 센서부(10)의 움직임 정보와 적용기기상태정보 수집부(20)의 적용기기상태 정보를 입력받는다. 인터페이스(100)는 이더넷, 블루투스, 와이파이 등의 프로토콜을 이용할 수도 있다.
프로세서(120)는 제스처 인식장치(100)의 다양한 기능을 수행한다. 구체적으로, 프로세서(120)는 입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하고, 인식된 제스처에 대응되는 명령을 실행한다. 예를 들어, 프로세서(120)는 인식된 제스처에 따라 볼륨 업/다운, 디스플레이 지도 확대/축소, 전력 온/오프 등의 명령을 수행할 수도 있다.
구체적으로, 프로세서(120)는 입력된 적용기기 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 설정하고, 설정된 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정한다.
이 때, 프로세서(120)는 입력된 적용기기 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 복수개의 단계 중 하나의 단계로 설정하고, 설정된 단계에 대응되는 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정할 수도 있다.
예를 들어, 프로세서(120)는 적용기기 상태 정보에 기초하여 인식 가능한 제스처 타입의 범위를 5개의 단계로 나눌 수 있으며, 이와 관련하여는 도 9를 참고하여 설명한다. 도 9는 본 발명의 일 실시예에 따른, 적용기기상태정보에 따른 단계별 동작 가능 설정된 제스처 범위를 도시한 표이다.
우선, 프로세서(120)는 적용기기 상태 정보에 해당되는 다양한 기기 정보 중 두개 이상을 이용하여 적용기기의 상태를 1단계에서 5단계로 구분할 수 있다. 이 때, 1단계에서 5단계로 갈수록 적용기기의 흔들림이 심해지는 상태를 나타낼 수도 있다.
이 상태에서, 프로세서(120)는 도 9와 같이 입력된 적용기기 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 5개의 단계 중 하나의 단계로 설정할 수 있게 된다. 이 때, 도 9에 도시된 바와 같이, 제스처 타입은 상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입이 있다.
도 9에 도시된 바와 같이, 프로세서(120)는 설정된 단계에 대응되는 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정할 수 있게 된다. 구체적으로, 설정된 단계가 1단계인 경우, 프로세서(120)는 상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입의 4가지 모든 타입의 제스처를 인식할 수 있으므로, 입력된 움직임 정보가 어떤 제스처에 해당되는지 4가지 타입에서 결정하게 된다. 그리고, 설정된 단계가 2단계인 경우, 프로세서(120)는 상하좌우 타입, 회전타입 및 선택타입의 3가지 타입의 제스처를 인식할 수 있으므로, 입력된 움직임 정보가 어떤 제스처에 해당되는지 위의 3가지 타입에서 결정하게 된다. 또한, 설정된 단계가 3단계인 경우, 프로세서(120)는 상하좌우 타입, 앞뒤타입 및 선택타입의 3가지 타입의 제스처를 인식할 수 있으므로, 입력된 움직임 정보가 어떤 제스처에 해당되는지 위의 3가지 타입에서 결정하게 된다. 설정된 단계가 4단계인 경우, 프로세서(120)는 좌우 타입 및 선택타입의 2가지 타입의 제스처를 인식할 수 있으므로, 입력된 움직임 정보가 어떤 제스처에 해당되는지 2가지 타입에서 결정하게 된다. 설정된 단계가 5단계인 경우, 프로세서(120)는 상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입의 4가지 모든 타입의 제스처를 인식할 수 없게 된다.
이와 같이, 프로세서(120)는 적용기기 상태 정보에 기초하여 인식 가능한 제스처 타입의 범위를 5개의 단계로 나눌 수 있다. 하지만, 프로세서(120)는 적용기기 상태 정보에 기초하여 인식 가능한 제스처 타입의 범위를 5개가 아닌 다른 개수의 단계로도 나눌 수 있음은 물론이다.
도 9을 이용하여 위와 같은 프로세서(120)의 제스처 인식 동작을 더욱 상세히 설명한다. 도 10은 본 발명의 일 실시예에 따른, 제스처 인식 과정을 세부적으로 도시한 도면이다.
프로세서(120)는 입력된 움직임 정보에 대해 무결성 확인 과정을 거친 뒤 데이터 재배열기를 통해 해석 가능한 형태로 재배열된다. 이 때, 프로세서(120)는 무결성 확인시에 입력된 적용기기정보를 이용해 움직임 정보가 인식 가능한 제스처 타입에 해당되어 유효한지를 먼저 판단한다. 프로세서(120)는 재배열된 움직임 정보를 미리 지정된 제스처 동작의 주요 특성 정보를 기준으로 분류기를 통해 분류한다. 프로세서(120)는 분류된 데이터를 상세 제스처를 결정짓는 결정기로 옮기고, 저장부(140)에 저장된 제스처 동작 데이터 베이스의 특이 정보를 이용해 움직임 정보를 제스처에 매칭한다. 프로세서(120)는 매칭하는 과정에서 적용기기 정보를 적용하여 다시 한 번 무의미한 값을 필터링 한다. 이를 통해 급격하게 증/감한 움직임 센서부(10)의 센서 값의 완화 효과를 가져온다. 마지막으로, 프로세서(120)는 결정된 제스처를 디스플레이(130)를 통해 표시함으로써, 제스처 인식이 이뤄졌음을 사용자에게 알려주게 된다.
프로세서(120)의 세부 동작 흐름을 도 9에서 확인할 수 있으며, 프로세서(120)는 재배열기, 분류기, 결정기, 실행기의 기능 블록으로 이뤄져있으며 각각의 역할은 다음과 같다. 먼저, 재배열기 부분은 데이터 무결성을 검사하고 해석 가능한 형태로 재배열된 데이터를 생산한다. 그 후 분류기에서는 저장부(140)의 제스처 데이터 베이스의 정보를 이용해 자체 최고 값, 최저 값, 인접 데이터의 사이 값 등의 특성을 비교해 1차 분류를 진행한다. 결정기는 1차 분류로 분류된 데이터를 각 축 값의 증감 관계 특성(cross-correlation) 파악으로 세부 동작으로 재차 구분된다. 마지막으로, 실행기는 분류된 각 제스처에 대응된 응용 프로그램을 실행하도록 명령을 실행한다.
도 10은 결정기에서 사용한 축 값의 증감 관계 특성 계산식을 표현하였다. 도 10은 본 발명의 일 실시예에 따른, 축값의 증감 관계 특성 계산식(cross-correlation matrix)을 도시한 도면이다. 각 축 간의 관계를 표시한 것이기 때문에 행렬 형태로 저장되며, 행렬의 각 원소의 계산은 도 11에 나타난 것과 같으며, 결정기는 저장부(140)의 데이터베이스에 저장된 제스처 배열마다의 유의미한 값을 추출하여 발생 움직임 정보와 비교하는 과정을 진행한다.
이하에서는 시간흐름에 따라 프로세서(120)가 사용자의 제스처 인식을 수행하는 상태를 확인할 수 있는 방법을 도 12를 참고하여 설명한다. 도 12는 본 발명의 일 실시예에 따른, 시간에 따른 제스처 인식 단계들을 도시한 도면이다.
도 11는 시간에 따른 프로세서(120)의 제스처 인식 시간의 흐름을 보여주며, 검은색 부분은 실제 제스처 인식이 아닌 시스템 프로세싱(온, 오프, 데이터처리 등)에 소요되는 시간을 보여주며, 녹색은 프로세서(120)에 의해 제스처 인식이 일어나는 시간을 보여준다. 특히, 도 12에는 프로세서(120)가 실제 제스처 데이터의 동기화와 제스처 인식에 소요하는 시간이 개략적으로 표시되어 있다.
이와 같은 과정을 통해, 프로세서(120)는 제스처 인식을 수행하게 된다.
디스플레이(130)는 화면에 해당될 수도 있으며, 적용기기와 관련된 다양한 정보를 표시하게 된다.
프로세서(120)는 제스처 인식 준비상태, 제스처 인식 준비완료상태, 제스처 인식 불가 상태 및 인식 가능한 제스처 타입 범위의 단계 설정상태 중 적어도 하나를 포함하는 제스처 인식 관련 상태를 디스플레이 화면에 표시할 수 있다. 구체적으로, 프로세서(120)는 제스처 인식 관련 상태를 디스플레이(130) 화면 가장자리 둘레에 표시하며, 제스처 인식 관련 상태에 따라 색깔을 달리하여 표시할 수도 있다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
10 : 움직임 센서부
20 : 적용기기상태정보 수집부
100 : 제스처 인식장치
110 : 인터페이스
120 : 프로세서
130 : 디스플레이
140 : 저장부

Claims (9)

  1. 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 단계; 및
    입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 수신된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 단계;를 포함하는 제스처 인식방법.
  2. 청구항 1에 있어서,
    인식단계는,
    입력된 적용기기 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 설정하는 단계; 및
    설정된 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정하는 단계;를 포함하는 것을 특징으로 하는 제스처 인식방법.
  3. 청구항 2에 있어서,
    설정 단계는,
    입력된 적용기기 상태 정보에 기초하여, 인식 가능한 제스처 타입의 범위를 복수개의 단계 중 하나의 단계로 설정하고,
    결정 단계는,
    설정된 단계에 대응되는 제스처 타입의 범위 내에서, 입력된 움직임 정보에 대응되는 사용자의 제스처를 결정하는 것을 특징으로 하는 제스처 인식방법.
  4. 청구항 3에 있어서,
    제스처 인식 준비상태, 제스처 인식 준비완료상태, 제스처 인식 불가 상태 및 인식 가능한 제스처 타입 범위의 단계 설정상태 중 적어도 하나를 포함하는 제스처 인식 관련 상태를 적용기기의 디스플레이 화면에 표시하는 단계;를 더 포함하는 것을 특징으로 하는 제스처 인식방법.
  5. 청구항 4에 있어서,
    표시 단계는,
    제스처 인식 관련 상태를 적용기기의 디스플레이 화면 가장자리 둘레에 표시하며, 제스처 인식 관련 상태에 따라 색깔을 달리하여 표시하는 것을 특징으로 하는 제스처 인식방법.
  6. 청구항 1에 있어서,
    인식된 제스처에 대응되는 명령을 실행하는 단계;를 더 포함하는 것을 특징으로 하는 제스처 인식방법.
  7. 청구항 2에 있어서,
    제스처 타입은,
    상하좌우 타입, 회전타입, 앞뒤타입 및 선택타입 중 두개 이상을 포함하는 것을 특징으로 하는 제스처 인식방법.
  8. 청구항 1에 있어서,
    움직임 정보 입력 단계는,
    웨어러블 장치에 포함된 센서에 의해 감지된 사용자의 움직임 정보를 웨어러블 장치로부터 입력받는 것을 특징으로 하는 제스처 인식방법.
  9. 적용기기 상태 정보 및 센서에 의해 감지된 사용자의 움직임 정보를 입력받는 인터페이스; 및
    입력된 적용기기 상태 정보에 따라 설정된 제스처 범위 내에서, 입력된 움직임 정보에 기초하여 사용자의 제스처를 인식하는 프로세서;를 포함하는 제스처 인식장치.
KR1020180143411A 2018-11-20 2018-11-20 모션인식용 웨어러블 밴드 제스처 인식방법 및 장치 KR20200058823A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180143411A KR20200058823A (ko) 2018-11-20 2018-11-20 모션인식용 웨어러블 밴드 제스처 인식방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180143411A KR20200058823A (ko) 2018-11-20 2018-11-20 모션인식용 웨어러블 밴드 제스처 인식방법 및 장치

Publications (1)

Publication Number Publication Date
KR20200058823A true KR20200058823A (ko) 2020-05-28

Family

ID=70920153

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180143411A KR20200058823A (ko) 2018-11-20 2018-11-20 모션인식용 웨어러블 밴드 제스처 인식방법 및 장치

Country Status (1)

Country Link
KR (1) KR20200058823A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101639351B1 (ko) 2015-01-15 2016-07-13 주식회사 엔씨소프트 웨어러블 입력 시스템 및 모션 인식 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101639351B1 (ko) 2015-01-15 2016-07-13 주식회사 엔씨소프트 웨어러블 입력 시스템 및 모션 인식 방법

Similar Documents

Publication Publication Date Title
JP5709227B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11573641B2 (en) Gesture recognition system and method of using same
US9165181B2 (en) Image processing device, method and program for moving gesture recognition using difference images
US20160179210A1 (en) Input supporting method and input supporting device
KR101502085B1 (ko) 안경형 디스플레이 디바이스의 동작인식 입력방법
JP5691802B2 (ja) 投影システム、投影装置、投影方法、および制御プログラム
KR20150106823A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
WO2019037257A1 (zh) 密码输入的控制设备、方法及计算机可读存储介质
KR101983892B1 (ko) 웨어러블 디바이스를 이용한 차량 내 제스처 인식방법, 장치 및 기록매체
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
KR20200058823A (ko) 모션인식용 웨어러블 밴드 제스처 인식방법 및 장치
JP6585355B2 (ja) 画像認識装置
WO2018053956A1 (zh) 交互方法及可穿戴设备
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
WO2016192062A1 (en) Determining the orientation of image data based on user facial position
CN104615275A (zh) 文字输入方法和装置
KR102346904B1 (ko) 제스처 인식 장치 및 방법
WO2022254890A1 (ja) 動線解析装置、動線解析方法及びコンピュータプログラム
JP2014078124A (ja) ジェスチャー入力装置および表示システム
WO2017013805A1 (ja) 入力装置、入力支援方法および入力支援プログラム
CN108073271A (zh) 基于预定区域识别手部区域的方法及装置
CN108227906B (zh) 一种人机交互方法及装置
JP5773036B2 (ja) 投影システム、投影装置、投影方法、および制御プログラム
AU2021463303A1 (en) Electronic apparatus and program
KR20200046764A (ko) 제스처 인식 장치 및 방법