KR101302638B1 - 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체 - Google Patents

머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR101302638B1
KR101302638B1 KR1020110068076A KR20110068076A KR101302638B1 KR 101302638 B1 KR101302638 B1 KR 101302638B1 KR 1020110068076 A KR1020110068076 A KR 1020110068076A KR 20110068076 A KR20110068076 A KR 20110068076A KR 101302638 B1 KR101302638 B1 KR 101302638B1
Authority
KR
South Korea
Prior art keywords
gesture
user
data
hand
region
Prior art date
Application number
KR1020110068076A
Other languages
English (en)
Other versions
KR20130006186A (ko
Inventor
임창주
정윤근
민영삼
박승구
Original Assignee
더디엔에이 주식회사
(주) 미디어인터랙티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 더디엔에이 주식회사, (주) 미디어인터랙티브 filed Critical 더디엔에이 주식회사
Priority to KR1020110068076A priority Critical patent/KR101302638B1/ko
Priority to US14/131,533 priority patent/US9298267B2/en
Priority to PCT/KR2012/005434 priority patent/WO2013009062A2/ko
Publication of KR20130006186A publication Critical patent/KR20130006186A/ko
Application granted granted Critical
Publication of KR101302638B1 publication Critical patent/KR101302638B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법에 있어서, (a) 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 단계; (b) 컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 단계; 및 (c) 상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 단계를 포함하는 것을 특징으로 하는 컨텐츠 제어 방법이 개시된다. 본 발명에 따르면, 키보드, 마우스, 리모컨과 같은 별도의 인터페이스 도구 없이도, 사용자의 머리의 제스처 및 손의 제스처를 이용하여 컨텐츠를 제어할 수 있으므로 다양한 컨텐츠를 편하고, 효과적으로 제공 받을 수 있는 효과를 달성할 수 있다.

Description

머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체{METHOD, TERMINAL, AND COMPUTER READABLE RECORDING MEDIUM FOR CONTROLLING CONTENT BY DETECTING GESTURE OF HEAD AND GESTURE OF HAND}
본 발명은 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하는 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로서, 보다 상세하게는 컨텐츠를 제어함에 있어서 입력된 영상을 분석하여 머리 영역과 손 영역을 검출하고, 컴퓨터 비전 기술을 사용하여 사용자의 머리 영역의 제스처와 손 영역의 제스처를 추적하여 머리 영역의 제스처에 대한 데이터와 손 영역의 제스처에 대한 데이터를 포함하는 제스처 결합 정보를 이용하여 컨텐츠를 제어할 수 있도록 하는 방법, 단말 장치 및 컴퓨터 판독 가능 기록 매체에 관한 것이다.
최근에 들어, 스마트 TV, 스마트 휴대폰 등 컨텐츠를 제공하기 위한 기기의 유형이 다양화되고 있고, 이들을 통해 제공되는 컨텐츠의 유형도 영화, 음악, 게임에서 교육, 의료, 홈쇼핑 등으로 다양화되고 있는 추세이다.
컨텐츠를 제어하기 위한 종래의 인터페이스 방법으로는 컨텐츠를 제공하는 기기와 유/무선으로 연결된 마우스, 키보드, 리모컨 등 도구를 사용하는 방식을 생각해볼 수 있는데 이러한 방법들에 따르면, 사용자가 도구를 사용해 컨텐츠를 일일이 특정하고 제어해야 한다는 불편함이 있었다. 또한, 상기와 같은 도구 사용의 미스가 빈번하게 일어날 수 있는바 컨텐츠를 원하는 대로 제어하기가 쉽지 않을 수도 있고, 상기와 같은 도구를 별도로 유지 및 관리해야 한다는 문제점이 있었다. 뿐만 아니라 3D 게임과 같이 사실감이 강조되는 컨텐츠의 경우 상기와 같은 도구를 사용하여 컨텐츠를 제어하고자 하는 경우 사용자가 컨텐츠를 사실감 있게 느끼지 못하는 중요한 원인이 되기도 하였다.
상술한 종래 기술의 문제점을 극복하기 위해 사용자의 제스처(Gesture)를 이용하여 컨텐츠를 제어하는 방식에 대한 연구가 활발히 진행되고 있으며, 그 결과로 다양한 기술이 개발되고 있다. 사용자의 제스처를 이용하여 컨텐츠를 제어하는 방식에 대한 기술로, 한국공개특허공보 제2011-0053396호 등이 있다. 상기 한국공개특허공보에는 단말기 카메라부를 이용하여 사용자의 손동작에 대한 영상을 획득하고, 획득된 영상을 분석하여 특징점을 추출하고, 추출된 특징점의 이동을 감지하여 특정 제스처를 인식한 후 인식된 제스처를 이용해 단말기의 특정 기능을 실행하는 기술이 개시되어 있다.
다만, 위의 기술은 손의 제스처를 인식하여 단말기를 제어하므로 단말기에 인식 시킬 수 있는 제스처의 종류가 제한되어 있고, 사용자의 단순한 제스처로부터 효율적으로 컨텐츠를 제어하는 것이 쉬운 것은 아니었는바 실감나는 컨텐츠 향유에 한계가 있었다. 따라서, 본 출원인은 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터에 포함되어 있는 위치 및 방향 정보를 정합하는 제스처 결합 정보를 사용하여 극도로 편리하고 다양하게 컨텐츠를 제어할 수 있도록 함으로써, 사용자의 컨텐츠에 대한 참여율을 높이고 보다 정확하고 실감나는 컨텐츠를 향유할 수 있도록 하기 위한 기술을 개발하기에 이르렀다.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은 사용자의 머리의 제스처와 손의 제스처를 이용하여 컨텐츠를 제어함에 있어서, 객체 검출 기술을 이용하여 입력된 영상을 분석하여 사용자의 머리 영역과 손 영역을 검출하고, 컴퓨터 비전 기술을 이용하여 사용자의 머리 영역의 제스처와 손 영역의 제스처를 추적하고, 추적된 사용자의 머리 영역의 제스처에 대한 데이터와 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 이용하여 컨텐츠를 제어할 수 있도록 하는 것을 그 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 실시예에 따르면, 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법에 있어서, (a) 객체 검출 기술을 사용하여 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 단계; (b) 컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 단계; 및 (c) 상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 단계를 포함하는 컨텐츠 제어 방법이 제공된다.
또한 본 발명의 다른 실시예에 따르면, 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 단말 장치에 있어서, 객체 검출 기술을 사용하여 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 유효 영역 검출부; 컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 검출 영역 추적부; 및 상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 제어 명령 해석부를 포함하는 컨텐츠 제어 단말 장치가 제공된다.
한편, 이외에도 본 발명의 구현하기 위한 다른 방법, 단말 장치 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 제공된다.
본 발명에 따르면, 키보드, 마우스, 리모컨과 같은 별도의 사용자 인터페이스 도구 없이도, 사용자의 머리의 제스처 및 손의 제스처의 결합 정보를 이용하여 극도로 효율적으로 컨텐츠를 제어할 수 있다.
본 발명에 따르면, 컴퓨터 비전 기술을 사용하여 사용자의 머리 및 손의 움직임을 인식하므로 머리의 제스처 및 손의 제스처를 추적하기 위한 별도의 장치(가령, 헤드폰에 부착된 센서 등)가 필요 없다.
본 발명에 따르면 머리의 제스처에 대한 데이터와 손의 제스처에 대한 데이터에 포함되어 있는 위치 및 방향 정보를 정합하는 제스처 결합 정보를 이용하여 컨텐츠를 제어하므로 컨텐츠를 제어하기 위한 명령을 다양화할 수 있다.
도 1은 본 발명의 일 실시예에 따른 단말 장치(100)의 구성을 예시적으로 나타내는 도면이다.
도 2는 외각 원형 범위가 확장되는 과정과 손가락 끝점(230a 내지 230e)에 대해 나타낸 도면이다.
도 3은 사용자의 주시선(310)과 디스플레이 화면(330)에서의 교차점을 이용하여 사용자의 머리 영역(410)의 제스처에 대한 정보를 획득하는 것을 나타낸 그림이다.
도 4는 검출된 사용자의 머리 영역(410)과 사용자의 손 영역(420)을 나타낸 도면이다.
도 5는 컨텐츠를 제공하는 기기(510)가 사용자의 머리 영역의 제스처 및 손 영역의 제스처에 따라 사용자에게 컨텐츠를 제공하는 것을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 동작사전의 데이터베이스(150)에 저장된 적어도 하나 이상의 커맨드 시그널 데이터와 이러한 커맨드 시그널 데이터에 대응하는 제어 명령을 나타낸 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 단말 장치(100)의 구성을 예시적으로 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 단말 장치(100)는, 유효 영역 검출부(110), 검출 영역 추적부(120), 입력 데이터 모달리티(Modality) 정합부(130), 제어 명령 해석부(140), 데이터베이스(150), 통신부(160) 및 제어부(170)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 유효 영역 검출부(110), 검출 영역 추적부(120), 입력 데이터 모달리티 정합부(130), 제어 명령 해석부(140), 데이터베이스(150), 통신부(160) 및 제어부(170)는 프로그램 통신가능한 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 단말 장치(100)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 단말 장치(100)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
먼저, 본 발명의 일 실시예에 따르면, 유효 영역 검출부(110)는 소정의 객체 검출 기술을 이용하여 입력된 영상에서 유효 영역(즉, 머리 영역 및 손 영역)을 검출한다. 유효 영역 검출부(110)는 가령 입력된 사용자의 영상을 피부색 모델 기반으로 분석하여 사용자의 머리 영역과 손 영역을 검출할 수 있다. 사용자의 영상은 RGB 카메라(도 1에 미도시)로 입력 받은 RGB(Red, Green and Blue)의 형태일 수 있다. 사용자의 영상이 RGB 형태이면 유효 영역 검출부(110)는 입력된 영상을 HSI(Hue, Saturation, Intensity) 좌표계로 변환한 후 머리 영역과 손 영역을 검출할 수 있다. 이는 RGB 형태의 영상에는 휘도 성분이 포함되어 있기 때문에 조명에 따라 특정한 값이 매우 현저하게 변화하여 머리 영역 및 손 영역의 인식률을 떨어뜨리므로 휘도를 포함하지 않는 색상(hue) 값과 채도(saturation) 값을 추출하여 조명의 영향을 덜 받도록 함으로써 머리 영역 및 손 영역의 인식률을 높이기 위함이다. 여기서 머리 영역 및 손 영역은 유효 영역 검출부(110)의 내부에 분리된 구성에서 따로 검출될 수도 있고, 하나의 구성에서 함께 또는 따로 검출될 수도 있다.
위에서 언급한 바와 같이, 유효 영역 검출부(110)에서 영상의 프레임에 포함되어 있는 객체를 검출하기 위해서는 소정의 객체 검출 기술을 사용해야 하는데, 이러한 객체 검출 기술로서, 한국공개특허공보 제2003-0040680호, 한국공개특허공보 제2010-0032699호 등을 참조할 수 있을 것이다(상기 한국공개특허공보의 내용은 그 전체가 본 명세서에 병합되어 있는 것으로 고려되어야 한다). 상기 한국공개특허공보에는 RGB 형태의 영상을 HIS 좌표계로 변환한 다음 얼굴 영역과 손 영역을 정확하게 검출하는 방법에 대하여 기재되어 있다. 물론, 본 발명에 적용 가능한 객체 검출 기술이 상기 공보에 기재된 기술에만 한정되는 것은 아니며, 다양한 변형예를 적용하여 본 발명을 구현할 수 있을 것이다.
특히, 유효 영역 검출부(110)는 손 영역 검출 시 손의 형태적 특징을 모델링할 수 있는데, 구체적으로, 손의 형태를 분석한 후 외곽 원형 범위의 반지름을 증가시켜 가면서 해당 외각 원형 범위 내의 픽셀값을 참조함으로써 손 영역에 대한 인식 범위를 설정할 수 있다. 여기서 외각 원형 범위의 내부가 손 영역 및 손가락의 끝점이 있는지 검출하는 인식범위가 될 수 있다. 도 2를 참조하면 외각 원형 범위는 사용자의 손바닥의 중심점(210)을 중심으로 한 동심원(220)에 의해 형성되는 범위를 포함하며, 동심원(220)의 반지름이 도 2와 같이 220a으로부터 220b, 220c의 순서로 확장되어 가면서 외곽 원형 범위 안에 들어온 사용자의 각 손가락의 끝점(230a 내지 230e)의 위치에 대한 정보를 획득한다. 외각 원형 범위에 포함되는 동심원(220)은 손가락 끝점(230a 내지 230e)에 대한 정보를 획득할 수 있도록 반지름이 일정한 범위에서 점점 확장되어 가면 되고, 반드시 도 2와 같이 220a으로부터 220b, 220c의 세 단계로 확장되어야 하는 것으로 제한되는 것은 아니다. 외곽 원형 범위의 반지름은 사용자의 모든 손가락의 끝점(230a 내지 230e)에 대한 정보를 획득할 때까지 확장될 수 있는데, 사용자의 손목과 팔목 그리고 팔까지 등과 같이 추적하는 범위가 무한히 확장되는 것을 방지하기 위해서 외곽 원형 범위의 반지름을 일정한 값 이하로 제한할 수 있다.
다음으로 검출 영역 추적부(120)는 컴퓨터 비전 기술(computer vision technology)을 사용하여 유효 영역 검출부(110)에 의해서 검출된 사용자의 머리 영역의 제스처 및 손 영역의 제스처를 추적한다. 여기서 컴퓨터 비전 기술이란 사용자의 머리 및 손에 사용자의 머리의 제스처 및 손의 제스처를 추적하기 위한 별도의 기기를 부착하지 않고, 오직 입력된 영상만을 이용하여 사용자의 머리의 제스처 및 손의 제스처를 추적하는 기술을 말한다. 사용자의 머리의 제스처 및 손의 제스처를 추적하기 위한 별도의 기기의 예로는 사용자의 머리의 제스처를 추적하기 위해 사용자의 머리에 부착되어 사용자의 머리의 제스처에 대한 정보를 단말 장치로 송신하는 헤드셋(headset) 등을 들 수 있으나, 본 발명은 이와 같은 거추장스러운 악세서리가 전혀 필요 없다.
검출 영역 추적부(120)는 가령 사용자의 주시선 궤적을 이용하여 사용자의 머리 영역의 제스처를 추적할 수 있다. 구체적으로 도 3 및 도 4를 참조하면 사용자의 주시선(310)은 사용자의 머리 영역(410)에서 추출된 적어도 복수의 형태적 특징점을 기반으로 형성된 기하학적 모델의 평면(320)의 법선 벡터에 대응된다. 사용자의 머리 영역(410)에서 추출된 복수의 형태적 특징점은 사용자의 얼굴 부위에서 추출된 눈 2개, 콧구멍 2개 및 입술의 양 끝점 2개의 특징점 중 적어도 일부를 포함할 수 있다. 즉, 검출 영역 추적부(120)는 사용자의 주시선(310)의 움직임을 통해 사용자의 얼굴의 움직임을 추적할 수 있고, 이러한 추적을 통해 출력되는 데이터를 일정 시간 저장하여 사용자의 머리 영역(410)의 제스처에 대한 데이터를 획득할 수 있다. 사용자의 머리 영역(410)의 제스처에 대한 데이터에는 사용자의 주시선(310)이 컨텐츠를 제공하는 기기의 디스플레이 화면(330)과 교차할 때 디스플레이 화면(330)에서의 교차점의 절대 좌표 및 사용자의 주시선(310)이 교차점에 머무르는 시간에 대한 정보가 포함될 수 있다. 컨텐츠를 제공하기 위한 기기는 컨텐츠를 디스플레이 하는 연산부를 구비한 모든 영상 기기의 종류, 예를 들어 TV, 모니터가 구비된 데스크탑 컴퓨터나 노트북 컴퓨터, PDA, 스마트폰, 태블릿 등을 모두 포함할 수 있다.
또한, 검출 영역 추적부(120)는 사용자의 손바닥의 중심점과 손가락의 끝점을 연결하는 적어도 하나의 직선이 움직이는 궤적을 참조하여 사용자의 손 영역(420)의 제스처를 추적한다. 구체적으로 도 2및 도 4를 참조하면, 손바닥의 중심점(210)과 각각의 손가락의 끝점(230a 내지 230e)을 연결한 직선이 움직이는 궤적은 사용자의 손가락의 움직임이라고 볼 수 있다. 이때, 사용자의 손바닥의 중심점(210) 및 손가락에 대한 추적을 통해 출력되는 데이터를 일정 시간 저장하여 사용자의 손 영역(420)의 제스처에 대한 데이터를 획득할 수 있다.
사용자의 머리 영역(410)의 제스처에 대한 데이터 및 손 영역(420)의 제스처에 대한 데이터는 3D 좌표값과 움직임 속도의 평균에 대한 정보를 포함할 수 있고, 이때 검출 영역 추적부(120)는 머리 영역(410)의 제스처와 손 영역(420)의 제스처를 각각 추적하므로 머리 영역(410)의 제스처에 대한 데이터와 손 영역(420)의 제스처에 대한 데이터를 각각 획득할 수 있다. 여기서 사용자의 머리 영역(410)의 제스처에 대한 데이터 및 손 영역(420)의 제스처에 대한 데이터는 검출 영역 추적부(120)의 내부에 분리된 구성에서 따로 추적하면서 획득할 수도 있고, 하나의 구성에서 함께 또는 따로 추적하면서 획득할 수도 있다.
다음으로 입력 데이터 모달리티(modality) 정합부(130)는 검출 영역 추적부(120)에의 추적에 의해서 획득한 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 정합하여 제스처 결합 정보를 생성할 수 있다. 여기서 정합이란 서로 다른 좌표계에서 얻어진 영상을 하나의 좌표계에 나타내는 처리기법을 포함할 수 있다. 구체적으로 입력 데이터 모달리티 정합부(130)는 검출 영역 추적부(120)에서 머리 영역의 제스처에 대한 데이터와 손 영역의 제스처에 대한 데이터가 각각 획득된 후 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터에 포함되어 있는 위치 및 방향 정보를 정합하여 머리 영역 및 손 영역의 제스처에 대한 통합적인 정보를 가지는 제스처 결합 정보를 생성할 수 있다.
다음으로 제어 명령 해석부(140)는 제스처 결합 정보를 참조하여 사용자의 머리의 제스처 및 손의 제스처에 의해 컨텐츠가 제어되도록 할 수 있다. 제어 명령 해석부(140)는 제스처 결합 정보를 소위 동작사전 데이터베이스(150) 내에 포함된 커맨드 시그널 데이터와 비교하여 컨텐츠를 제어하기 위한 특정한 명령으로 인식하는 기능을 수행할 수 있다. 동작사전 데이터베이스(150) 내에는 적어도 하나 이상의 커맨드 시그널 데이터가 저장되어 있으며 적어도 하나 이상의 커맨드 시그널 데이터 각각은 컨텐츠를 제어하기 위한 각각의 제어 명령에 대응되어 있다.
구체적으로, 입력된 제스처 결합 정보가 동작사전 데이터베이스(150) 내의 특정 커맨드 시그널 데이터와 일치하는 경우, 제어 명령 해석부(140)는 입력된 제스처 결합 정보를 특정 커맨드 시그널 데이터에 대응하는 제어 명령으로 해석하여 이를 출력하는 기능을 수행할 수 있다.
한편, 제스처 결합 정보에 포함된 사용자의 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터와 동작사전 데이터베이스(150)에 포함된 커맨드 시그널 데이터를 비교하기 위해서, 먼저 사용자의 머리 영역의 제스처에 대한 데이터 및 사용자의 손 영역의 제스처에 대한 데이터를 참조하여 사용자의 머리 영역 및 손 영역의 운동 궤적을 Autoregressive Model로 표현할 수 있다. 다음으로 Autoregressive Model로 표현된 운동 궤적 데이터에 Hidden Markov Model을 적용할 수 있다. 마지막으로 Hidden Markov Model이 적용된 제스처 결합 정보에서 위치값 정보 및 회전값 정보를 참조하여 동작사전 데이터베이스(150)에 포함된 커맨드 시그널 데이터와 데이터 자체 내에서 비교할 수 있다. 예를 들어 오른손을 오른쪽에서 왼쪽으로 이동 시에 대응되는 제어 명령이 “x축 이동”이라고 할 때 데이터 자체 내에서 시그널을 비교한다면 이동 속도의 차이(천천히 움직이거나 빨리 움직이는 경우의 차이)에 따른 인식률 저하를 막을 수 있을 것이다. 이와 같이 비교한 결과 제스처 결합 정보와 일치하는 커맨드 시그널 데이터에 대응하는 제어 명령을 참조로 하여 컨텐츠가 제어되도록 할 수 있다. 이와 같은 프로세스를 통해 본 발명은 사용자의 머리 영역의 제스처와 손 영역의 제스처를 결합하여 제어 명령으로 인식할 수 있으므로 사용자가 어떠한 도구를 사용하지 않고서도 직감적이고 다양한 형태의 컨텐츠를 제어할 수 있게 된다.
도 5를 참조하면 사용자의 머리 영역의 제스처 및 손 영역의 제스처를 취하면 컨텐츠를 제공하는 기기(510)는 제어 명령 해석부(140)에 의해 해석된 제어 명령에 의해 컨텐츠가 제어되는 화면을 사용자에게 제공한다. 도 5에는 사용자의 머리 영역의 제스처 및 손 영역의 제스처에 의해 3D 입체영상 컨텐츠가 제어되는 모습을 도시하였다.
본 발명에 있어서 동작사전 데이터베이스(150)는, 협의의 데이터베이스 뿐만 아니라, 컴퓨터 파일 시스템에 기반한 데이터 기록 등을 포함하는 넓은 의미의 데이터 베이스까지도 포함하는 개념으로서, 단순한 연산처리 로그의 집합이라도 이를 검색하여 소정의 데이터를 추출할 수 있다면 본 발명에서 말하는 데이터베이스에 포함될 수 있음이 이해되어야 한다. 비록, 도 1에서 동작사전 데이터베이스(150)는 단말 장치(100)에 포함되어 구성되어 있는 것으로 도시 되었지만, 본 발명을 구현하는 당업자의 필요에 따라, 동작사전 데이터베이스(150)는 단말 장치(100)와 별개로 구성될 수도 있을 것이다. 다음으로 본 발명의 일 실시예에 따른 통신부(160)는 본 발명의 단말 장치(100)가 외부 장치와 통신할 수 있도록 하는 기능을 수행할 수 있다.
마지막으로 본 발명의 일 실시예에 따른 제어부(170)는, 유효 영역 검출부(110), 검출 영역 추적부(120), 입력 데이터 모달리티 정합부(130), 제어 명령 해석부(140), 데이터베이스(150), 통신부(160) 및 제어부(170)간의 데이터의 흐름을 제어하는 기능을 수행한다. 즉, 본 발명에 따른 제어부(170)는 외부로부터의/로의 또는 단말 장치(100)의 각 구성 요소간의 데이터 흐름을 제어함으로써, 유효 영역 검출부(110), 검출 영역 추적부(120), 입력 데이터 모달리티 정합부(130), 제어 명령 해석부(140), 데이터베이스(150), 통신부(160) 및 제어부(170) 간의 데이터의 흐름을 제어하는 기능을 수행한다. 즉, 본 발명에 따른 제어부(170)에서 각각 고유기능을 수행하도록 제어한다.
도 6은 본 발명의 일 실시예에 따른 동작사전의 데이터베이스(150)에 저장된 적어도 하나 이상의 커맨드 시그널 데이터와 이러한 커맨드 시그널 데이터에 대응하는 제어 명령을 나타낸 도면이다. 커맨드 시그널 데이터와 이에 대응하는 제어 명령을 예를 들어 설명하면 다음과 같다.
예를 들어, 손 영역이 정지한 상태에서 고개를 끄덕이는 경우(머리 영역의 상하 움직임) 디스플레이 화면에 표시된 이미지 등을 선택하기 위한 ‘선택’ 제어 명령으로 인식될 수 있고, 머리 영역이 정지한 상태에서 한 손을 가로축의 일방으로 움직이는 경우(하나의 손 영역의 가로축 일방 움직임) 디스플레이 화면에 가로축 방향으로 나열된 이미지 등을 손 영역이 이동한 방향으로 이동하기 위한 ‘이동’ 제어 명령으로 인식될 수 있으며, 한 손을 가로축의 일방으로 움직이면서 고개를 끄덕이는 경우(손 영역의 일방 움직임 및 머리 영역의 상하 움직임) 디스플레이 화면에 가로축 방향으로 나열된 이미지 등을 손 영역이 이동한 방향으로 이동시키면서 이미지 등을 선택하기 위한 ‘이동 중 선택’의 제어 명령으로 인식될 수 있다. 이때 머리 영역의 제스처와 손 영역의 제스처를 결합하여 인식되는 제어 명령은 위와 같이 머리 영역의 제스처 및 손 영역의 제스처의 결합에 의해 인식되는 제어 명령일 수 있다. 참고로, 손 영역의 제스처 중 서로 다르게 구분되는 제스처는 싱글 핑거(single-finger), 더블 핑거(double-finger), 싱글 핸드(single-hand), 더블 핸드(double-hand) 등이 있을 수 있다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 단말 장치
110: 유효 영역 검출부
120: 검출 영역 추적부
130: 입력 데이터 모달리티 정합부
140: 제어 명령 해석부
150: 동작사전 데이터베이스
160: 통신부
170: 제어부

Claims (27)

  1. 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법에 있어서,
    (a) 객체 검출 기술을 사용하여 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 단계;
    (b) 컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 단계 - 상기 컴퓨터 비전 기술은 상기 검출된 머리 영역 및 상기 검출된 손 영역의 영상의 변화 정도를 이용하여 상기 사용자의 상기 머리의 제스처 및 상기 손의 제스처를 추적하는 기술임 -; 및
    (c) 상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 단계를 포함하며
    상기 (b) 단계는,
    상기 사용자의 주시선의 궤적 - 상기 사용자의 주시선은 상기 사용자의 머리 영역에서 추출된 적어도 복수의 형태적 특징점을 기반으로 형성된 기하학적 모델의 평면의 법선 벡터에 대응됨 - 을 이용하여 상기 사용자의 머리 영역의 제스처를 추적하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 (c) 단계는,
    (c1) 상기 머리 영역의 제스처에 대한 데이터 및 상기 손 영역의 제스처에 대한 데이터에 포함되어 있는 위치 및 방향 정보를 정합하는 단계를 포함하는 것을 특징으로 하는 방법.
  3. 제2항에 있어서,
    상기 (c) 단계는,
    (c2) 상기 정합된 데이터를 소정의 동작사전 데이터베이스에 포함된 기설정된 커맨드 시그널 데이터와 비교하여 특정 명령으로 인식하는 단계; 및
    (c3) 상기 인식된 특정 명령에 따라 상기 컨텐츠가 제어되도록 하는 단계
    를 포함하는 것을 특징으로 하는 방법.
  4. 제3항에 있어서,
    상기 (c2) 단계는,
    상기 동작사전 데이터베이스 내에 포함된 커맨드 시그널 데이터와 상기 정합된 데이터를 비교함에 있어서, 위치값 정보 및 회전값 정보를 참조로 하여 데이터 자체 내에서 비교하는 것을 특징으로 하는 방법.
  5. 제1항에 있어서,
    상기 (a) 단계에서,
    상기 손 영역을 검출하기 위하여, 상기 손의 형태를 분석한 후 외곽 원형 범위 - 상기 외곽 원형 범위는 상기 손바닥의 중심점을 중심으로 한 동심원에 의해 형성되는 범위를 포함함 - 의 반지름을 증가시키면서 해당 외곽 원형 범위 내의 픽셀값을 참조함으로써 상기 손 영역에 대한 인식 범위를 설정하는 것을 특징으로 하는 방법.
  6. 제5항에 있어서,
    상기 외곽 원형 범위의 반지름은 각 손가락의 끝점에 대한 정보를 획득할 때까지 증가되는 것을 특징으로 하는 방법.
  7. 제6항에 있어서,
    상기 (b) 단계는,
    상기 사용자의 손바닥의 중심점과 상기 사용자의 각 손가락의 끝점을 연결하는 적어도 하나의 직선이 움직이는 궤적을 참조하여 상기 사용자의 손 영역의 제스처를 추적하는 것을 특징으로 하는 방법.
  8. 제1항에 있어서,
    상기 (a) 단계는,
    상기 입력된 영상을 피부색 모델 기반으로 하여 분석하여 상기 사용자의 머리 영역 및 손 영역을 검출하는 것을 특징으로 하는 방법.
  9. 삭제
  10. 제1항에 있어서,
    상기 복수의 형태적 특징점은 상기 사용자의 얼굴 부위에서 눈, 콧구멍, 입술의 끝점의 특징점을 포함하는 것을 특징으로 하는 방법.
  11. 제1항에 있어서,
    상기 추적된 머리 영역의 제스처에 대한 데이터는 상기 법선 벡터가 디스플레이 화면에 교차할 때 교차점에 대한 절대 좌표 및 상기 교차점에 머무르는 시간에 대한 정보를 포함하는 것을 특징으로 하는 방법.
  12. 제1항에 있어서,
    상기 (b) 단계는,
    상기 사용자의 얼굴, 손바닥의 중심점, 손가락에 대한 추적을 통해 출력되는 데이터를 일정 시간 저장하여 제스처에 대한 데이터를 획득하는 것을 특징으로 하는 방법.
  13. 제12항에 있어서,
    상기 제스처에 대한 데이터는 3D 좌표값과 움직임 속도의 평균에 대한 정보를 포함하는 것을 특징으로 하는 방법.
  14. 제12항에 있어서,
    상기 (c) 단계는,
    (c4) 상기 일정 시간 저장하여 획득된 제스처에 대한 데이터를 참조로 운동 궤적을 Autoregressive Model로 표현하는 단계;
    (c5) 상기 Autoregressive Model로 표현된 운동 궤적 데이터에 Hidden Markov Model을 적용하는 단계; 및
    (c6) 상기 Hidden Markov Model을 적용한 데이터와 소정의 동작사전 데이터베이스에 포함된 기설정된 커맨드 시그널 데이터를 비교하여 상기 컨텐츠를 제어하기 위한 특정 명령으로 인식하는 단계
    를 포함하는 것을 특징으로 하는 방법.
  15. 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 단말 장치에 있어서,
    객체 검출 기술을 사용하여 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 유효 영역 검출부;
    컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 검출 영역 추적부 - 상기 컴퓨터 비전 기술은 상기 검출된 머리 영역 및 상기 검출된 손 영역의 영상의 변화 정도를 이용하여 상기 사용자의 상기 머리의 제스처 및 상기 손의 제스처를 추적하는 기술임 -; 및
    상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 제어 명령 해석부를 포함하며,
    상기 검출 영역 추적부는,
    상기 사용자의 주시선의 궤적 - 상기 사용자의 주시선은 상기 사용자의 머리 영역에서 추출된 적어도 복수의 형태적 특징점을 기반으로 형성된 기하학적 모델의 평면의 법선 벡터에 대응됨 - 을 이용하여 상기 사용자의 머리 영역의 제스처를 추적하는 것을 특징으로 하는 단말 장치.
  16. 제15항에 있어서,
    상기 제어 명령 해석부는,
    상기 머리 영역의 제스처에 대한 데이터 및 상기 손 영역의 제스처에 대한 데이터에 포함되어 있는 위치 및 방향 정보를 정합하고, 상기 정합된 데이터를 소정의 동작사전 데이터베이스에 포함된 기설정된 커맨드 시그널 데이터와 비교하여 특정 명령으로 인식한 후, 상기 인식된 특정 명령에 따라 상기 컨텐츠가 제어되도록 하는 것을 특징으로 하는 단말 장치.
  17. 제16항에 있어서,
    상기 동작사전 데이터베이스 내에 포함된 커맨드 시그널 데이터와 상기 정합된 데이터를 비교함에 있어서, 위치값 정보 및 회전값 정보를 참조로 하여 데이터 자체 내에서 비교하는 것을 특징으로 하는 단말 장치.
  18. 제 15항에 있어서,
    상기 손 영역을 검출하기 위하여, 상기 손의 형태를 분석한 후 외곽 원형 범위 - 상기 외곽 원형 범위는 상기 손바닥의 중심점을 중심으로 한 동심원에 의해 형성되는 범위를 포함함 - 의 반지름을 증가시키면서 해당 외곽 원형 범위 내의 픽셀값을 참조함으로써 상기 손 영역에 대한 인식 범위를 설정하는 것을 특징으로 하는 단말 장치.
  19. 제18항에 있어서,
    상기 외곽 원형 범위의 반지름은 각 손가락의 끝점에 대한 정보를 획득할 때까지 증가되는 것을 특징으로 하는 단말 장치.
  20. 제 19항에 있어서,
    상기 검출 영역 추적부는,
    상기 사용자의 손바닥의 중심점과 상기 사용자의 각 손가락의 끝점을 연결하는 적어도 하나의 직선이 움직이는 궤적을 참조하여 상기 사용자의 손 영역의 제스처를 추적하는 것을 특징으로 하는 단말 장치.
  21. 삭제
  22. 제15항에 있어서,
    상기 복수의 형태적 특징점은 상기 사용자의 얼굴 부위에서 눈, 콧구멍, 입술의 끝점의 특징점을 포함하는 것을 특징으로 하는 단말 장치.
  23. 제15항에 있어서,
    상기 추적된 머리 영역의 제스처에 대한 데이터는 상기 법선 벡터가 디스플레이 화면에 교차할 때 교차점에 대한 절대 좌표 및 상기 교차점에 머무르는 시간에 대한 정보를 포함하는 것을 특징으로 하는 단말 장치.
  24. 제15항에 있어서,
    상기 검출 영역 추적부는,
    상기 사용자의 얼굴, 손바닥의 중심점, 손가락에 대한 추적을 통해 출력되는 데이터를 일정 시간 저장하여 제스처에 대한 데이터를 획득하는 것을 특징으로 하는 단말 장치.
  25. 제24항에 있어서,
    상기 제스처에 대한 데이터는 3D 좌표값과 움직임 속도의 평균에 대한 정보를 포함하는 것을 특징으로 하는 단말 장치.
  26. 제24항에 있어서,
    상기 제어 명령 해석부는,
    상기 일정 시간 저장하여 획득된 제스처에 대한 데이터를 참조로 운동 궤적을 Autoregressive Model로 표현하고, 상기 Autoregressive Model로 표현된 운동 궤적 데이터에 Hidden Markov Model을 적용한 후, 상기 Hidden Markov Model을 적용한 데이터와 소정의 동작사전 데이터베이스에 포함된 기설정된 커맨드 시그널 데이터를 비교하여 상기 컨텐츠를 제어하기 위한 특정 명령으로 인식하는 것을 특징으로 하는 단말 장치.
  27. 제1항 내지 제7항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능 매체.
KR1020110068076A 2011-07-08 2011-07-08 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체 KR101302638B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020110068076A KR101302638B1 (ko) 2011-07-08 2011-07-08 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US14/131,533 US9298267B2 (en) 2011-07-08 2012-07-09 Method and terminal device for controlling content by sensing head gesture and hand gesture, and computer-readable recording medium
PCT/KR2012/005434 WO2013009062A2 (ko) 2011-07-08 2012-07-09 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110068076A KR101302638B1 (ko) 2011-07-08 2011-07-08 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
KR20130006186A KR20130006186A (ko) 2013-01-16
KR101302638B1 true KR101302638B1 (ko) 2013-09-05

Family

ID=47506686

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110068076A KR101302638B1 (ko) 2011-07-08 2011-07-08 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Country Status (3)

Country Link
US (1) US9298267B2 (ko)
KR (1) KR101302638B1 (ko)
WO (1) WO2013009062A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160107076A (ko) * 2015-03-03 2016-09-13 디노플러스 (주) 디스플레이 화면의 이용자 인터페이스 장치

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI475422B (zh) * 2012-10-31 2015-03-01 Wistron Corp 手勢辨識方法與電子裝置
US9094576B1 (en) 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
US20150277700A1 (en) * 2013-04-12 2015-10-01 Usens, Inc. System and method for providing graphical user interface
US10884493B2 (en) * 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
JP6264380B2 (ja) * 2013-09-06 2018-01-24 日本電気株式会社 販売促進システム、販売促進方法、販売促進プログラム及び棚システム
DE102013226244A1 (de) * 2013-12-17 2015-06-18 Siemens Aktiengesellschaft Medizintechnische Steuerung
KR102302233B1 (ko) 2014-05-26 2021-09-14 삼성전자주식회사 사용자 인터페이스 제공 장치 및 방법
CN104122995A (zh) * 2014-05-28 2014-10-29 重庆大学 一种利用视觉信息模拟赛车游戏方向盘的方法
DE102014017166A1 (de) * 2014-11-20 2016-05-25 Audi Ag Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung
US20180260031A1 (en) * 2017-03-08 2018-09-13 Nanning Fugui Precision Industrial Co., Ltd. Method for controlling distribution of multiple sub-screens and device using the same
CN106951077B (zh) * 2017-03-16 2020-05-26 联想(北京)有限公司 一种提示方法及第一电子设备
CN110678878B (zh) 2017-03-20 2022-12-13 华为技术有限公司 一种表观特征的描述属性识别方法及装置
CN108803861B (zh) * 2017-04-28 2021-01-12 广东虚拟现实科技有限公司 一种交互方法、设备及***
CN108882025B (zh) * 2018-08-07 2019-12-10 北京字节跳动网络技术有限公司 视频帧处理方法和装置
KR20200073733A (ko) 2018-12-14 2020-06-24 삼성전자주식회사 전자 장치의 기능 실행 방법 및 이를 사용하는 전자 장치
CN111062312B (zh) * 2019-12-13 2023-10-27 RealMe重庆移动通信有限公司 手势识别方法、手势控制方法、装置、介质与终端设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032699A (ko) * 2008-09-18 2010-03-26 동명대학교산학협력단 사용자의 제스춰 정보 인식을 기반으로 하여 디스플레이장치의 동작을 제어하는 시스템

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
KR20030040680A (ko) 2001-11-15 2003-05-23 삼성에스디에스 주식회사 얼굴 검출 방법 및 그 장치
JP4149213B2 (ja) * 2002-07-12 2008-09-10 本田技研工業株式会社 指示位置検出装置及び自律ロボット
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US20100128112A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content
KR20110053396A (ko) 2009-11-15 2011-05-23 에스케이텔레콤 주식회사 제스처를 이용한 사용자 인터페이스 제공 단말기 및 방법
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032699A (ko) * 2008-09-18 2010-03-26 동명대학교산학협력단 사용자의 제스춰 정보 인식을 기반으로 하여 디스플레이장치의 동작을 제어하는 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160107076A (ko) * 2015-03-03 2016-09-13 디노플러스 (주) 디스플레이 화면의 이용자 인터페이스 장치
KR101671974B1 (ko) * 2015-03-03 2016-11-03 디노플러스 (주) 디스플레이 화면의 이용자 인터페이스 장치

Also Published As

Publication number Publication date
US9298267B2 (en) 2016-03-29
WO2013009062A2 (ko) 2013-01-17
US20140168074A1 (en) 2014-06-19
KR20130006186A (ko) 2013-01-16
WO2013009062A3 (ko) 2013-04-11

Similar Documents

Publication Publication Date Title
KR101302638B1 (ko) 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US11954265B2 (en) Enhanced input using recognized gestures
US20220334646A1 (en) Systems and methods for extensions to alternative control of touch-based devices
US9703373B2 (en) User interface control using gaze tracking
US8732623B2 (en) Web cam based user interaction
EP2708981B1 (en) Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
US11809637B2 (en) Method and device for adjusting the control-display gain of a gesture controlled electronic device
US8938124B2 (en) Computer vision based tracking of a hand
US20130335324A1 (en) Computer vision based two hand control of content
US20190384408A1 (en) GESTURE SEQUENCE RECOGNITION USING SIMULTANEOUS LOCALIZATION AND MAPPING (SLAM) COMPONENTS IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS
US20140092015A1 (en) Method and apparatus for manipulating a graphical user interface using camera
WO2018000519A1 (zh) 一种基于投影的用户交互图标的交互控制方法及***
Zhu et al. Real-time hand gesture recognition with Kinect for playing racing video games
US20150123901A1 (en) Gesture disambiguation using orientation information
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
KR20210073429A (ko) 착용형 ar 장치를 위한 시선 추적 및 손동작 인식 기반 통합 인터페이스 방법 및 시스템
US10444831B2 (en) User-input apparatus, method and program for user-input
KR20130066812A (ko) 동작 인식 방법, 장치 및 이 방법을 수행하는 컴퓨터 판독 가능한 기록 매체
US20230085330A1 (en) Touchless image-based input interface
KR101525011B1 (ko) Nui 기반의 실감형 가상공간 디스플레이 제어장치 및 제어방법
Maharana et al. SMART Virtual Painter and Mouse System to Improve Online Education with Computer Vision and Deep Learning Features
Malerczyk Gestural interaction using feature classification
Nitish et al. Modeling of An Intuitive Gesture Recognition System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160826

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee