WO2015147479A1 - 제스처 인식장치 - Google Patents

제스처 인식장치 Download PDF

Info

Publication number
WO2015147479A1
WO2015147479A1 PCT/KR2015/002668 KR2015002668W WO2015147479A1 WO 2015147479 A1 WO2015147479 A1 WO 2015147479A1 KR 2015002668 W KR2015002668 W KR 2015002668W WO 2015147479 A1 WO2015147479 A1 WO 2015147479A1
Authority
WO
WIPO (PCT)
Prior art keywords
light receiving
light
gesture
receiving elements
amount
Prior art date
Application number
PCT/KR2015/002668
Other languages
English (en)
French (fr)
Inventor
김민수
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to CN201580016460.6A priority Critical patent/CN106133651B/zh
Priority to US15/128,823 priority patent/US10001842B2/en
Publication of WO2015147479A1 publication Critical patent/WO2015147479A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image

Definitions

  • the present invention relates to a gesture recognition apparatus.
  • the conventional three-dimensional gesture recognition apparatus is sold as an external type or sold as a separate accessory because the size of the module is large, there is a problem that it is difficult to downsize.
  • the controller when the control unit receives that the amount of light has changed after being maintained for a predetermined time from any one or more of the first to fourth light receiving elements, the controller inputs a gesture input in a third direction. You can decide.
  • the gesture recognition apparatus may further include a light emitting unit arranged around the light receiving unit and outputting light.
  • control unit may determine the direction of the gesture by detecting the light receiving element in which the amount of light sequentially changes in the plurality of light receiving elements.
  • the light receiving unit, the light receiving element may be further disposed in the center of the grid pattern.
  • the gesture can be recognized according to the direction of the light receiving element in which the amount of light is changed, the price competitiveness for the gesture recognition is increased, and the size of the light emitting device can be reduced.
  • FIGS. 1A and 1B are exemplary views illustrating a concept in which a gesture recognition apparatus according to an embodiment of the present invention is applied to a mobile terminal.
  • FIG. 2 is a configuration diagram schematically illustrating an input device according to an embodiment of the present invention.
  • the gesture recognition apparatus may recognize the gesture by checking the gesture.
  • the gesture recognition apparatus can check the three-dimensional input.
  • the input device is provided on the front surface of the mobile terminal 1 as shown in FIG. 1, which the user provides on the front surface of the display unit 2 of the mobile terminal 1.
  • the light receiver 10 may include a light receiver 10, a light emitter 20, and a controller 30.
  • the light receiving unit 10 may be provided with a plurality of light receiving elements so as to define a plane or a depth direction.
  • the light receiving element is a device that converts light into electricity, and may include a photo diode (PD), an avalanche photo diode (APD), or the like.
  • PD photo diode
  • APD avalanche photo diode
  • the present invention is not limited thereto, and various types of light receiving devices may be disposed.
  • 3A and 3B are exemplary views illustrating an arrangement of a light receiving element for two-dimensional gesture recognition.
  • the light receiving element is represented by a circle.
  • 4A and 4B are exemplary views for explaining an arrangement of a light receiving element for 3D gesture recognition.
  • the first and second light receiving elements 10A and 10B are for Y-axis recognition
  • the third and fourth light receiving elements 10C and 10D are for X-axis recognition.
  • this is merely an example, and the definition of the direction is not limited thereto.
  • the first and second light receiving elements 10A and 10B also sense that the amount of light fluctuates, but since the light amount fluctuates in the direction of the fourth light receiving element 10D starting from the third light receiving element 10C, the controller ( 30) confirms that a gesture is input from the left to the right of the X axis.
  • the controller 30 makes a gesture in the X direction.
  • the controller 30 may check the gesture in the Y direction by using the variation in the amount of light of the fifth and seventh light receiving elements 10E and 10G or the sixth and eighth light receiving elements 10F and 10H. .
  • the controller 30 may determine the direction in which the gesture input of the user proceeds through the variation in the amount of light of the plurality of light receiving elements arranged by the predetermined pattern. Through this, various gestures such as a flicking gesture and a scroll gesture may be recognized.
  • the controller (not shown) of the mobile terminal 1 may perform various functions (eg, page movement, page scrolling, etc.) corresponding to the gesture.
  • the arrangement of the light receiving elements of FIGS. 4A and 4B is for 3D gesture recognition. 4A and 4B, the ninth light receiving element 10P and the tenth light receiving element 10Q are further disposed in the arrangement of the light receiving elements in FIGS. 3A and 3B, respectively. Since the description of the first to fourth light receiving elements 10A to 10D of FIG. 4A and the description of the fifth to eighth light receiving elements 10E to 10H of FIG. 4B are the same as described above, detailed descriptions thereof are omitted. Let's do it.
  • the controller 30 may recognize a gesture such as 1B by changing the amount of light.
  • the Z-axis direction is determined by a separate light receiving element, but any one of the first to fourth light receiving elements 10A to 10D or the fifth to eighth light receiving elements 10E to 10H may be used. It is obvious that one light receiving element does not exclude performing this function.
  • the controller (not shown) of the mobile terminal 1 may recognize the depth of the gesture. Accordingly, various functions corresponding to various gestures, such as a proximity touch gesture, can be performed.
  • the light emitting unit 20 of FIG. 2 may be disposed around the light receiving unit 10 so as to better recognize the light quantity change of the control unit 30, thereby providing light.
  • the light emitting unit 20 may be a light emitting diode (LED) or a laser diode (LD), but the present invention is not limited thereto, and various light emitting devices may be used.
  • the light receiving element of the light receiving unit 10 of the present invention may be disposed on the rear surface of the display unit 2 of the mobile terminal 1.
  • the arrangement of the light receiving element of the light receiving unit 10 of the present invention is not limited to those shown in FIGS. 3A, 3B, 4A, and 4B, and may be arranged in various ways.
  • a larger number of light receiving elements may be disposed to increase the recognition rate.
  • the gesture may be recognized according to the direction of the light receiving element in which the amount of light is changed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Optical Communication System (AREA)

Abstract

본 발명은 수광소자를 이용하여 사용자의 2차원 또는 3차원 제스처의 인식이 가능한 인식장치를 제공한다. 본 발명의 일 실시예의 장치는, 복수의 수광소자가 배치되는 수광부와, 사용자의 제스처에 의해 복수의 수광소자의 광량의 변화가 감지되는 방향을 결정하는 제어부를 포함한다. 광량이 변화되는 수광소자의 방향에 따라 제스처를 인식할 수 있으므로, 제스처 인식을 위한 가격 경쟁력이 높아지며, 이동단말에 배치할 수 있을 정도의 소형화가 가능하다.

Description

제스처 인식장치
본 발명은 제스처 인식장치에 관한 것이다.
최근 게임 콘솔, 텔레비전(TV) 등의 분야에서 사용자의 3차원 제스처를 인식하여 이를 사용하는 기술이 발전하고 있으며, 따라서 3차원 제스처 인식장치와 관련한 개발이 가속화되고 있다. 이러한 3차원 입력장치는, 영상의 평면정보 외에, 깊이정보를 검출하는 것에 의해, 다양한 어플리케이션에 적용이 가능하다.
그러나, 종래의 3차원 제스처 인식장치는 모듈의 사이즈가 크기 때문에 외장형으로 판매되거나, 별도의 액세서리 형태로 판매되고 있으며, 소형화가 어려운 문제점이 있다.
한편, 최근 스마트폰 또는 스마트패드와 같은 스마트 이동단말의 폭발적인 성장에 맞춰, 3차원 제스처 인식장치에 대한 요구가 이동단말까지 확대되고 있다. 그러나, 위에서 설명한 바와 같이, 소형화가 어려우므로, 이동단말에 3차원 제스처 인식장치를 구비하기에 어려운 문제점이 있다.
본 발명이 해결하고자 하는 기술적 과제는, 수광소자를 이용하여 사용자의 2차원 또는 3차원 제스처를 인식가능한, 인식장치를 제공하는 것이다.
상기와 같은 기술적 과제를 해결하기 위해, 본 발명의 일실시예의 제스처 인식장치는, 복수의 수광소자가 배치되는 수광부; 및 사용자의 제스처에 의해 상기 복수의 수광소자의 광량의 변화가 감지되는 방향을 결정하는 제어부를 포함할 수 있다.
본 발명의 일실시예에서, 상기 수광부는, 제1방향으로 제1 및 제2수광소자가, 제2방향으로 제3 및 제4수광소자가 배치될 수 있다.
본 발명의 일실시예에서, 상기 제어부는, 상기 제1 및 제2수광소자로부터 광량의 변화가 있음을 수신하는 경우, 제1방향으로 제스처 입력이 있는 것을 결정할 수 있다.
본 발명의 일실시예에서, 상기 제어부는, 상기 제3 및 제4수광소자로부터 광량의 변화가 있음을 수신하는 경우, 제2방향으로 제스처 입력이 있는 것을 결정할 수 있다.
본 발명의 일실시예에서, 상기 제어부는, 제1 내지 제4수광소자 중 어느 하나 이상의 수광소자로부터 광량이 일정 시간동안 유지된 후 변화하였음을 수신하는 경우, 제3방향으로 제스처 입력이 있는 것을 결정할 수 있다.
본 발명의 일실시예에서, 상기 수광부는, 소정 위치에 배치되어, 광량이 일정 시간동안 유지된 후 변화되는 것을 감지하는 제5수광소자를 더 포함할 수 있다.
본 발명의 일실시예에서, 상기 제어부는, 상기 제5수광소자로부터 광량이 일정 시간동안 유지된 후 변화하였음을 수신하는 경우, 제3방향으로 제스처 입력이 있는 것을 결정할 수 있다.
본 발명의 일실시예의 제스처 인식장치는, 상기 수광부의 주변에 배치되어, 빛을 출력하는 발광부를 더 포함할 수 있다.
또한, 상기와 같은 기술적 과제를 해결하기 위해, 본 발명의 일실시예의 제스처 인식장치는, 빛을 출력하는 발광부; 상기 발광부의 주변에 배치되는 복수의 수광소자로 구성된 수광부; 및 사용자의 제스처에 의해 상기 복수의 수광소자의 광량의 변화가 감지되는 방향을 결정하는 제어부를 포함하고, 상기 복수의 수광소자는 격자패턴으로 배치될 수 있다.
본 발명의 일실시예에서, 상기 제어부는, 상기 복수의 수광소자에서 순차적으로 광량이 변동하는 수광소자를 감지하여 제스처의 방향을 결정할 수 있다.
본 발명의 일실시예에서, 상기 수광부는, 상기 격자패턴의 중앙에 수광소자가 더 배치될 수 있다.
본 발명의 일실시예에서, 상기 제어부는, 상기 중앙에 배치된 수광소자의 광량이 일정 시간동안 유지된 후 변화하였음을 수신한 경우, 3차원 제스터 입력이 있는 것을 결정할 수 있다.
복수의 수광소자가 배치되는 수광부; 및 사용자의 제스처에 의해 상기 복수의 수광소자의 광량의 변화가 감지되는 방향을 결정하는 제어부를 포함할 수 있다.
광량이 변화되는 수광소자의 방향에 따라 제스처를 인식할 수 있으므로, 제스처 인식을 위한 가격 경쟁력이 높아지며, 이동단말에 배치할 수 있을 정도의 소형화가 가능하다.
도 1a 및 도 1b는 본 발명의 일실시예의 제스처 인식장치가 이동단말에 적용되는 개념을 설명하기 위한 일예시도이다.
도 2는 본 발명의 일실시예의 입력장치를 개략적으로 설명하기 위한 구성도이다.
도 3a 및 도 3b는 2차원 제스처 인식을 위한 수광소자의 배치를 설명하기 위한 일예시도이다.
도 4a 및 도 4b는 3차원 제스처 인식을 위한 수광소자의 배치를 설명하기 위한 일예시도이다.
본 발명은 다양한 변경을 가할 수 있고 여러가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.
도 1a 및 도 1b는 본 발명의 일실시예의 인식장치가 이동단말에 적용되는 개념을 설명하기 위한 일예시도이다.
도 1a에 도시된 바와 같이, 이동단말(1)의 사용자가 이동단말(1)의 전면의 근접 위치에서 좌우의 어느 일방향으로 이동하는 제스처(플리킹(flicking))(1A)를 하는 경우, 본 발명의 일실시예의 제스처 인식장치는, 이를 확인하여 제스처를 인식할 수 있다. 이 경우에는, 제스처 인식장치는, 2차원 제스처 입력을 확인할 수 있다.
또한, 도 1b에 도시된 바와 같이, 이동단말(1)의 사용자가, 이동단말(1)의 전면의 근접 위치에서, 더 가까운 위치로 접근하였다가 소정 시간 머무른 후 다시 원위치로 리턴하는 동작(1B)을 하는 경우, 본 발명의 일실시예의 제스처 인식장치는, 이를 확인하여 제스처를 인식할 수 있다. 이 경우에는, 제스처 인식장치는, 3차원 입력을 확인할 수 있다.
이와 같이, 본 발명의 일실시예의 입력장치는, 간단한 구성에 의해 사용자가 입력하는 제스처를 인식할 수 있다.
다만, 본 발명의 일실시예의 설명을 위해, 본 발명의 입력장치가 스마트폰에 적용된 것을 예를 들어 설명하였으나, 이에 한정되는 것은 아니며, 사용자의 제스처 입력을 수신하는 다양한 종류의 이동단말에 적용될 수 있을 것이다. 즉, 일예로서, 노트북 컴퓨터, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등, 근접위치에서의 제스처 인식이 가능한 다양한 기기가 포함될 수 있다.
도 2는 본 발명의 일실시예의 입력장치를 개략적으로 설명하기 위한 구성도이다.
도면에 도시된 바와 같이, 본 발명의 일실시예의 입력장치는, 도 1과 같은 이동단말(1)의 전면에 제공되어, 사용자가 이동단말(1)의 디스플레이부(2)의 전면에서 제공하는 제스처를 인식하기 위한 것으로서, 수광부(10), 발광부(20) 및 제어부(30)를 포함할 수 있다.
수광부(10)는 평면 또는 깊이 방향에 대한 정의가 가능하도록, 복수의 수광소자가 배치될 수 있다. 수광소자는, 빛을 전기로 변환하는 소자로서, 포토 다이오드(Photo Diode; PD), 애벌런시 포토 다이오드(Avalanche Photo Diode; APD)등을 포함할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 다양한 종류의 수광소자가 배치될 수 있다.
도 3a 및 도 3b는 2차원 제스처 인식을 위한 수광소자의 배치를 설명하기 위한 일예시도로서, 도면에서는 수광소자를 원으로 표현하였다. 또한, 도 4a 및 도 4b는 3차원 제스처 인식을 위한 수광소자의 배치를 설명하기 위한 일예시도이다.
도 3a를 참조로 하면, 제1 및 제2수광소자(10A, 10B)는 Y축 인식을 위한 것이고, 제3 및 제4수광소자(10C, 10D)는 X축 인식을 위한 것이다. 다만, 이는 예시적인 것으로서, 방향에 대한 정의는 이에 한정되는 것은 아니다.
도 3a와 같이 수광소자가 배치되는 경우, 사용자가 도 1a와 같은 플리킹 제스처를 입력하는 경우에, 제3 및 제4수광소자(10C, 10D)가 순차적으로 광량이 변동한 것(즉, 제3수광소자(10C)가 먼저 어두워졌다 밝아지고, 제4수광소자(10D)가 어두워졌다 밝아짐)을 감지하고, 제어부(30)는 이와 같이 X축의 왼쪽에서 오른쪽 방향으로, 플리킹 제스처 입력이 수신되었음을 결정할 수 있다.
이때, 제1 및 제2수광소자(10A, 10B) 역시 광량이 변동하는 것을 감지하지만, 제3수광소자(10C)에서 시작하여 제4수광소자(10D)의 방향으로 광량이 변동하였으므로, 제어부(30)는 X축의 왼쪽에서 오른쪽 방향으로 제스처가 입력되었음을 확인하는 것이다.
이와 마찬가지로, Y축 방향의 위에서 아래, 또는 아래에서 위 방향으로의 입력이 있는 경우에도, 제어부(30)는 해당 제스처를 수광소자의 광량의 변동에 의해 결정할 수 있을 것이다.
도 3b를 참조로 하면, 제5 및 제6수광소자(10E, 10F) 또는 제7 및 제8수광소자(10G, 10H)의 광량의 변동을 이용하여, 제어부(30)는 X방향의 제스처를 확인할 수 있으며, 제5 및 제7수광소자(10E, 10G) 또는 제6 및 제8수광소자(10F, 10H)의 광량의 변동을 이용하여, 제어부(30)는 Y방향의 제스처를 확인할 수 있다.
한편, 도 3b와 같이 수광소자가 배치되는 경우에는, 제5 및 제8수광소자(10E, 10H), 또는 제6 및 제7수광소자(10F, 10G)의 광량의 변동을 이용하여, 제어부(30)는 대각선 방향의 제스처를 확인할 수 있을 것이다.
이와 같이, 소정 패턴에 의해 배치되는 복수의 수광소자의 광량의 변동을 통해, 제어부(30)는 사용자의 제스처 입력이 진행되는 방향을 결정할 수 있을 것이다. 이를 통해 플리킹 제스처, 스크롤 제스처 등 다양한 제스처의 인식이 가능할 수 있다.
이와 같은 제스처 인식을 통해, 이동단말(1)의 제어부(도시되지 않음)는, 제스처에 대응하는 다양한 기능(예를 들어, 페이지 이동, 페이지 스크롤 등)을 수행할 수 있다.
도 4a 및 도 4b의 수광소자의 배치는, 3차원 제스처 인식을 위한 것이다. 도 4a 및 도 4b에서는, 도 3a 및 도 3b의 수광소자의 배치에, 각각 제9수광소자(10P)와 제10수광소자(10Q)가 더 배치된 것이다. 그 외 도 4a의 제1 내지 제4수광소자(10A 내지 10D)의 설명과, 도 4b의 제5 내지 제8수광소자(10E 내지 10H)의 설명은 위에서 설명한 바와 같으므로, 그 상세한 설명은 생략하기로 한다.
제9수광소자(10P)와 제10수광소자(10Q)는 각각, 깊이정보를 결정하기 위한 수광소자로서, 수광소자의 기준광량이 일정 시간동안 유지된 후, 광량이 변화한 경우, 제어부(30)는 Z축 방향의 제스처가 입력되는 것으로 결정할 수 있다.
즉, 도 1b와 같은 일예에서, 도 4a의 제9수광소자(10P)는, 사용자의 손이 다가와서 일정 시간 머무른 후 다시 원위치로 리턴하는 경우(1B), 광량이 일정 시간 어두워졌다가 다시 밝아지는 것을 감지하고, 제어부(30)는 이와 같은 광량의 변화에 의해 1B와 같은 제스처를 인식할 수 있다.
다만, 본 발명의 일예에서는 별도의 수광소자에 의해 Z축 방향을 결정하는 것으로 설명하였지만, 제1 내지 제4수광소자(10A 내지 10D) 또는 제5 내지 제8수광소자(10E 내지 10H) 중 어느 하나의 수광소자가 이러한 기능을 수행하는 것을 배제하는 것이 아님은 자명하다.
이와 같은 제스처의 인식에 의해, 이동단말(1)의 제어부(도시되지 않음)는, 제스처의 깊이에 대한 인식이 가능할 수 있다. 이에 따라, 근접터치 제스처 등 다양한 제스처에 대응하는 다양한 기능을 수행할 수 있다.
한편, 도 2의 발광부(20)는, 제어부(30)의 광량변화를 더욱 잘 인식할 수 있도록, 수광부(10)의 주변에 배치되어, 빛을 제공할 수 있다. 예를 들어 발광부(20)는 발광다이오드(Light Emitting Diode; LED) 또는 레이저 다이오드(Laser Diode; LD)일 수 있으나, 본 발명이 이에 한정되는 것은 아니며, 다양한 발광소자가 사용될 수 있다.
본 발명의 수광부(10)의 수광소자는, 이동단말(1)의 디스플레이부(2)의 후면에 배치될 수 있을 것이다. 또한, 본 발명의 수광부(10)의 수광소자의 배치가, 도 3a, 도 3b, 도 4a 및 도 4b에 제시된 바에 한정되는 것은 아니며, 다양한 방식으로 배치될 수 있을 것이다. 또한 인식률의 제고를 위해 더욱 많은 수의 수광소자를 배치할 수도 있음은 자명하다.
위와 같은 본 발명의 일실시예에 의하면, 광량이 변화되는 수광소자의 방향에 따라 제스처를 인식할 수 있다.
이상에서 본 발명에 따른 실시예들이 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 다음의 특허청구범위에 의해서 정해져야 할 것이다.

Claims (12)

  1. 복수의 수광소자가 배치되는 수광부; 및
    사용자의 제스처에 의해 상기 복수의 수광소자의 광량의 변화가 감지되는 방향을 결정하는 제어부를 포함하는 제스처 인식장치.
  2. 제1항에 있어서, 상기 수광부는,
    제1방향으로 제1 및 제2수광소자가, 제2방향으로 제3 및 제4수광소자가 배치되는 제스처 인식장치.
  3. 제2항에 있어서, 상기 제어부는,
    상기 제1 및 제2수광소자로부터 광량의 변화가 있음을 수신하는 경우, 제1방향으로 제스처 입력이 있는 것을 결정하는 제스처 인식장치.
  4. 제2항에 있어서, 상기 제어부는,
    상기 제3 및 제4수광소자로부터 광량의 변화가 있음을 수신하는 경우, 제2방향으로 제스처 입력이 있는 것을 결정하는 제스처 인식장치.
  5. 제2항에 있어서, 상기 제어부는,
    제1 내지 제4수광소자 중 어느 하나 이상의 수광소자로부터 광량이 일정 시간동안 유지된 후 변화하였음을 수신하는 경우, 제3방향으로 제스처 입력이 있는 것을 결정하는 제스처 인식장치.
  6. 제2항에 있어서, 상기 수광부는,
    소정 위치에 배치되어, 광량이 일정 시간동안 유지된 후 변화되는 것을 감지하는 제5수광소자를 더 포함하는 제스처 인식장치.
  7. 제6항에 있어서, 상기 제어부는,
    상기 제5수광소자로부터 광량이 일정 시간동안 유지된 후 변화하였음을 수신하는 경우, 제3방향으로 제스처 입력이 있는 것을 결정하는 제스처 인식장치.
  8. 제1항에 있어서,
    상기 수광부의 주변에 배치되어, 빛을 출력하는 발광부를 더 포함하는 제스처 인식장치.
  9. 빛을 출력하는 발광부;
    상기 발광부의 주변에 배치되는 복수의 수광소자로 구성된 수광부; 및
    사용자의 제스처에 의해 상기 복수의 수광소자의 광량의 변화가 감지되는 방향을 결정하는 제어부를 포함하고,
    상기 복수의 수광소자는 격자패턴으로 배치되는 제스처 인식장치.
  10. 제9항에 있어서, 상기 제어부는,
    상기 복수의 수광소자에서 순차적으로 광량이 변동하는 수광소자를 감지하여 제스처의 방향을 결정하는 제스처 인식장치.
  11. 제9항에 있어서, 상기 수광부는,
    상기 격자패턴의 중앙에 수광소자가 더 배치되는 제스처 인식장치.
  12. 제11항에 있어서, 상기 제어부는,
    상기 중앙에 배치된 수광소자의 광량이 일정 시간동안 유지된 후 변화하였음을 수신한 경우, 3차원 제스터 입력이 있는 것을 결정하는 제스처 인식장치.
PCT/KR2015/002668 2014-03-25 2015-03-19 제스처 인식장치 WO2015147479A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201580016460.6A CN106133651B (zh) 2014-03-25 2015-03-19 手势识别装置
US15/128,823 US10001842B2 (en) 2014-03-25 2015-03-19 Gesture recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0034615 2014-03-25
KR1020140034615A KR102213311B1 (ko) 2014-03-25 2014-03-25 제스처 인식장치

Publications (1)

Publication Number Publication Date
WO2015147479A1 true WO2015147479A1 (ko) 2015-10-01

Family

ID=54195935

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/002668 WO2015147479A1 (ko) 2014-03-25 2015-03-19 제스처 인식장치

Country Status (4)

Country Link
US (1) US10001842B2 (ko)
KR (1) KR102213311B1 (ko)
CN (1) CN106133651B (ko)
WO (1) WO2015147479A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110581987A (zh) * 2018-06-07 2019-12-17 宏碁股份有限公司 具备手势感测功能的三维显示器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090107530A (ko) * 2007-01-07 2009-10-13 애플 인크. 터치 스크린 디스플레이 상에서의 손가락 제스처를 해석하는 휴대용 다기능 장치, 방법, 및 그래픽 사용자 인터페이스
WO2010030077A2 (ko) * 2008-09-10 2010-03-18 Kim Hyun Kyu 터치 스크린 장치 및 스크린 상에서의 상황 인지적 인식을 통한 사용자 정보 입력방법
WO2011155702A2 (ko) * 2010-06-07 2011-12-15 ㈜트레이닝키트 퍼즐 완구
WO2013012130A1 (ko) * 2011-07-18 2013-01-24 (주)하이소닉 모션 감지 스위치
US20130182246A1 (en) * 2012-01-12 2013-07-18 Maxim Integrated Products, Inc. Ambient light based gesture detection

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120312956A1 (en) * 2011-06-11 2012-12-13 Tom Chang Light sensor system for object detection and gesture recognition, and object detection method
JP2013196047A (ja) * 2012-03-15 2013-09-30 Omron Corp ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法
CN103576861A (zh) * 2013-11-18 2014-02-12 谢元澄 非接触手势控制***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090107530A (ko) * 2007-01-07 2009-10-13 애플 인크. 터치 스크린 디스플레이 상에서의 손가락 제스처를 해석하는 휴대용 다기능 장치, 방법, 및 그래픽 사용자 인터페이스
WO2010030077A2 (ko) * 2008-09-10 2010-03-18 Kim Hyun Kyu 터치 스크린 장치 및 스크린 상에서의 상황 인지적 인식을 통한 사용자 정보 입력방법
WO2011155702A2 (ko) * 2010-06-07 2011-12-15 ㈜트레이닝키트 퍼즐 완구
WO2013012130A1 (ko) * 2011-07-18 2013-01-24 (주)하이소닉 모션 감지 스위치
US20130182246A1 (en) * 2012-01-12 2013-07-18 Maxim Integrated Products, Inc. Ambient light based gesture detection

Also Published As

Publication number Publication date
KR20150111127A (ko) 2015-10-05
KR102213311B1 (ko) 2021-02-05
US20170108932A1 (en) 2017-04-20
CN106133651B (zh) 2020-03-06
CN106133651A (zh) 2016-11-16
US10001842B2 (en) 2018-06-19

Similar Documents

Publication Publication Date Title
WO2019107909A1 (ko) 확장가능한 디스플레이 영역을 갖는 플렉시블 디스플레이를 구비한 전자 장치
WO2013048054A1 (en) Method of operating gesture based communication channel and portable terminal system for supporting the same
WO2012102519A2 (en) Terminal having touch screen and method for identifying touch event therein
WO2013032234A1 (en) Method of providing of user interface in portable terminal and apparatus thereof
WO2013162235A1 (ko) 포인터가 불필요한 3차원 가상 객체 정보 획득 장치
WO2012077922A2 (en) 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system
WO2016104867A1 (en) Digital device and method of controlling therefor
US11507143B2 (en) Electronic device including a plurality of displays and method for operating same
EP2614422A1 (en) Motion control touch screen method and apparatus
WO2013162236A1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
WO2011090302A2 (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
WO2014014240A1 (ko) 접촉식 손가락 마우스 및 이의 동작 방법
EP4149092B1 (en) Electronic device comprising multiple displays and method for operating same
WO2015030460A1 (en) Method, apparatus, and recording medium for interworking with external terminal
WO2015194709A1 (en) Portable display device and method of controlling therefor
CN106170747A (zh) 输入装置及输入装置的控制方法
WO2014133258A1 (en) Pen input apparatus and method for operating the same
WO2015147479A1 (ko) 제스처 인식장치
WO2020204580A1 (en) Cross-talk prevention structure of electronic device for measuring distance to external object
WO2016080565A1 (ko) 웨어러블 디바이스 및 그 제어 방법
WO2021153961A1 (ko) 가상현실을 이용한 이미지입력시스템 및 이를 이용한 이미지데이터 생성방법
WO2018070657A1 (en) Electronic apparatus, and display apparatus
US20150084913A1 (en) Information processing method for touch panel device and touch panel device
KR101391740B1 (ko) 모바일 장치의 스크롤 기능을 갖는 지문인식모듈
WO2012044062A9 (ko) 사용자 직관성을 높인 사무용 애플리케이션 사용자 인터페이스를 구비한 컴퓨터 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15770290

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15128823

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15770290

Country of ref document: EP

Kind code of ref document: A1