KR102022530B1 - Apparatus for controlling based on motion recognition system - Google Patents

Apparatus for controlling based on motion recognition system Download PDF

Info

Publication number
KR102022530B1
KR102022530B1 KR1020170139589A KR20170139589A KR102022530B1 KR 102022530 B1 KR102022530 B1 KR 102022530B1 KR 1020170139589 A KR1020170139589 A KR 1020170139589A KR 20170139589 A KR20170139589 A KR 20170139589A KR 102022530 B1 KR102022530 B1 KR 102022530B1
Authority
KR
South Korea
Prior art keywords
motion
unit
user
control signal
motion recognition
Prior art date
Application number
KR1020170139589A
Other languages
Korean (ko)
Other versions
KR20190046243A (en
Inventor
유기준
김태성
Original Assignee
에이케이시스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이케이시스 주식회사 filed Critical 에이케이시스 주식회사
Priority to KR1020170139589A priority Critical patent/KR102022530B1/en
Publication of KR20190046243A publication Critical patent/KR20190046243A/en
Application granted granted Critical
Publication of KR102022530B1 publication Critical patent/KR102022530B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 모션 인식을 통해 기기 제어가 가능한 시스템에 관한 것으로, 단위 시간 동안 이용자의 움직임에 대한 동작을 입체적 형상으로 인식하여 상기 이용자의 움직임에 대한 동작 정보를 생성하는 모션 인식 유닛; 상기 모션 인식 유닛으로부터 제공받은 상기 동작 정보와 기 저장된 상기 사용자의 등록 움직임을 비교 처리하여 동작 제어 신호를 생성하는 처리 유닛; 및 상기 동작 제어 신호에 응답하여 예정된 프로그램 동작을 수행하는 기기를 포함함으로써 사용자가 원하는 모션으로 기기를 제어 가능하다.The present invention relates to a system capable of controlling a device through motion recognition, comprising: a motion recognition unit generating motion information on a user's motion by recognizing a motion of the user's motion in a three-dimensional shape for a unit time; A processing unit which compares the motion information received from the motion recognition unit with a pre-stored registration motion of the user to generate an motion control signal; And a device that performs a predetermined program operation in response to the operation control signal, thereby controlling the device in a desired motion by the user.

Description

모션 인식을 통해 기기 제어가 가능한 시스템{APPARATUS FOR CONTROLLING BASED ON MOTION RECOGNITION SYSTEM}System for controlling device through motion recognition {APPARATUS FOR CONTROLLING BASED ON MOTION RECOGNITION SYSTEM}

본 발명은 모션 인식을 통해 기기 제어가 가능한 시스템에 관한 것이다. 더욱 상세하게는 3차원 또는 4차원 움직임에 대한 이용자 동작을 모션 인식을 통해 기기 제어가 가능한 시스템에 관한 것이다.The present invention relates to a system capable of controlling a device through motion recognition. More particularly, the present invention relates to a system capable of controlling a device through motion recognition of user motion of three-dimensional or four-dimensional motion.

일반적으로, 디지털 TV 또는 게임기와 같은 디지털 디바이스는 해당 디지털 디바이스의 제어를 용이하게 하기 위한 제어 수단이 제공되고 있다. 또한 디지털 디바이스의 기능이 다양해 지면서, 디지털 디바이스의 기능을 보다 효과적으로 제어 및 활용하고 사용자의 편의성을 높이기 위해 제어 수단 역시 다양하게 변형되어 제공되어 있다.In general, a digital device such as a digital TV or a game machine is provided with control means for facilitating control of the digital device. In addition, as the functions of the digital devices are diversified, various control means are also provided in various ways to more effectively control and utilize the functions of the digital devices and to increase user convenience.

기존에는 디지털 디바이스를 제어하던 제어 수단이 마우스, 키보드, 리모컨 또는 조이스틱 등이 사용되었으며, 현재에는 디지털 디바이스 및 제어 수단에 각종 센서가 구비되어 사용자의 모션을 인식하여 해당 디지털 기기를 제어는 방식이 제공된다.Conventionally, the control means that used to control digital devices are mouses, keyboards, remote controls or joysticks. Currently, various sensors are provided on the digital devices and control means to recognize the user's motion and control the corresponding digital devices. do.

리모컨에 구비된 버튼을 통한 키 입력이 아닌 리모컨의 움직임에 의해 사용자가 해당 디지털 디바이스를 제어할 수 있으며, 이러한 형태의 제어 방식을 통해 TV를 편리하게 제어하거나 게임을 좀 더 사실적이고 다양하게 즐길 수 있다.The user can control the corresponding digital device by the movement of the remote control rather than the key input through the buttons provided on the remote control, and this type of control method can conveniently control the TV or play the game more realistically and variously. have.

PC 또한 기존의 마우스 및 키보드를 통한 제어 방식이 아닌 사용자가 마우스를 공중에서 움직이는 에어 마우스를 통해 PC를 제어함으로써 기존의 마우스 패드 위에서 2차원 이동으로 제어하던 방식에서 3차원 이동을 통해 제어 PC의 제어가 가능할 수 있게 되었다. 즉, 디지털 디바이스를 기존의 방식이 아닌 이용자의 모션을 통해 제어가 가능할 수 있다.The PC also controls the PC through three-dimensional movement in the way that the user controls the PC through the air mouse moving the mouse in the air, rather than the control method through the conventional mouse and keyboard. Has become possible. That is, the digital device may be controlled through the motion of the user rather than the conventional method.

그러나, 모션 인식을 통해 디지털 디바이스를 제어하기 위해서는 디지털 디바이스를 제어하기 위한 수단을 항상 손에 쥐고 있는 상태에서만 가능하다는 제한이 있다.However, in order to control the digital device through motion recognition, there is a limitation that it is possible only when the means for controlling the digital device are always in the hands.

뿐만 아니라 해당 디지털 디바이스의 제어 수단은 초기 설정된 입력값을 추가하거나 변경이 불가능하며, 사용자가 이미 설정된 모션을 기억하고 디지털 디바이스를 제어해야 한다는 불편함이 있다.In addition, the control means of the corresponding digital device cannot add or change the initially set input value, and there is an inconvenience in that the user should remember the already set motion and control the digital device.

또한, 디지털 디바이스와 해당 디지털 디바이스를 제어하는 수단 각각에 모션 인식이 가능한 센서가 설치되어야 하기 때문에 비용이 증가하는 불편함이 있다.In addition, since a sensor capable of motion recognition must be installed in each of the digital device and the means for controlling the digital device, there is an inconvenience in that the cost increases.

즉, 디지털 디바이스를 모션 인식을 통해 제어함에 있어서 여러가지 한계가 있다.That is, there are various limitations in controlling the digital device through motion recognition.

한편, 본 발명과 관련된 선행기술로는 대한민국 공개특허공보 제10-2016-0039298호 및 대한민국 공개특허공보 제10-2012-0000807호가 있다.On the other hand, the prior art related to the present invention is Republic of Korea Patent Publication No. 10-2016-0039298 and Republic of Korea Patent Publication No. 10-2012-0000807.

대한민국 공개특허공보 제10-2016-0039298호Republic of Korea Patent Publication No. 10-2016-0039298 대한민국 공개특허공보 제10-2012-0000807호Republic of Korea Patent Publication No. 10-2012-0000807

따라서, 종래의 문제점을 해결하기 위한 것으로, 본 발명은 사용자가 원하는 모션을 통해 디바이스를 제어할 수 있는 모션 인식을 통해 기기 제어가 가능한 시스템을 제공하는데 그 목적이 있다.Accordingly, an object of the present invention is to provide a system capable of controlling a device through motion recognition capable of controlling a device through a user's desired motion.

본 발명은 사용자가 디바이스를 제어하기 위한 제어 신호를 추가할 수 있는 모션 인식을 통해 기기 제어가 가능한 시스템을 제공하는데 그 목적이 있다.It is an object of the present invention to provide a system capable of controlling a device through motion recognition in which a user can add a control signal for controlling a device.

본 발명은 시간 정보 및 입체적 형상의 동작 정보를 통해 제어함으로써 사용자 각각의 개인화 설정되는 모션 인식을 통해 기기 제어가 가능한 시스템을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a system capable of controlling a device through a user's personalized motion recognition by controlling through time information and three-dimensional shape motion information.

본 발명의 해결과제는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 본 발명의 목적들 및 다른 특징들을 달성하기 위한 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 단위 시간 동안 이용자의 움직임에 대한 동작을 입체적 형상으로 인식하여 상기 이용자의 움직임에 대한 동작 정보를 생성하는 모션 인식 유닛; 상기 모션 인식 유닛으로부터 제공받은 상기 동작 정보와 기 저장된 상기 사용자의 등록 움직임을 비교 처리하여 동작 제어 신호를 생성하는 처리 유닛; 및 상기 동작 제어 신호에 응답하여 예정된 프로그램 동작을 수행하는 기기를 포함하는 것이 바람직하다.The system capable of controlling the device through the motion recognition of the present invention for achieving the objects and other features of the present invention recognizes the motion of the user's movement in a three-dimensional shape for a unit time to obtain the motion information of the user's movement. A motion recognition unit for generating; A processing unit which compares the motion information received from the motion recognition unit with a pre-stored registration motion of the user to generate an motion control signal; And a device for performing a predetermined program operation in response to the operation control signal.

본 발명에 있어서 상기 모션 인식 유닛은 센서를 통해 상기 단위 시간에 대한 상기 이용자의 동작 정보를 검출하여 동작 데이터로 생성하여 상기 처리 유닛으로 제공하는 검출부를 포함하는 것이 바람직하다.In the present invention, the motion recognition unit preferably includes a detection unit that detects the motion information of the user for the unit time through a sensor to generate the motion data to provide to the processing unit.

본 발명에 있어서 처리 유닛은 상기 모션 인식 유닛을 통해 수신 받은 상기 동작 데이터를 저장하는 저장부; 및 상기 모션 인식 유닛을 통해 수신 받은 상기 동작 데이터가 상기 저장부에 저장된 상기 동작 데이터인지 비교하여 상기 동작 제어 신호를 상기 기기로 제공하는 여부를 판단하는 비교부를 포함하는 것이 바람직하다.In the present invention, the processing unit includes a storage unit for storing the motion data received through the motion recognition unit; And a comparing unit to determine whether to provide the operation control signal to the device by comparing whether the operation data received through the motion recognition unit is the operation data stored in the storage unit.

본 발명에 있어서 다수의 버튼이 구비되어 상기 기기에 연결되고, 각각의 상기 버튼의 누름에 따라 발생하는 버튼 제어 신호로 상기 기기를 제어하는 컨트롤 패드를 더 포함하는 것이 바람직하다.In the present invention, a plurality of buttons are provided to be connected to the device, it is preferable to further include a control pad for controlling the device with a button control signal generated by pressing each of the buttons.

본 발명에 있어서 상기 처리 유닛은 상기 동작 데이터와 상기 버튼 제어 신호를 매핑하는 매핑부를 더 포함하는 것이 바람직하다.In the present invention, the processing unit preferably further includes a mapping unit for mapping the operation data and the button control signal.

본 발명에 있어서 상기 모션 인식 유닛은 상기 검출부와 상기 이용자의 이격된 거리를 측정하는 측정부를 더 포함하는 것이 바람직하다.In the present invention, the motion recognition unit preferably further includes a measurement unit for measuring the distance between the detection unit and the user.

본 발명에 있어서 상기 모션 인식 유닛은 상기 측정된 상기 이용자의 거리 간격에 따라 상기 동작 데이터의 비율을 보정하는 보정부를 포함하는 것이 바람직하다.In the present invention, the motion recognition unit preferably includes a correction unit for correcting the ratio of the motion data according to the measured distance interval of the user.

본 발명에 있어서 상기 모션 인식 유닛은 상기 이용자가 상기 다수의 버튼 중 적어도 하나를 누르고 있는 동안에 상기 이용자의 동작을 검출하여 동작 데이터로 생성하고, 상기 처리부는 해당하는 버튼에 대한 상기 버튼 제어 신호와 상기 동작 데이터를 상기 매핑부를 통해 매핑하여 상기 동작 제어 신호를 생성하는 것이 바람직하다.In the present invention, the motion recognition unit detects the user's motion while generating the motion data while the user presses at least one of the plurality of buttons, and the processing unit generates the button control signal for the corresponding button and the It is preferable to generate the motion control signal by mapping motion data through the mapping unit.

본 발명에 있어서 상기 처리부는 생성된 상기 동작 제어 신호를 각각의 이용자별로 그룹핑하여 상기 저장부에 저장하는 것이 바람직하다.In the present invention, it is preferable that the processing unit group the generated operation control signals for each user and store them in the storage unit.

본 발명에 있어서 다수의 버튼이 구비되고, 각각의 상기 버튼의 누름에 따라 버튼 제어를 생성하는 컨트롤 패드; 단위 시간 동안 이용자의 움직임에 대한 동작을 입체적 형상으로 인식하여 상기 이용자의 움직임에 대한 동작 정보를 생성하는 모션 인식 유닛; 상기 동작 정보를 기초로 상기 버튼에 대응하지 않는 새로운 동작 제어 신호를 생성하는 처리 유닛; 및 상기 버튼 제어 신호 또는 상기 동작 제어 신호에 응답하여 예정된 프로그램 동작을 수행하는 기기를 포함하는 것이 바람직하다.In the present invention, a plurality of buttons are provided, the control pad for generating a button control in accordance with the pressing of each button; A motion recognition unit recognizing an operation of the user's movement in a three-dimensional shape for a unit time to generate motion information of the user's movement; A processing unit for generating a new operation control signal not corresponding to the button based on the operation information; And a device for performing a predetermined program operation in response to the button control signal or the operation control signal.

본 발명에 따른 모션 인식을 통해 기기 제어가 가능한 시스템은 다음과 같은 효과를 제공한다.A system capable of controlling a device through motion recognition according to the present invention provides the following effects.

본 발명은 디바이스를 제어하기 위한 모션을 사용자가 원하는 모션으로 추가함으로써 디바이스 자체에 등록된 모션을 외우지 않고도 자유로운 디바이스 제어가 가능하다.The present invention enables free device control without memorizing a motion registered in the device itself by adding a motion for controlling the device as a motion desired by the user.

본 발명은 시간 정보 및 입체적 형상의 동작 정보를 통해 제어함으로써 사용자의 식별이 가능하고, 사용별로 모션 등록을 그룹핑함으로써 개인화 설정이 가능하다.According to the present invention, the user can be identified by controlling the time information and the motion information of the three-dimensional shape, and the personalization can be set by grouping the motion registration for each use.

본 발명은 게임 패드 버튼을 상용하지 않고 모션으로 게임을 제어함으로써 더욱 실감나게 게임을 진행할 수 있으며, 동시에 두 개수 이상의 버튼 조합을 하나의 모션으로 제어 가능함으로써 조작이 용이하다.The present invention can proceed the game more realistically by controlling the game in motion without using game pad buttons, and it is easy to operate by controlling two or more button combinations in one motion at the same time.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템을 설명하기 위한 개략도.
도 2는 본 발명의 실시예에 모션 인식을 통해 기기 제어가 가능한 시스템을 설명하기 위한 블록도.
도 3은 본 발명의 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템의 동작 제어 신호를 설명하기 위한 블록.
도 4는 본 발명의 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템의 동작 제어 신호를 생성하는 방법을 설명하기 위한 블록도 이다.
도 5는 본 발명의 다른 실시에에 따른 모션 인식을 통해 기기 제어가 가능한 시스템을 설명하기 위한 블록도.
1 is a schematic diagram illustrating a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
2 is a block diagram illustrating a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
3 is a block diagram illustrating an operation control signal of a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
4 is a block diagram illustrating a method of generating an operation control signal of a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
5 is a block diagram illustrating a system capable of controlling a device through motion recognition according to another embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as limited by the embodiments described in the text. That is, since the embodiments may be variously modified and may have various forms, the scope of the present invention should be understood to include equivalents capable of realizing the technical idea. In addition, the objects or effects presented in the present invention does not mean that a specific embodiment should include all or only such effects, the scope of the present invention should not be understood as being limited thereby.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are intended to distinguish one component from another component, and the scope of rights should not be limited by these terms. For example, the first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" to another component, it should be understood that there may be other components in between, although it may be directly connected to the other component. On the other hand, when a component is referred to as being "directly connected" to another component, it should be understood that there is no other component in between. On the other hand, other expressions describing the relationship between the components, such as "between" and "immediately between" or "neighboring to" and "directly neighboring to", should be interpreted as well.

단수의 표현은 문맥상 명백히 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as "comprise" or "have" refer to a feature, number, step, operation, component, part, or feature that is implemented. It is to be understood that the combination is intended to be present and does not exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, an identification code (e.g., a, b, c, etc.) is used for convenience of description, and the identification code does not describe the order of the steps, and each step clearly indicates a specific order in context. Unless stated otherwise, they may occur out of the order noted. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Generally, the terms defined in the dictionary used are to be interpreted to coincide with the meanings in the context of the related art, and should not be interpreted as having ideal or excessively formal meanings unless clearly defined in the present application.

이하 본 발명의 바람직한 실시 예에 따른 모션 인식을 통해 제어 가능한 시스템에 대하여 도 1을 통해 상세히 설명한다.Hereinafter, a system that can be controlled through motion recognition according to an exemplary embodiment of the present invention will be described in detail with reference to FIG. 1.

도 1은 본 발명의 실시예에 따른따른 모션 인식을 통해 제어 가능한 시스템을 설명하기 위한 개략도 이고, 도 2는 본 발명의 실시예에 따른 모션 인식을 통해 제어 가능한 시스템을 설명하기 위한 블록도 이고, 도 3은 본 발명의 실시예에 따른 모션 인식을 통해 제어 가능한 시스템의 동작 제어 신호(GS)를 설명하기 위한 블록이다.1 is a schematic diagram illustrating a system controllable through motion recognition according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a system controllable through motion recognition according to an embodiment of the present invention. 3 is a block diagram illustrating an operation control signal GS of a system that can be controlled through motion recognition according to an exemplary embodiment of the present invention.

도 1 내지 도 3을 참고하면, 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 모션 인식 유닛(100)과 처리 유닛(200)과 기기(10) 포함한다.1 to 3, a system capable of controlling a device through motion recognition according to the present invention includes a motion recognition unit 100, a processing unit 200, and a device 10.

모션 인식 유닛(100)과 처리 유닛(200)은 단위 시간 동안 이용자(U)의 움직임에 대한 동작을 인식하고 이용자(U)의 동작에 응답하는 동작 제어 신호(GS)를 생성하기 위한 것으로, 생성된 동작 제어 신호(GS)를 통해 별도의 조작 수단 없이 이용자(U)의 동작을 통해 기기(10)를 제어할 수 있다.The motion recognition unit 100 and the processing unit 200 are for generating an operation control signal GS that recognizes an operation of the movement of the user U for a unit time and responds to the operation of the user U. Through the operation control signal GS, the device 10 may be controlled through the operation of the user U without a separate operation means.

기기(10)는 디지털 게임기, TV 또는 컴퓨터와 같은 디지털 기기(10)가 될 수 있으며, 이와 같은 기기(10)는 리모콘, 조작 패드, 마우스 등과 같은 별도의 조작 수단을 통해 제어 신호에 응답하여 프로그램 동작을 수행할 수 있다.The device 10 may be a digital device 10 such as a digital game machine, a TV or a computer, and the device 10 may be programmed in response to a control signal through a separate operation means such as a remote controller, an operation pad, a mouse, or the like. You can perform the operation.

뿐만 아니라 기기(10)는 동작 제어 신호(GS)에 응답하여 예정된 프로그램 동작을 수행할 수 있다. 그리고, 모션 인식 유닛(100)과 처리 유닛(200)은 위에서 설명한 기기(10)의 내부에 배치되거나 인접한 위치에 배치되어 이용자(U)의 동작에 따라 해당 기기(10)를 제어할 수 있다.In addition, the device 10 may perform a predetermined program operation in response to the operation control signal GS. In addition, the motion recognition unit 100 and the processing unit 200 may be disposed inside or adjacent to the device 10 described above to control the device 10 according to the operation of the user U.

모션 인식 유닛(100)은 동작 제어 신호(GS)의 기초가 되는 단위 시간 동안 이용자(U)의 움직임에 대한 동작을 입체적 형상으로 인식할 수 있다. 모션 인식 유닛(100)을 통해 인식된 이용자(U)의 움직임 동작에 대한 입체적 형상은 동작 정보로 생성되어 처리 유닛(200)으로 제공될 수 있다.The motion recognition unit 100 may recognize an operation of the movement of the user U in a three-dimensional shape during a unit time that is the basis of the operation control signal GS. The three-dimensional shape of the movement motion of the user U recognized through the motion recognition unit 100 may be generated as motion information and provided to the processing unit 200.

모션 인식 유닛(100)은 다수의 센서를 통해 단위 시간에 대한 이용자의 동작 정보를 검출하여 동작 데이터(GD)로 생성하여 처리 유닛(200)으로 제공하는 검출부(120)를 포함할 수 있다.The motion recognition unit 100 may include a detector 120 that detects user's motion information for a unit time through a plurality of sensors, generates motion data GD, and provides the motion data to the processing unit 200.

검출부(120)는 다수의 센서를 통해 이용자(U)의 동작을 입체적 형상으로 인식함으로써 동작 데이터(GD)를 획득할 수 있다. 참고로, 검출부(120)의 센서는 모션 인식에 사용되는 자이로 센서(Gyroscope), 지자기 센서(Geo-Magnetic Sensor), 가속도 센서(accelerometer) 및 뎁스 영상 센서 (Depth Camera) 등이 사용되며, 센서의 종류는 이에 한정하지 않는다.The detector 120 may acquire the motion data GD by recognizing the motion of the user U as a three-dimensional shape through a plurality of sensors. For reference, the sensor of the detector 120 may include a gyro sensor, a geo-magnetic sensor, an accelerometer, a depth camera, and the like used for motion recognition. Kind is not limited to this.

예컨대, 자이로 센서는 이용자(U)의 동작의 한 축 또는 여러 축의 회전 움직임의 각 변화량을 측정하고, 지자기 센서는 지자계를 이용하여 이용자(U) 동작의 방향을 측정하기 위해 사용된다. 가속도 센서는 이용자(U) 동작의 선형 가속도와 기울임 각도를 측정할 수 있다. 또한, 뎁스 영상 센서는 이용자의 단위 시간 동안 움직임에 대한 동작 정보를 측정할 수 있다.For example, the gyro sensor measures the amount of change in the rotational movement of one axis or several axes of the user U's motion, and the geomagnetic sensor is used to measure the direction of the user U motion using a geomagnetic field. The acceleration sensor may measure linear acceleration and tilt angle of the user U motion. In addition, the depth image sensor may measure motion information regarding movement of the user during unit time.

모션 인식 유닛(100)에서 생성된 동작 데이터(GD)는 단위 시간 동안 이용자의 움직임을 검출하기 때문에 입체적 형상의 3차원에 시간의 흐름을 더한 4차원의 동작 데이터(GD)로 생성될 수 있다. 참고로, 모션 인식 유닛(100)은 이용자(U)의 움직임이 정지된 상태에서도 이용자(U)의 동작을 4차원의 동작 정보로 생성할 수 있다.Since the motion data GD generated by the motion recognition unit 100 detects the user's movement for a unit time, the motion data GD may be generated as the four-dimensional motion data GD that adds the passage of time to the three-dimensional shape. For reference, the motion recognition unit 100 may generate the motion of the user U as four-dimensional motion information even when the motion of the user U is stopped.

모션 인식 유닛(100)은 측정부(140)와 측정된 거리 간격에 따라 동작 데이터(GD)의 비율을 보정하는 보정부(160)를 더 포함할 수 있다. The motion recognition unit 100 may further include a correction unit 160 that corrects the ratio of the motion data GD according to the measured distance interval from the measurement unit 140.

측정부(140)는 검출부(120)로부터 이격된 이용자(U)의 거리 간격을 측정할 수 있다. 예컨대, 검출부(120)가 이용자(U)가 동작을 검출할 때 검출부(120)와 이용자(U)의 거리 간격을 측정하고, 측정된 거리 간격은 이후 이용자(U)가 동일한 동작을 취할 때 거리 간격에 따라 동작 데이터(GD)를 보정할 때 쓰임으로써 검출부(120)가 보다 정확하게 동작 데이터(GD)를 생성하도록 할 수 있다.The measurement unit 140 may measure a distance interval of the user U spaced apart from the detection unit 120. For example, the detection unit 120 measures the distance interval between the detection unit 120 and the user U when the user U detects an operation, and the measured distance interval is then the distance when the user U takes the same operation. The detector 120 may be used to correct the motion data GD according to the interval, thereby more accurately generating the motion data GD.

보정부(160)는 검출부(120)와 측정부(140)로부터 각각 동작 데이터(GD)와 거리 간격을 제공 받고 동일한 동작 데이터(GD)가 측정된 거리 간격이 다를 경우 동작 데이터(GD)의 비율을 보정하여 다른 거리에서 검출된 동작 데이터(GD)도 동일한 크기의 동작 데이터(GD)로 보정할 수 있다.The correction unit 160 receives the operation data GD and the distance interval from the detector 120 and the measurement unit 140, respectively, and the ratio of the operation data GD when the same operation data GD is measured is different from each other. By correcting the motion data GD detected at different distances, the motion data GD of the same size may also be corrected.

예를 들면, 검출부(120)로부터 1미터의 거리로 떨어진 이용자가 주먹을 쥔 동작에 대한 동작 데이터(GD)와 검출부(120)로부터 3미터의거리로 떨어진 이용자가 주먹을 쥔 동작에 대한 동작 데이터(GD)는 동일한 동작이지만 거리 간격으로 인해 크기가 달라짐으로써 다른 동작 데이터(GD)로 인식되거나 멀리 떨어진 동작은 세세한 동작을 인식하기 힘들어 질 수 있다.For example, motion data (GD) of the user's fist punched away from the detector 120 at a distance of 1 meter and motion data of the user's fist punched away at the distance of 3 meters from the detector 120. (GD) is the same operation, but because the size is changed due to the distance interval, it may be difficult to recognize the detailed motion is recognized as other motion data (GD) or far away.

이때, 보정부(160)는 서로 차이가 있는 거리 간격에 대한 동작 데이터(GD), 즉, 3미터의 거리로 떨어진 이용자의 동작에 대한 동작 데이터(GD)를 1미터 간격으로 떨어진 이용자의 동작 데이터(GD)와 동일한 크기로 확대하여 보정할 수 있다.At this time, the correction unit 160 is the operation data (GD) for the distance interval that is different from each other, that is, the motion data (GD) of the user's motion that is separated by a distance of 3 meters, the user's motion data separated by 1 meter intervals It can be enlarged and corrected to the same size as (GD).

즉, 모션 인식 유닛(100)은 인식할 수 있는 범위 내에서 이용자(U)가 서로 다른 위치에서 동작을 하더라도 보정부(160)를 통해 이용자의 동작 데이터(GD)의 비율을 보정하여 보다 정확한 동작 데이터(GD)를 생성할 수 있다.In other words, even if the user U operates at different positions within the recognizable range, the motion recognition unit 100 corrects the ratio of the user's motion data GD through the correction unit 160 to perform a more accurate operation. The data GD may be generated.

처리 유닛(200)은 모션 인식 유닛(100)으로부터 제공받은 동작 정보와 기 저장된 사용자의 등록 움직임을 비교 처리하여 동작 제어 신호(GS)를 생성하기 위해 저장부(220)와 비교부(240)를 포함할 수 있다. 여기서, 등록 움직임은 동작 제어 신호(GS)를 초기 설정할 때 기초가 되는 이용자(U)의 동작 정보로서 동작 데이터(GD)로 생성되어 저장부(220)에 저장될 수 있다.The processing unit 200 compares the motion information provided from the motion recognition unit 100 with a pre-stored user's registered movement to generate a motion control signal GS, and generates a storage 220 and a comparator 240. It may include. Here, the registration movement may be generated as the operation data GD as the operation information of the user U, which is the basis for the initial setting of the operation control signal GS, and stored in the storage unit 220.

저장부(220)는 모션 인식 유닛(100)에서 제공된 동작 데이터(GD)와 동작 데이터(GD)를 기초로 생성된 동작 제어 신호(GS)를 저장할 수 있다. 저장된 동작 제어 신호(GS)는 이용자별로 그룹핑하여 저장할 수 있으며 도 4를 설명할 때 다시 설명하기로 한다.The storage unit 220 may store the operation control signal GS generated based on the operation data GD and the operation data GD provided from the motion recognition unit 100. The stored motion control signal GS can be stored in groups for each user and will be described again with reference to FIG. 4.

비교부(240)는 모션 인식 유닛(100)에서 제공 받은 동작 데이터(GD)가 기 저장된 등록 움직임에 대한 동작 데이터(GD)인지 비교하여 기 설정된 동작 제어 신호(GS)에 대한 동작 데이터(GD)인지 새로 설정되기 위한 동작 데이터(GD)인지 판단할 수 있다. The comparator 240 compares whether the motion data GD provided from the motion recognition unit 100 is the motion data GD for the pre-stored registered motion, and compares the motion data GD with respect to the preset motion control signal GS. It may be determined whether the motion data GD is newly set.

예를 들면, 비교부(240)는 수신된 동작 데이터(GD)가 저장부(220)에 기 저장된 등록 움직임에 대한 동작 데이터(GD)라면 기 설정되어 저장된 동작 제어 신호에 대한 동작 데이터(GD)로 판단하고, 수신된 동작 데이터(GD)가 저장부(220)에 저장되지 않은 동작 데이터(GD)라면 해당 동작 데이터(GD)를 통해 동작 제어 신호를 생성해야 한다고 판단할 수 있다.For example, if the received motion data GD is motion data GD for a registered motion previously stored in the storage 220, the comparator 240 motion data GD for a preset and stored motion control signal. If the received operation data GD is not stored in the storage unit 220, it may be determined that an operation control signal should be generated through the corresponding operation data GD.

처리 유닛(200)은 비교부(240)를 통해 동작 제어 신호(GS)를 생성해야 한다고 판단되면 제공된 동작 데이터(GD)를 기초로 생성부(미도시)를 통해 동작 제어 신호를 생성할 수 있다. 참고로, 동작 데이터(GD)가 기 설정되어 저장된 동작 제어 신호에 대한 동작 데이터(GD)라면 동작 제어 신호를 생성하지 않고 저장된 동작 제어 신호를 기기로 제공할 수 있다.If it is determined that the operation control signal GS is to be generated through the comparing unit 240, the processing unit 200 may generate the operation control signal through a generation unit (not shown) based on the provided operation data GD. . For reference, if the operation data GD is the preset operation data GD for the stored operation control signal, the stored operation control signal may be provided to the device without generating the operation control signal.

즉, 처리 유닛(200)은 동작 제어 신호(GS)가 생성된 이후에 동일한 동작 데이터(GD)가 모션 인식 유닛(100)으로부터 제공되면 해당하는 동작 데이터(GD)에 응답하여 저장되었던 동작 제어 신호(GS)를 통해 기기(10)를 제어할 수 있다. 그리고, 처리 유닛(200)은 모션 인식 유닛(100)으로부터 동작 데이터(GD)를 제공 받았을 때, 제공 받은 동작 데이터(GD)가 기 등록된 동작 데이터(GD)가 아니면 제공 받은 동작 데이터(GD)를 기초로 새로운 동작 제어 신호(GS)를 생성할 수 있다.That is, if the same operation data GD is provided from the motion recognition unit 100 after the operation control signal GS is generated, the processing unit 200 may store the operation control signal in response to the corresponding operation data GD. The device 10 may be controlled through the GS. In addition, when the operation unit 200 receives the operation data GD from the motion recognition unit 100, the processing unit 200 receives the provided operation data GD if the received operation data GD is not the registered operation data GD. Based on the new operation control signal (GS) can be generated.

또한, 처리 유닛(200)은 인공지능을 통해 이용자(U)가 동작을 취할 때의 환경을 학습하여 동작 제어 신호(GS)를 생성할 수 있다. 일 예로, 처리 유닛(200)은 이용자(U) 동작에 대한 동작 제어 신호(GS)를 다수개 생성하면서 동작 데이터(GD)의 여러 가지 환경, 즉, 설정 당시의 주변 밝기 또는 이용자(U) 동작의 속도 등을 학습할 수 있다.In addition, the processing unit 200 may generate an operation control signal GS by learning an environment when the user U takes an operation through artificial intelligence. For example, the processing unit 200 generates a plurality of operation control signals GS for the operation of the user U, and various environments of the operation data GD, that is, the ambient brightness or the user U operation at the time of setting. You can learn the speed of.

예를 들어, 처리 유닛(200)은 이용자가(U) 동작을 취할 때 마다 동작 속도가 조금씩 다를 수 있으며, 이때 처리 유닛(200)은 기존의 동작 데이터(GD)를 통해 이용자(U) 동작속도 변화를 학습하고 학습된 정보를 통해 이용자(U)의 동작 속도에 약간의 차이가 있더라도 오류 없이 동작 제어 신호(GS)를 생성할 수 있다. For example, the processing unit 200 may have a slightly different operating speed each time the user (U) takes an action, and the processing unit 200 may operate the user U operating speed through the existing operating data GD. By learning the change and using the learned information, even if there is a slight difference in the operation speed of the user U, the operation control signal GS can be generated without error.

이용자(U)가 동작 제어 신호(GS)를 생성하는 단계는 이용자(U)가 선택적으로 설정 할 수 있으며, 기기(10)를 처음 실행하는 초기 단계에서 별도의 과정을 통해 이용자(U)의 동작을 동작 제어 신호(GS)로 생성할 수 있다. The step of generating the operation control signal GS by the user U may be selectively set by the user U. The operation of the user U may be performed through a separate process in an initial step of initially executing the device 10. May be generated as an operation control signal GS.

또한, 이용자(U)가 동작 제어 신호(GS)를 초기 단계가 아닌 기기(10)를 실행하고 있는 중간에 설정할 수 있으며, 이와 같이 기기(10) 실행 중간에 동작 제어 신호(GS)를 설정하는 방법은 아래에서 다시 설명하기로 한다.In addition, the user U may set the operation control signal GS in the middle of executing the device 10 instead of the initial stage, and thus set the operation control signal GS in the middle of the execution of the device 10. The method will be described again below.

한편, 본 발명의 모션 인식 유닛을 통해 기기 제어가 가능한 시스템은 기기(10)에 연결되어 기기(10)를 제어하기 위한 컨트롤 패드(300)를 더 포함할 수 있다.Meanwhile, the system capable of controlling the device through the motion recognition unit of the present invention may further include a control pad 300 connected to the device 10 to control the device 10.

컨트롤 패드(300)는 다수의 버튼이 구비되고, 각각의 버튼을 누름으로써 해당 버튼에 해당하는 버튼 제어 신호(BS)를 통해 기기(10)를 제어 할 수 있다. 여기서, 컨트롤 패드(300)는 TV를 제어하기 위한 리모콘, 게임기를 제어하기 위한 조작 패드 등이 될 수 있으며 어느 하나로 한정하지 않는다.The control pad 300 is provided with a plurality of buttons, and by pressing each button can control the device 10 through a button control signal (BS) corresponding to the button. Here, the control pad 300 may be a remote control for controlling a TV, an operation pad for controlling a game machine, and the like, but is not limited thereto.

처리 유닛(200)은 컨트롤 패드(300)에 구비된 버튼에 해당하는 버튼 제어 신호(BS)와 동작 데이터(GD)를 매핑하기 위한 매핑부(260)를 더 포함할 수 있다. The processing unit 200 may further include a mapping unit 260 for mapping the button control signal BS corresponding to the button provided in the control pad 300 and the operation data GD.

매핑부(260)는 예정된 버튼이 눌려진 상태에서 검출부(120)를 통해 검출되는 동작 데이터(GD)를 눌려진 버튼에 해당하는 버튼 제어 신호와 매핑할 수 있다. 예를 들면, 컨트롤 패드의 버튼이 X, O 버튼으로 구성되었을 때 이용자는 X 버튼을 누른 상태에서 동작을 취할 수 있다.The mapping unit 260 may map the operation data GD detected through the detection unit 120 with the button control signal corresponding to the pressed button while the predetermined button is pressed. For example, when the button of the control pad is composed of X and O buttons, the user can take an action while pressing the X button.

그리고, 이용자(U)는 X 버튼을 누른 상태에서 팔을 위 아래로 흔들면 검출부(120)를 통해 해당 동작 데이터(GD)가 생성되고, 생성된 동작 데이터(GD)와 X 버튼에 해당하는 버튼 제어 신호가 매핑될 수 있다.Then, when the user U shakes his / her arm up and down while pressing the X button, the corresponding motion data GD is generated through the detection unit 120, and the button controls corresponding to the generated motion data GD and the X button. Signals can be mapped.

또한, 이용자(U)는 X, O 버튼을 동시 누른 상태에서 동작을 취함으로써 하나의 동작에 대한 동작 데이터(GD)와 두 개의 버튼 제어 신호가 매핑되도록 할 수 있다.In addition, the user U may perform an operation while simultaneously pressing the X and O buttons so that the operation data GD for the one operation and the two button control signals may be mapped.

다시 말해서, 버튼을 누르고 있는 시간이 이용자의 움직임에 대한 단위 시간이 되고, 매핑부(260)는 단위 시간 동안 이용자의 움직임에 대한 동작 데이터(GD)와 해당하는 버튼 제어 신호를 매핑할 수 있다. 이와 같이 버튼 제어 신호와 동작 데이터(GD)가 매핑된 동작 제어 신호는 저장부(220)에 저장되고 이용자의 동작을 통해 기기로 제공되어 기기를 제어할 수 있다.In other words, the time when the button is pressed becomes the unit time for the user's movement, and the mapping unit 260 may map the motion data GD for the user's movement and the corresponding button control signal for the unit time. As such, the operation control signal in which the button control signal and the operation data GD are mapped may be stored in the storage unit 220 and provided to the device through the user's operation to control the device.

참고로, 처리 유닛(200)은 동작 제어 신호(GS)가 생성되면 램프 등의 디스플레이 부재를 통해 이용자(U)에게 동작 제어 신호(GS) 신호가 생성되었음을 알릴 수 있다.For reference, when the operation control signal GS is generated, the processing unit 200 may notify the user U that the operation control signal GS is generated through a display member such as a lamp.

도 4는 본 발명의 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템의 동작 제어 신호(GS)를 생성하는 방법을 설명하기 위한 블록도 이다.4 is a block diagram illustrating a method of generating an operation control signal GS of a system capable of controlling a device through motion recognition according to an embodiment of the present invention.

도 4를 참고하면, 모션 인식을 통해 기기 제어가 가능한 시스템의 처리 유닛(200)은 생성되었던 동작 데이터(GD) 또는 동작 제어 신호(GS)를 이용자(U)별로 그룹핑하여 저장할 수 있다.Referring to FIG. 4, the processing unit 200 of the system capable of controlling the device through motion recognition may store the generated operation data GD or the operation control signal GS for each user U.

위에서 언급한 바와 같이, 처리 유닛(200)은 생성되었던 동작 데이터(GD) 또는 동작 제어 신호(GS)를 이용자(U)별로 그룹핑 하여 저장부(220)에 저장하고, 이용자(U)가 기존에 생성했던 동작 제어 신호(GS)를 다시 생성할 경우 하나의 동작 제어 신호(GS)를 생성하여도 그룹핑 된 다른 동작 제어 신호(GS)가 같이 생성될 수 있다.As mentioned above, the processing unit 200 groups the generated operation data GD or the operation control signal GS for each user U and stores them in the storage unit 220, and the user U previously exists. When the generated motion control signal GS is generated again, another grouped motion control signal GS may be generated together even if one motion control signal GS is generated.

예를 들면, 제1 이용자(U1)는 각각의 버튼 제어 신호(BS)와 매핑된 제1 동작 제어 신호와 제2 동작 제어 신호와 제3 동작 제어 신호를 생성할 수 있다. 그리고, 기기(10)가 다시 실행되어 기 생성되었던 제1 동작 제어 신호와 제2 동작 제어 신호와 제3 동작 제어 신호가 초기화 되어 재 생성할 경우, 이용자(U)는 먼저 제1 동작 제어 신호를 생성할 수 있다.For example, the first user U1 may generate a first operation control signal, a second operation control signal, and a third operation control signal mapped to each button control signal BS. When the device 10 is re-executed to initialize and regenerate the first operation control signal, the second operation control signal, and the third operation control signal, the user U first generates the first operation control signal. Can be generated.

처리 유닛(200)은 제1 이용자(U1)가 제1 동작 제어 신호만 생성하더라도 그룹핑된 제1 동작 제어 신호와 제2 동작 제어 신호와 제3 동작 제어 신호를 모두 재생성할 수 있다.The processing unit 200 may regenerate both the grouped first operation control signal, the second operation control signal, and the third operation control signal even if the first user U1 generates only the first operation control signal.

이 때, 처리 유닛(200)은 제1 이용자(U1) 및 제2 이용자(U2)를 판단하기 위해 각각의 이용자(U)의 안면을 인식하기 위한 안면 인식부(미도시)를 더 포함할 수 있다. 따라서, 처리 유닛(200)은 상기와 같은 방법으로 동작 제어 신호(GS)를 학습에 의해 재 생성하거나 이용자(U)별로 그룹핑하여 재 생성할 수 있다.In this case, the processing unit 200 may further include a face recognizing unit (not shown) for recognizing the face of each user U to determine the first user U1 and the second user U2. have. Therefore, the processing unit 200 may regenerate the operation control signal GS by learning or group by the user U in the same manner as described above.

도 5는 본 발명의 다른 실시에에 따른 모션 인식을 통해 기기 제어가 가능한 시스템을 설명하기 위한 블록도 이다.5 is a block diagram illustrating a system capable of controlling a device through motion recognition according to another embodiment of the present invention.

도 5를 참고하면, 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 모션 인식 유닛(100)과 컨트롤 패드(300)와 처리 유닛(200)을 포함할 수 있다.Referring to FIG. 5, a system capable of controlling a device through motion recognition of the present invention may include a motion recognition unit 100, a control pad 300, and a processing unit 200.

먼저, 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 도 1 내지 도 4를 통해서 설명한 모션 인식을 통해 기기 제어가 가능한 시스템과 동일한 모션 인식 유닛(100)과 컨트롤 패드(300)와 처리 유닛(200)을 포함할 수 있다. 참고로 도면 부호는 동일하게 부여하여 설명하기로 한다.First, a system capable of controlling a device through motion recognition according to the present invention includes a motion recognition unit 100, a control pad 300, and a processing unit (same as a system capable of controlling a device through motion recognition described with reference to FIGS. 1 to 4). 200). For reference, the same reference numerals will be given and described.

다만, 도 1 내지 도 4를 통해서 설명한 모션 인식을 통해 기기 제어가 가능한 시스템은 컨트롤 패드(300)의 버튼 제어 신호(BS)와 이용자(U)의 동작 데이터(GD)를 매핑하여 동작 제어 신호(GS)를 생성하지만, 도 5를 통한 본 발명의 다른 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템은 이용자(U)의 동작 데이터(GD)와 버튼 제어 신호(BS)를 매핑하지 않고 서로 다른 제어 신호로 생성하여 기기(10)를 제어할 수 있다.However, the system capable of controlling the device through the motion recognition described with reference to FIGS. 1 to 4 may map the button control signal BS of the control pad 300 and the operation data GD of the user U to control the motion control signal ( GS), but the system controllable via motion recognition according to another embodiment of the present invention through FIG. 5 does not map the operation data GD of the user U and the button control signal BS to each other. The device 10 may be controlled by generating another control signal.

모션 인식 유닛(100)은 도 2와 동일한 검출부(120)와 측정부(140) 및 보정부(160)를 포함하고 포함함 할 수 있으며, 처리 유닛(200)은 저장부(220)와 비교부(240)를 포함할 수 있다. 모션 인식 유닛(100)과 처리 유닛(200)과 컨트롤 패드(300)의 중복된 설명은 생략한다.The motion recognition unit 100 may include and include the same detection unit 120, the measurement unit 140, and the correction unit 160 as shown in FIG. 2, and the processing unit 200 may include the storage unit 220 and the comparison unit. 240 may be included. Overlapping descriptions of the motion recognition unit 100, the processing unit 200, and the control pad 300 will be omitted.

본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템의 기기(10)는 TV 또는 게임기 등 어느 하나의 기기(10)로 한정하지 않지만 설명의 편의를 위해 기기(10)는 게임기로 정의하여 설명한다.The device 10 of the system which can control the device through the motion recognition of the present invention is not limited to any one device 10 such as a TV or a game machine, but for convenience of description, the device 10 will be described as a game machine.

처리 유닛(200)은 전술한 바와 동일한 방법으로 모션 인식 유닛(100)에서 제공한 동작 데이터(GD)를 기초로 기기(10)를 제어하기 위한 동작 제어 신호(GS)를 생성할 수 있다. The processing unit 200 may generate an operation control signal GS for controlling the device 10 based on the operation data GD provided by the motion recognition unit 100 in the same manner as described above.

다만, 도 1 내지 도 4를 통해서 설명한 모션 인식을 통해 기기 제어가 가능한 시스템은 처리 유닛(200)이 버튼 제어 신호(BS)와 동작 데이터(GD)를 매핑한데 반해 본 발명의 다른 실시예인 도 5의 처리 유닛(200)은 동작 정보를 기초로 버튼에 해당하는 버튼 제어 신호를 매핑하지 않고 제 3의 동작 제어 신호(GS)를 생성할 수 있다.However, in the system capable of controlling the device through the motion recognition described with reference to FIGS. 1 to 4, the processing unit 200 maps the button control signal BS and the operation data GD, while FIG. 5 is another embodiment of the present invention. The processing unit 200 may generate the third operation control signal GS without mapping the button control signal corresponding to the button based on the operation information.

즉, 처리 유닛(200)에서 생성된 동작 제어 신호(GS)는 컨트롤 패드(300)의 버튼 제어 신호(BS)가 매핑되지 않는 것이 바람직할 수 있다. 처리 유닛(200)은 컨트롤 패드(300)에 해당하는 다수의 버튼 제어 신호(BS)와 중복되지 않는 기기(10)를 제어하기 위한 새로운 추가 제어 신호에 해당하는 동작 제어 신호(GS)를 생성할 수 있다.That is, it may be preferable that the button control signal BS of the control pad 300 is not mapped to the operation control signal GS generated by the processing unit 200. The processing unit 200 may generate an operation control signal GS corresponding to a new additional control signal for controlling the device 10 that does not overlap with the plurality of button control signals BS corresponding to the control pad 300. Can be.

예를 들면, 컨트롤 패드(300)는 X 버튼과 O버튼 등이 구비되고 각각에 해당하는 버튼 제어 신호(BS)로 기기(10)를 제어할 수 있다. 여기서, 게임기는 하나의 게임 프로그램만 실행하는 것이 아니라 다수의 게임 프로그램을 이용자(U)가 선택적으로 실행할 수 있다.For example, the control pad 300 may include an X button, an O button, and the like, and control the device 10 with a button control signal BS corresponding thereto. Here, the game machine may selectively execute a plurality of game programs instead of only one game program.

또한, 각각의 게임 프로그램은 각각의 게임 프로그램을 제어하기 위한 제어 신호의 개수가 한정되어 있으며 일반적으로 2~3개의 버튼이 구비된 컨트롤 패드(300)로 게임 프로그램을 제어할 수 있다. 참고로, 설명의 편의를 위해 컨트롤 패드(300)의 버튼은 2 개수 구비된 것으로 정의하여 설명한다.In addition, each game program has a limited number of control signals for controlling each game program, and in general, the game program may be controlled by the control pad 300 having two to three buttons. For reference, for convenience of description, the control pad 300 will be described as defined as having two buttons.

이용자(U)는 2개 수의 버튼(제1 버튼 제어 신호(S1), 제2 버튼 제어 신호(S2))이 구비된 컨트롤 패드(300)를 통해 제1 게임을 제어하다가 제1 게임을 종료하고 3개 수의 버튼이 필요한 제2 게임을 실행할 수 있다. The user U controls the first game through the control pad 300 provided with two buttons (first button control signal S1 and second button control signal S2) and ends the first game. Play a second game that requires three buttons.

제2 게임은 제1 게임과 달리 3개 수의 버튼이 구비된 컨트롤 패드(300)를 통해 제어할 수 있으며, 이용자(U)가 제2 게임을 제어하기 위해서는 제1 버튼 제어 신호(S1), 제2 버튼 제어 신호(S2) 외에 제3의 제어신호가 필요할 수 있다.Unlike the first game, the second game can be controlled through the control pad 300 provided with three buttons. In order for the user U to control the second game, the first button control signal S1, In addition to the second button control signal S2, a third control signal may be required.

처리 유닛(200)은 제2 게임을 제어하기 위한 제3의 제어 신호를 이용자(U)의 동작 정보를 통한 제3 동작 제어 신호(S3)를 생성할 수 있다. 즉, 처리 유닛(200)은 제2 게임을 실행하기 위한 제3의 제어 신호를 이용자(U)의 동작 정보를 기초로 제3 동작 제어 신호(S3)를 생성하여 3 개수의 제어 신호로 제2 게임을 컨트롤 할 수 있다.The processing unit 200 may generate the third operation control signal S3 through the operation information of the user U from the third control signal for controlling the second game. That is, the processing unit 200 generates a third operation control signal S3 based on the operation information of the user U from the third control signal for executing the second game, and generates the second control signal as the third number of control signals. You can control the game.

예컨대, 이용자(U)는 제2 게임을 제어하기 위해서 제1 버튼 제어 신호(S1)와 제2 버튼 제어 신호(S2) 및 동작을 통해 제3 동작 제어 신호(S3)를 통해 제2 게임을 제어할 수 있다. 참고로, 처리 유닛(200)은 제3 동작 제어 신호(S3)를 게임 실행 초기 단계에서 미리 설정하는 것이 바람직할 수 있다.For example, the user U controls the second game through the third operation control signal S3 through the first button control signal S1 and the second button control signal S2 and the operation to control the second game. can do. For reference, the processing unit 200 may preferably set the third operation control signal S3 at a game execution initial stage in advance.

따라서, 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 필요로 하는 컨트롤 패드(300)의 버튼 개수가 다른 게임을 실행할 때, 각각의 버튼 개수가 맞는 컨트롤 패드(300)로 교체하지 않고 버튼을 대체할 수 있는 추가적인 동작 제어 신호(GS)를 생성하여 게임을 제어할 수 있다.Therefore, the system capable of controlling the device through the motion recognition of the present invention, when the number of buttons of the control pad 300 required to play a game, each button number does not replace the button without replacing the control pad 300 is correct The game can be controlled by generating an additional motion control signal GS that can be replaced.

본 명세서에서 설명되는 실시 예와 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서, 본 명세서에 개시된 실시 예는 본 발명의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아님은 자명하다. 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The embodiments and the accompanying drawings described herein are merely illustrative of some of the technical ideas included in the present invention. Therefore, since the embodiments disclosed herein are not intended to limit the technical spirit of the present invention, but to explain, it is obvious that the scope of the technical spirit of the present invention is not limited by these embodiments. Modifications and specific embodiments that can be easily inferred by those skilled in the art within the scope of the technical idea included in the specification and drawings of the present invention should be construed as being included in the scope of the present invention.

100: 모션 인식 유닛
120: 검출부
140: 측정부
160: 보정부
200: 저장부
220: 저장부
240: 비교부
260: 매핑부
100: motion recognition unit
120: detector
140: measuring unit
160: correction unit
200: storage unit
220: storage unit
240: comparison unit
260: mapping unit

Claims (10)

단위 시간 동안 이용자의 움직임에 대한 동작을 입체적 형상으로 인식하여 상기 이용자의 움직임에 대한 동작 정보를 생성하는 모션 인식 유닛;
상기 모션 인식 유닛으로부터 제공받은 상기 동작 정보와 기 저장된 상기 이용자의 등록 움직임을 비교 처리하여 예정된 프로그램 동작에 대응하는 제어 신호를 생성하는 처리 유닛;
다수의 버튼이 구비되고 각각의 상기 버튼의 누름에 따라 상기 예정된 프로그램 동작에 대응하는 버튼 제어 신호를 생성하는 컨트롤 패드; 및
상기 제어 신호 및 상기 버튼 제어 신호를 포함하는 동작 제어 신호에 응답하여 상기 예정된 프로그램 동작을 수행하는 기기를 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
A motion recognition unit recognizing a motion of the user's motion in a three-dimensional shape for a unit time to generate motion information on the motion of the user;
A processing unit which compares the operation information provided from the motion recognition unit with a pre-stored registration movement of the user and generates a control signal corresponding to a predetermined program operation;
A control pad provided with a plurality of buttons and generating a button control signal corresponding to the predetermined program operation according to pressing of each button; And
And a device that performs the predetermined program operation in response to an operation control signal including the control signal and the button control signal.
System that can control device through motion recognition.
제1 항에 있어서,
상기 모션 인식 유닛은
센서를 통해 상기 단위 시간에 대한 상기 이용자의 동작 정보를 검출하여 동작 데이터로 생성하여 상기 처리 유닛으로 제공하는 검출부를 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 1,
The motion recognition unit
A detection unit configured to detect motion information of the user with respect to the unit time through a sensor to generate motion data and provide the motion data to the processing unit;
System that can control device through motion recognition.
제2 항에 있어서,
상기 처리 유닛은
상기 모션 인식 유닛을 통해 수신 받은 상기 동작 데이터를 저장하는 저장부; 및
상기 모션 인식 유닛을 통해 수신 받은 상기 동작 데이터가 상기 저장부에 기 저장된 상기 등록 움직임에 대한 동작 데이터인지 비교하여 상기 제어 신호를 상기 기기로 제공하는 여부를 판단하는 비교부를 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 2,
The processing unit
A storage unit which stores the motion data received through the motion recognition unit; And
And a comparison unit to determine whether to provide the control signal to the device by comparing whether the motion data received through the motion recognition unit is motion data for the registered motion previously stored in the storage unit.
System that can control device through motion recognition.
삭제delete 제1 항에 있어서,
상기 처리 유닛은
동작 데이터와 상기 버튼 제어 신호를 매핑하는 매핑부를 더 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 1,
The processing unit
Further comprising a mapping unit for mapping the operation data and the button control signal
System that can control device through motion recognition.
제3 항에 있어서,
상기 모션 인식 유닛은
상기 검출부와 상기 이용자의 이격된 거리를 측정하는 측정부를 더 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 3, wherein
The motion recognition unit
Further comprising a measuring unit for measuring the separated distance of the detection unit and the user
System that can control device through motion recognition.
제6 항에 있어서,
상기 모션 인식 유닛은
상기 측정된 상기 이용자의 거리 간격에 따라 상기 동작 데이터의 비율을 보정하는 보정부를 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 6,
The motion recognition unit
And a correction unit configured to correct the ratio of the operation data according to the measured distance interval of the user.
System that can control device through motion recognition.
제5 항에 있어서,
상기 모션 인식 유닛은
상기 이용자가 상기 다수의 버튼 중 적어도 하나를 누르고 있는 동안에 상기 이용자의 동작을 검출하여 동작 데이터로 생성하고,
상기 처리 유닛은
해당하는 버튼에 대한 상기 버튼 제어 신호와 상기 동작 데이터를 상기 매핑부를 통해 매핑하여 상기 동작 제어 신호를 생성하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 5,
The motion recognition unit
Detect the motion of the user while generating the motion data while the user presses at least one of the plurality of buttons,
The processing unit
Generating the operation control signal by mapping the button control signal and the operation data for the corresponding button through the mapping unit;
System that can control device through motion recognition.
제3 항에 있어서,
상기 처리 유닛은
생성된 상기 동작 제어 신호를 각각의 이용자별로 그룹핑하여 상기 저장부에 저장하는
모션 인식을 통해 기기를 제어 가능한 시스템.
The method of claim 3, wherein
The processing unit
The operation control signals generated are grouped for each user and stored in the storage unit.
System that can control the device through motion recognition.
삭제delete
KR1020170139589A 2017-10-25 2017-10-25 Apparatus for controlling based on motion recognition system KR102022530B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170139589A KR102022530B1 (en) 2017-10-25 2017-10-25 Apparatus for controlling based on motion recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170139589A KR102022530B1 (en) 2017-10-25 2017-10-25 Apparatus for controlling based on motion recognition system

Publications (2)

Publication Number Publication Date
KR20190046243A KR20190046243A (en) 2019-05-07
KR102022530B1 true KR102022530B1 (en) 2019-11-04

Family

ID=66656532

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170139589A KR102022530B1 (en) 2017-10-25 2017-10-25 Apparatus for controlling based on motion recognition system

Country Status (1)

Country Link
KR (1) KR102022530B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220045926A (en) 2020-10-06 2022-04-13 (주)엘엑스하우시스 Smart kitchen system
CN116208705A (en) * 2023-04-24 2023-06-02 荣耀终端有限公司 Equipment abnormality recovery method and electronic equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120000807A (en) 2010-06-28 2012-01-04 주식회사 셀런 Apparatus for controlling digital device based on motion recognition and method thereof
US20130159939A1 (en) 2011-10-12 2013-06-20 Qualcomm Incorporated Authenticated gesture recognition
KR20150092996A (en) * 2014-02-06 2015-08-17 삼성전자주식회사 display applaratus and method for controlling the electronic device using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220045926A (en) 2020-10-06 2022-04-13 (주)엘엑스하우시스 Smart kitchen system
KR20220045922A (en) 2020-10-06 2022-04-13 (주)엘엑스하우시스 Smart kitchen system
CN116208705A (en) * 2023-04-24 2023-06-02 荣耀终端有限公司 Equipment abnormality recovery method and electronic equipment
CN116208705B (en) * 2023-04-24 2023-09-05 荣耀终端有限公司 Equipment abnormality recovery method and electronic equipment

Also Published As

Publication number Publication date
KR20190046243A (en) 2019-05-07

Similar Documents

Publication Publication Date Title
KR100630806B1 (en) Command input method using motion recognition device
US10503373B2 (en) Visual feedback for highlight-driven gesture user interfaces
CN105320275B (en) The method of wearable device and operation wearable device
DK2795450T3 (en) RECOGNITION OF USER GAMES
US20150185857A1 (en) User interface method and apparatus based on spatial location recognition
WO2017041433A1 (en) Touch control response method and apparatus for wearable device, and wearable device
KR20180048343A (en) Dynamic haptic generation based on detected video events
KR100688225B1 (en) Method and system for learning dance using sensor-embedded shoes and portable wireless terminal
US8928609B2 (en) Combining touch screen and other sensing detections for user interface control
CN110221683B (en) Motion detection system, motion detection method, and computer-readable recording medium thereof
CN102906786A (en) Face feature-point position correction device, face feature-point position correction method, and face feature-point position correction program
US9524057B2 (en) Portable display device and method of controlling therefor
US10140002B2 (en) Information processing apparatus, information processing method, and program
KR102022530B1 (en) Apparatus for controlling based on motion recognition system
KR20150138831A (en) Portable device for controlling external apparatus via gesture and operating method for same
US20170017303A1 (en) Operation recognition device and operation recognition method
US10065111B1 (en) Mapping user interactions with a controller to a hand position
US7999957B2 (en) Input position setting method, input position setting device, input position setting program, and information input system
KR20130115750A (en) Method for recognizing key input on a virtual keyboard and apparatus for the same
US10452262B2 (en) Flexible display touch calibration
US20170199586A1 (en) Gesture control method for interacting with a mobile or wearable device utilizing novel approach to formatting and interpreting orientation data
CN103984407A (en) Method and apparatus for performing motion recognition using motion sensor fusion
CN113459701B (en) Intelligent correction pen and correction method
US20170199587A1 (en) Method for correcting motion sensor-related errors while interacting with mobile or wearable devices
KR20170121915A (en) Method and System for Painting using Smart Pen

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right