KR102022530B1 - Apparatus for controlling based on motion recognition system - Google Patents
Apparatus for controlling based on motion recognition system Download PDFInfo
- Publication number
- KR102022530B1 KR102022530B1 KR1020170139589A KR20170139589A KR102022530B1 KR 102022530 B1 KR102022530 B1 KR 102022530B1 KR 1020170139589 A KR1020170139589 A KR 1020170139589A KR 20170139589 A KR20170139589 A KR 20170139589A KR 102022530 B1 KR102022530 B1 KR 102022530B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- unit
- user
- control signal
- motion recognition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 모션 인식을 통해 기기 제어가 가능한 시스템에 관한 것으로, 단위 시간 동안 이용자의 움직임에 대한 동작을 입체적 형상으로 인식하여 상기 이용자의 움직임에 대한 동작 정보를 생성하는 모션 인식 유닛; 상기 모션 인식 유닛으로부터 제공받은 상기 동작 정보와 기 저장된 상기 사용자의 등록 움직임을 비교 처리하여 동작 제어 신호를 생성하는 처리 유닛; 및 상기 동작 제어 신호에 응답하여 예정된 프로그램 동작을 수행하는 기기를 포함함으로써 사용자가 원하는 모션으로 기기를 제어 가능하다.The present invention relates to a system capable of controlling a device through motion recognition, comprising: a motion recognition unit generating motion information on a user's motion by recognizing a motion of the user's motion in a three-dimensional shape for a unit time; A processing unit which compares the motion information received from the motion recognition unit with a pre-stored registration motion of the user to generate an motion control signal; And a device that performs a predetermined program operation in response to the operation control signal, thereby controlling the device in a desired motion by the user.
Description
본 발명은 모션 인식을 통해 기기 제어가 가능한 시스템에 관한 것이다. 더욱 상세하게는 3차원 또는 4차원 움직임에 대한 이용자 동작을 모션 인식을 통해 기기 제어가 가능한 시스템에 관한 것이다.The present invention relates to a system capable of controlling a device through motion recognition. More particularly, the present invention relates to a system capable of controlling a device through motion recognition of user motion of three-dimensional or four-dimensional motion.
일반적으로, 디지털 TV 또는 게임기와 같은 디지털 디바이스는 해당 디지털 디바이스의 제어를 용이하게 하기 위한 제어 수단이 제공되고 있다. 또한 디지털 디바이스의 기능이 다양해 지면서, 디지털 디바이스의 기능을 보다 효과적으로 제어 및 활용하고 사용자의 편의성을 높이기 위해 제어 수단 역시 다양하게 변형되어 제공되어 있다.In general, a digital device such as a digital TV or a game machine is provided with control means for facilitating control of the digital device. In addition, as the functions of the digital devices are diversified, various control means are also provided in various ways to more effectively control and utilize the functions of the digital devices and to increase user convenience.
기존에는 디지털 디바이스를 제어하던 제어 수단이 마우스, 키보드, 리모컨 또는 조이스틱 등이 사용되었으며, 현재에는 디지털 디바이스 및 제어 수단에 각종 센서가 구비되어 사용자의 모션을 인식하여 해당 디지털 기기를 제어는 방식이 제공된다.Conventionally, the control means that used to control digital devices are mouses, keyboards, remote controls or joysticks. Currently, various sensors are provided on the digital devices and control means to recognize the user's motion and control the corresponding digital devices. do.
리모컨에 구비된 버튼을 통한 키 입력이 아닌 리모컨의 움직임에 의해 사용자가 해당 디지털 디바이스를 제어할 수 있으며, 이러한 형태의 제어 방식을 통해 TV를 편리하게 제어하거나 게임을 좀 더 사실적이고 다양하게 즐길 수 있다.The user can control the corresponding digital device by the movement of the remote control rather than the key input through the buttons provided on the remote control, and this type of control method can conveniently control the TV or play the game more realistically and variously. have.
PC 또한 기존의 마우스 및 키보드를 통한 제어 방식이 아닌 사용자가 마우스를 공중에서 움직이는 에어 마우스를 통해 PC를 제어함으로써 기존의 마우스 패드 위에서 2차원 이동으로 제어하던 방식에서 3차원 이동을 통해 제어 PC의 제어가 가능할 수 있게 되었다. 즉, 디지털 디바이스를 기존의 방식이 아닌 이용자의 모션을 통해 제어가 가능할 수 있다.The PC also controls the PC through three-dimensional movement in the way that the user controls the PC through the air mouse moving the mouse in the air, rather than the control method through the conventional mouse and keyboard. Has become possible. That is, the digital device may be controlled through the motion of the user rather than the conventional method.
그러나, 모션 인식을 통해 디지털 디바이스를 제어하기 위해서는 디지털 디바이스를 제어하기 위한 수단을 항상 손에 쥐고 있는 상태에서만 가능하다는 제한이 있다.However, in order to control the digital device through motion recognition, there is a limitation that it is possible only when the means for controlling the digital device are always in the hands.
뿐만 아니라 해당 디지털 디바이스의 제어 수단은 초기 설정된 입력값을 추가하거나 변경이 불가능하며, 사용자가 이미 설정된 모션을 기억하고 디지털 디바이스를 제어해야 한다는 불편함이 있다.In addition, the control means of the corresponding digital device cannot add or change the initially set input value, and there is an inconvenience in that the user should remember the already set motion and control the digital device.
또한, 디지털 디바이스와 해당 디지털 디바이스를 제어하는 수단 각각에 모션 인식이 가능한 센서가 설치되어야 하기 때문에 비용이 증가하는 불편함이 있다.In addition, since a sensor capable of motion recognition must be installed in each of the digital device and the means for controlling the digital device, there is an inconvenience in that the cost increases.
즉, 디지털 디바이스를 모션 인식을 통해 제어함에 있어서 여러가지 한계가 있다.That is, there are various limitations in controlling the digital device through motion recognition.
한편, 본 발명과 관련된 선행기술로는 대한민국 공개특허공보 제10-2016-0039298호 및 대한민국 공개특허공보 제10-2012-0000807호가 있다.On the other hand, the prior art related to the present invention is Republic of Korea Patent Publication No. 10-2016-0039298 and Republic of Korea Patent Publication No. 10-2012-0000807.
따라서, 종래의 문제점을 해결하기 위한 것으로, 본 발명은 사용자가 원하는 모션을 통해 디바이스를 제어할 수 있는 모션 인식을 통해 기기 제어가 가능한 시스템을 제공하는데 그 목적이 있다.Accordingly, an object of the present invention is to provide a system capable of controlling a device through motion recognition capable of controlling a device through a user's desired motion.
본 발명은 사용자가 디바이스를 제어하기 위한 제어 신호를 추가할 수 있는 모션 인식을 통해 기기 제어가 가능한 시스템을 제공하는데 그 목적이 있다.It is an object of the present invention to provide a system capable of controlling a device through motion recognition in which a user can add a control signal for controlling a device.
본 발명은 시간 정보 및 입체적 형상의 동작 정보를 통해 제어함으로써 사용자 각각의 개인화 설정되는 모션 인식을 통해 기기 제어가 가능한 시스템을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a system capable of controlling a device through a user's personalized motion recognition by controlling through time information and three-dimensional shape motion information.
본 발명의 해결과제는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기 본 발명의 목적들 및 다른 특징들을 달성하기 위한 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 단위 시간 동안 이용자의 움직임에 대한 동작을 입체적 형상으로 인식하여 상기 이용자의 움직임에 대한 동작 정보를 생성하는 모션 인식 유닛; 상기 모션 인식 유닛으로부터 제공받은 상기 동작 정보와 기 저장된 상기 사용자의 등록 움직임을 비교 처리하여 동작 제어 신호를 생성하는 처리 유닛; 및 상기 동작 제어 신호에 응답하여 예정된 프로그램 동작을 수행하는 기기를 포함하는 것이 바람직하다.The system capable of controlling the device through the motion recognition of the present invention for achieving the objects and other features of the present invention recognizes the motion of the user's movement in a three-dimensional shape for a unit time to obtain the motion information of the user's movement. A motion recognition unit for generating; A processing unit which compares the motion information received from the motion recognition unit with a pre-stored registration motion of the user to generate an motion control signal; And a device for performing a predetermined program operation in response to the operation control signal.
본 발명에 있어서 상기 모션 인식 유닛은 센서를 통해 상기 단위 시간에 대한 상기 이용자의 동작 정보를 검출하여 동작 데이터로 생성하여 상기 처리 유닛으로 제공하는 검출부를 포함하는 것이 바람직하다.In the present invention, the motion recognition unit preferably includes a detection unit that detects the motion information of the user for the unit time through a sensor to generate the motion data to provide to the processing unit.
본 발명에 있어서 처리 유닛은 상기 모션 인식 유닛을 통해 수신 받은 상기 동작 데이터를 저장하는 저장부; 및 상기 모션 인식 유닛을 통해 수신 받은 상기 동작 데이터가 상기 저장부에 저장된 상기 동작 데이터인지 비교하여 상기 동작 제어 신호를 상기 기기로 제공하는 여부를 판단하는 비교부를 포함하는 것이 바람직하다.In the present invention, the processing unit includes a storage unit for storing the motion data received through the motion recognition unit; And a comparing unit to determine whether to provide the operation control signal to the device by comparing whether the operation data received through the motion recognition unit is the operation data stored in the storage unit.
본 발명에 있어서 다수의 버튼이 구비되어 상기 기기에 연결되고, 각각의 상기 버튼의 누름에 따라 발생하는 버튼 제어 신호로 상기 기기를 제어하는 컨트롤 패드를 더 포함하는 것이 바람직하다.In the present invention, a plurality of buttons are provided to be connected to the device, it is preferable to further include a control pad for controlling the device with a button control signal generated by pressing each of the buttons.
본 발명에 있어서 상기 처리 유닛은 상기 동작 데이터와 상기 버튼 제어 신호를 매핑하는 매핑부를 더 포함하는 것이 바람직하다.In the present invention, the processing unit preferably further includes a mapping unit for mapping the operation data and the button control signal.
본 발명에 있어서 상기 모션 인식 유닛은 상기 검출부와 상기 이용자의 이격된 거리를 측정하는 측정부를 더 포함하는 것이 바람직하다.In the present invention, the motion recognition unit preferably further includes a measurement unit for measuring the distance between the detection unit and the user.
본 발명에 있어서 상기 모션 인식 유닛은 상기 측정된 상기 이용자의 거리 간격에 따라 상기 동작 데이터의 비율을 보정하는 보정부를 포함하는 것이 바람직하다.In the present invention, the motion recognition unit preferably includes a correction unit for correcting the ratio of the motion data according to the measured distance interval of the user.
본 발명에 있어서 상기 모션 인식 유닛은 상기 이용자가 상기 다수의 버튼 중 적어도 하나를 누르고 있는 동안에 상기 이용자의 동작을 검출하여 동작 데이터로 생성하고, 상기 처리부는 해당하는 버튼에 대한 상기 버튼 제어 신호와 상기 동작 데이터를 상기 매핑부를 통해 매핑하여 상기 동작 제어 신호를 생성하는 것이 바람직하다.In the present invention, the motion recognition unit detects the user's motion while generating the motion data while the user presses at least one of the plurality of buttons, and the processing unit generates the button control signal for the corresponding button and the It is preferable to generate the motion control signal by mapping motion data through the mapping unit.
본 발명에 있어서 상기 처리부는 생성된 상기 동작 제어 신호를 각각의 이용자별로 그룹핑하여 상기 저장부에 저장하는 것이 바람직하다.In the present invention, it is preferable that the processing unit group the generated operation control signals for each user and store them in the storage unit.
본 발명에 있어서 다수의 버튼이 구비되고, 각각의 상기 버튼의 누름에 따라 버튼 제어를 생성하는 컨트롤 패드; 단위 시간 동안 이용자의 움직임에 대한 동작을 입체적 형상으로 인식하여 상기 이용자의 움직임에 대한 동작 정보를 생성하는 모션 인식 유닛; 상기 동작 정보를 기초로 상기 버튼에 대응하지 않는 새로운 동작 제어 신호를 생성하는 처리 유닛; 및 상기 버튼 제어 신호 또는 상기 동작 제어 신호에 응답하여 예정된 프로그램 동작을 수행하는 기기를 포함하는 것이 바람직하다.In the present invention, a plurality of buttons are provided, the control pad for generating a button control in accordance with the pressing of each button; A motion recognition unit recognizing an operation of the user's movement in a three-dimensional shape for a unit time to generate motion information of the user's movement; A processing unit for generating a new operation control signal not corresponding to the button based on the operation information; And a device for performing a predetermined program operation in response to the button control signal or the operation control signal.
본 발명에 따른 모션 인식을 통해 기기 제어가 가능한 시스템은 다음과 같은 효과를 제공한다.A system capable of controlling a device through motion recognition according to the present invention provides the following effects.
본 발명은 디바이스를 제어하기 위한 모션을 사용자가 원하는 모션으로 추가함으로써 디바이스 자체에 등록된 모션을 외우지 않고도 자유로운 디바이스 제어가 가능하다.The present invention enables free device control without memorizing a motion registered in the device itself by adding a motion for controlling the device as a motion desired by the user.
본 발명은 시간 정보 및 입체적 형상의 동작 정보를 통해 제어함으로써 사용자의 식별이 가능하고, 사용별로 모션 등록을 그룹핑함으로써 개인화 설정이 가능하다.According to the present invention, the user can be identified by controlling the time information and the motion information of the three-dimensional shape, and the personalization can be set by grouping the motion registration for each use.
본 발명은 게임 패드 버튼을 상용하지 않고 모션으로 게임을 제어함으로써 더욱 실감나게 게임을 진행할 수 있으며, 동시에 두 개수 이상의 버튼 조합을 하나의 모션으로 제어 가능함으로써 조작이 용이하다.The present invention can proceed the game more realistically by controlling the game in motion without using game pad buttons, and it is easy to operate by controlling two or more button combinations in one motion at the same time.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템을 설명하기 위한 개략도.
도 2는 본 발명의 실시예에 모션 인식을 통해 기기 제어가 가능한 시스템을 설명하기 위한 블록도.
도 3은 본 발명의 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템의 동작 제어 신호를 설명하기 위한 블록.
도 4는 본 발명의 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템의 동작 제어 신호를 생성하는 방법을 설명하기 위한 블록도 이다.
도 5는 본 발명의 다른 실시에에 따른 모션 인식을 통해 기기 제어가 가능한 시스템을 설명하기 위한 블록도. 1 is a schematic diagram illustrating a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
2 is a block diagram illustrating a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
3 is a block diagram illustrating an operation control signal of a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
4 is a block diagram illustrating a method of generating an operation control signal of a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
5 is a block diagram illustrating a system capable of controlling a device through motion recognition according to another embodiment of the present invention.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as limited by the embodiments described in the text. That is, since the embodiments may be variously modified and may have various forms, the scope of the present invention should be understood to include equivalents capable of realizing the technical idea. In addition, the objects or effects presented in the present invention does not mean that a specific embodiment should include all or only such effects, the scope of the present invention should not be understood as being limited thereby.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present application should be understood as follows.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are intended to distinguish one component from another component, and the scope of rights should not be limited by these terms. For example, the first component may be named a second component, and similarly, the second component may also be named a first component.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" to another component, it should be understood that there may be other components in between, although it may be directly connected to the other component. On the other hand, when a component is referred to as being "directly connected" to another component, it should be understood that there is no other component in between. On the other hand, other expressions describing the relationship between the components, such as "between" and "immediately between" or "neighboring to" and "directly neighboring to", should be interpreted as well.
단수의 표현은 문맥상 명백히 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as "comprise" or "have" refer to a feature, number, step, operation, component, part, or feature that is implemented. It is to be understood that the combination is intended to be present and does not exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, an identification code (e.g., a, b, c, etc.) is used for convenience of description, and the identification code does not describe the order of the steps, and each step clearly indicates a specific order in context. Unless stated otherwise, they may occur out of the order noted. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Generally, the terms defined in the dictionary used are to be interpreted to coincide with the meanings in the context of the related art, and should not be interpreted as having ideal or excessively formal meanings unless clearly defined in the present application.
이하 본 발명의 바람직한 실시 예에 따른 모션 인식을 통해 제어 가능한 시스템에 대하여 도 1을 통해 상세히 설명한다.Hereinafter, a system that can be controlled through motion recognition according to an exemplary embodiment of the present invention will be described in detail with reference to FIG. 1.
도 1은 본 발명의 실시예에 따른따른 모션 인식을 통해 제어 가능한 시스템을 설명하기 위한 개략도 이고, 도 2는 본 발명의 실시예에 따른 모션 인식을 통해 제어 가능한 시스템을 설명하기 위한 블록도 이고, 도 3은 본 발명의 실시예에 따른 모션 인식을 통해 제어 가능한 시스템의 동작 제어 신호(GS)를 설명하기 위한 블록이다.1 is a schematic diagram illustrating a system controllable through motion recognition according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a system controllable through motion recognition according to an embodiment of the present invention. 3 is a block diagram illustrating an operation control signal GS of a system that can be controlled through motion recognition according to an exemplary embodiment of the present invention.
도 1 내지 도 3을 참고하면, 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 모션 인식 유닛(100)과 처리 유닛(200)과 기기(10) 포함한다.1 to 3, a system capable of controlling a device through motion recognition according to the present invention includes a
모션 인식 유닛(100)과 처리 유닛(200)은 단위 시간 동안 이용자(U)의 움직임에 대한 동작을 인식하고 이용자(U)의 동작에 응답하는 동작 제어 신호(GS)를 생성하기 위한 것으로, 생성된 동작 제어 신호(GS)를 통해 별도의 조작 수단 없이 이용자(U)의 동작을 통해 기기(10)를 제어할 수 있다.The
기기(10)는 디지털 게임기, TV 또는 컴퓨터와 같은 디지털 기기(10)가 될 수 있으며, 이와 같은 기기(10)는 리모콘, 조작 패드, 마우스 등과 같은 별도의 조작 수단을 통해 제어 신호에 응답하여 프로그램 동작을 수행할 수 있다.The
뿐만 아니라 기기(10)는 동작 제어 신호(GS)에 응답하여 예정된 프로그램 동작을 수행할 수 있다. 그리고, 모션 인식 유닛(100)과 처리 유닛(200)은 위에서 설명한 기기(10)의 내부에 배치되거나 인접한 위치에 배치되어 이용자(U)의 동작에 따라 해당 기기(10)를 제어할 수 있다.In addition, the
모션 인식 유닛(100)은 동작 제어 신호(GS)의 기초가 되는 단위 시간 동안 이용자(U)의 움직임에 대한 동작을 입체적 형상으로 인식할 수 있다. 모션 인식 유닛(100)을 통해 인식된 이용자(U)의 움직임 동작에 대한 입체적 형상은 동작 정보로 생성되어 처리 유닛(200)으로 제공될 수 있다.The
모션 인식 유닛(100)은 다수의 센서를 통해 단위 시간에 대한 이용자의 동작 정보를 검출하여 동작 데이터(GD)로 생성하여 처리 유닛(200)으로 제공하는 검출부(120)를 포함할 수 있다.The
검출부(120)는 다수의 센서를 통해 이용자(U)의 동작을 입체적 형상으로 인식함으로써 동작 데이터(GD)를 획득할 수 있다. 참고로, 검출부(120)의 센서는 모션 인식에 사용되는 자이로 센서(Gyroscope), 지자기 센서(Geo-Magnetic Sensor), 가속도 센서(accelerometer) 및 뎁스 영상 센서 (Depth Camera) 등이 사용되며, 센서의 종류는 이에 한정하지 않는다.The
예컨대, 자이로 센서는 이용자(U)의 동작의 한 축 또는 여러 축의 회전 움직임의 각 변화량을 측정하고, 지자기 센서는 지자계를 이용하여 이용자(U) 동작의 방향을 측정하기 위해 사용된다. 가속도 센서는 이용자(U) 동작의 선형 가속도와 기울임 각도를 측정할 수 있다. 또한, 뎁스 영상 센서는 이용자의 단위 시간 동안 움직임에 대한 동작 정보를 측정할 수 있다.For example, the gyro sensor measures the amount of change in the rotational movement of one axis or several axes of the user U's motion, and the geomagnetic sensor is used to measure the direction of the user U motion using a geomagnetic field. The acceleration sensor may measure linear acceleration and tilt angle of the user U motion. In addition, the depth image sensor may measure motion information regarding movement of the user during unit time.
모션 인식 유닛(100)에서 생성된 동작 데이터(GD)는 단위 시간 동안 이용자의 움직임을 검출하기 때문에 입체적 형상의 3차원에 시간의 흐름을 더한 4차원의 동작 데이터(GD)로 생성될 수 있다. 참고로, 모션 인식 유닛(100)은 이용자(U)의 움직임이 정지된 상태에서도 이용자(U)의 동작을 4차원의 동작 정보로 생성할 수 있다.Since the motion data GD generated by the
모션 인식 유닛(100)은 측정부(140)와 측정된 거리 간격에 따라 동작 데이터(GD)의 비율을 보정하는 보정부(160)를 더 포함할 수 있다. The
측정부(140)는 검출부(120)로부터 이격된 이용자(U)의 거리 간격을 측정할 수 있다. 예컨대, 검출부(120)가 이용자(U)가 동작을 검출할 때 검출부(120)와 이용자(U)의 거리 간격을 측정하고, 측정된 거리 간격은 이후 이용자(U)가 동일한 동작을 취할 때 거리 간격에 따라 동작 데이터(GD)를 보정할 때 쓰임으로써 검출부(120)가 보다 정확하게 동작 데이터(GD)를 생성하도록 할 수 있다.The
보정부(160)는 검출부(120)와 측정부(140)로부터 각각 동작 데이터(GD)와 거리 간격을 제공 받고 동일한 동작 데이터(GD)가 측정된 거리 간격이 다를 경우 동작 데이터(GD)의 비율을 보정하여 다른 거리에서 검출된 동작 데이터(GD)도 동일한 크기의 동작 데이터(GD)로 보정할 수 있다.The
예를 들면, 검출부(120)로부터 1미터의 거리로 떨어진 이용자가 주먹을 쥔 동작에 대한 동작 데이터(GD)와 검출부(120)로부터 3미터의거리로 떨어진 이용자가 주먹을 쥔 동작에 대한 동작 데이터(GD)는 동일한 동작이지만 거리 간격으로 인해 크기가 달라짐으로써 다른 동작 데이터(GD)로 인식되거나 멀리 떨어진 동작은 세세한 동작을 인식하기 힘들어 질 수 있다.For example, motion data (GD) of the user's fist punched away from the
이때, 보정부(160)는 서로 차이가 있는 거리 간격에 대한 동작 데이터(GD), 즉, 3미터의 거리로 떨어진 이용자의 동작에 대한 동작 데이터(GD)를 1미터 간격으로 떨어진 이용자의 동작 데이터(GD)와 동일한 크기로 확대하여 보정할 수 있다.At this time, the
즉, 모션 인식 유닛(100)은 인식할 수 있는 범위 내에서 이용자(U)가 서로 다른 위치에서 동작을 하더라도 보정부(160)를 통해 이용자의 동작 데이터(GD)의 비율을 보정하여 보다 정확한 동작 데이터(GD)를 생성할 수 있다.In other words, even if the user U operates at different positions within the recognizable range, the
처리 유닛(200)은 모션 인식 유닛(100)으로부터 제공받은 동작 정보와 기 저장된 사용자의 등록 움직임을 비교 처리하여 동작 제어 신호(GS)를 생성하기 위해 저장부(220)와 비교부(240)를 포함할 수 있다. 여기서, 등록 움직임은 동작 제어 신호(GS)를 초기 설정할 때 기초가 되는 이용자(U)의 동작 정보로서 동작 데이터(GD)로 생성되어 저장부(220)에 저장될 수 있다.The
저장부(220)는 모션 인식 유닛(100)에서 제공된 동작 데이터(GD)와 동작 데이터(GD)를 기초로 생성된 동작 제어 신호(GS)를 저장할 수 있다. 저장된 동작 제어 신호(GS)는 이용자별로 그룹핑하여 저장할 수 있으며 도 4를 설명할 때 다시 설명하기로 한다.The
비교부(240)는 모션 인식 유닛(100)에서 제공 받은 동작 데이터(GD)가 기 저장된 등록 움직임에 대한 동작 데이터(GD)인지 비교하여 기 설정된 동작 제어 신호(GS)에 대한 동작 데이터(GD)인지 새로 설정되기 위한 동작 데이터(GD)인지 판단할 수 있다. The
예를 들면, 비교부(240)는 수신된 동작 데이터(GD)가 저장부(220)에 기 저장된 등록 움직임에 대한 동작 데이터(GD)라면 기 설정되어 저장된 동작 제어 신호에 대한 동작 데이터(GD)로 판단하고, 수신된 동작 데이터(GD)가 저장부(220)에 저장되지 않은 동작 데이터(GD)라면 해당 동작 데이터(GD)를 통해 동작 제어 신호를 생성해야 한다고 판단할 수 있다.For example, if the received motion data GD is motion data GD for a registered motion previously stored in the
처리 유닛(200)은 비교부(240)를 통해 동작 제어 신호(GS)를 생성해야 한다고 판단되면 제공된 동작 데이터(GD)를 기초로 생성부(미도시)를 통해 동작 제어 신호를 생성할 수 있다. 참고로, 동작 데이터(GD)가 기 설정되어 저장된 동작 제어 신호에 대한 동작 데이터(GD)라면 동작 제어 신호를 생성하지 않고 저장된 동작 제어 신호를 기기로 제공할 수 있다.If it is determined that the operation control signal GS is to be generated through the comparing
즉, 처리 유닛(200)은 동작 제어 신호(GS)가 생성된 이후에 동일한 동작 데이터(GD)가 모션 인식 유닛(100)으로부터 제공되면 해당하는 동작 데이터(GD)에 응답하여 저장되었던 동작 제어 신호(GS)를 통해 기기(10)를 제어할 수 있다. 그리고, 처리 유닛(200)은 모션 인식 유닛(100)으로부터 동작 데이터(GD)를 제공 받았을 때, 제공 받은 동작 데이터(GD)가 기 등록된 동작 데이터(GD)가 아니면 제공 받은 동작 데이터(GD)를 기초로 새로운 동작 제어 신호(GS)를 생성할 수 있다.That is, if the same operation data GD is provided from the
또한, 처리 유닛(200)은 인공지능을 통해 이용자(U)가 동작을 취할 때의 환경을 학습하여 동작 제어 신호(GS)를 생성할 수 있다. 일 예로, 처리 유닛(200)은 이용자(U) 동작에 대한 동작 제어 신호(GS)를 다수개 생성하면서 동작 데이터(GD)의 여러 가지 환경, 즉, 설정 당시의 주변 밝기 또는 이용자(U) 동작의 속도 등을 학습할 수 있다.In addition, the
예를 들어, 처리 유닛(200)은 이용자가(U) 동작을 취할 때 마다 동작 속도가 조금씩 다를 수 있으며, 이때 처리 유닛(200)은 기존의 동작 데이터(GD)를 통해 이용자(U) 동작속도 변화를 학습하고 학습된 정보를 통해 이용자(U)의 동작 속도에 약간의 차이가 있더라도 오류 없이 동작 제어 신호(GS)를 생성할 수 있다. For example, the
이용자(U)가 동작 제어 신호(GS)를 생성하는 단계는 이용자(U)가 선택적으로 설정 할 수 있으며, 기기(10)를 처음 실행하는 초기 단계에서 별도의 과정을 통해 이용자(U)의 동작을 동작 제어 신호(GS)로 생성할 수 있다. The step of generating the operation control signal GS by the user U may be selectively set by the user U. The operation of the user U may be performed through a separate process in an initial step of initially executing the
또한, 이용자(U)가 동작 제어 신호(GS)를 초기 단계가 아닌 기기(10)를 실행하고 있는 중간에 설정할 수 있으며, 이와 같이 기기(10) 실행 중간에 동작 제어 신호(GS)를 설정하는 방법은 아래에서 다시 설명하기로 한다.In addition, the user U may set the operation control signal GS in the middle of executing the
한편, 본 발명의 모션 인식 유닛을 통해 기기 제어가 가능한 시스템은 기기(10)에 연결되어 기기(10)를 제어하기 위한 컨트롤 패드(300)를 더 포함할 수 있다.Meanwhile, the system capable of controlling the device through the motion recognition unit of the present invention may further include a
컨트롤 패드(300)는 다수의 버튼이 구비되고, 각각의 버튼을 누름으로써 해당 버튼에 해당하는 버튼 제어 신호(BS)를 통해 기기(10)를 제어 할 수 있다. 여기서, 컨트롤 패드(300)는 TV를 제어하기 위한 리모콘, 게임기를 제어하기 위한 조작 패드 등이 될 수 있으며 어느 하나로 한정하지 않는다.The
처리 유닛(200)은 컨트롤 패드(300)에 구비된 버튼에 해당하는 버튼 제어 신호(BS)와 동작 데이터(GD)를 매핑하기 위한 매핑부(260)를 더 포함할 수 있다. The
매핑부(260)는 예정된 버튼이 눌려진 상태에서 검출부(120)를 통해 검출되는 동작 데이터(GD)를 눌려진 버튼에 해당하는 버튼 제어 신호와 매핑할 수 있다. 예를 들면, 컨트롤 패드의 버튼이 X, O 버튼으로 구성되었을 때 이용자는 X 버튼을 누른 상태에서 동작을 취할 수 있다.The
그리고, 이용자(U)는 X 버튼을 누른 상태에서 팔을 위 아래로 흔들면 검출부(120)를 통해 해당 동작 데이터(GD)가 생성되고, 생성된 동작 데이터(GD)와 X 버튼에 해당하는 버튼 제어 신호가 매핑될 수 있다.Then, when the user U shakes his / her arm up and down while pressing the X button, the corresponding motion data GD is generated through the
또한, 이용자(U)는 X, O 버튼을 동시 누른 상태에서 동작을 취함으로써 하나의 동작에 대한 동작 데이터(GD)와 두 개의 버튼 제어 신호가 매핑되도록 할 수 있다.In addition, the user U may perform an operation while simultaneously pressing the X and O buttons so that the operation data GD for the one operation and the two button control signals may be mapped.
다시 말해서, 버튼을 누르고 있는 시간이 이용자의 움직임에 대한 단위 시간이 되고, 매핑부(260)는 단위 시간 동안 이용자의 움직임에 대한 동작 데이터(GD)와 해당하는 버튼 제어 신호를 매핑할 수 있다. 이와 같이 버튼 제어 신호와 동작 데이터(GD)가 매핑된 동작 제어 신호는 저장부(220)에 저장되고 이용자의 동작을 통해 기기로 제공되어 기기를 제어할 수 있다.In other words, the time when the button is pressed becomes the unit time for the user's movement, and the
참고로, 처리 유닛(200)은 동작 제어 신호(GS)가 생성되면 램프 등의 디스플레이 부재를 통해 이용자(U)에게 동작 제어 신호(GS) 신호가 생성되었음을 알릴 수 있다.For reference, when the operation control signal GS is generated, the
도 4는 본 발명의 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템의 동작 제어 신호(GS)를 생성하는 방법을 설명하기 위한 블록도 이다.4 is a block diagram illustrating a method of generating an operation control signal GS of a system capable of controlling a device through motion recognition according to an embodiment of the present invention.
도 4를 참고하면, 모션 인식을 통해 기기 제어가 가능한 시스템의 처리 유닛(200)은 생성되었던 동작 데이터(GD) 또는 동작 제어 신호(GS)를 이용자(U)별로 그룹핑하여 저장할 수 있다.Referring to FIG. 4, the
위에서 언급한 바와 같이, 처리 유닛(200)은 생성되었던 동작 데이터(GD) 또는 동작 제어 신호(GS)를 이용자(U)별로 그룹핑 하여 저장부(220)에 저장하고, 이용자(U)가 기존에 생성했던 동작 제어 신호(GS)를 다시 생성할 경우 하나의 동작 제어 신호(GS)를 생성하여도 그룹핑 된 다른 동작 제어 신호(GS)가 같이 생성될 수 있다.As mentioned above, the
예를 들면, 제1 이용자(U1)는 각각의 버튼 제어 신호(BS)와 매핑된 제1 동작 제어 신호와 제2 동작 제어 신호와 제3 동작 제어 신호를 생성할 수 있다. 그리고, 기기(10)가 다시 실행되어 기 생성되었던 제1 동작 제어 신호와 제2 동작 제어 신호와 제3 동작 제어 신호가 초기화 되어 재 생성할 경우, 이용자(U)는 먼저 제1 동작 제어 신호를 생성할 수 있다.For example, the first user U1 may generate a first operation control signal, a second operation control signal, and a third operation control signal mapped to each button control signal BS. When the
처리 유닛(200)은 제1 이용자(U1)가 제1 동작 제어 신호만 생성하더라도 그룹핑된 제1 동작 제어 신호와 제2 동작 제어 신호와 제3 동작 제어 신호를 모두 재생성할 수 있다.The
이 때, 처리 유닛(200)은 제1 이용자(U1) 및 제2 이용자(U2)를 판단하기 위해 각각의 이용자(U)의 안면을 인식하기 위한 안면 인식부(미도시)를 더 포함할 수 있다. 따라서, 처리 유닛(200)은 상기와 같은 방법으로 동작 제어 신호(GS)를 학습에 의해 재 생성하거나 이용자(U)별로 그룹핑하여 재 생성할 수 있다.In this case, the
도 5는 본 발명의 다른 실시에에 따른 모션 인식을 통해 기기 제어가 가능한 시스템을 설명하기 위한 블록도 이다.5 is a block diagram illustrating a system capable of controlling a device through motion recognition according to another embodiment of the present invention.
도 5를 참고하면, 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 모션 인식 유닛(100)과 컨트롤 패드(300)와 처리 유닛(200)을 포함할 수 있다.Referring to FIG. 5, a system capable of controlling a device through motion recognition of the present invention may include a
먼저, 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 도 1 내지 도 4를 통해서 설명한 모션 인식을 통해 기기 제어가 가능한 시스템과 동일한 모션 인식 유닛(100)과 컨트롤 패드(300)와 처리 유닛(200)을 포함할 수 있다. 참고로 도면 부호는 동일하게 부여하여 설명하기로 한다.First, a system capable of controlling a device through motion recognition according to the present invention includes a
다만, 도 1 내지 도 4를 통해서 설명한 모션 인식을 통해 기기 제어가 가능한 시스템은 컨트롤 패드(300)의 버튼 제어 신호(BS)와 이용자(U)의 동작 데이터(GD)를 매핑하여 동작 제어 신호(GS)를 생성하지만, 도 5를 통한 본 발명의 다른 실시예에 따른 모션 인식을 통해 기기 제어가 가능한 시스템은 이용자(U)의 동작 데이터(GD)와 버튼 제어 신호(BS)를 매핑하지 않고 서로 다른 제어 신호로 생성하여 기기(10)를 제어할 수 있다.However, the system capable of controlling the device through the motion recognition described with reference to FIGS. 1 to 4 may map the button control signal BS of the
모션 인식 유닛(100)은 도 2와 동일한 검출부(120)와 측정부(140) 및 보정부(160)를 포함하고 포함함 할 수 있으며, 처리 유닛(200)은 저장부(220)와 비교부(240)를 포함할 수 있다. 모션 인식 유닛(100)과 처리 유닛(200)과 컨트롤 패드(300)의 중복된 설명은 생략한다.The
본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템의 기기(10)는 TV 또는 게임기 등 어느 하나의 기기(10)로 한정하지 않지만 설명의 편의를 위해 기기(10)는 게임기로 정의하여 설명한다.The
처리 유닛(200)은 전술한 바와 동일한 방법으로 모션 인식 유닛(100)에서 제공한 동작 데이터(GD)를 기초로 기기(10)를 제어하기 위한 동작 제어 신호(GS)를 생성할 수 있다. The
다만, 도 1 내지 도 4를 통해서 설명한 모션 인식을 통해 기기 제어가 가능한 시스템은 처리 유닛(200)이 버튼 제어 신호(BS)와 동작 데이터(GD)를 매핑한데 반해 본 발명의 다른 실시예인 도 5의 처리 유닛(200)은 동작 정보를 기초로 버튼에 해당하는 버튼 제어 신호를 매핑하지 않고 제 3의 동작 제어 신호(GS)를 생성할 수 있다.However, in the system capable of controlling the device through the motion recognition described with reference to FIGS. 1 to 4, the
즉, 처리 유닛(200)에서 생성된 동작 제어 신호(GS)는 컨트롤 패드(300)의 버튼 제어 신호(BS)가 매핑되지 않는 것이 바람직할 수 있다. 처리 유닛(200)은 컨트롤 패드(300)에 해당하는 다수의 버튼 제어 신호(BS)와 중복되지 않는 기기(10)를 제어하기 위한 새로운 추가 제어 신호에 해당하는 동작 제어 신호(GS)를 생성할 수 있다.That is, it may be preferable that the button control signal BS of the
예를 들면, 컨트롤 패드(300)는 X 버튼과 O버튼 등이 구비되고 각각에 해당하는 버튼 제어 신호(BS)로 기기(10)를 제어할 수 있다. 여기서, 게임기는 하나의 게임 프로그램만 실행하는 것이 아니라 다수의 게임 프로그램을 이용자(U)가 선택적으로 실행할 수 있다.For example, the
또한, 각각의 게임 프로그램은 각각의 게임 프로그램을 제어하기 위한 제어 신호의 개수가 한정되어 있으며 일반적으로 2~3개의 버튼이 구비된 컨트롤 패드(300)로 게임 프로그램을 제어할 수 있다. 참고로, 설명의 편의를 위해 컨트롤 패드(300)의 버튼은 2 개수 구비된 것으로 정의하여 설명한다.In addition, each game program has a limited number of control signals for controlling each game program, and in general, the game program may be controlled by the
이용자(U)는 2개 수의 버튼(제1 버튼 제어 신호(S1), 제2 버튼 제어 신호(S2))이 구비된 컨트롤 패드(300)를 통해 제1 게임을 제어하다가 제1 게임을 종료하고 3개 수의 버튼이 필요한 제2 게임을 실행할 수 있다. The user U controls the first game through the
제2 게임은 제1 게임과 달리 3개 수의 버튼이 구비된 컨트롤 패드(300)를 통해 제어할 수 있으며, 이용자(U)가 제2 게임을 제어하기 위해서는 제1 버튼 제어 신호(S1), 제2 버튼 제어 신호(S2) 외에 제3의 제어신호가 필요할 수 있다.Unlike the first game, the second game can be controlled through the
처리 유닛(200)은 제2 게임을 제어하기 위한 제3의 제어 신호를 이용자(U)의 동작 정보를 통한 제3 동작 제어 신호(S3)를 생성할 수 있다. 즉, 처리 유닛(200)은 제2 게임을 실행하기 위한 제3의 제어 신호를 이용자(U)의 동작 정보를 기초로 제3 동작 제어 신호(S3)를 생성하여 3 개수의 제어 신호로 제2 게임을 컨트롤 할 수 있다.The
예컨대, 이용자(U)는 제2 게임을 제어하기 위해서 제1 버튼 제어 신호(S1)와 제2 버튼 제어 신호(S2) 및 동작을 통해 제3 동작 제어 신호(S3)를 통해 제2 게임을 제어할 수 있다. 참고로, 처리 유닛(200)은 제3 동작 제어 신호(S3)를 게임 실행 초기 단계에서 미리 설정하는 것이 바람직할 수 있다.For example, the user U controls the second game through the third operation control signal S3 through the first button control signal S1 and the second button control signal S2 and the operation to control the second game. can do. For reference, the
따라서, 본 발명의 모션 인식을 통해 기기 제어가 가능한 시스템은 필요로 하는 컨트롤 패드(300)의 버튼 개수가 다른 게임을 실행할 때, 각각의 버튼 개수가 맞는 컨트롤 패드(300)로 교체하지 않고 버튼을 대체할 수 있는 추가적인 동작 제어 신호(GS)를 생성하여 게임을 제어할 수 있다.Therefore, the system capable of controlling the device through the motion recognition of the present invention, when the number of buttons of the
본 명세서에서 설명되는 실시 예와 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서, 본 명세서에 개시된 실시 예는 본 발명의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아님은 자명하다. 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The embodiments and the accompanying drawings described herein are merely illustrative of some of the technical ideas included in the present invention. Therefore, since the embodiments disclosed herein are not intended to limit the technical spirit of the present invention, but to explain, it is obvious that the scope of the technical spirit of the present invention is not limited by these embodiments. Modifications and specific embodiments that can be easily inferred by those skilled in the art within the scope of the technical idea included in the specification and drawings of the present invention should be construed as being included in the scope of the present invention.
100: 모션 인식 유닛
120: 검출부
140: 측정부
160: 보정부
200: 저장부
220: 저장부
240: 비교부
260: 매핑부100: motion recognition unit
120: detector
140: measuring unit
160: correction unit
200: storage unit
220: storage unit
240: comparison unit
260: mapping unit
Claims (10)
상기 모션 인식 유닛으로부터 제공받은 상기 동작 정보와 기 저장된 상기 이용자의 등록 움직임을 비교 처리하여 예정된 프로그램 동작에 대응하는 제어 신호를 생성하는 처리 유닛;
다수의 버튼이 구비되고 각각의 상기 버튼의 누름에 따라 상기 예정된 프로그램 동작에 대응하는 버튼 제어 신호를 생성하는 컨트롤 패드; 및
상기 제어 신호 및 상기 버튼 제어 신호를 포함하는 동작 제어 신호에 응답하여 상기 예정된 프로그램 동작을 수행하는 기기를 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
A motion recognition unit recognizing a motion of the user's motion in a three-dimensional shape for a unit time to generate motion information on the motion of the user;
A processing unit which compares the operation information provided from the motion recognition unit with a pre-stored registration movement of the user and generates a control signal corresponding to a predetermined program operation;
A control pad provided with a plurality of buttons and generating a button control signal corresponding to the predetermined program operation according to pressing of each button; And
And a device that performs the predetermined program operation in response to an operation control signal including the control signal and the button control signal.
System that can control device through motion recognition.
상기 모션 인식 유닛은
센서를 통해 상기 단위 시간에 대한 상기 이용자의 동작 정보를 검출하여 동작 데이터로 생성하여 상기 처리 유닛으로 제공하는 검출부를 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 1,
The motion recognition unit
A detection unit configured to detect motion information of the user with respect to the unit time through a sensor to generate motion data and provide the motion data to the processing unit;
System that can control device through motion recognition.
상기 처리 유닛은
상기 모션 인식 유닛을 통해 수신 받은 상기 동작 데이터를 저장하는 저장부; 및
상기 모션 인식 유닛을 통해 수신 받은 상기 동작 데이터가 상기 저장부에 기 저장된 상기 등록 움직임에 대한 동작 데이터인지 비교하여 상기 제어 신호를 상기 기기로 제공하는 여부를 판단하는 비교부를 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 2,
The processing unit
A storage unit which stores the motion data received through the motion recognition unit; And
And a comparison unit to determine whether to provide the control signal to the device by comparing whether the motion data received through the motion recognition unit is motion data for the registered motion previously stored in the storage unit.
System that can control device through motion recognition.
상기 처리 유닛은
동작 데이터와 상기 버튼 제어 신호를 매핑하는 매핑부를 더 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 1,
The processing unit
Further comprising a mapping unit for mapping the operation data and the button control signal
System that can control device through motion recognition.
상기 모션 인식 유닛은
상기 검출부와 상기 이용자의 이격된 거리를 측정하는 측정부를 더 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 3, wherein
The motion recognition unit
Further comprising a measuring unit for measuring the separated distance of the detection unit and the user
System that can control device through motion recognition.
상기 모션 인식 유닛은
상기 측정된 상기 이용자의 거리 간격에 따라 상기 동작 데이터의 비율을 보정하는 보정부를 포함하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 6,
The motion recognition unit
And a correction unit configured to correct the ratio of the operation data according to the measured distance interval of the user.
System that can control device through motion recognition.
상기 모션 인식 유닛은
상기 이용자가 상기 다수의 버튼 중 적어도 하나를 누르고 있는 동안에 상기 이용자의 동작을 검출하여 동작 데이터로 생성하고,
상기 처리 유닛은
해당하는 버튼에 대한 상기 버튼 제어 신호와 상기 동작 데이터를 상기 매핑부를 통해 매핑하여 상기 동작 제어 신호를 생성하는
모션 인식을 통해 기기 제어가 가능한 시스템.
The method of claim 5,
The motion recognition unit
Detect the motion of the user while generating the motion data while the user presses at least one of the plurality of buttons,
The processing unit
Generating the operation control signal by mapping the button control signal and the operation data for the corresponding button through the mapping unit;
System that can control device through motion recognition.
상기 처리 유닛은
생성된 상기 동작 제어 신호를 각각의 이용자별로 그룹핑하여 상기 저장부에 저장하는
모션 인식을 통해 기기를 제어 가능한 시스템.
The method of claim 3, wherein
The processing unit
The operation control signals generated are grouped for each user and stored in the storage unit.
System that can control the device through motion recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170139589A KR102022530B1 (en) | 2017-10-25 | 2017-10-25 | Apparatus for controlling based on motion recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170139589A KR102022530B1 (en) | 2017-10-25 | 2017-10-25 | Apparatus for controlling based on motion recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190046243A KR20190046243A (en) | 2019-05-07 |
KR102022530B1 true KR102022530B1 (en) | 2019-11-04 |
Family
ID=66656532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170139589A KR102022530B1 (en) | 2017-10-25 | 2017-10-25 | Apparatus for controlling based on motion recognition system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102022530B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220045926A (en) | 2020-10-06 | 2022-04-13 | (주)엘엑스하우시스 | Smart kitchen system |
CN116208705A (en) * | 2023-04-24 | 2023-06-02 | 荣耀终端有限公司 | Equipment abnormality recovery method and electronic equipment |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120000807A (en) | 2010-06-28 | 2012-01-04 | 주식회사 셀런 | Apparatus for controlling digital device based on motion recognition and method thereof |
US20130159939A1 (en) | 2011-10-12 | 2013-06-20 | Qualcomm Incorporated | Authenticated gesture recognition |
KR20150092996A (en) * | 2014-02-06 | 2015-08-17 | 삼성전자주식회사 | display applaratus and method for controlling the electronic device using the same |
-
2017
- 2017-10-25 KR KR1020170139589A patent/KR102022530B1/en active IP Right Grant
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220045926A (en) | 2020-10-06 | 2022-04-13 | (주)엘엑스하우시스 | Smart kitchen system |
KR20220045922A (en) | 2020-10-06 | 2022-04-13 | (주)엘엑스하우시스 | Smart kitchen system |
CN116208705A (en) * | 2023-04-24 | 2023-06-02 | 荣耀终端有限公司 | Equipment abnormality recovery method and electronic equipment |
CN116208705B (en) * | 2023-04-24 | 2023-09-05 | 荣耀终端有限公司 | Equipment abnormality recovery method and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
KR20190046243A (en) | 2019-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100630806B1 (en) | Command input method using motion recognition device | |
US10503373B2 (en) | Visual feedback for highlight-driven gesture user interfaces | |
CN105320275B (en) | The method of wearable device and operation wearable device | |
DK2795450T3 (en) | RECOGNITION OF USER GAMES | |
US20150185857A1 (en) | User interface method and apparatus based on spatial location recognition | |
WO2017041433A1 (en) | Touch control response method and apparatus for wearable device, and wearable device | |
KR20180048343A (en) | Dynamic haptic generation based on detected video events | |
KR100688225B1 (en) | Method and system for learning dance using sensor-embedded shoes and portable wireless terminal | |
US8928609B2 (en) | Combining touch screen and other sensing detections for user interface control | |
CN110221683B (en) | Motion detection system, motion detection method, and computer-readable recording medium thereof | |
CN102906786A (en) | Face feature-point position correction device, face feature-point position correction method, and face feature-point position correction program | |
US9524057B2 (en) | Portable display device and method of controlling therefor | |
US10140002B2 (en) | Information processing apparatus, information processing method, and program | |
KR102022530B1 (en) | Apparatus for controlling based on motion recognition system | |
KR20150138831A (en) | Portable device for controlling external apparatus via gesture and operating method for same | |
US20170017303A1 (en) | Operation recognition device and operation recognition method | |
US10065111B1 (en) | Mapping user interactions with a controller to a hand position | |
US7999957B2 (en) | Input position setting method, input position setting device, input position setting program, and information input system | |
KR20130115750A (en) | Method for recognizing key input on a virtual keyboard and apparatus for the same | |
US10452262B2 (en) | Flexible display touch calibration | |
US20170199586A1 (en) | Gesture control method for interacting with a mobile or wearable device utilizing novel approach to formatting and interpreting orientation data | |
CN103984407A (en) | Method and apparatus for performing motion recognition using motion sensor fusion | |
CN113459701B (en) | Intelligent correction pen and correction method | |
US20170199587A1 (en) | Method for correcting motion sensor-related errors while interacting with mobile or wearable devices | |
KR20170121915A (en) | Method and System for Painting using Smart Pen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |