KR20120052610A - Apparatus and method for recognizing motion using neural network learning algorithm - Google Patents

Apparatus and method for recognizing motion using neural network learning algorithm Download PDF

Info

Publication number
KR20120052610A
KR20120052610A KR1020100113851A KR20100113851A KR20120052610A KR 20120052610 A KR20120052610 A KR 20120052610A KR 1020100113851 A KR1020100113851 A KR 1020100113851A KR 20100113851 A KR20100113851 A KR 20100113851A KR 20120052610 A KR20120052610 A KR 20120052610A
Authority
KR
South Korea
Prior art keywords
category
learning
input
neural network
output
Prior art date
Application number
KR1020100113851A
Other languages
Korean (ko)
Inventor
박근주
이준행
류현석
신창우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100113851A priority Critical patent/KR20120052610A/en
Publication of KR20120052610A publication Critical patent/KR20120052610A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Abstract

PURPOSE: A motion recognition method and apparatus through nerve network learning are provided to control an electronic device through a natural motion without a special input device including a mouse by recognizing a motion of a user with a vision mode. CONSTITUTION: A data acquisition unit(110) outputs input category which is changed according to time. The data acquisition unit recognizes the location of an input inputted through an electronic device according to time and outputs trajectory in regard to the location as the input category. A characteristic extracting unit(120) reflects the input category in the coordinate system and extracts a feature vector from the input category. A classifier(130) determines output category corresponding to the feature vector by using a nerve network learning technique.

Description

신경망 학습을 통한 동작 인식 방법 및 장치{APPARATUS AND METHOD FOR RECOGNIZING MOTION USING NEURAL NETWORK LEARNING ALGORITHM}Motion recognition method and apparatus through neural network learning {APPARATUS AND METHOD FOR RECOGNIZING MOTION USING NEURAL NETWORK LEARNING ALGORITHM}

아래의 일실시예는 전자 장치의 사용자 인터페이스에 사용되는 동작 인식 기술에 있어서 연속적으로 움직이는 동작의 자동 인식 방법에 관한 것이다.One embodiment below relates to a method for automatically recognizing a continuously moving motion in a motion recognition technology used in a user interface of an electronic device.

인간의 생물학적 신경세포의 특성을 수학적 표현에 의해 모델링한 것을 '인공신경망'이라 한다. 인공신경망은 단순한 기능을 가진 무수한 처리소자들이 병렬로 연결된 연산구조를 가지고 있으며, 여러 분야에서 기존의 방법론으로는 해결하기 어려웠던 많은 부분들을 해석하는 새로운 기법으로 최근 들어 급격한 연구증가와 함께 다양한 인공신경망 모델이 등장하고 있다. 이러한 인공신경망의 형태는 크게 정적(Static) 신경망 및 동적(Dynamic) 신경망으로 구분할 수 있다.Modeling the characteristics of human biological neurons by mathematical expression is called 'artificial neural network'. The neural network has a computational structure in which numerous processing elements with simple functions are connected in parallel, and it is a new technique that solves many parts that have been difficult to solve by existing methodologies in various fields. Is emerging. The artificial neural network can be classified into a static neural network and a dynamic neural network.

본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 장치는 시간에 따라 변화하는 입력 카테고리를 출력하는 데이터 획득부, 상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 특징 추출부, 및 신경망 학습 기법을 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 분류부를 포함한다.An apparatus for recognizing motion through neural network learning according to an embodiment of the present invention includes a data acquisition unit for outputting an input category that changes with time, a feature extractor for extracting feature vectors from the output category, and a neural network learning technique. And a classification unit to determine an output category corresponding to the extracted feature vector.

상기 데이터 획득부는 전자장치를 통해 입력되는 입력의 위치를 시간에 따라 인식하고, 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력할 수 있다.The data acquisition unit may recognize a position of an input input through the electronic device over time, and output a trajectory for the position according to the recognized time as the input category.

상기 데이터 획득부는 상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행하여 상기 입력 카테고리를 출력할 수 있다.The data acquirer may output the input category by performing a preprocessing process on an input having no change in position over time.

상기 특징 추출부는 상기 출력된 입력 카테고리를 좌표계에 반영하여, 시간에 따라 변화하는 상대적 변화량을 상기 특징 벡터로서 출력할 수 있다.The feature extractor may output the relative change amount changing with time as the feature vector by reflecting the output input category in a coordinate system.

상기 분류부는 정적 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산하고, 계산된 상관도를 이용하여 상기 출력 카테고리를 결정할 수 있다.The classification unit may calculate a correlation between the learning categories acquired through the static neural network learning technique and the feature vector, and determine the output category using the calculated correlation.

상기 분류부는 선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다.The classification unit may determine a first learning category having a correlation higher than a predetermined threshold value as the output category.

상기 분류부는 선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리들에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다.The classification unit may be configured to have a highest correlation among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time period for the learning categories having a correlation higher than a predetermined threshold. One learning category may be determined as the output category.

본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 방법은 시간에 따라 입력되는 위치와 연관하여 입력 카테고리를 출력하는 단계, 상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 단계, 및 신경망 학습 기법을 통한 학습 카테고리를 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a method of recognizing a motion through neural network learning, including: outputting an input category in association with a position input over time, extracting a feature vector from the output input category, and neural network learning technique; And determining an output category corresponding to the extracted feature vector using the learning category.

본 발명의 일 측면에 따르면, 카메라 등을 이용한 비전(vision) 방식으로 사용자의 동작을 인식함으로써, 마우스와 같은 특별한 입력기기가 없어도 자연스러운 동작을 통해 전자장치를 제어할 수 있는 효과적인 유저 인터페이스를 구현할 수 있다.According to an aspect of the present invention, by recognizing a user's motion in a vision method using a camera or the like, it is possible to implement an effective user interface that can control the electronic device through natural operation even without a special input device such as a mouse. have.

본 발명의 일 측면에 따르면, 사용자의 동작을 인식하는 신경망 학습 기법을 이용하여 동작의 시작과 끝을 자동적으로 감지함과 동시에 동작을 효과적으로 인식할 수 있다.According to an aspect of the present invention, by using a neural network learning method for recognizing a user's motion can automatically detect the start and end of the motion and at the same time effectively recognize the motion.

본 발명의 일 측면에 따르면, 정적 신경망 학습 기법을 이용하여 시간에 따라 동적으로 변화하는 입력의 시작과 끝을 구별함으로써, 동작 인식, 문자 인식, 음성 인식, 뇌파(Electroencephalogram; EEG), 심전도(Electrocardiography: ECG) 등의 동적 패턴을 인식하는 패턴 인식 기술을 구현할 수 있다.According to an aspect of the present invention, by using the static neural network learning technique to distinguish the beginning and end of the input dynamically changing with time, motion recognition, character recognition, speech recognition, electroencephalogram (EEG), electrocardiogram (Electrocardiography) A pattern recognition technique for recognizing dynamic patterns such as: ECG) can be implemented.

도 1은 본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 장치의 구성을 도시한 블록도이다.
도 2는 입력 카테고리로부터 특징 벡터를 추출하는 일례를 도시한 도면이다.
도 3은 특징 벡터와 학습 카테고리 간의 상관도를 나타내는 일례를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 문턱값을 나타낸 일례를 도시한 도면이다.
도 5는 전처리 과정을 수행한 입력 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.
도 6은 빠른 속도의 움직임을 갖는 학습 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.
도 7은 중간 속도의 움직임을 갖는 학습 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.
도 8은 출력 카테고리를 결정하는 문턱값과 시간구간의 일례를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 방법의 순서를 도시한 흐름도이다.
1 is a block diagram illustrating a configuration of an apparatus for recognizing a motion through neural network learning according to an embodiment of the present invention.
2 is a diagram illustrating an example of extracting a feature vector from an input category.
3 is a diagram illustrating an example of a correlation between a feature vector and a learning category.
4 is a diagram illustrating an example of a threshold value according to an embodiment of the present invention.
5 is a diagram illustrating an example of a threshold associated with an input category in which a preprocessing process is performed.
6 shows an example of a threshold associated with a learning category with fast movement.
7 is a diagram illustrating an example of a threshold associated with a learning category having a medium velocity motion.
8 is a diagram illustrating an example of a threshold value and a time period for determining an output category.
9 is a flowchart illustrating a procedure of a motion recognition method through neural network learning according to an embodiment of the present invention.

이하, 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 다양한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.

도 1은 본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of an apparatus for recognizing a motion through neural network learning according to an embodiment of the present invention.

도 1을 참고하면, 신경망 학습을 통한 동작 인식 장치(100, 이하 '동작 인식 장치'라 함)는 데이터 획득부(110), 특징 추출부(120) 및 분류부(130)를 포함할 수 있다.Referring to FIG. 1, the gesture recognition apparatus 100 (hereinafter, referred to as a gesture recognition apparatus) through neural network learning may include a data acquirer 110, a feature extractor 120, and a classifier 130. .

데이터 획득부(110, Data Acquisition)는 시간에 따라 변화하는 입력 카테고리를 출력한다. 예컨대, 데이터 획득부(110)는 텔레비전, 컴퓨터, 정보기기 등의 전자장치를 통해 사용자로부터 입력되는 입력의 위치를 시간에 따라 인식할 수 있다. 즉, 데이터 획득부(110)는 입력되는 입력의 위치를 시간에 따라 인식함으로써, 상기 입력의 시작과 끝을 인식할 수 있다. 데이터 획득부(110)는 상기 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력할 수 있다. 궤적은 움직이는 객체가 연속적으로 지나간 점들을 연결한 공간상의 선을 의미한다. The data acquisition unit 110 outputs an input category that changes with time. For example, the data acquirer 110 may recognize a position of an input input from a user over time through an electronic device such as a television, a computer, or an information device. That is, the data acquisition unit 110 may recognize the start and end of the input by recognizing the position of the input input over time. The data acquirer 110 may output the trajectory of the position according to the recognized time as the input category. A trajectory is a line in space that connects the points through which a moving object passes.

예컨대, "0"을 입력했을 때, 데이터 획득부(110)는 '0'에 대한 입력의 위치를 시간에 따라 인식할 수 있다. "0"을 입력하는 방법은 사용자에 따라 다르고, 입력 방식, 입력 속도, 입력 모양 등이 다를 수 있다.For example, when inputting "0", the data acquisition unit 110 may recognize the position of the input for '0' over time. The method of inputting "0" varies depending on the user, and the input method, input speed, and input shape may be different.

또한, 데이터 획득부(110)는 상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행하여 입력 카테고리를 출력할 수 있다. 예컨대, 전처리(Pre-processing) 과정은 상기 시간에 따라 위치의 변화가 없는 경우(움직임이 없는 입력인 경우), 입력을 x축으로만 움직인 것으로 해석하여 입력을 변환시킨 경우일 수 있다.In addition, the data acquirer 110 may output an input category by performing a preprocessing process on the input having no change in position according to the time. For example, the pre-processing process may be a case where there is no change of position according to the time (in the case of input without movement), and the input is converted by interpreting that the input is moved only on the x-axis.

특징 추출부(120, Feature Extraction)는 상기 출력된 입력 카테고리로부터 특징 벡터를 추출한다. 특징 추출부(120)는 상기 출력된 입력 카테고리를 좌표계에 반영하여, 시간에 따라 변화하는 상대적 변화량을 상기 특징 벡터로서 출력할 수 있다. 예컨대, 특징 추출부(120)는 상기 출력된 입력 카테고리를 x축과 y축으로 구분되는 2차원 좌표계에 반영할 수 있다. 입력에 대한 위치값을 x축, y축으로 구분할 수 있다. The feature extractor 120 extracts a feature vector from the output input category. The feature extractor 120 may output the relative change amount changing with time as the feature vector by reflecting the output input category in a coordinate system. For example, the feature extractor 120 may reflect the output input category in a two-dimensional coordinate system divided into x and y axes. The position value for input can be divided into x-axis and y-axis.

예를 들어, 시간 't1'에서의 위치 (x1, y1)에서 다음 시간 't2'의 위치 (x2, y2)로 움직일 때 dx, dy는 다음과 같은 수식으로 표현될 수 있다.For example, when moving from the position (x 1, y 1) in the time 't 1' to the next time position (x 2, y 2) of 't 2' d x, d y is expressed by the following formula Can be.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

특징 벡터 dx 및 dy가 동시에 분류부(130)에 입력되어 입력된 입력에 대한 출력 카테고리를 판단할 수 있다.The feature vectors d x and d y may be simultaneously input to the classification unit 130 to determine an output category for the input.

도 2는 입력 카테고리로부터 특징 벡터를 추출하는 일례를 도시한 도면이다.2 is a diagram illustrating an example of extracting a feature vector from an input category.

도 2를 참조하면, 특징 추출부(120)는 0부터 9까지의 입력 카테고리에 대해서, 각각의 특징 벡터(dx, dy)를 추출할 수 있다. 예컨대, 입력 카테고리 '0'과 '1'을 비교해 보았을 때, 시간에 따라 변화하는 상대적 변화량인 특징 벡터가 서로 다른 것을 알 수 있다. 따라서, 특징 추출부(120)는 입력 카테고리에 대응하여 서로 상이한 특징 벡터를 추출할 수 있다.Referring to FIG. 2, the feature extractor 120 may extract respective feature vectors d x and d y for input categories 0 to 9. For example, when comparing the input categories '0' and '1', it can be seen that the feature vectors, which are relative changes in time, are different from each other. Accordingly, the feature extractor 120 may extract different feature vectors from each other according to the input category.

분류부(130, Classification)는 신경망 학습 기법을 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정한다. 분류부(130)는 정적 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산하고, 계산된 상관도를 이용하여 상기 출력 카테고리를 결정할 수 있다.The classification unit 130 determines an output category corresponding to the extracted feature vector by using a neural network learning technique. The classifier 130 may calculate a correlation between the learning categories obtained through the static neural network learning technique and the feature vector, and determine the output category using the calculated correlation.

인간의 생물학적 신경세포의 특성을 수학적 표현에 의해 모델링한 것을 '인공신경망'이라 한다. 인공신경망은 단순한 기능을 가진 무수한 처리소자들이 병렬로 연결된 연산구조를 가지고 있으며, 여러 분야에서 기존의 방법론으로는 해결하기 어려웠던 많은 부분들을 해석하는 새로운 기법으로 최근 들어 급격한 연구증가와 함께 다양한 인공신경망 모델이 등장하고 있다. 이러한 인공신경망의 형태는 크게 정적(Static) 신경망 및 동적(Dynamic) 신경망으로 구분할 수 있다.Modeling the characteristics of human biological neurons by mathematical expression is called 'artificial neural network'. The neural network has a computational structure in which numerous processing elements with simple functions are connected in parallel, and it is a new technique that solves many parts that have been difficult to solve by existing methodologies in various fields. Is emerging. The artificial neural network can be classified into a static neural network and a dynamic neural network.

정적 신경망 학습 기법은 시간에 따라 변화하는 동적 데이터를 처리하기에는 어려움이 있다. 이를 위해, 동적 데이터를 처리하는 동적 신경망 학습 기법이 나와있지만, 본 발명의 동작 인식 장치(100)는 시간에 따라 변화하는 동적 데이터를 '정적 신경망 학습 기법'을 이용하여 입력에 대한 출력 카테고리를 결정할 수 있도록 한다.Static neural network learning has difficulty in dealing with dynamic data that changes over time. To this end, although a dynamic neural network learning technique for processing dynamic data is shown, the motion recognition apparatus 100 according to the present invention determines the output category for an input using dynamic data that changes over time using a 'static neural network learning technique'. To be able.

분류부(130)는 미리 정적 신경망 학습 기법을 통해 학습 카테고리를 획득할 수 있다. 분류부(130)는 일반적인 정적 신경망 학습 기법을 이용해 학습 카테고리를 획득할 수 있는데, 여기서는 "Fuzzy ARTMAP"이라는 신경망 학습 기법을 이용할 수 있다. 학습 카테고리는 데이터 획득부(110)를 통해 입력될 입력 카테고리와 연관된 것일 수 있다. 예를 들어, 입력 카테고리가 '숫자 0~9'와 연관된 경우, 사용자는 미리 정적 신경망 학습 기법을 통해 숫자 0~9를 학습 카테고리로서 학습 시킬 수 있다. 분류부(130)는 상기 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산함으로써, 상관도가 높은 제1 학습 카테고리를 상기 출력 카테고리로서 결정할 수 있다.The classifier 130 may acquire a learning category through a static neural network learning technique in advance. The classification unit 130 may obtain a learning category by using a general static neural network learning technique. Here, the classification unit 130 may use a neural network learning technique called “Fuzzy ARTMAP”. The learning category may be associated with an input category to be input through the data acquirer 110. For example, if the input category is associated with 'numbers 0-9', the user may learn the numbers 0-9 as a learning category through a static neural network learning technique in advance. The classifier 130 may determine a first learning category having a high correlation as the output category by calculating a correlation between the acquired learning categories and the feature vector.

분류부(130)는 아래와 같은 선택함수(Choice Function)를 이용하여 상기 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산할 수 있다.The classification unit 130 may calculate a degree of correlation between the acquired learning categories and the feature vector by using a selection function as follows.

Figure pat00003
Figure pat00003

여기서, Tj는 학습 카테고리 j와 특징 벡터와의 상관도, j는 변수이며, I는 특징 벡터, Wj는 웨이트 벡터(weigh vector), α는 선택 파라미터(choice parameter)이다.Here, T j is a correlation between a learning category j and a feature vector, j is a variable, I is a feature vector, W j is a weight vector, and α is a choice parameter.

실시예로, 분류부(130)는 선정된 문턱값보다 높은 상관도를 갖는 상기 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다. 구체적으로, 분류부(130)는 10개의 학습 카테고리들과 상기 특징 벡터와의 상관도를 각각 계산할 수 있다. 이렇게 계산된 상관도가 선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리를 다른 학습 카테고리와 구분하기 위해, '제1 학습 카테고리'로 설명한다. In an embodiment, the classifier 130 may determine the first learning category having a correlation higher than a predetermined threshold value as the output category. In detail, the classification unit 130 may calculate correlations between the ten learning categories and the feature vector. In order to distinguish the learning category having the correlation higher than the selected threshold from the other learning categories, the calculated correlation is described as a 'first learning category'.

도 3은 특징 벡터와 학습 카테고리 간의 상관도를 나타내는 일례를 도시한 도면이다.3 is a diagram illustrating an example of a correlation between a feature vector and a learning category.

도 3을 참조하면, 분류부(130)는 입력 카테고리 0~9까지와 연관된 각각의 특징 벡터와 학습 카테고리들 간의 상관도를 선택함수를 이용하여 계산할 수 있다. 분류부(130)는 0부터 9까지 10개의 학습 카테고리에 대해 각각 100번씩 학습시키고, 1개의 특징 벡터 '0'에 대해 테스트한 상관도를 나타낸 것이다. x축은 정규화 샘플링 시간(normalized sampling time)을 나타내고, y축은 선택함수(상관도)를 나타낸다. 즉, 정규화 샘플링 시간이 '0'이면 사용자가 입력하는 입력 카테고리의 시작점에서부터 추출된 특징 벡터라는 의미이다. 정규화 샘플링 시간이 '-1'이면 시작점보다 한 샘플링 시간 앞에서부터 일정 주기 동안 추출된 특징 벡터를 의미한다. 도면에서는 입력 카테고리 "0"에 대한 상관도가 가장 높고, 입력이 시작되는 시점(normalized sampling time = 0)에서 상관도가 최대값을 가지는 것을 알 수 있다.Referring to FIG. 3, the classifier 130 may calculate a degree of correlation between each feature vector associated with input categories 0 to 9 and learning categories using a selection function. The classifier 130 learns 100 times each of 10 learning categories from 0 to 9, and shows a correlation test for one feature vector '0'. The x axis represents a normalized sampling time, and the y axis represents a selection function (correlation). That is, when the normalized sampling time is '0', it means that the feature vector is extracted from the start point of the input category input by the user. If the normalized sampling time is '-1', it means a feature vector extracted for a predetermined period from one sampling time before the starting point. In the drawing, it can be seen that the correlation for the input category "0" is the highest and the correlation has the maximum value at the time when the input starts (normalized sampling time = 0).

선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리는 하나이거나, 또는 하나 이상일 수 있다. 따라서, 더욱 정확한 출력 카테고리를 결정하기 위해, 분류부(130)는 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리에 대해, 일정 시간동안의 상관도를 이용하여 출력 카테고리를 결정할 수 있다.There may be one, or more than one, first learning category having a correlation higher than the predetermined threshold. Accordingly, in order to determine a more accurate output category, the classifier 130 may determine the output category using the correlation for a predetermined time with respect to the first learning category having a correlation higher than the threshold.

다른 실시예로, 분류부(130)는 선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리들에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다. '선정된 시간'은 신경망 학습 기법을 통해 획득한 학습 카테고리와 여러 가지 테스트에 걸쳐 결정될 수 있다.In another embodiment, the classifier 130 may be configured to perform a learning category having a correlation higher than a predetermined threshold, among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time. A first learning category having a maximum correlation may be determined as the output category. The 'selected time' can be determined by learning categories and tests obtained through neural network learning techniques.

예를 들어, 문턱값보다 높은 상관도를 갖는 학습 카테고리가 한 개 이상인 경우, 분류부(130)는 선정된 시간동안 한 개 이상인 학습 카테고리들 중, 상기 계산된 상관도가 최대값을 갖는 하나의 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다.For example, when there is at least one learning category having a correlation higher than a threshold value, the classification unit 130 may select one of the learning categories having one or more of the learning categories having a maximum value for a predetermined time. A first learning category may be determined as the output category.

도 4는 본 발명의 일실시예에 따른 문턱값을 나타낸 일례를 도시한 도면이다.4 is a diagram illustrating an example of a threshold value according to an embodiment of the present invention.

도 4를 참조하면, 동작 인식 장치(100)에서 0부터 9까지 10개의 학습 카테고리에 대해 각각 50번씩 학습시키고, 0부터 9까지의 입력 카테고리에 대해 10번씩 테스트한 문턱값의 정확도를 나타낸 것이다. 문턱값 1(Threshold 1)은 선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 출력 카테고리로 결정하는 경우에 사용된 문턱값의 일례이다. 문턱값 2(Threshold 2)는 입력이 시작되는 시점(정규화 샘플링 시간 = 0)부터 정규화 샘플링 시간 '5'까지의 선정된 시간동안 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리와의 상관도를 계산함으로써, 계산된 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는 경우에 사용된 문턱값의 일례이다.Referring to FIG. 4, the motion recognition apparatus 100 shows the accuracy of a threshold value that is trained 50 times for each of the 10 learning categories from 0 to 9 and tested 10 times for the input categories 0 to 9. Threshold 1 is an example of a threshold value used when the first learning category having a correlation higher than the predetermined threshold value is determined as an output category. Threshold 2 is a correlation between a feature vector and a learning category having a higher correlation than the threshold for a predetermined time from the time input starts (normalized sampling time = 0) to the normalized sampling time '5'. By calculating the degree, the calculated correlation is an example of a threshold used when determining the first learning category having the maximum value as the output category.

도 4에 도시한 바와 같이, 문턱값 1와 문턱값 2 모두, 60과 62 사이의 문턱값에서의 정확도가 가장 높은 것을 알 수 있다. 따라서, 분류부(130)는 상기 문턱값으로 60과 62 사이의 값을 사용할 수 있다.As shown in FIG. 4, it can be seen that the threshold 1 and the threshold 2 have the highest accuracy at the threshold between 60 and 62. Therefore, the classification unit 130 may use a value between 60 and 62 as the threshold.

상기에서도 설명한 바와 같이, 입력을 입력하는 사용자에 따라, 입력 속도, 입력 방식, 입력 모양 등이 상이할 수 있다. 데이터 획득부(110)는 상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행함으로써, 동일한 입력에 대해 동일한 입력 카테고리를 출력할 수 있도록 한다.As described above, the input speed, the input method, the input shape, and the like may be different according to the user who inputs the input. The data acquirer 110 performs a preprocessing process on the input having no change in position according to the time, thereby outputting the same input category for the same input.

도 5는 전처리 과정을 수행한 입력 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.5 is a diagram illustrating an example of a threshold associated with an input category in which a preprocessing process is performed.

도 5를 참조하면, 동작 인식 장치(100)에서 0부터 9까지 10개의 학습 카테고리에 대해 각각 50번씩 학습시키고, 0부터 9까지의 입력 카테고리에 대해 10번씩 테스트한 문턱값의 정확도를 나타낸 것이다. 상기 입력 동작의 속도가 빠르면, 특징 벡터가 달라지므로, 분류부(130)가 동일한 입력에 대해 서로 다른 동작으로 인식할 수 있다. 도 5에서는 보통의 입력보다 2배의 속도로 빠른 입력에 대한 인식률을 나타낸 것으로, 데이터 획득부(110)에서 전처리 과정을 수행하면, 문턱값 1(다이아몬드선: -◆-)에 비해 문턱값 2(네모선: -■-)의 정확도가 향상되는 것을 알 수 있다.Referring to FIG. 5, the motion recognition apparatus 100 shows the accuracy of a threshold value that is trained 50 times for each of the 10 learning categories from 0 to 9 and tested 10 times for the input categories of 0 to 9. If the speed of the input operation is fast, since the feature vector is different, the classifier 130 may recognize the same input as different operations. In FIG. 5, the recognition rate of the input is twice as fast as that of the normal input. When the data acquisition unit 110 performs the preprocessing process, the threshold 2 is compared with the threshold 1 (diamond line:-◆-). It can be seen that the accuracy of (square line:-■-) is improved.

도 6은 빠른 속도의 움직임을 갖는 학습 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.6 shows an example of a threshold associated with a learning category with fast movement.

도 6을 참조하면, 동작 인식 장치(100)에서 0부터 9까지 10개의 학습 카테고리에 대해 각각 50번씩 학습시키고, 0부터 9까지의 입력 카테고리에 대해 10번씩 테스트한 문턱값의 정확도를 나타낸 것이다. 상기에서 설명한 바와 같이, 빠른 속도의 움직임을 갖는 입력 카테고리에 대해서, 특징 벡터가 달라 분류부(130)가 서로 다른 출력 카테고리를 결정할 수 있다. 도 6에서는 빠른 움직임을 갖는 학습 카테고리의 문턱값(다이아몬드선: -◆-)의 정확도가 떨어지는 반면, 선정된 시간동안(150-ms period) 문턱값(네모선: -■-, 1400 세트, 18 커미티드 노드(committed node))의 정확도와 문턱값(세모선: -▲-, 1400 세트, 21 커미티드 노드)의 정확도가 높은 것을 알 수 있다. 또한, 60과 62 사이의 문턱값에서의 정확도가 가장 높은 것을 알 수 있다. Referring to FIG. 6, the motion recognition apparatus 100 shows the accuracy of a threshold value that is trained 50 times for each of the 10 learning categories from 0 to 9 and tested 10 times for the input categories 0 to 9. As described above, the classification unit 130 may determine different output categories with respect to an input category having a high speed motion and having different feature vectors. In Fig. 6, the accuracy of the threshold (diamond line:-◆-) of the fast-moving learning category decreases, while the threshold (square line:-■-, 1400 sets, 18) for a predetermined time (150-ms period) is shown. It can be seen that the accuracy of the committed node (committed node) and the accuracy of the threshold value (triangle:-▲-, 1400 sets, 21 committed nodes) are high. It can also be seen that the accuracy at the threshold between 60 and 62 is the highest.

도 7은 중간 속도의 움직임을 갖는 학습 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.7 is a diagram illustrating an example of a threshold associated with a learning category having a medium velocity motion.

도 7을 참조하면, 동작 인식 장치(100)에서 0부터 9까지 10개의 학습 카테고리에 대해 각각 50번씩 학습시키고, 0부터 9까지의 입력 카테고리에 대해 10번씩 테스트한 문턱값의 정확도를 나타낸 것이다. 도시한 바와 같이, 중간 속도의 움직임을 갖는 학습 카테고리에 대해, 문턱값(-◆-, 500번 학습, 13 노드)의 정확도는 매우 낮고, 선정된 시간동안(150-ms period) 문턱값(-■-, 1500 세트, 21 커미티드 노드)의 정확도는 첫번째와 유사한 것을 알 수 있다. 반면, 문턱값(-▲-, 150-ms period, 1600 세트, 25 커미티드 노드)의 정확도가 상기 두 개의 경우보다 높은 것을 알 수 있다. 이 경우에도, 61과 62 사이의 문턱값에서의 정확도가 가장 높은 것을 알 수 있다. Referring to FIG. 7, the motion recognition apparatus 100 learns the accuracy of the threshold tested 50 times for each of the 10 learning categories from 0 to 9 and tested 10 times for the input categories 0 to 9. As shown, for learning categories with intermediate velocity motion, the accuracy of the threshold (-◆-, 500 lessons, 13 nodes) is very low, and the threshold (-) for a predetermined time period (150-ms period). The accuracy of-, 1500 sets, 21 committed nodes) is similar to the first. On the other hand, it can be seen that the accuracy of the threshold value (-▲-, 150-ms period, 1600 sets, 25 committed nodes) is higher than the two cases. Also in this case, it can be seen that the accuracy at the threshold between 61 and 62 is the highest.

도 8은 출력 카테고리를 결정하는 문턱값과 시간구간의 일례를 도시한 도면이다.8 is a diagram illustrating an example of a threshold value and a time period for determining an output category.

도 8을 참조하면, 상기에서 설명한 도 6, 7의 성능 측정에 기초하여 분류부(130)는 보통 속도, 빠른 속도, 중간 속도의 학습 카테고리를 각각 500번, 100번, 100번 학습시켜, 선정된 시간동안(정규화 샘플링 시간 = 11) 문턱값이 '60.7'일 때, 가장 좋은 성능을 나타낸 다는 것을 알아낼 수 있다. 따라서, 분류부(130)는 선정된 문턱값(60.7)보다 높은 상관도를 갖는 학습 카테고리에 대하여, 선정된 시간(정규화 샘플링 시간 0~11)동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 출력 카테고리로서 결정할 수 있다.Referring to FIG. 8, based on the performance measurement of FIGS. 6 and 7 described above, the classification unit 130 trains the learning categories of the normal speed, the high speed, and the medium speed 500 times, 100 times, and 100 times, respectively, and selects them. When the threshold value is '60 .7 'for the specified time (normalized sampling time = 11), we can find the best performance. Accordingly, the classifier 130 may generate a correlation higher than the feature vector and the threshold for a predetermined time (normalization sampling time 0 to 11) for a learning category having a correlation higher than the selected threshold 60.7. Among the learning categories having, the first learning category having the maximum correlation value may be determined as an output category.

도 9는 본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 방법의 순서를 도시한 흐름도이다.9 is a flowchart illustrating a procedure of a motion recognition method through neural network learning according to an embodiment of the present invention.

도 9을 참조하면, 단계 910에서, 동작 인식 장치(100)는 시간에 따라 입력되는 위치와 연관하여 입력 카테고리를 출력한다. 예를 들어, 동작 인식 장치(100)는 전자장치를 통해 입력되는 입력의 위치를 시간에 따라 인식하고, 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력할 수 있다. 만약, 동작 인식 장치(100)는 상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행하여 상기 입력 카테고리를 출력할 수 있다.9, in operation 910, the gesture recognition apparatus 100 outputs an input category in association with a position input over time. For example, the gesture recognition apparatus 100 may recognize a position of an input input through the electronic device over time, and output a trajectory for the position according to the recognized time as the input category. If, the gesture recognition apparatus 100 may output the input category by performing a preprocessing process on an input having no change in position according to the time.

단계 920에서, 동작 인식 장치(100)는 출력된 입력 카테고리로부터 특징 벡터를 추출한다. 예를 들어, 동작 인식 장치(100)는 상기 출력된 입력 카테고리를 좌표계에 반영하여, 시간에 따라 변화하는 상대적 변화량을 상기 특징 벡터로서 출력할 수 있다. 동작 인식 장치(100)는 상기에서 설명한 수학식 1을 이용하여 특징 벡터를 추출할 수 있다.In operation 920, the gesture recognition apparatus 100 extracts a feature vector from the output input category. For example, the gesture recognition apparatus 100 may output the relative change amount changing with time as the feature vector by reflecting the output input category in a coordinate system. The gesture recognition apparatus 100 may extract a feature vector by using Equation 1 described above.

단계 930에서, 동작 인식 장치(100)는 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산한다. 동작 인식 장치(100)는 상기에서 설명한 수학식 2를 이용하여 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산할 수 있다.In operation 930, the gesture recognition apparatus 100 calculates a correlation between the learning categories acquired through the neural network learning technique and the feature vector. The gesture recognition apparatus 100 may calculate a correlation between the learning categories and the feature vector by using Equation 2 described above.

단계 940에서, 동작 인식 장치(100)는 계산된 상관도가 높은 학습 카테고리를 출력 카테고리로 결정한다. 예를 들어, 동작 인식 장치(100)는 선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다. 또는, 동작 인식 장치(100)는 선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 계산된 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수도 있다.In operation 940, the gesture recognition apparatus 100 determines a learning category having a high correlation as an output category. For example, the gesture recognition apparatus 100 may determine a first learning category having a correlation higher than a predetermined threshold value as the output category. Alternatively, the gesture recognition apparatus 100 may perform the calculated correlation among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time with respect to the learning category having a correlation higher than a predetermined threshold. A first learning category having a maximum value may be determined as the output category.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

100: 신경망 학습을 통한 동작 인식 장치
110: 데이터 획득부
120: 특징 추출부
130: 분류부
100: motion recognition device through neural network learning
110: data acquisition unit
120: feature extraction unit
130: classification

Claims (13)

시간에 따라 변화하는 입력 카테고리를 출력하는 데이터 획득부;
상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 특징 추출부; 및
신경망 학습 기법을 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 분류부
를 포함하는, 신경망 학습을 통한 동작 인식 장치.
A data acquisition unit configured to output an input category that changes with time;
A feature extractor which extracts a feature vector from the output category; And
Classifier for determining the output category corresponding to the extracted feature vector using a neural network learning method
A device comprising a motion recognition through neural network learning.
제1항에 있어서,
상기 데이터 획득부는,
전자장치를 통해 입력되는 입력의 위치를 시간에 따라 인식하고, 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력하는, 신경망 학습을 통한 동작 인식 장치.
The method of claim 1,
The data acquisition unit,
Recognizing the position of the input input via the electronic device over time, and outputs a trajectory for the position according to the recognized time as the input category, Motion recognition apparatus through neural network learning.
제2항에 있어서,
상기 데이터 획득부는,
상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행하여 상기 입력 카테고리를 출력하는, 신경망 학습을 통한 동작 인식 장치.
The method of claim 2,
The data acquisition unit,
And pre-processing the input category with respect to the input having no change in position over time to output the input category.
제1항에 있어서,
상기 특징 추출부는,
상기 출력된 입력 카테고리를 좌표계에 반영하여, 시간에 따라 변화하는 상대적 변화량을 상기 특징 벡터로서 출력하는, 신경망 학습을 통한 동작 인식 장치.
The method of claim 1,
The feature extraction unit,
The apparatus for recognizing motion through neural network learning by reflecting the output input category in a coordinate system and outputting a relative change amount changing with time as the feature vector.
제1항에 있어서,
상기 분류부는,
정적 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산하고, 계산된 상관도를 이용하여 상기 출력 카테고리를 결정하는, 신경망 학습을 통한 동작 인식 장치.
The method of claim 1,
The classification unit,
And calculating the correlation between the learning categories acquired through the static neural network learning technique and the feature vector, and determining the output category using the calculated correlation.
제5항에 있어서,
상기 분류부는,
선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는, 신경망 학습을 통한 동작 인식 장치.
The method of claim 5,
The classification unit,
And determining a first learning category having a correlation higher than a predetermined threshold value as the output category.
제5항에 있어서,
상기 분류부는,
선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리들에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는, 신경망 학습을 통한 동작 인식 장치.
The method of claim 5,
The classification unit,
For learning categories having a correlation higher than a predetermined threshold, among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time, a first learning category having the maximum correlation value. Determining the output category as a motion recognition apparatus through neural network learning.
시간에 따라 입력되는 위치와 연관하여 입력 카테고리를 출력하는 단계;
상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 단계; 및
신경망 학습 기법을 통한 학습 카테고리를 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.
Outputting an input category in association with a position input over time;
Extracting a feature vector from the output input category; And
Determining an output category corresponding to the extracted feature vector using a learning category through neural network learning technique
Including, the method of motion recognition through neural network learning.
제8항에 있어서,
시간에 따라 입력되는 위치와 연관하여 입력 카테고리를 출력하는 단계는,
전자장치를 통해 입력되는 입력의 위치를 시간에 따라 인식하는 단계; 및
상기 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.
The method of claim 8,
The step of outputting the input category in association with the position input over time,
Recognizing a location of an input input through the electronic device over time; And
Outputting a trajectory for the position according to the recognized time as the input category
Including, the method of motion recognition through neural network learning.
제8항에 있어서,
상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 단계는,
상기 출력된 입력 카테고리를 좌표계에 반영하는 단계; 및
상기 반영된 좌표계에서 얻어진 시간에 따른 상대적 변화량을 상기 특징 벡터로서 출력하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.
The method of claim 8,
Extracting a feature vector from the output input category,
Reflecting the output input category in a coordinate system; And
Outputting the relative variation with time obtained in the reflected coordinate system as the feature vector
Including, the method of motion recognition through neural network learning.
제8항에 있어서,
상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 단계는,
정적 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산하는 단계; 및
상기 계산된 상관도가 높은 학습 카테고리를 상기 출력 카테고리로 결정하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.
The method of claim 8,
Determining the output category corresponding to the extracted feature vector,
Calculating a correlation between the learning categories obtained through the static neural network learning technique and the feature vector; And
Determining the learning category having the high correlation as the output category
Including, the method of motion recognition through neural network learning.
제11항에 있어서,
상기 계산된 상관도가 높은 학습 카테고리를 상기 출력 카테고리로 결정하는 단계는,
선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.
The method of claim 11,
The determining of the calculated high correlation learning category as the output category may include:
Determining a first learning category having a correlation higher than a predetermined threshold as the output category
Including, the method of motion recognition through neural network learning.
제11항에 있어서,
상기 계산된 상관도가 높은 학습 카테고리를 상기 출력 카테고리로 결정하는 단계는,
선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리들에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.
The method of claim 11,
The determining of the calculated high correlation learning category as the output category may include:
For learning categories having a correlation higher than a predetermined threshold, among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time, a first learning category having the maximum correlation value. Determining as the output category
Including, the method of motion recognition through neural network learning.
KR1020100113851A 2010-11-16 2010-11-16 Apparatus and method for recognizing motion using neural network learning algorithm KR20120052610A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100113851A KR20120052610A (en) 2010-11-16 2010-11-16 Apparatus and method for recognizing motion using neural network learning algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100113851A KR20120052610A (en) 2010-11-16 2010-11-16 Apparatus and method for recognizing motion using neural network learning algorithm

Publications (1)

Publication Number Publication Date
KR20120052610A true KR20120052610A (en) 2012-05-24

Family

ID=46269152

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100113851A KR20120052610A (en) 2010-11-16 2010-11-16 Apparatus and method for recognizing motion using neural network learning algorithm

Country Status (1)

Country Link
KR (1) KR20120052610A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101653622B1 (en) 2015-05-07 2016-09-05 고려대학교 산학협력단 Image sensor for extracting edge information
KR20160138729A (en) * 2015-05-26 2016-12-06 이화여자대학교 산학협력단 Feature extraction method for motion recognition in image and motion recognition method using skeleton information
KR20170028591A (en) * 2015-09-04 2017-03-14 한국전자통신연구원 Apparatus and method for object recognition with convolution neural network
WO2018112833A1 (en) * 2016-12-22 2018-06-28 Intel Corporation Efficient transferring of human experiences to robots and other autonomous machines
KR101882743B1 (en) * 2017-04-17 2018-08-30 인하대학교 산학협력단 Efficient object detection method using convolutional neural network-based hierarchical feature modeling
US10346726B2 (en) 2014-12-15 2019-07-09 Samsung Electronics Co., Ltd. Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
US10430440B2 (en) 2016-10-21 2019-10-01 Fujitsu Limited Apparatus program and method for data property recognition
US10445427B2 (en) 2016-10-21 2019-10-15 Fujitsu Limited Semantic parsing with knowledge-based editor for execution of operations
KR20200015300A (en) * 2018-08-03 2020-02-12 국민대학교산학협력단 Apparatus and method for determining neural network feature vector
US10776107B2 (en) 2016-10-21 2020-09-15 Fujitsu Limited Microservice-based data processing apparatus, method, and program
US10776170B2 (en) 2016-10-21 2020-09-15 Fujitsu Limited Software service execution apparatus, system, and method
US10783193B2 (en) 2016-10-21 2020-09-22 Fujitsu Limited Program, method, and system for execution of software services
KR20200121666A (en) * 2019-04-16 2020-10-26 광주과학기술원 Method for correcting error and sensor system
US11093805B2 (en) 2014-12-15 2021-08-17 Samsung Electronics Co., Ltd. Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10346726B2 (en) 2014-12-15 2019-07-09 Samsung Electronics Co., Ltd. Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
US11093805B2 (en) 2014-12-15 2021-08-17 Samsung Electronics Co., Ltd. Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
KR101653622B1 (en) 2015-05-07 2016-09-05 고려대학교 산학협력단 Image sensor for extracting edge information
KR20160138729A (en) * 2015-05-26 2016-12-06 이화여자대학교 산학협력단 Feature extraction method for motion recognition in image and motion recognition method using skeleton information
KR20170028591A (en) * 2015-09-04 2017-03-14 한국전자통신연구원 Apparatus and method for object recognition with convolution neural network
US10783193B2 (en) 2016-10-21 2020-09-22 Fujitsu Limited Program, method, and system for execution of software services
US10430440B2 (en) 2016-10-21 2019-10-01 Fujitsu Limited Apparatus program and method for data property recognition
US10445427B2 (en) 2016-10-21 2019-10-15 Fujitsu Limited Semantic parsing with knowledge-based editor for execution of operations
US10776107B2 (en) 2016-10-21 2020-09-15 Fujitsu Limited Microservice-based data processing apparatus, method, and program
US10776170B2 (en) 2016-10-21 2020-09-15 Fujitsu Limited Software service execution apparatus, system, and method
CN110023962A (en) * 2016-12-22 2019-07-16 英特尔公司 Efficient transmitting of the human experience to robot and other autonomous machines
WO2018112833A1 (en) * 2016-12-22 2018-06-28 Intel Corporation Efficient transferring of human experiences to robots and other autonomous machines
US11615284B2 (en) 2016-12-22 2023-03-28 Intel Corporation Efficient transferring of human experiences to robots and other autonomous machines
CN110023962B (en) * 2016-12-22 2024-03-12 英特尔公司 Human experience with efficient transfer of robots and other autonomous machines
KR101882743B1 (en) * 2017-04-17 2018-08-30 인하대학교 산학협력단 Efficient object detection method using convolutional neural network-based hierarchical feature modeling
KR20200015300A (en) * 2018-08-03 2020-02-12 국민대학교산학협력단 Apparatus and method for determining neural network feature vector
KR20200121666A (en) * 2019-04-16 2020-10-26 광주과학기술원 Method for correcting error and sensor system

Similar Documents

Publication Publication Date Title
KR20120052610A (en) Apparatus and method for recognizing motion using neural network learning algorithm
Kılıboz et al. A hand gesture recognition technique for human–computer interaction
CN105184325B (en) Mobile intelligent terminal
KR20170091963A (en) Gesture classification apparatus and method using electromyogram signals
Mapari et al. Real time human pose recognition using leap motion sensor
CN107908288A (en) A kind of quick human motion recognition method towards human-computer interaction
Ibraheem et al. Vision based gesture recognition using neural networks approaches: A review
KR101157073B1 (en) Method for finger language recognition using emg and gyro sensor and apparatus thereof
CN104484644B (en) A kind of gesture identification method and device
Naik et al. Multi run ICA and surface EMG based signal processing system for recognising hand gestures
Fahim et al. A visual analytic in deep learning approach to eye movement for human-machine interaction based on inertia measurement
Kalsh et al. Sign language recognition system
Yang et al. Combination of manual and non-manual features for sign language recognition based on conditional random field and active appearance model
CN106598234B (en) Gesture identification method based on inertia sensing
Kumarage et al. Real-time sign language gesture recognition using still-image comparison & motion recognition
KR101823611B1 (en) Method for extracting Emotional Expression information based on Action Unit
Alhersh et al. Learning human activity from visual data using deep learning
JP6905892B2 (en) Computer system
KR102267741B1 (en) Deep learning based emotional recognition system and methods using PPG signals
KR20210054349A (en) Method for predicting clinical functional assessment scale using feature values derived by upper limb movement of patients
Kawahata et al. Design of a low-false-positive gesture for a wearable device
Bakhtiyari et al. Implementation of emotional-aware computer systems using typical input devices
Kumar et al. Performance analysis of KNN, SVM and ANN techniques for gesture recognition system
Gupta et al. S-pencil: A smart pencil grip monitoring system for kids using sensors
Shitole et al. Dynamic hand gesture recognition using PCA, Pruning and ANN

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application