KR20120052610A - Apparatus and method for recognizing motion using neural network learning algorithm - Google Patents
Apparatus and method for recognizing motion using neural network learning algorithm Download PDFInfo
- Publication number
- KR20120052610A KR20120052610A KR1020100113851A KR20100113851A KR20120052610A KR 20120052610 A KR20120052610 A KR 20120052610A KR 1020100113851 A KR1020100113851 A KR 1020100113851A KR 20100113851 A KR20100113851 A KR 20100113851A KR 20120052610 A KR20120052610 A KR 20120052610A
- Authority
- KR
- South Korea
- Prior art keywords
- category
- learning
- input
- neural network
- output
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
Abstract
Description
아래의 일실시예는 전자 장치의 사용자 인터페이스에 사용되는 동작 인식 기술에 있어서 연속적으로 움직이는 동작의 자동 인식 방법에 관한 것이다.One embodiment below relates to a method for automatically recognizing a continuously moving motion in a motion recognition technology used in a user interface of an electronic device.
인간의 생물학적 신경세포의 특성을 수학적 표현에 의해 모델링한 것을 '인공신경망'이라 한다. 인공신경망은 단순한 기능을 가진 무수한 처리소자들이 병렬로 연결된 연산구조를 가지고 있으며, 여러 분야에서 기존의 방법론으로는 해결하기 어려웠던 많은 부분들을 해석하는 새로운 기법으로 최근 들어 급격한 연구증가와 함께 다양한 인공신경망 모델이 등장하고 있다. 이러한 인공신경망의 형태는 크게 정적(Static) 신경망 및 동적(Dynamic) 신경망으로 구분할 수 있다.Modeling the characteristics of human biological neurons by mathematical expression is called 'artificial neural network'. The neural network has a computational structure in which numerous processing elements with simple functions are connected in parallel, and it is a new technique that solves many parts that have been difficult to solve by existing methodologies in various fields. Is emerging. The artificial neural network can be classified into a static neural network and a dynamic neural network.
본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 장치는 시간에 따라 변화하는 입력 카테고리를 출력하는 데이터 획득부, 상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 특징 추출부, 및 신경망 학습 기법을 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 분류부를 포함한다.An apparatus for recognizing motion through neural network learning according to an embodiment of the present invention includes a data acquisition unit for outputting an input category that changes with time, a feature extractor for extracting feature vectors from the output category, and a neural network learning technique. And a classification unit to determine an output category corresponding to the extracted feature vector.
상기 데이터 획득부는 전자장치를 통해 입력되는 입력의 위치를 시간에 따라 인식하고, 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력할 수 있다.The data acquisition unit may recognize a position of an input input through the electronic device over time, and output a trajectory for the position according to the recognized time as the input category.
상기 데이터 획득부는 상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행하여 상기 입력 카테고리를 출력할 수 있다.The data acquirer may output the input category by performing a preprocessing process on an input having no change in position over time.
상기 특징 추출부는 상기 출력된 입력 카테고리를 좌표계에 반영하여, 시간에 따라 변화하는 상대적 변화량을 상기 특징 벡터로서 출력할 수 있다.The feature extractor may output the relative change amount changing with time as the feature vector by reflecting the output input category in a coordinate system.
상기 분류부는 정적 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산하고, 계산된 상관도를 이용하여 상기 출력 카테고리를 결정할 수 있다.The classification unit may calculate a correlation between the learning categories acquired through the static neural network learning technique and the feature vector, and determine the output category using the calculated correlation.
상기 분류부는 선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다.The classification unit may determine a first learning category having a correlation higher than a predetermined threshold value as the output category.
상기 분류부는 선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리들에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다.The classification unit may be configured to have a highest correlation among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time period for the learning categories having a correlation higher than a predetermined threshold. One learning category may be determined as the output category.
본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 방법은 시간에 따라 입력되는 위치와 연관하여 입력 카테고리를 출력하는 단계, 상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 단계, 및 신경망 학습 기법을 통한 학습 카테고리를 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a method of recognizing a motion through neural network learning, including: outputting an input category in association with a position input over time, extracting a feature vector from the output input category, and neural network learning technique; And determining an output category corresponding to the extracted feature vector using the learning category.
본 발명의 일 측면에 따르면, 카메라 등을 이용한 비전(vision) 방식으로 사용자의 동작을 인식함으로써, 마우스와 같은 특별한 입력기기가 없어도 자연스러운 동작을 통해 전자장치를 제어할 수 있는 효과적인 유저 인터페이스를 구현할 수 있다.According to an aspect of the present invention, by recognizing a user's motion in a vision method using a camera or the like, it is possible to implement an effective user interface that can control the electronic device through natural operation even without a special input device such as a mouse. have.
본 발명의 일 측면에 따르면, 사용자의 동작을 인식하는 신경망 학습 기법을 이용하여 동작의 시작과 끝을 자동적으로 감지함과 동시에 동작을 효과적으로 인식할 수 있다.According to an aspect of the present invention, by using a neural network learning method for recognizing a user's motion can automatically detect the start and end of the motion and at the same time effectively recognize the motion.
본 발명의 일 측면에 따르면, 정적 신경망 학습 기법을 이용하여 시간에 따라 동적으로 변화하는 입력의 시작과 끝을 구별함으로써, 동작 인식, 문자 인식, 음성 인식, 뇌파(Electroencephalogram; EEG), 심전도(Electrocardiography: ECG) 등의 동적 패턴을 인식하는 패턴 인식 기술을 구현할 수 있다.According to an aspect of the present invention, by using the static neural network learning technique to distinguish the beginning and end of the input dynamically changing with time, motion recognition, character recognition, speech recognition, electroencephalogram (EEG), electrocardiogram (Electrocardiography) A pattern recognition technique for recognizing dynamic patterns such as: ECG) can be implemented.
도 1은 본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 장치의 구성을 도시한 블록도이다.
도 2는 입력 카테고리로부터 특징 벡터를 추출하는 일례를 도시한 도면이다.
도 3은 특징 벡터와 학습 카테고리 간의 상관도를 나타내는 일례를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 문턱값을 나타낸 일례를 도시한 도면이다.
도 5는 전처리 과정을 수행한 입력 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.
도 6은 빠른 속도의 움직임을 갖는 학습 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.
도 7은 중간 속도의 움직임을 갖는 학습 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.
도 8은 출력 카테고리를 결정하는 문턱값과 시간구간의 일례를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 방법의 순서를 도시한 흐름도이다.1 is a block diagram illustrating a configuration of an apparatus for recognizing a motion through neural network learning according to an embodiment of the present invention.
2 is a diagram illustrating an example of extracting a feature vector from an input category.
3 is a diagram illustrating an example of a correlation between a feature vector and a learning category.
4 is a diagram illustrating an example of a threshold value according to an embodiment of the present invention.
5 is a diagram illustrating an example of a threshold associated with an input category in which a preprocessing process is performed.
6 shows an example of a threshold associated with a learning category with fast movement.
7 is a diagram illustrating an example of a threshold associated with a learning category having a medium velocity motion.
8 is a diagram illustrating an example of a threshold value and a time period for determining an output category.
9 is a flowchart illustrating a procedure of a motion recognition method through neural network learning according to an embodiment of the present invention.
이하, 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 다양한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.
도 1은 본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of an apparatus for recognizing a motion through neural network learning according to an embodiment of the present invention.
도 1을 참고하면, 신경망 학습을 통한 동작 인식 장치(100, 이하 '동작 인식 장치'라 함)는 데이터 획득부(110), 특징 추출부(120) 및 분류부(130)를 포함할 수 있다.Referring to FIG. 1, the gesture recognition apparatus 100 (hereinafter, referred to as a gesture recognition apparatus) through neural network learning may include a data acquirer 110, a
데이터 획득부(110, Data Acquisition)는 시간에 따라 변화하는 입력 카테고리를 출력한다. 예컨대, 데이터 획득부(110)는 텔레비전, 컴퓨터, 정보기기 등의 전자장치를 통해 사용자로부터 입력되는 입력의 위치를 시간에 따라 인식할 수 있다. 즉, 데이터 획득부(110)는 입력되는 입력의 위치를 시간에 따라 인식함으로써, 상기 입력의 시작과 끝을 인식할 수 있다. 데이터 획득부(110)는 상기 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력할 수 있다. 궤적은 움직이는 객체가 연속적으로 지나간 점들을 연결한 공간상의 선을 의미한다. The data acquisition unit 110 outputs an input category that changes with time. For example, the data acquirer 110 may recognize a position of an input input from a user over time through an electronic device such as a television, a computer, or an information device. That is, the data acquisition unit 110 may recognize the start and end of the input by recognizing the position of the input input over time. The data acquirer 110 may output the trajectory of the position according to the recognized time as the input category. A trajectory is a line in space that connects the points through which a moving object passes.
예컨대, "0"을 입력했을 때, 데이터 획득부(110)는 '0'에 대한 입력의 위치를 시간에 따라 인식할 수 있다. "0"을 입력하는 방법은 사용자에 따라 다르고, 입력 방식, 입력 속도, 입력 모양 등이 다를 수 있다.For example, when inputting "0", the data acquisition unit 110 may recognize the position of the input for '0' over time. The method of inputting "0" varies depending on the user, and the input method, input speed, and input shape may be different.
또한, 데이터 획득부(110)는 상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행하여 입력 카테고리를 출력할 수 있다. 예컨대, 전처리(Pre-processing) 과정은 상기 시간에 따라 위치의 변화가 없는 경우(움직임이 없는 입력인 경우), 입력을 x축으로만 움직인 것으로 해석하여 입력을 변환시킨 경우일 수 있다.In addition, the data acquirer 110 may output an input category by performing a preprocessing process on the input having no change in position according to the time. For example, the pre-processing process may be a case where there is no change of position according to the time (in the case of input without movement), and the input is converted by interpreting that the input is moved only on the x-axis.
특징 추출부(120, Feature Extraction)는 상기 출력된 입력 카테고리로부터 특징 벡터를 추출한다. 특징 추출부(120)는 상기 출력된 입력 카테고리를 좌표계에 반영하여, 시간에 따라 변화하는 상대적 변화량을 상기 특징 벡터로서 출력할 수 있다. 예컨대, 특징 추출부(120)는 상기 출력된 입력 카테고리를 x축과 y축으로 구분되는 2차원 좌표계에 반영할 수 있다. 입력에 대한 위치값을 x축, y축으로 구분할 수 있다. The
예를 들어, 시간 't1'에서의 위치 (x1, y1)에서 다음 시간 't2'의 위치 (x2, y2)로 움직일 때 dx, dy는 다음과 같은 수식으로 표현될 수 있다.For example, when moving from the position (x 1, y 1) in the time 't 1' to the next time position (x 2, y 2) of 't 2' d x, d y is expressed by the following formula Can be.
특징 벡터 dx 및 dy가 동시에 분류부(130)에 입력되어 입력된 입력에 대한 출력 카테고리를 판단할 수 있다.The feature vectors d x and d y may be simultaneously input to the classification unit 130 to determine an output category for the input.
도 2는 입력 카테고리로부터 특징 벡터를 추출하는 일례를 도시한 도면이다.2 is a diagram illustrating an example of extracting a feature vector from an input category.
도 2를 참조하면, 특징 추출부(120)는 0부터 9까지의 입력 카테고리에 대해서, 각각의 특징 벡터(dx, dy)를 추출할 수 있다. 예컨대, 입력 카테고리 '0'과 '1'을 비교해 보았을 때, 시간에 따라 변화하는 상대적 변화량인 특징 벡터가 서로 다른 것을 알 수 있다. 따라서, 특징 추출부(120)는 입력 카테고리에 대응하여 서로 상이한 특징 벡터를 추출할 수 있다.Referring to FIG. 2, the
분류부(130, Classification)는 신경망 학습 기법을 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정한다. 분류부(130)는 정적 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산하고, 계산된 상관도를 이용하여 상기 출력 카테고리를 결정할 수 있다.The classification unit 130 determines an output category corresponding to the extracted feature vector by using a neural network learning technique. The classifier 130 may calculate a correlation between the learning categories obtained through the static neural network learning technique and the feature vector, and determine the output category using the calculated correlation.
인간의 생물학적 신경세포의 특성을 수학적 표현에 의해 모델링한 것을 '인공신경망'이라 한다. 인공신경망은 단순한 기능을 가진 무수한 처리소자들이 병렬로 연결된 연산구조를 가지고 있으며, 여러 분야에서 기존의 방법론으로는 해결하기 어려웠던 많은 부분들을 해석하는 새로운 기법으로 최근 들어 급격한 연구증가와 함께 다양한 인공신경망 모델이 등장하고 있다. 이러한 인공신경망의 형태는 크게 정적(Static) 신경망 및 동적(Dynamic) 신경망으로 구분할 수 있다.Modeling the characteristics of human biological neurons by mathematical expression is called 'artificial neural network'. The neural network has a computational structure in which numerous processing elements with simple functions are connected in parallel, and it is a new technique that solves many parts that have been difficult to solve by existing methodologies in various fields. Is emerging. The artificial neural network can be classified into a static neural network and a dynamic neural network.
정적 신경망 학습 기법은 시간에 따라 변화하는 동적 데이터를 처리하기에는 어려움이 있다. 이를 위해, 동적 데이터를 처리하는 동적 신경망 학습 기법이 나와있지만, 본 발명의 동작 인식 장치(100)는 시간에 따라 변화하는 동적 데이터를 '정적 신경망 학습 기법'을 이용하여 입력에 대한 출력 카테고리를 결정할 수 있도록 한다.Static neural network learning has difficulty in dealing with dynamic data that changes over time. To this end, although a dynamic neural network learning technique for processing dynamic data is shown, the
분류부(130)는 미리 정적 신경망 학습 기법을 통해 학습 카테고리를 획득할 수 있다. 분류부(130)는 일반적인 정적 신경망 학습 기법을 이용해 학습 카테고리를 획득할 수 있는데, 여기서는 "Fuzzy ARTMAP"이라는 신경망 학습 기법을 이용할 수 있다. 학습 카테고리는 데이터 획득부(110)를 통해 입력될 입력 카테고리와 연관된 것일 수 있다. 예를 들어, 입력 카테고리가 '숫자 0~9'와 연관된 경우, 사용자는 미리 정적 신경망 학습 기법을 통해 숫자 0~9를 학습 카테고리로서 학습 시킬 수 있다. 분류부(130)는 상기 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산함으로써, 상관도가 높은 제1 학습 카테고리를 상기 출력 카테고리로서 결정할 수 있다.The classifier 130 may acquire a learning category through a static neural network learning technique in advance. The classification unit 130 may obtain a learning category by using a general static neural network learning technique. Here, the classification unit 130 may use a neural network learning technique called “Fuzzy ARTMAP”. The learning category may be associated with an input category to be input through the data acquirer 110. For example, if the input category is associated with 'numbers 0-9', the user may learn the numbers 0-9 as a learning category through a static neural network learning technique in advance. The classifier 130 may determine a first learning category having a high correlation as the output category by calculating a correlation between the acquired learning categories and the feature vector.
분류부(130)는 아래와 같은 선택함수(Choice Function)를 이용하여 상기 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산할 수 있다.The classification unit 130 may calculate a degree of correlation between the acquired learning categories and the feature vector by using a selection function as follows.
여기서, Tj는 학습 카테고리 j와 특징 벡터와의 상관도, j는 변수이며, I는 특징 벡터, Wj는 웨이트 벡터(weigh vector), α는 선택 파라미터(choice parameter)이다.Here, T j is a correlation between a learning category j and a feature vector, j is a variable, I is a feature vector, W j is a weight vector, and α is a choice parameter.
실시예로, 분류부(130)는 선정된 문턱값보다 높은 상관도를 갖는 상기 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다. 구체적으로, 분류부(130)는 10개의 학습 카테고리들과 상기 특징 벡터와의 상관도를 각각 계산할 수 있다. 이렇게 계산된 상관도가 선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리를 다른 학습 카테고리와 구분하기 위해, '제1 학습 카테고리'로 설명한다. In an embodiment, the classifier 130 may determine the first learning category having a correlation higher than a predetermined threshold value as the output category. In detail, the classification unit 130 may calculate correlations between the ten learning categories and the feature vector. In order to distinguish the learning category having the correlation higher than the selected threshold from the other learning categories, the calculated correlation is described as a 'first learning category'.
도 3은 특징 벡터와 학습 카테고리 간의 상관도를 나타내는 일례를 도시한 도면이다.3 is a diagram illustrating an example of a correlation between a feature vector and a learning category.
도 3을 참조하면, 분류부(130)는 입력 카테고리 0~9까지와 연관된 각각의 특징 벡터와 학습 카테고리들 간의 상관도를 선택함수를 이용하여 계산할 수 있다. 분류부(130)는 0부터 9까지 10개의 학습 카테고리에 대해 각각 100번씩 학습시키고, 1개의 특징 벡터 '0'에 대해 테스트한 상관도를 나타낸 것이다. x축은 정규화 샘플링 시간(normalized sampling time)을 나타내고, y축은 선택함수(상관도)를 나타낸다. 즉, 정규화 샘플링 시간이 '0'이면 사용자가 입력하는 입력 카테고리의 시작점에서부터 추출된 특징 벡터라는 의미이다. 정규화 샘플링 시간이 '-1'이면 시작점보다 한 샘플링 시간 앞에서부터 일정 주기 동안 추출된 특징 벡터를 의미한다. 도면에서는 입력 카테고리 "0"에 대한 상관도가 가장 높고, 입력이 시작되는 시점(normalized sampling time = 0)에서 상관도가 최대값을 가지는 것을 알 수 있다.Referring to FIG. 3, the classifier 130 may calculate a degree of correlation between each feature vector associated with
선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리는 하나이거나, 또는 하나 이상일 수 있다. 따라서, 더욱 정확한 출력 카테고리를 결정하기 위해, 분류부(130)는 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리에 대해, 일정 시간동안의 상관도를 이용하여 출력 카테고리를 결정할 수 있다.There may be one, or more than one, first learning category having a correlation higher than the predetermined threshold. Accordingly, in order to determine a more accurate output category, the classifier 130 may determine the output category using the correlation for a predetermined time with respect to the first learning category having a correlation higher than the threshold.
다른 실시예로, 분류부(130)는 선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리들에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다. '선정된 시간'은 신경망 학습 기법을 통해 획득한 학습 카테고리와 여러 가지 테스트에 걸쳐 결정될 수 있다.In another embodiment, the classifier 130 may be configured to perform a learning category having a correlation higher than a predetermined threshold, among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time. A first learning category having a maximum correlation may be determined as the output category. The 'selected time' can be determined by learning categories and tests obtained through neural network learning techniques.
예를 들어, 문턱값보다 높은 상관도를 갖는 학습 카테고리가 한 개 이상인 경우, 분류부(130)는 선정된 시간동안 한 개 이상인 학습 카테고리들 중, 상기 계산된 상관도가 최대값을 갖는 하나의 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다.For example, when there is at least one learning category having a correlation higher than a threshold value, the classification unit 130 may select one of the learning categories having one or more of the learning categories having a maximum value for a predetermined time. A first learning category may be determined as the output category.
도 4는 본 발명의 일실시예에 따른 문턱값을 나타낸 일례를 도시한 도면이다.4 is a diagram illustrating an example of a threshold value according to an embodiment of the present invention.
도 4를 참조하면, 동작 인식 장치(100)에서 0부터 9까지 10개의 학습 카테고리에 대해 각각 50번씩 학습시키고, 0부터 9까지의 입력 카테고리에 대해 10번씩 테스트한 문턱값의 정확도를 나타낸 것이다. 문턱값 1(Threshold 1)은 선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 출력 카테고리로 결정하는 경우에 사용된 문턱값의 일례이다. 문턱값 2(Threshold 2)는 입력이 시작되는 시점(정규화 샘플링 시간 = 0)부터 정규화 샘플링 시간 '5'까지의 선정된 시간동안 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리와의 상관도를 계산함으로써, 계산된 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는 경우에 사용된 문턱값의 일례이다.Referring to FIG. 4, the
도 4에 도시한 바와 같이, 문턱값 1와 문턱값 2 모두, 60과 62 사이의 문턱값에서의 정확도가 가장 높은 것을 알 수 있다. 따라서, 분류부(130)는 상기 문턱값으로 60과 62 사이의 값을 사용할 수 있다.As shown in FIG. 4, it can be seen that the
상기에서도 설명한 바와 같이, 입력을 입력하는 사용자에 따라, 입력 속도, 입력 방식, 입력 모양 등이 상이할 수 있다. 데이터 획득부(110)는 상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행함으로써, 동일한 입력에 대해 동일한 입력 카테고리를 출력할 수 있도록 한다.As described above, the input speed, the input method, the input shape, and the like may be different according to the user who inputs the input. The data acquirer 110 performs a preprocessing process on the input having no change in position according to the time, thereby outputting the same input category for the same input.
도 5는 전처리 과정을 수행한 입력 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.5 is a diagram illustrating an example of a threshold associated with an input category in which a preprocessing process is performed.
도 5를 참조하면, 동작 인식 장치(100)에서 0부터 9까지 10개의 학습 카테고리에 대해 각각 50번씩 학습시키고, 0부터 9까지의 입력 카테고리에 대해 10번씩 테스트한 문턱값의 정확도를 나타낸 것이다. 상기 입력 동작의 속도가 빠르면, 특징 벡터가 달라지므로, 분류부(130)가 동일한 입력에 대해 서로 다른 동작으로 인식할 수 있다. 도 5에서는 보통의 입력보다 2배의 속도로 빠른 입력에 대한 인식률을 나타낸 것으로, 데이터 획득부(110)에서 전처리 과정을 수행하면, 문턱값 1(다이아몬드선: -◆-)에 비해 문턱값 2(네모선: -■-)의 정확도가 향상되는 것을 알 수 있다.Referring to FIG. 5, the
도 6은 빠른 속도의 움직임을 갖는 학습 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.6 shows an example of a threshold associated with a learning category with fast movement.
도 6을 참조하면, 동작 인식 장치(100)에서 0부터 9까지 10개의 학습 카테고리에 대해 각각 50번씩 학습시키고, 0부터 9까지의 입력 카테고리에 대해 10번씩 테스트한 문턱값의 정확도를 나타낸 것이다. 상기에서 설명한 바와 같이, 빠른 속도의 움직임을 갖는 입력 카테고리에 대해서, 특징 벡터가 달라 분류부(130)가 서로 다른 출력 카테고리를 결정할 수 있다. 도 6에서는 빠른 움직임을 갖는 학습 카테고리의 문턱값(다이아몬드선: -◆-)의 정확도가 떨어지는 반면, 선정된 시간동안(150-ms period) 문턱값(네모선: -■-, 1400 세트, 18 커미티드 노드(committed node))의 정확도와 문턱값(세모선: -▲-, 1400 세트, 21 커미티드 노드)의 정확도가 높은 것을 알 수 있다. 또한, 60과 62 사이의 문턱값에서의 정확도가 가장 높은 것을 알 수 있다. Referring to FIG. 6, the
도 7은 중간 속도의 움직임을 갖는 학습 카테고리와 연관된 문턱값의 일례를 도시한 도면이다.7 is a diagram illustrating an example of a threshold associated with a learning category having a medium velocity motion.
도 7을 참조하면, 동작 인식 장치(100)에서 0부터 9까지 10개의 학습 카테고리에 대해 각각 50번씩 학습시키고, 0부터 9까지의 입력 카테고리에 대해 10번씩 테스트한 문턱값의 정확도를 나타낸 것이다. 도시한 바와 같이, 중간 속도의 움직임을 갖는 학습 카테고리에 대해, 문턱값(-◆-, 500번 학습, 13 노드)의 정확도는 매우 낮고, 선정된 시간동안(150-ms period) 문턱값(-■-, 1500 세트, 21 커미티드 노드)의 정확도는 첫번째와 유사한 것을 알 수 있다. 반면, 문턱값(-▲-, 150-ms period, 1600 세트, 25 커미티드 노드)의 정확도가 상기 두 개의 경우보다 높은 것을 알 수 있다. 이 경우에도, 61과 62 사이의 문턱값에서의 정확도가 가장 높은 것을 알 수 있다. Referring to FIG. 7, the
도 8은 출력 카테고리를 결정하는 문턱값과 시간구간의 일례를 도시한 도면이다.8 is a diagram illustrating an example of a threshold value and a time period for determining an output category.
도 8을 참조하면, 상기에서 설명한 도 6, 7의 성능 측정에 기초하여 분류부(130)는 보통 속도, 빠른 속도, 중간 속도의 학습 카테고리를 각각 500번, 100번, 100번 학습시켜, 선정된 시간동안(정규화 샘플링 시간 = 11) 문턱값이 '60.7'일 때, 가장 좋은 성능을 나타낸 다는 것을 알아낼 수 있다. 따라서, 분류부(130)는 선정된 문턱값(60.7)보다 높은 상관도를 갖는 학습 카테고리에 대하여, 선정된 시간(정규화 샘플링 시간 0~11)동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 출력 카테고리로서 결정할 수 있다.Referring to FIG. 8, based on the performance measurement of FIGS. 6 and 7 described above, the classification unit 130 trains the learning categories of the normal speed, the high speed, and the
도 9는 본 발명의 일실시예에 따른 신경망 학습을 통한 동작 인식 방법의 순서를 도시한 흐름도이다.9 is a flowchart illustrating a procedure of a motion recognition method through neural network learning according to an embodiment of the present invention.
도 9을 참조하면, 단계 910에서, 동작 인식 장치(100)는 시간에 따라 입력되는 위치와 연관하여 입력 카테고리를 출력한다. 예를 들어, 동작 인식 장치(100)는 전자장치를 통해 입력되는 입력의 위치를 시간에 따라 인식하고, 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력할 수 있다. 만약, 동작 인식 장치(100)는 상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행하여 상기 입력 카테고리를 출력할 수 있다.9, in
단계 920에서, 동작 인식 장치(100)는 출력된 입력 카테고리로부터 특징 벡터를 추출한다. 예를 들어, 동작 인식 장치(100)는 상기 출력된 입력 카테고리를 좌표계에 반영하여, 시간에 따라 변화하는 상대적 변화량을 상기 특징 벡터로서 출력할 수 있다. 동작 인식 장치(100)는 상기에서 설명한 수학식 1을 이용하여 특징 벡터를 추출할 수 있다.In
단계 930에서, 동작 인식 장치(100)는 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산한다. 동작 인식 장치(100)는 상기에서 설명한 수학식 2를 이용하여 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산할 수 있다.In
단계 940에서, 동작 인식 장치(100)는 계산된 상관도가 높은 학습 카테고리를 출력 카테고리로 결정한다. 예를 들어, 동작 인식 장치(100)는 선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수 있다. 또는, 동작 인식 장치(100)는 선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 계산된 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정할 수도 있다.In
본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.
100: 신경망 학습을 통한 동작 인식 장치
110: 데이터 획득부
120: 특징 추출부
130: 분류부100: motion recognition device through neural network learning
110: data acquisition unit
120: feature extraction unit
130: classification
Claims (13)
상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 특징 추출부; 및
신경망 학습 기법을 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 분류부
를 포함하는, 신경망 학습을 통한 동작 인식 장치.A data acquisition unit configured to output an input category that changes with time;
A feature extractor which extracts a feature vector from the output category; And
Classifier for determining the output category corresponding to the extracted feature vector using a neural network learning method
A device comprising a motion recognition through neural network learning.
상기 데이터 획득부는,
전자장치를 통해 입력되는 입력의 위치를 시간에 따라 인식하고, 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력하는, 신경망 학습을 통한 동작 인식 장치.The method of claim 1,
The data acquisition unit,
Recognizing the position of the input input via the electronic device over time, and outputs a trajectory for the position according to the recognized time as the input category, Motion recognition apparatus through neural network learning.
상기 데이터 획득부는,
상기 시간에 따라 위치의 변화가 없는 입력에 대하여 전처리 과정을 수행하여 상기 입력 카테고리를 출력하는, 신경망 학습을 통한 동작 인식 장치.The method of claim 2,
The data acquisition unit,
And pre-processing the input category with respect to the input having no change in position over time to output the input category.
상기 특징 추출부는,
상기 출력된 입력 카테고리를 좌표계에 반영하여, 시간에 따라 변화하는 상대적 변화량을 상기 특징 벡터로서 출력하는, 신경망 학습을 통한 동작 인식 장치.The method of claim 1,
The feature extraction unit,
The apparatus for recognizing motion through neural network learning by reflecting the output input category in a coordinate system and outputting a relative change amount changing with time as the feature vector.
상기 분류부는,
정적 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산하고, 계산된 상관도를 이용하여 상기 출력 카테고리를 결정하는, 신경망 학습을 통한 동작 인식 장치.The method of claim 1,
The classification unit,
And calculating the correlation between the learning categories acquired through the static neural network learning technique and the feature vector, and determining the output category using the calculated correlation.
상기 분류부는,
선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는, 신경망 학습을 통한 동작 인식 장치.The method of claim 5,
The classification unit,
And determining a first learning category having a correlation higher than a predetermined threshold value as the output category.
상기 분류부는,
선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리들에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는, 신경망 학습을 통한 동작 인식 장치.The method of claim 5,
The classification unit,
For learning categories having a correlation higher than a predetermined threshold, among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time, a first learning category having the maximum correlation value. Determining the output category as a motion recognition apparatus through neural network learning.
상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 단계; 및
신경망 학습 기법을 통한 학습 카테고리를 이용하여 상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.Outputting an input category in association with a position input over time;
Extracting a feature vector from the output input category; And
Determining an output category corresponding to the extracted feature vector using a learning category through neural network learning technique
Including, the method of motion recognition through neural network learning.
시간에 따라 입력되는 위치와 연관하여 입력 카테고리를 출력하는 단계는,
전자장치를 통해 입력되는 입력의 위치를 시간에 따라 인식하는 단계; 및
상기 인식된 시간에 따른 위치에 대한 궤적을 상기 입력 카테고리로서 출력하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.The method of claim 8,
The step of outputting the input category in association with the position input over time,
Recognizing a location of an input input through the electronic device over time; And
Outputting a trajectory for the position according to the recognized time as the input category
Including, the method of motion recognition through neural network learning.
상기 출력된 입력 카테고리로부터 특징 벡터를 추출하는 단계는,
상기 출력된 입력 카테고리를 좌표계에 반영하는 단계; 및
상기 반영된 좌표계에서 얻어진 시간에 따른 상대적 변화량을 상기 특징 벡터로서 출력하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.The method of claim 8,
Extracting a feature vector from the output input category,
Reflecting the output input category in a coordinate system; And
Outputting the relative variation with time obtained in the reflected coordinate system as the feature vector
Including, the method of motion recognition through neural network learning.
상기 추출된 특징 벡터에 대응하는 출력 카테고리를 결정하는 단계는,
정적 신경망 학습 기법을 통해 획득한 학습 카테고리들과 상기 특징 벡터와의 상관도를 계산하는 단계; 및
상기 계산된 상관도가 높은 학습 카테고리를 상기 출력 카테고리로 결정하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.The method of claim 8,
Determining the output category corresponding to the extracted feature vector,
Calculating a correlation between the learning categories obtained through the static neural network learning technique and the feature vector; And
Determining the learning category having the high correlation as the output category
Including, the method of motion recognition through neural network learning.
상기 계산된 상관도가 높은 학습 카테고리를 상기 출력 카테고리로 결정하는 단계는,
선정된 문턱값보다 높은 상관도를 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.The method of claim 11,
The determining of the calculated high correlation learning category as the output category may include:
Determining a first learning category having a correlation higher than a predetermined threshold as the output category
Including, the method of motion recognition through neural network learning.
상기 계산된 상관도가 높은 학습 카테고리를 상기 출력 카테고리로 결정하는 단계는,
선정된 문턱값보다 높은 상관도를 갖는 학습 카테고리들에 대하여, 선정된 시간동안 상기 특징 벡터와 상기 문턱값보다 높은 상관도를 갖는 학습 카테고리들 중, 상기 상관도가 최대값을 갖는 제1 학습 카테고리를 상기 출력 카테고리로 결정하는 단계
를 포함하는, 신경망 학습을 통한 동작 인식 방법.The method of claim 11,
The determining of the calculated high correlation learning category as the output category may include:
For learning categories having a correlation higher than a predetermined threshold, among the learning categories having a correlation higher than the feature vector and the threshold for a predetermined time, a first learning category having the maximum correlation value. Determining as the output category
Including, the method of motion recognition through neural network learning.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100113851A KR20120052610A (en) | 2010-11-16 | 2010-11-16 | Apparatus and method for recognizing motion using neural network learning algorithm |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100113851A KR20120052610A (en) | 2010-11-16 | 2010-11-16 | Apparatus and method for recognizing motion using neural network learning algorithm |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120052610A true KR20120052610A (en) | 2012-05-24 |
Family
ID=46269152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100113851A KR20120052610A (en) | 2010-11-16 | 2010-11-16 | Apparatus and method for recognizing motion using neural network learning algorithm |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120052610A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101653622B1 (en) | 2015-05-07 | 2016-09-05 | 고려대학교 산학협력단 | Image sensor for extracting edge information |
KR20160138729A (en) * | 2015-05-26 | 2016-12-06 | 이화여자대학교 산학협력단 | Feature extraction method for motion recognition in image and motion recognition method using skeleton information |
KR20170028591A (en) * | 2015-09-04 | 2017-03-14 | 한국전자통신연구원 | Apparatus and method for object recognition with convolution neural network |
WO2018112833A1 (en) * | 2016-12-22 | 2018-06-28 | Intel Corporation | Efficient transferring of human experiences to robots and other autonomous machines |
KR101882743B1 (en) * | 2017-04-17 | 2018-08-30 | 인하대학교 산학협력단 | Efficient object detection method using convolutional neural network-based hierarchical feature modeling |
US10346726B2 (en) | 2014-12-15 | 2019-07-09 | Samsung Electronics Co., Ltd. | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
US10430440B2 (en) | 2016-10-21 | 2019-10-01 | Fujitsu Limited | Apparatus program and method for data property recognition |
US10445427B2 (en) | 2016-10-21 | 2019-10-15 | Fujitsu Limited | Semantic parsing with knowledge-based editor for execution of operations |
KR20200015300A (en) * | 2018-08-03 | 2020-02-12 | 국민대학교산학협력단 | Apparatus and method for determining neural network feature vector |
US10776107B2 (en) | 2016-10-21 | 2020-09-15 | Fujitsu Limited | Microservice-based data processing apparatus, method, and program |
US10776170B2 (en) | 2016-10-21 | 2020-09-15 | Fujitsu Limited | Software service execution apparatus, system, and method |
US10783193B2 (en) | 2016-10-21 | 2020-09-22 | Fujitsu Limited | Program, method, and system for execution of software services |
KR20200121666A (en) * | 2019-04-16 | 2020-10-26 | 광주과학기술원 | Method for correcting error and sensor system |
US11093805B2 (en) | 2014-12-15 | 2021-08-17 | Samsung Electronics Co., Ltd. | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
-
2010
- 2010-11-16 KR KR1020100113851A patent/KR20120052610A/en not_active Application Discontinuation
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10346726B2 (en) | 2014-12-15 | 2019-07-09 | Samsung Electronics Co., Ltd. | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
US11093805B2 (en) | 2014-12-15 | 2021-08-17 | Samsung Electronics Co., Ltd. | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
KR101653622B1 (en) | 2015-05-07 | 2016-09-05 | 고려대학교 산학협력단 | Image sensor for extracting edge information |
KR20160138729A (en) * | 2015-05-26 | 2016-12-06 | 이화여자대학교 산학협력단 | Feature extraction method for motion recognition in image and motion recognition method using skeleton information |
KR20170028591A (en) * | 2015-09-04 | 2017-03-14 | 한국전자통신연구원 | Apparatus and method for object recognition with convolution neural network |
US10783193B2 (en) | 2016-10-21 | 2020-09-22 | Fujitsu Limited | Program, method, and system for execution of software services |
US10430440B2 (en) | 2016-10-21 | 2019-10-01 | Fujitsu Limited | Apparatus program and method for data property recognition |
US10445427B2 (en) | 2016-10-21 | 2019-10-15 | Fujitsu Limited | Semantic parsing with knowledge-based editor for execution of operations |
US10776107B2 (en) | 2016-10-21 | 2020-09-15 | Fujitsu Limited | Microservice-based data processing apparatus, method, and program |
US10776170B2 (en) | 2016-10-21 | 2020-09-15 | Fujitsu Limited | Software service execution apparatus, system, and method |
CN110023962A (en) * | 2016-12-22 | 2019-07-16 | 英特尔公司 | Efficient transmitting of the human experience to robot and other autonomous machines |
WO2018112833A1 (en) * | 2016-12-22 | 2018-06-28 | Intel Corporation | Efficient transferring of human experiences to robots and other autonomous machines |
US11615284B2 (en) | 2016-12-22 | 2023-03-28 | Intel Corporation | Efficient transferring of human experiences to robots and other autonomous machines |
CN110023962B (en) * | 2016-12-22 | 2024-03-12 | 英特尔公司 | Human experience with efficient transfer of robots and other autonomous machines |
KR101882743B1 (en) * | 2017-04-17 | 2018-08-30 | 인하대학교 산학협력단 | Efficient object detection method using convolutional neural network-based hierarchical feature modeling |
KR20200015300A (en) * | 2018-08-03 | 2020-02-12 | 국민대학교산학협력단 | Apparatus and method for determining neural network feature vector |
KR20200121666A (en) * | 2019-04-16 | 2020-10-26 | 광주과학기술원 | Method for correcting error and sensor system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20120052610A (en) | Apparatus and method for recognizing motion using neural network learning algorithm | |
Kılıboz et al. | A hand gesture recognition technique for human–computer interaction | |
CN105184325B (en) | Mobile intelligent terminal | |
KR20170091963A (en) | Gesture classification apparatus and method using electromyogram signals | |
Mapari et al. | Real time human pose recognition using leap motion sensor | |
CN107908288A (en) | A kind of quick human motion recognition method towards human-computer interaction | |
Ibraheem et al. | Vision based gesture recognition using neural networks approaches: A review | |
KR101157073B1 (en) | Method for finger language recognition using emg and gyro sensor and apparatus thereof | |
CN104484644B (en) | A kind of gesture identification method and device | |
Naik et al. | Multi run ICA and surface EMG based signal processing system for recognising hand gestures | |
Fahim et al. | A visual analytic in deep learning approach to eye movement for human-machine interaction based on inertia measurement | |
Kalsh et al. | Sign language recognition system | |
Yang et al. | Combination of manual and non-manual features for sign language recognition based on conditional random field and active appearance model | |
CN106598234B (en) | Gesture identification method based on inertia sensing | |
Kumarage et al. | Real-time sign language gesture recognition using still-image comparison & motion recognition | |
KR101823611B1 (en) | Method for extracting Emotional Expression information based on Action Unit | |
Alhersh et al. | Learning human activity from visual data using deep learning | |
JP6905892B2 (en) | Computer system | |
KR102267741B1 (en) | Deep learning based emotional recognition system and methods using PPG signals | |
KR20210054349A (en) | Method for predicting clinical functional assessment scale using feature values derived by upper limb movement of patients | |
Kawahata et al. | Design of a low-false-positive gesture for a wearable device | |
Bakhtiyari et al. | Implementation of emotional-aware computer systems using typical input devices | |
Kumar et al. | Performance analysis of KNN, SVM and ANN techniques for gesture recognition system | |
Gupta et al. | S-pencil: A smart pencil grip monitoring system for kids using sensors | |
Shitole et al. | Dynamic hand gesture recognition using PCA, Pruning and ANN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E601 | Decision to refuse application |