KR101184742B1 - Contactless method for recognizing a direction by hand movement - Google Patents

Contactless method for recognizing a direction by hand movement Download PDF

Info

Publication number
KR101184742B1
KR101184742B1 KR1020110068325A KR20110068325A KR101184742B1 KR 101184742 B1 KR101184742 B1 KR 101184742B1 KR 1020110068325 A KR1020110068325 A KR 1020110068325A KR 20110068325 A KR20110068325 A KR 20110068325A KR 101184742 B1 KR101184742 B1 KR 101184742B1
Authority
KR
South Korea
Prior art keywords
finger
hand
region
point
center
Prior art date
Application number
KR1020110068325A
Other languages
Korean (ko)
Inventor
주영훈
시란얀
Original Assignee
군산대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 군산대학교산학협력단 filed Critical 군산대학교산학협력단
Priority to KR1020110068325A priority Critical patent/KR101184742B1/en
Application granted granted Critical
Publication of KR101184742B1 publication Critical patent/KR101184742B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

PURPOSE: A non-contact direction recognizing method by hand motion is provided to calculate the central point of a hand and the end point of a finger from a detected hand area, thereby setting a direction by calculating a straight line from the central point and the end. CONSTITUTION: A device forms a skin color area by an input image(S1). The device detects a hand area by the skin color area(S2). The device extracts a point of gravity and the end point of a finger from the hand area(S3). The device calculates a finger direction from the point of gravity and the end point of the finger(S4). The device recognizes the nearest direction center axis as a finger direction by comparing a central direction axis with the finger direction. [Reference numerals] (AA) Start; (BB) End; (S1) Extraction of skin color area; (S2) Extraction of hand area; (S3) Extraction of point of gravity and end point; (S4) Calculation of finger direction; (S5) Recognition of finger direction

Description

비접촉식 손동작에 의한 방향 인식 방법{CONTACTLESS METHOD FOR RECOGNIZING A DIRECTION BY HAND MOVEMENT }CONTACTLESS METHOD FOR RECOGNIZING A DIRECTION BY HAND MOVEMENT}

본 발명은 비접촉식 손동작에 의한 방향 인식 방법에 관한 것으로, 손 영역을 검출하고 검출된 손 영역으로부터 손의 영역 중심점과 손가락의 끝점을 계산하여 상기 중심점과 끝점까지의 직선 방향을 계산하여 방향을 설정하는 비접촉식 손동작에 의한 방향 인식 방법에 관한 것이다.The present invention relates to a method for recognizing a direction by a non-contact hand gesture, comprising detecting a hand region, calculating a center point of a hand and an end point of a finger from the detected hand area, calculating a straight line direction to the center point and the end point, and setting the direction. The present invention relates to a direction recognition method by a non-contact hand gesture.

현대사회는 인간과 컴퓨터가 공존한다. 인간은 컴퓨터를 조작하여 업무를 수행하고, 현실과 가상을 넘나든다. 인간이 컴퓨터를 조작하기 위해서는 HCI(human-computer interaction) 기기가 필요하다. In modern society, humans and computers coexist. Humans operate computers and cross reality and imagination. Humans need human-computer interaction (HCI) devices to manipulate computers.

HCI 기기는 인간과 컴퓨터간의 상호작용을 개선하여 인간이 컴퓨터를 보다 편리하고 유용하게 사용할 수 있도록 유도하는 장치이다. 최근 정보통신 기기의 보편화, 영상, 음향, 그래픽이 복합된 콘텐츠의 증가, 그리고 얇은 디스플레이의 개발 등에 힘입어 보다 편리하고 직관적인 HCI 기기에 대한 요구가 증대되고 있다.An HCI device is a device that induces humans to use computers more conveniently and efficiently by improving the interaction between humans and computers. Recently, the demand for more convenient and intuitive HCI devices has increased due to the generalization of information and communication devices, the increase of contents mixed with video, sound, and graphics, and the development of thin displays.

전통적인 HCI 기기는 모니터, 프린터와 같은 시각기반의 출력장치와 키보드, 마우스, 디지타이저 등 기호 및 접촉기반의 입력장치가 대표적이다. 특히, 기호기반 입력장치는 별도의 장치를 구비해야하므로 휴대용 기기에 적합하지 않고, 다수의 사용자가 동시에 사용하기 불편하다. 휴대용 정보통신기기의 급속한 보급으로 터치스크린과 같이 일체화된 입출력장치가 보편화되었으나, 터치인식을 위한 압력 또는 정전용량 센서 패널이 필요하다. 이러한 접촉식 입력장치는 부가적인 센서패널에 의한 비용상승으로 대형스크린에 적용하기 곤란하며, 조작을 위해 스크린을 건드려야 하므로 인간의 행동 반경이 제약된다는 단점이 있다.Traditional HCI devices include visually based output devices such as monitors and printers, and symbolic and touch-based input devices such as keyboards, mice, and digitizers. In particular, since the symbol-based input device must have a separate device, it is not suitable for portable devices, and it is inconvenient for multiple users to use it at the same time. With the rapid spread of portable information communication devices, integrated input / output devices such as touch screens have become commonplace, but pressure or capacitive sensor panels for touch recognition are required. Such a touch input device is difficult to be applied to a large screen due to an increase in cost due to an additional sensor panel, and has a disadvantage in that a human action radius is limited because the screen is touched for manipulation.

이와 같은 접촉식 입력장치의 단점을 극복하기 위해, 글러브 데이터 방식, 3차원 모델 방식, 그리고 2차원 패턴 방식 등 비접촉식 입력장치에 대한 연구가 활발히 진행되고 있다. 그러나, 글러브 데이터 방식은 센서가 장착된 장갑을 착용하여 손의 위치와 동작을 인식하는 방식으로, 정확도는 높지만 추가적인 장비로 인해 비용이 상승하고 장갑을 착용해야 한다는 불편함이 있다. 3차원 모델 방식은 스테레오 비전을 사용하거나 2차원으로 추출된 정보를 3차원으로 재해석하는 방법으로, 연산량이 많으므로 저사양 시스템에서 실시간으로 구현하기 곤란하다. 이에 비해, 2차원 패턴 방식은 추가적인 장비나 3차원 정보 해석이 불필요하므로 가장 저렴하고 간단한 방법이지만, 조명과 피부색 변화에 민감하여 영상에서 손을 추출하기 어렵고, 2차원 패턴 정보만을 이용하므로 손동작을 정확하게 인식하기 힘들다는 문제가 있다.In order to overcome the disadvantages of such a touch input device, research on a non-contact input device such as a glove data method, a three-dimensional model method, and a two-dimensional pattern method has been actively conducted. However, the glove data method is a method of recognizing the position and motion of a hand by wearing a sensor-mounted glove, which is inconvenient to increase the cost and to wear the glove due to additional equipment. The 3D model is a method of using stereo vision or reinterpreting information extracted in 2D in 3D. Since the computational amount is large, it is difficult to implement in real time in a low-spec system. On the other hand, the 2D pattern method is the cheapest and simplest method because there is no need for additional equipment or 3D information analysis, but it is difficult to extract the hand from the image because it is sensitive to light and skin color change, and only 2D pattern information is used to accurately There is a problem that is difficult to recognize.

한편, 카메라 등 영상 입력장치를 통해 입력되는 2차원 패턴 정보를 이용하여 손 동작을 인식하는 기술도 개발되고 있다. Meanwhile, a technology for recognizing hand gestures using two-dimensional pattern information input through an image input apparatus such as a camera has also been developed.

예를들어, 국내공개특허공보 1999-0073927호(공개일 : 1999.10.05.) '화상인식에 의해 동작하는 장치 및 그 방법'에는 TV나 비디오 등 전자기기에 CCD 카메라 등 영상 입력장치를 통해 입력된 손의 형상을 인식한 후 이를 미리 저장된 손의 형태와 비교하여 해당하는 제어명령을 발생하는 기술이 제시되어 있다. 그러나, 이러한 기술은 전자기기를 구동하기 위해서는 사용자가 상기 전자기기의 특정 위치로 이동하여야 하고, 손의 모양도 상기 전자기기에 미리 입력된 특정 형상으로만 해야 한다는 불편함이 있다. For example, Korean Laid-Open Patent Publication No. 1999-0073927 (published date: Oct. 5, 1999), 'A device and method that operates by image recognition' is input to an electronic device such as a TV or a video through an image input device such as a CCD camera. A technique for generating a corresponding control command by recognizing a shape of a hand and comparing it with a shape of a pre-stored hand is proposed. However, such a technique is inconvenient in that, in order to drive an electronic device, a user must move to a specific position of the electronic device, and the shape of the hand must be only a specific shape previously input to the electronic device.

이와 같이 손동작 인식 기술들에서 나타나는 단점이나 불편함을 해소하여 간단하게 손동작에 의한 방향을 인식하는 방법은 구체적으로 제시되지 않고 있는 실정이다. As such, a method of simply recognizing a direction by a hand gesture by eliminating disadvantages and inconveniences caused by hand gesture recognition techniques has not been specifically described.

이와 같은 문제점을 극복하기 위하여, 본 발명은 손영역을 검출하고 검출된 손영역으로부터 손의 영역 중심점과 손가락의 끝점을 계산하여 상기 중심점과 끝점까지의 직선 방향을 계산하여 방향을 설정하는 비접촉식 손동작에 의한 방향 인식 방법을 제안한다.In order to overcome this problem, the present invention provides a non-contact hand gesture that detects a hand region, calculates a center point of a hand and an end point of a finger from the detected hand region, calculates a linear direction to the center point and the end point, and sets the direction. We propose a direction recognition method.

이를 위하여, 본 발명의 비접촉식 손동작에 의한 방향 인식 방법은 입력 영상으로부터 피부색을 추출하여 피부색 영역을 형성하는 제1단계, 상기 피부색 영역에 대하여 영상 전처리를 통해 손영역을 검출하는 제2단계, 상기 손영역으로부터 무게 중심점과 손가락의 끝점을 추출하는 제3단계, 상기 무게중심점으로부터 상기 손가락 끝점까지의 손가락 방향을 계산하는 제4단계, 방향 중심축과 상기 손가락 방향을 비교하여 가장 근접한 방향 중심축을 손가락 방향을 인식하는 제5단계를 포함한다.
To this end, the method for recognizing a direction by a non-contact hand gesture according to the present invention includes extracting a skin color from an input image to form a skin color region, a second step of detecting a hand region through image preprocessing with respect to the skin color region, and the hand. A third step of extracting a center point of gravity and an end point of a finger from an area; a fourth step of calculating a finger direction from the center of gravity point to the finger end point; Recognizing a fifth step.

본 발명은 손영역을 검출하고 검출된 손영역으로부터 손의 영역 중심점과 손가락의 끝점을 계산하여 상기 중심점과 끝점까지의 직선 방향을 계산하여 방향을 설정함으로써, 2차원 패턴 정보만을 이용하여 손동작으로부터 손가락 방향을 정확하게 인식할 수 있다.The present invention detects a hand area, calculates the center point of the hand and the end point of the finger from the detected hand area, calculates the direction of the straight line from the center point and the end point, and sets the direction, thereby using only two-dimensional pattern information. The direction can be recognized correctly.

도 1은 본 발명의 일실시예에 따른 입력영상의 비접촉식 손동작에 의한 방향 인식방법을 나타낸 순서도이다.
도 2는 본 발명의 일실시예에 따른 방향중심축을 나타낸 도면이다.
도 3은 본 발명의 일실시예에 따른 손영역의 무게중심점과 손가락 끝점을 도시한 도면이다.
1 is a flowchart illustrating a direction recognition method by a contactless hand gesture of an input image according to an embodiment of the present invention.
2 is a view showing a direction central axis according to an embodiment of the present invention.
3 is a diagram illustrating a center of gravity and a finger end point of a hand region according to an exemplary embodiment of the present invention.

이하, 실시예를 통하여 본 발명을 더욱 상세히 설명하기로 한다. 이들 실시예는 단지 본 발명을 예시하기 위한 것이며, 본 발명의 권리 보호 범위가 이들 실시예에 의해 제한되는 것은 아니다.Hereinafter, the present invention will be described in more detail with reference to Examples. These embodiments are only for illustrating the present invention, and the scope of rights of the present invention is not limited by these embodiments.

도 1은 본 발명의 일실시예에 따른 입력영상의 비접촉식 손동작에 의한 방향 인식방법을 나타낸 순서도이다.1 is a flowchart illustrating a direction recognition method by a contactless hand gesture of an input image according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 비접촉 손영역 인식방법은 입력 영상으로부터 피부색을 추출하여 피부색 영역을 형성하는 단계(S1), 상기 피부색 영역에 대하여 영상 전처리를 통해 손영역을 검출하는 단계(S2), 상기 손영역으로부터 무게 중심점과 손가락의 끝점을 추출하는 단계(S3), 상기 무게중심점으로부터 끝점까지의 손가락 방향을 계산하는 단계(S4), 방향 중심축과 상기 손가락 방향을 비교하여 손가락 방향을 인식하는 단계(S5)를 포함한다.As shown in FIG. 1, the non-contact hand region recognition method includes extracting a skin color from an input image to form a skin color region (S1), detecting a hand region through image preprocessing with respect to the skin color region (S2), Extracting the center of gravity point and the end point of the finger from the hand region (S3), calculating the direction of the finger from the center of gravity point to the end point (S4), comparing the direction of the central axis and the finger direction to recognize the finger direction Step S5 is included.

각 단계(S1~S5)에 대해 구체적으로 설명하면 다음과 같다.Each step (S1 ~ S5) will be described in detail as follows.

먼저, 입력 영상으로부터 피부색을 추출하여 피부색 영역을 형성한다(S1). 피부색은 색상 공간에서 특정한 영역에 분포하므로 피부색의 분포를 적절한 색상 모델로 근사하여 피부와 피부가 아닌 색상을 구분한다. 따라서, 적절한 색상 모델의 선택이 피부색 추출 성공을 결정하는 가장 중요한 요소이다. 일반적으로 HSI와 YCbCr 색상 모델이 많이 사용되고 있으나, 본 발명에서는 조도의 변화에 강인한 HCbCr 색상 모델을 제안한다. 이와 같이 추출된 피부색 영역은 손영역 뿐 만 아니라 얼굴도 포함한다.First, a skin color is extracted from an input image to form a skin color region (S1). Since skin color is distributed in a specific area in the color space, the skin color is approximated with an appropriate color model to distinguish skin from non-skin color. Therefore, the selection of an appropriate color model is the most important factor in determining skin color extraction success. In general, many HSI and YCbCr color models are used, but the present invention proposes an HCbCr color model that is robust to changes in illuminance. The extracted skin color region includes not only the hand region but also the face.

다음, 상기 피부색 영역에 대하여 그레디언트 정보를 이용하여 에지를 검출하고 상기 에지 검출 영상을 이진화하여 손영역을 추출한다(S2). 그레디언트란 이미지 상에서 하나의 색상이 다른 색상으로 점진적으로 변해가는 것을 의미한다. 따라서, 그레디언트 크기가 너무 작으면 인간의 눈으로 에지를 인식하기 쉽지 않기 때문에 일정 이상의 그레디언트 크기를 가지는 픽셀을 추출하여 에지를 검출하고 에지 이미지를 추출한다. 다음, 검출된 에지로부터 배경이미지를 제거하기 위하여 이진화를 수행하여 이진화 영상을 획득한다. 이후 얼굴 영역을 제외시켜 상기 이진화 영상으로부터 손영역만의 영상을 얻는다. Next, an edge is detected using the gradient information on the skin color region, and the hand region is extracted by binarizing the edge detection image (S2). Gradient means that one color gradually changes from one color to another in the image. Therefore, if the gradient size is too small, it is not easy to recognize the edge with the human eye, so the pixel having a certain size or more gradient is extracted to detect the edge and extract the edge image. Next, binarization is performed to remove the background image from the detected edge to obtain a binarized image. After that, the image of the hand region is obtained from the binarization image by excluding the face region.

다음, 상기 손영역만의 영상으로부터 무게 중심점과 손가락 끝점을 추출한다(S3). 상기 손영역만의 영상은 손바닥 영역과 손가락 영역으로 분리할 수 있으며, 상기 손바닥 영역으로부터 그 중심 위치를 구하여 무게 중심점을 추출한다. 또한 손가락 영역으로부터 손가락의 끝을 나타내는 손가락 끝점을 추출한다. 이런 과정을 거치면, 손바닥 영역과 손가락 영역이 연결되는 손가락 형상이 시작되는 시작점을 추출할 수 있다.Next, the center of gravity and the fingertip point are extracted from the image of the hand region only (S3). The image of only the hand region may be divided into a palm region and a finger region, and the center of gravity is extracted by obtaining the center position from the palm region. In addition, a fingertip point representing the tip of the finger is extracted from the finger region. Through this process, it is possible to extract the starting point where the finger shape connecting the palm region and the finger region starts.

다음, 상기 무게 중심점으로부터 손가락 끝점까지의 손가락 방향을 계산한다(S4). 상기 손바닥의 무게 중심점으로부터 손가락 끝점까지 제1직선이 그려지며, 상기 제1직선이 가리키는 방향이 손가락 방향이 된다. 그러나, 상기 손의 형태에 따라 무게중심은 달라지게 되며, 손가락의 끝점 또한 손가락이 엄지, 검지, 중지, 약지, 소지인지에 따라 달라지게 되어, 무게 중심점으로부터 각 손가락의 끝점까지의 제1직선 방향은 실제 손가락이 가리키는 방향과 차이를 보일 수 있다. 따라서, 무게 중심점으로부터 손가락 시작점까지 제2직선을 긋고 상기 제2직선 방향과 제1직선 방향이 차이를 보이는 경우에는 상기 차이만큼의 보정각을 설정하고 상기 제1 직선 방향을 보정하여 최종 손가락 방향으로 설정한다. Next, the finger direction from the center of gravity point to the finger end point is calculated (S4). A first straight line is drawn from the center of gravity of the palm to the fingertip point, and the direction indicated by the first straight line is the finger direction. However, the center of gravity of the hand is changed according to the shape of the hand, and the end point of the finger also varies depending on whether the finger is the thumb, the index finger, the middle finger, the ring finger, or the hand. May be different from the direction the finger points. Therefore, when the second straight line is drawn from the center of gravity point to the finger start point and the difference between the second straight line direction and the first straight line direction is different, a correction angle corresponding to the difference is set, and the first straight line direction is corrected to the final finger direction. Set it.

다음, 방향 중심축과 상기 계산된 손가락 방향을 비교하여 손가락 방향을 인식한다(S5). 방향 중심축은 각 방향을 가리키는 기준 축을 말하며, 4가지 방향 , 8가지 방향, 16가지 방향으로 설정할 수 있다. 따라서, 상기 계산된 손가락 방향과 가장 근접한 방향 중심축이 손가락 방향이 된다. Next, the finger direction is recognized by comparing the direction center axis with the calculated finger direction (S5). Direction The central axis refers to the reference axis that points in each direction, and can be set in 4 directions, 8 directions, and 16 directions. Thus, the direction central axis closest to the calculated finger direction becomes the finger direction.

도 2은 본 발명의 일실시예에 따른 방향중심축을 나타낸 도면이다. 본 발명에서는 45도 간격으로 설정된 8가지 방향의 방향 중심축을 도시하였다. 2 is a view showing a direction central axis according to an embodiment of the present invention. In the present invention, the direction central axis in eight directions set at 45 degree intervals is illustrated.

도 3은 본 발명의 일실시예에 따른 손영역의 무게중심점과 손가락 끝점을 도시한 도면이다.3 is a diagram illustrating a center of gravity and a finger end point of a hand region according to an exemplary embodiment of the present invention.

손영역에서 손바닥 영역의 중심위치를 나타내는 무게 중심점은 P0(x0, y0)이며, 손가락 영역의 손가락 시작점은 P1(x, y)이며, 손가락 영역의 손가락 끝점은 P2(x, y)이다. 따라서, P0(x0, y0)로부터 P2(x, y)까지의 직선이 가리키는 방향이 제1직선 방향이며, P0(x0, y0)로부터 P1(x, y)까지의 직선이 가리키는 방향이 제2직선 방향이 된다. 제1직선 방향과 제2 직선 방향이 차이가 있는 경우, 제1직선 방향과 제2 직선 방향의 차이에 의한 보정각으로 제1 직선방향을 보정하여 보정된 제1 직선 방향을 손가락 방향으로 설정한다. In the hand region, the center of gravity indicating the center position of the palm region is P0 (x0, y0), the finger starting point of the finger region is P1 (x, y), and the finger end point of the finger region is P2 (x, y). Therefore, the direction indicated by the straight line from P0 (x0, y0) to P2 (x, y) is the first straight line direction, and the direction indicated by the straight line from P0 (x0, y0) to P1 (x, y) is second. It is in a straight line direction. If there is a difference between the first straight line direction and the second straight line direction, the first straight line direction is corrected by the correction angle due to the difference between the first straight line direction and the second straight line direction, and the corrected first straight line direction is set as the finger direction. .

S1: 입력 영상으로부터 피부색을 추출하여 피부색 영역을 형성하는 단계
S2: 피부색 영역에 대하여 영상 전처리를 통해 손영역을 검출하는 단계
S3: 손영역으로부터 무게 중심점과 손가락의 끝점을 추출하는 단계
S4: 무게중심점으로부터 끝점까지의 손가락 방향을 계산하는 단계
S5: 방향 중심축과 상기 손가락 방향을 비교하여 손가락 방향을 인식하는 단계
S1: extracting the skin color from the input image to form a skin color region
S2: detecting the hand region through the image preprocessing on the skin color region
S3: extracting the center of gravity and the end point of the finger from the hand region
S4: calculating the direction of the finger from the center of gravity to the end point
S5: comparing the direction axis and the direction of the finger to recognize the direction of the finger

Claims (4)

입력 영상으로부터 피부색을 추출하여 피부색 영역을 형성하는 제1단계;
상기 피부색 영역에 대하여 영상 전처리를 통해 손영역을 검출하는 제2단계;
상기 손영역으로부터 무게 중심점과 손가락의 끝점을 추출하는 제3단계;
상기 무게 중심점으로부터 상기 손가락 끝점까지의 손가락 방향을 계산하는 제4단계;
방향 중심축과 상기 손가락 방향을 비교하여 가장 근접한 방향 중심축을 손가락 방향으로 인식하는 제5단계;를 포함하며,
상기 제4단계는,
상기 손영역으로부터 손가락의 시작점을 추출하는 제4-1단계;
상기 무게 중심점으로부터 손가락 시작점까지 제2직선을 긋는 제4-2단계; 및
상기 제2직선 방향과 손가락 방향이 차이를 보이는 경우에는 상기 차이만큼의 보정각을 설정하고, 상기 손가락 방향을 보정하는 제4-3단계를 포함하는 것을 특징으로 하는 비접촉식 손동작에 의한 방향 인식 방법.
Extracting a skin color from an input image to form a skin color region;
A second step of detecting a hand region through the image preprocessing with respect to the skin color region;
Extracting a center of gravity point and an end point of a finger from the hand region;
A fourth step of calculating a finger direction from the center of gravity point to the finger end point;
And a fifth step of recognizing the closest direction central axis in the direction of the finger by comparing the direction central axis with the finger direction.
In the fourth step,
Extracting a starting point of a finger from the hand region;
Step 4-2 of drawing a second straight line from the center of gravity point to a finger start point; And
And a fourth to third step of setting a correction angle corresponding to the difference and correcting the finger direction when the second straight direction and the finger direction show a difference.
제 1 항에 있어서, 상기 제3단계에서
상기 손영역만의 영상은 손바닥 영역과 손가락 영역으로 분리하고, 상기 손바닥 영역으로부터 그 중심 위치를 구하여 무게 중심점을 추출하며, 상기 손가락 영역으로부터 손가락의 끝을 나타내는 손가락 끝점을 추출하는 것을 특징으로 하는 비접촉식 손동작에 의한 방향 인식 방법.
The method of claim 1, wherein in the third step
The image of only the hand region is separated into a palm region and a finger region, a center position is extracted from the palm region, a center of gravity is extracted, and a fingertip representing a finger tip is extracted from the finger region. Direction recognition method by hand gesture.
삭제delete 제1항에 있어서, 상기 제5단계에서
상기 방향 중심축은 4가지 방향, 8가지 방향 또는 16가지 방향 중 어느 하나로 설정하는 것을 특징으로 하는 비접촉식 손동작에 의한 방향 인식 방법.


The method of claim 1, wherein in the fifth step
The direction axis is a direction recognition method according to a non-contact hand gesture, characterized in that set to any one of four directions, eight directions or 16 directions.


KR1020110068325A 2011-07-11 2011-07-11 Contactless method for recognizing a direction by hand movement KR101184742B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110068325A KR101184742B1 (en) 2011-07-11 2011-07-11 Contactless method for recognizing a direction by hand movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110068325A KR101184742B1 (en) 2011-07-11 2011-07-11 Contactless method for recognizing a direction by hand movement

Publications (1)

Publication Number Publication Date
KR101184742B1 true KR101184742B1 (en) 2012-09-20

Family

ID=47113929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110068325A KR101184742B1 (en) 2011-07-11 2011-07-11 Contactless method for recognizing a direction by hand movement

Country Status (1)

Country Link
KR (1) KR101184742B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376665B1 (en) 2020-09-28 2022-03-22 한국생산기술연구원 Apparatus and method for performing non-contact recognition using opaque materials

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
김부년, 김종호, 김태영, "가상 현실 게임 환경에서의 가상 손 제어를 위한 사용자 손 인식 방법", 한국게임학회 논문지, vol.10, no.2, pp.49-56, 2010년 4월.*
정현석, 오명재, 주영훈, 박진배, "비젼을 이용한 손 영역 특징점 추출", 2009년도 대한전기학회 하계학술대회 논문집, pp.1798-1799, 2009년 7월.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376665B1 (en) 2020-09-28 2022-03-22 한국생산기술연구원 Apparatus and method for performing non-contact recognition using opaque materials

Similar Documents

Publication Publication Date Title
US11048333B2 (en) System and method for close-range movement tracking
US10761610B2 (en) Vehicle systems and methods for interaction detection
US10514805B2 (en) Method and apparatus for data entry input
US9910498B2 (en) System and method for close-range movement tracking
CN103294996B (en) A kind of 3D gesture identification method
WO2018076523A1 (en) Gesture recognition method and apparatus, and in-vehicle system
KR101809636B1 (en) Remote control of computer devices
US9317130B2 (en) Visual feedback by identifying anatomical features of a hand
US10366281B2 (en) Gesture identification with natural images
GB2470654A (en) Data input on a virtual device using a set of objects.
CN103853321B (en) Portable computer and pointing system with direction-pointing function
US9760758B2 (en) Determining which hand is being used to operate a device using a fingerprint sensor
CN105242776A (en) Control method for intelligent glasses and intelligent glasses
CN103809787B (en) Be adapted for contact with controlling and suspend the touch-control system and its operating method of control
Dang et al. Usage and recognition of finger orientation for multi-touch tabletop interaction
KR101184742B1 (en) Contactless method for recognizing a direction by hand movement
KR101422447B1 (en) Method and apparatus for changing page of e-book using pressure modeling
KR101171239B1 (en) Non-touch data input and operating method using image processing
Edwin et al. Hand detection for virtual touchpad
TWI444875B (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor
KR20190069023A (en) Method of Providing Touchless Input Interface Based on Hand Recognition and The Apparatus Applied Thereto
CN106575184B (en) Information processing apparatus, information processing method, and computer readable medium
KR20140086805A (en) Electronic apparatus, method for controlling the same and computer-readable recording medium
TWI603226B (en) Gesture recongnition method for motion sensing detector
KR20180044535A (en) Holography smart home system and control method

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150907

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160826

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170623

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180829

Year of fee payment: 7