KR101083367B1 - Method and apparatus for user authentication using image - Google Patents
Method and apparatus for user authentication using image Download PDFInfo
- Publication number
- KR101083367B1 KR101083367B1 KR1020100007143A KR20100007143A KR101083367B1 KR 101083367 B1 KR101083367 B1 KR 101083367B1 KR 1020100007143 A KR1020100007143 A KR 1020100007143A KR 20100007143 A KR20100007143 A KR 20100007143A KR 101083367 B1 KR101083367 B1 KR 101083367B1
- Authority
- KR
- South Korea
- Prior art keywords
- feature point
- block
- image
- user
- authentication
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
Abstract
영상을 이용한 사용자 인증 방법 및 장치가 개시된다. 인증 장치에서 사용자에 대해 인증하는 방법은, 복수의 카메라를 통해 사용자를 촬영한 복수의 영상을 획득하고, 획득된 복수의 영상을 분석하여 특징점을 각각 추출하며, 영상을 m(임의의 자연수)개의 블록으로 각각 분할하여 추출된 특징점을 포함하는 각 영상의 블록 위치를 이진화하여 블록별 특징점 위치 정보를 생성하고, 블록별 특징점 위치 정보 및 기저장된 블록별 특징점 위치 정보들을 비교하여 사용자에 대해 인증을 수행할 수 있다.A user authentication method and apparatus using an image are disclosed. The authentication apparatus authenticates a user by obtaining a plurality of images photographing the user through a plurality of cameras, analyzing the obtained plurality of images, extracting feature points, respectively, and m (random number of natural) images. Binary block position of each image including feature points extracted by dividing each block into bins to generate feature point position information for each block, and perform authentication for a user by comparing feature point position information for each block and pre-stored feature point position information for each block. can do.
Description
본 발명은 사용자 인증에 관한 것으로, 보다 상세하게 제한된 구역에서 카메라를 통해 획득된 영상을 분석하여 사용자를 인증하는 방법 및 장치에 관한 것이다.
The present invention relates to user authentication, and more particularly, to a method and apparatus for authenticating a user by analyzing an image acquired through a camera in a restricted area.
오늘날 정보화 시대에서 산업기술유출은 국가, 기업간 기술적, 경제적, 산업적 측면에서 매우 중요한 화제로 대두되고 있다. 산업기밀유출 방지를 위해 제한구역 및 비 인가자로부터 출입을 금지하기 위해 여러가지 인증 방법을 통해 인가자의 출입을 허용하고 있다. 단순한 화상인터폰에서부터 RFID카드 및 사람의 생체(바이오)정보 등이 주로 사용되고 있다.In today's information age, industrial technology spills are becoming a very important topic in terms of technology, economy and industry between countries and companies. In order to prevent the leakage of industrial confidentiality, permitting is permitted through various authentication methods to prohibit access from restricted areas and unauthorized persons. From simple video interphones, RFID cards and human biometric information are mainly used.
위의 예로 나열한 인증 방법들 중에 불편한 점들은 생체정보를 이용하는 것이다. 이는 개인정보노출에 민감한 사항에 될 수 있기 때문에 사용자들이 매우 꺼려한다는 점과 RFID카드를 이용하는 것은 RFID를 항상 소지해야 하기 때문에 불편함과 대체 인증이 가능한 단점이 있다.
One of the inconveniences of the authentication methods listed above is to use biometric information. This may be sensitive to personal information exposure, so users are very reluctant, and using an RFID card has disadvantages in that it is inconvenient and alternative authentication is possible because it must always carry RFID.
본 발명은 복수의 카메라를 이용하여 사용자를 촬영한 영상을 분석하여 사용자를인증하는 방법 및 장치를 제공하기 위한 것이다.The present invention provides a method and apparatus for authenticating a user by analyzing an image photographed by the user using a plurality of cameras.
또한, 본 발명은 사용자에 대한 영상을 통해 특징점을 추출하고, 추출된 특징점을 이용하여 사용자에 대해 인증을 수행함으로써 번거로운 생체인식 또는 RFID를 항상 소지해야 하는 불편함과 대체 인증의 문제점을 해소할 수 있는 영상을 이용한 사용자 인증 방법 및 장치를 제공하기 위한 것이다.In addition, the present invention can solve the inconvenience of having to carry the cumbersome biometrics or RFID at all times by extracting the feature point through the image of the user, and performing authentication for the user using the extracted feature point can be solved It is to provide a user authentication method and apparatus using an image present.
또한, 본 발명은 영상의 특징점 정보가 포함되어 있는 분할된 블록의 위치를 이용하여 사용자에 대해 인증을 수행하도록 하여 영상 인증에 따른 지연을 최소화할 수 있는 영상을 이용한 사용자 인증 방법 및 장치를 제공하기 위한 것이다.
In addition, the present invention provides a user authentication method and apparatus using an image that can minimize the delay due to image authentication by performing authentication for the user using the location of the divided block containing the feature point information of the image. It is for.
본 발명의 일 측면에 따르면, 사용자에 대해 인증하는 방법 및 그 방법을 수행하기 위한 프로그램을 기록한 기록매체가 제공된다.According to an aspect of the present invention, there is provided a recording medium recording a method for authenticating a user and a program for performing the method.
본 발명의 일 실시예에 따르면, 인증 장치에서 사용자에 대해 인증하는 방법에 있어서, (a) 복수의 카메라를 통해 사용자를 촬영한 복수의 영상을 획득하는 단계; (b) 상기 획득된 복수의 영상을 분석하여 특징점을 각각 추출하는 단계; (c) 상기 영상을 m(임의의 자연수)개의 블록으로 각각 분할하는 단계; (d) 상기 추출된 특징점을 포함하는 각 영상의 블록 위치를 이진화하여 블록별 특징점 위치 정보를 생성하는 단계; 및 (e) 상기 블록별 특징점 위치 정보 및 기저장된 블록별 특징점 위치 정보들을 비교하여 상기 사용자에 대해 인증을 수행하는 단계를 포함하는 사용자 인증 방법이 제공될 수 있다.According to an embodiment of the present invention, a method for authenticating a user in an authentication apparatus includes: (a) acquiring a plurality of images photographing a user through a plurality of cameras; (b) extracting feature points by analyzing the obtained plurality of images; (c) dividing the image into m (random natural numbers) blocks, respectively; generating feature point position information for each block by binarizing a block position of each image including the extracted feature point; And (e) comparing the feature point position information for each block with the feature point position information for each block, and performing authentication for the user.
상기 카메라는 상기 사용자를 앞, 뒤, 좌, 우에서 촬영할 수 있도록 배치된다.The camera is arranged to photograph the user from the front, the back, the left and the right.
상기 (a) 단계는, 상기 사용자에 대해 앞, 뒤, 좌, 우 영상을 획득하는 단계일 수 있다.Step (a) may be a step of acquiring front, rear, left and right images of the user.
상기 (b) 단계는 상기 영상의 침식 및 팽창 과정을 통한 각 화소의 색상 정보를 이용하여 상기 영상에 대한 특징점을 추출할 수 있다.In the step (b), the feature point of the image may be extracted using color information of each pixel through the erosion and expansion of the image.
블록별 특징점 위치 정보는 프레임의 블록의 수에 따른 비트 수로 구성되며, 상기 (d) 단계는, 대상 프레임에서 상기 특징점을 포함하는 블록의 위치에 상응하는 비트의 비트값을 1로 설정하는 단계일 수 있다.The feature point position information for each block is composed of the number of bits according to the number of blocks of the frame. The step (d) may include setting the bit value of the bit corresponding to the position of the block including the feature point to 1 in a target frame. Can be.
상기 (c) 단계 이전에, 상기 영상을 그레이 영상으로 변환하는 단계를 더 포함한다. Prior to the step (c), the method may further include converting the image into a gray image.
상기 (e) 단계는, 블록별 특징점 위치 정보와 기저장된 블록별 특징점 위치 정보들을 순차적으로 비교하여 매칭 정도가 높은 프레임의 블록별 특징점 위치 정보를 임시 저장하는 단계; 상기 임시 저장된 블록별 특징점 위치 정보의 평균값을 산출하는 단계; 및 상기 평균값이 미리 설정된 임계치를 초과하는 경우, 상기 사용자에 대해 인증 성공으로 결정하는 단계를 포함할 수 있다.The step (e) may include sequentially storing the feature point position information of each block of a frame having a high matching degree by sequentially comparing the feature point position information of each block with previously stored feature point position information of each block; Calculating an average value of feature point location information for each temporarily stored block; And when the average value exceeds a preset threshold, determining that the authentication succeeds for the user.
상기 평균값이 미리 설정된 임계치 미만인 경우, 상기 사용자에 대해 인증 실패로 결정하는 단계를 더 포함할 수 있다.
If the average value is less than a preset threshold, it may further include determining that the authentication failure for the user.
본 발명의 다른 실시예에 따르면, 사용자 인증을 위한 방법을 수행하기 위해 디지털 처리 장치에 의해 실행될 수 있는 명령어의 프로그램이 유형적으로 구현되어 있으며, 상기 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체에 있어서, (a) 복수의 카메라를 통해 사용자를 촬영한 복수의 영상을 획득하는 단계; (b) 상기 획득된 복수의 영상을 분석하여 특징점을 각각 추출하는 단계; (c) 상기 영상을 m(임의의 자연수)개의 블록으로 각각 분할하는 단계; (d) 상기 추출된 특징점을 포함하는 각 영상의 블록 위치를 이진화하여 블록별 특징점 위치 정보를 생성하는 단계; 및 (e) 상기 블록별 특징점 위치 정보 및 기저장된 블록별 특징점 위치 정보들을 비교하여 상기 사용자에 대해 인증을 수행하는 단계를 실행하는 프로그램을 기록한 기록매체가 제공될 수 있다.
According to another embodiment of the present invention, there is tangibly implemented a program of instructions executable by a digital processing apparatus to perform a method for user authentication, and recording a program that can be read by the digital processing apparatus. A medium, comprising: (a) acquiring a plurality of images photographing a user through a plurality of cameras; (b) extracting feature points by analyzing the obtained plurality of images; (c) dividing the image into m (random natural numbers) blocks, respectively; generating feature point position information for each block by binarizing a block position of each image including the extracted feature point; And (e) comparing the feature point position information for each block and the feature point position information for each block, and storing a program for executing the step of performing authentication for the user.
본 발명의 다른 측면에 따르면, 복수의 카메라와 연결되어 사용자에 대해 인증하는 인증 장치가 제공된다.According to another aspect of the present invention, there is provided an authentication device that is connected to a plurality of cameras to authenticate a user.
본 발명의 실시예에 따르면, 복수의 카메라와 연결되어 사용자에 대해 인증하는 인증 장치에 있어서, 복수의 카메라를 통해 사용자를 촬영한 복수의 영상을 획득하여 수집하는 수집부; 상기 수집된 복수의 영상을 프레임 단위로 분석하여 특징점을 추출하고, 상기 복수의 영상을 m(자연수)개의 블록으로 분할하여 상기 추출된 특징점이 포함된 블록의 위치를 이진화하여 블록별 특징점 위치 정보를 생성하는 영상 처리부; 및 상기 블록별 특징점 위치 정보 및 기저장된 블록별 특징점 위치 정보들을 비교하여 상기 사용자에 대해 인증을 수행하는 인증부를 포함하는 인증 장치가 제공될 수 있다.According to an embodiment of the present invention, an authentication device connected to a plurality of cameras to authenticate a user, comprising: a collecting unit configured to acquire and collect a plurality of images photographing a user through a plurality of cameras; Feature points are extracted by analyzing the collected plurality of images on a frame-by-frame basis, the plurality of images are divided into m (natural numbers) blocks, and the position of the block including the extracted feature points is binarized to obtain feature point position information for each block. An image processor for generating; And an authentication unit configured to compare the feature point location information for each block and the feature point location information for each block, and perform authentication for the user.
상기 카메라는 상기 사용자를 앞, 뒤, 좌, 우에서 촬영할 수 있도록 배치된다.The camera is arranged to photograph the user from the front, the back, the left and the right.
상기 수집부는, 상기 사용자에 대해 앞, 뒤, 좌, 우 영상을 획득하여 수집할 수 있다.The collection unit may acquire and collect front, rear, left and right images of the user.
상기 영상 처리부는, 상기 복수의 영상을 각 프레임 단위로 분석하는 추출부; 상기 복수의 영상을 프레임 단위로 상기 m개의 블록으로 각각 분할하는 전처리부; 및 각 프레임 단위로 상기 추출된 특징점을 포함하는 블록의 위치를 이진화하여 블록별 특징점 위치 정보를 생성하는 후처리부를 포함할 수 있다.The image processor may include: an extractor configured to analyze the plurality of images in units of frames; A preprocessor dividing the plurality of images into the m blocks on a frame basis; And a post-processing unit for generating feature point position information for each block by binarizing the position of the block including the extracted feature point in each frame unit.
상기 추출부는 상기 특징점 추출 이전에 상기 영상을 그레이 영상으로 변환할 수 있다.The extractor may convert the image into a gray image before extracting the feature point.
상기 추출부는 상기 영상의 침식 및 팽창 과정을 통해 각 화소의 색상 정보를 이용하여 특징점을 추출을 추출할 수 있다.The extractor may extract feature points by using color information of each pixel through erosion and expansion of the image.
블록별 특징점 위치 정보는 프레임의 블록의 수에 따른 비트 수로 구성되며, 상기 후처리부는, 대상 프레임에서 상기 특징점을 포함하는 블록의 위치에 상응하는 비트의 비트값을 1로 설정할 수 있다.The feature point position information for each block includes a number of bits according to the number of blocks of the frame, and the post processor may set a bit value of a bit corresponding to a position of a block including the feature point to 1 in a target frame.
상기 인증부는, 블록별 특징점 위치 정보와 기저장된 블록별 특징점 위치 정보를 순차적으로 비교하여 매칭 정도가 높은 프레임의 블록별 특징점 위치 정보를 임시 저장하고, 상기 임시 저장된 블록별 특징점 위치 정보의 평균값을 산출하며, 상기 평균값이 미리 설정된 임계치를 초과하는 경우, 상기 사용자에 대해 인증 성공으로 결정하며, 상기 평균값이 미리 설정된 임계치 미만인 경우, 상기 사용자에 대해 인증 실패로 결정할 수 있다.
The authentication unit sequentially compares the feature point position information for each block with the prestored feature point position information for each block, temporarily storing the feature point position information for each block of a frame having a high matching degree, and calculates an average value of the feature point position information for each temporarily stored block. If the average value exceeds a preset threshold, the user may determine that the authentication succeeds. If the average value is less than the preset threshold, the user may determine that the user fails authentication.
본 발명에 따른 영상을 이용한 사용자 인증 방법 및 장치를 제공함으로써, 복수의 카메라를 이용하여 사용자를 촬영한 영상을 분석하여 사용자에 대해 인증할 수 있다.By providing a user authentication method and apparatus using an image according to the present invention, it is possible to authenticate the user by analyzing the image photographed by the user using a plurality of cameras.
또한, 본 발명은 사용자에 대한 영상을 통해 특징점을 추출하고, 추출된 특징점을 이용하여 사용자에 대해 인증을 수행함으로써 번거로운 생체인식 또는 RFID를 항상 소지해야 하는 불편함을 해소할 수 있다.In addition, the present invention can solve the inconvenience of having to carry a cumbersome biometrics or RFID by always extracting the feature point through the image of the user, and by using the extracted feature point to authenticate the user.
또한, 본 발명은 특징점이 추출된 블록의 위치를 이용하여 사용자에 대해 인증을 수행하도록 하여 영상 인증에 따른 지연을 최소화할 수 있다.
In addition, the present invention can minimize the delay due to image authentication by performing authentication for the user using the location of the block from which the feature point is extracted.
도 1은 본 발명의 실시예에 따른 사용자 인증을 위한 영상 인증 시스템의 구성을 개략적으로 도시한 블록도.
도 2는 본 발명의 실시예에 따른 인증 장치의 내부 구성을 개략적으로 도시한 블록도.
도 3은 본 발명의 실시예에 따른 영상 처리부의 내부 구성을 개략적으로 도시한 블록도.
도 4는 본 발명의 실시예에 따른 사용자 인증 방법을 나타낸 순서도.
도 5는 본 발명의 실시예에 따른 인증 장치에서 블록별 특징점 위치 정보를 비교하는 과정을 설명하기 위해 도시한 도면.1 is a block diagram schematically showing the configuration of a video authentication system for user authentication according to an embodiment of the present invention.
2 is a block diagram schematically showing an internal configuration of an authentication apparatus according to an embodiment of the present invention.
3 is a block diagram schematically illustrating an internal configuration of an image processor according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a user authentication method according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a process of comparing feature point position information for each block in the authentication apparatus according to an exemplary embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[도 1 설명][Description of Fig. 1]
도 1은 본 발명의 실시예에 따른 사용자 인증을 위한 영상 인증 시스템에서의 카메라의 배치 위치를 설명하기 위해 도시한 도면이다.1 is a view illustrating an arrangement position of a camera in an image authentication system for user authentication according to an embodiment of the present invention.
본 실시예에 따른 영상 인증 시스템은 하기 도 2에 도시된 바와 같이, 복수의 카메라(110)와 인증 장치(120)를 포함하여 구성된다.As shown in FIG. 2, the image authentication system according to the present embodiment includes a plurality of
카메라(110)는 객체를 촬상하여 영상을 인증 장치(120)로 출력한다. 카메라(110)는 도 1에 도시된 바와 같이, 특정한 구역을 기준으로 n(임의의 자연수)대가 설치된다.The
각각의 카메라는 특정한 구역에 객체가 위치되는 경우, 인증 장치(120)의 제어 신호에 따라 동시에 객체를 촬상하여 영상을 인증 장치(120)로 각각 전송할 수 있다.When an object is located in a specific area, each camera may simultaneously image an object and transmit an image to the
본 실시예에서는 이해와 설명의 편의를 도모하기 위해, 4대의 카메라가 배치되는 것을 가정하여 설명하기로 한다. 예를 들어, 카메라는 특정한 구역을 기준으로 객체의 앞, 뒤, 좌, 우를 촬영할 수 있도록 설치 또는 배치된다.In the present embodiment, for convenience of understanding and explanation, it will be described on the assumption that four cameras are arranged. For example, the camera is installed or arranged to photograph the front, rear, left and right of the object based on a specific area.
예를 들어, 사용자가 특정한 구역(또는 출입 장치가 부착된 출입구)에서 출입을 위해 미리 설정된 버튼을 누르거나 터치 스크린을 터치한 경우, 인증 장치(120)는 사용자의 인증을 위해 설치된 4대의 카메라로 촬상을 위한 제어 신호를 동시에 출력할 수 있다. 이에 따라, 각각의 카메라는 제어 신호에 따라 각각 객체(즉, 사용자)를 촬상하여 그 영상을 인증 장치(120)로 출력할 수 있다.For example, if a user presses a preset button or touches a touch screen for access in a specific area (or an entrance to which an access device is attached), the
인증 장치(120)는 복수의 카메라와 연결되며, 복수의 카메라의 동작을 제어할 수 있다.The
본 실시예에서는 인증 장치(120)가 복수의 카메라의 동작을 제어하는 것을 가정하여 설명하였으나, 다른 예를 들어, 별도의 센서가 구비되어, 객체가 지정된 위치에 위치되는 것을 감지하여 카메라가 동작되도록 제어할 수도 있다.In the present embodiment, the
또한, 인증 장치(120)는 복수의 카메라(110)로부터 각각 객체를 촬영한 영상을 수집하고, 수집된 영상을 분석하여 객체의 특징점을 추출한다. 이어, 인증 장치(120)는 추출된 특징점을 이용하여 객체를 인증하는 기능을 수행한다.In addition, the
이하, 인증 장치(120)의 구성 및 기능에 대해서는 하기에서 관련 도면을 참조하여 보다 상세히 설명하기로 한다.
Hereinafter, the configuration and function of the
[도 2 - 도 3 설명]2-FIG. 3 Description
도 2는 본 발명의 실시예에 따른 인증 장치의 내부 구성을 개략적으로 도시한 블록도이며, 도 3은 본 발명의 실시예에 따른 영상 처리부의 내부 구성을 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating an internal configuration of an authentication apparatus according to an embodiment of the present invention, and FIG. 3 is a block diagram schematically illustrating an internal configuration of an image processing unit according to an embodiment of the present invention.
도 2를 참조하면, 인증 장치(120)는 수집부(210), 영상 처리부(220), 등록부(230), 저장부(240), 인증부(250) 및 제어부(260)를 포함하여 구성된다.Referring to FIG. 2, the
수집부(210)는 각각의 카메라(120)로부터 객체를 촬상한 영상을 수집하는 기능을 수행한다. 예를 들어, 수집부(210)는 4대의 카메라로부터 각각 객체(즉, 사용자)를 촬상한 영상을 수집하여 영상 처리부(220)로 출력할 수 있다.The
영상 처리부(220)는 수집부(210)를 통해 The
수집된 객체에 대한 각 영상을 분석하여 특징점을 추출하고, 각 영상을 프레임화하여 미리 설정된 m(m은 임의의 자연수)개의 블록으로 조각화한다. 이어, 영상 처리부(220)는 특징점을 포함하는 블록의 위치에 상응하여 특징점 추출 위치 정보를 생성한다. 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 특징점을 포함하여 블록의 위치에 상응하여 생성된 특징점 추출 위치 정보를 블록별 특징점 추출 위치 정보라 칭하기로 한다.Each image of the collected object is analyzed to extract feature points, and each image is framed and fragmented into m (m is an arbitrary natural number) blocks. Subsequently, the
예를 들어, 영상 처리부(220)는 영상의 각 화소에 대한 색상 정보를 이용하여 영상에 포함된 객체에 대한 특징점을 추출하고, 추출된 특징점에 상응하는 블록별 특징점 위치 정보를 생성하는 기능을 수행한다.For example, the
도 3에 영상 처리부(220)의 내부 구성이 도시되어 있다. 이하, 도 3을 참조하여 영상 처리부(220)의 각각의 기능에 대해 보다 상세히 설명하기로 한다.3 illustrates an internal configuration of the
도 3을 참조하면, 영상 처리부(220) 는 추출부(310), 전처리부(320), 추출부(320) 및 후처리부(330)를 포함하여 구성된다.Referring to FIG. 3, the
추출부(310)는 수집부(210)를 통해 수집된 복수의 영상을 각각 프레임 단위로분석하여 특징점을 추출하는 수단이다. 전술한 바와 같이, 복수의 카메라를 통해 영상이 획득될 수 있다. 여기서, 각 카메라를 통해 획득된 영상은 하나의 프레임으로 구성될 수도 있으며, 복수의 프레임으로 구성될 수도 있다. The
예를 들어, 추출부(310)는 수집된 영상의 각 화소에 대한 색상정보(예를 들어, RGB값을 분석하여 객체에 대한 특징점을 추출할 수 있다. For example, the
이해와 설명의 편의를 도모하기 위해 객체가 사람인 경우를 가정하여 설명하기로 한다. 추출부(310)는 수집된 영상의 각 화소에 대한 색상정보(즉, RGB값)가 기설정된 허용 범위(예를 들어, 임계치)가 아닌 경우 노이즈로 간주하여 제거함으로써 각 화소의 색상 정보를 이용하여 얼굴 영역을 추출할 수 있다. For convenience of understanding and explanation, it will be assumed that the object is a human. The
또한, 추출부(310)는 획득한 영상의 침식 및 팽창 과정을 통해 노이즈 제거를 위한 사전 작업을 수행할 수 있다. In addition, the
본 실시예에서 영상의 침식은 수집된 오리지널 영상을 미리 설정된 크기에 상응하도록 작게 변형하여 각 화소의 색상 정보(즉, RGB값)가 허용 범위에 포함되지 않은 영역을 제거하는 과정으로 정의하기로 한다.In the present embodiment, the erosion of the image is defined as a process of removing a region in which the color information (ie, RGB value) of each pixel is not included in the allowable range by transforming the collected original image to correspond to a preset size. .
또한, 본 실시예에서 영상의 팽창은 수집된 오리지널 영상을 미리 설정된 크기에 상응하여 크게 변형하여 각 화소의 색상 정보(즉, RGB값)가 허용 범위에 포함되지 않은 영역을 제거하는 과정으로 정의하기로 한다.In addition, in the present embodiment, expansion of an image is defined as a process of removing a region in which color information (ie, RGB value) of each pixel is not included in an allowable range by greatly modifying the collected original image corresponding to a preset size. Shall be.
이와 같이, 추출부(310)는 영상의 침식 및 팽창 과정을 반복 수행하여 각 화소의 색상 정보를 이용하여 특징점을 추출할 수 있다.As such, the
또한, 추출부(310)는 영상 분석을 통한 특징점이 추출되면, 해당 영상을 그레이 영상(gray image)으로 변환할 수 있다. 이로 인해, 이후 영상의 연산에 대한 처리 속도를 높일 수 있는 이점이 있다.In addition, when the feature point is extracted through image analysis, the
일반적으로, 영상의 색상 정보를 이용하여 특징점을 추출하는 방법은 조명과 같은 주변 환경에 의한 영향을 많이 받는다. 그러나, 본 실시예에 따라 수집되는 영상은 객체에 대한 특정 범위에 대해 획득된 영상으로 배경등과 같은 주변 환경에 의한 특징점 추출에 영향을 미치지 않는다.In general, a method of extracting feature points using color information of an image is greatly influenced by a surrounding environment such as lighting. However, the image collected according to the present embodiment is an image obtained for a specific range of an object and does not affect feature point extraction by the surrounding environment such as a background.
본 실시예에서는 이해와 설명의 편의를 도모하기 위해 영상의 색상 정보(RGB값)을 이용하여 특징점을 추출하는 것을 가정하여 설명하였으나, 기공지된 다양한 방법(예를 들어, 실시간 이미지 프로세싱에 중점을 둔 라이브러리인 OpenCV(Open Computer Vision)에 포함된 메소드를 이용하여 특징점을 추출-여기서, OpenCV는 인텔사의 실시간 컴퓨터 영상 프로그램 라이브러리로서 얼굴인식뿐만 아니라 행동 인식이 가능한 라이브러리임)을 이용하여 영상에서 특징점을 추출할 수 있다.In the present embodiment, it is assumed that feature points are extracted using color information (RGB value) of an image for convenience of understanding and explanation. However, various methods (for example, focusing on real-time image processing) are described. Extract feature points using methods included in the open library OpenCV (Open Computer Vision), where OpenCV is an Intel real-time computer image program library that can recognize not only face recognition but also behavior recognition. Can be extracted.
전처리부(320)는 추출부(310)를 통해 특징점이 추출된 복수의 영상을 m(임의의 자연수)개의 블록으로 조각화하는 기능을 수행한다. 여기서, 블록의 크기는 영상을 분할하는 개수에 따라 상이해질 수 있음은 당연하다. The
보다 상세하게 전처리부(320)는 제1 카메라, 제2 카메라, 제3 카메라, 제4 카메라를 통해 각각 수집된 영상을 미리 설정된 크기의 블록 단위로 m개로 조각화 분할한다.In more detail, the
예를 들어, 각각의 카메라로부터 수집된 영상을 이해와 설명의 편의를 도모하기 위해 C1, C2, …, Cn이라 칭하기로 한다. 본 실시예에서는 영상이 하나의 프레임으로 구성된 것을 가정하여 설명하나 프레임이 복수인 경우, 전처리부(320)는 영상을 각 프레임별로 분류할 수 있음은 당연하다. 즉, 각 영상이 복수의 프레임으로 구성된 경우, 전처리부(320)는 각각의 영상을 프레임 단위로 각각 분류할 수 있다. 이해와 설명의 편의를 도모하기 위해 각 영상에 대해 프레임 단위로 각각 분류된 것을 각각, , …, 이라 칭하기로 한다. 이어, 전처리부(320)는 각 프레임을 m개로 블록으로 조각하여 분할한다. 이에 따라, 을 m개의 블록으로 조각하여 분할하면, 분할된 각 조각은 , , …, 으로 표현할 수 있다. 또한, 를 m개의 블록으로 조각하여 분할하면, 분할된 각 블록은, , …, 으로 표현할 수 있다.For example, in order to facilitate the understanding and explanation of the images collected from the respective cameras, C 1 , C 2 ,. It will be referred to as C n . In the present embodiment, it is assumed that the image is composed of one frame. However, when there are a plurality of frames, the
마찬가지로, 을 m개의 블록으로 조각하여 분할하면, 분할된 각 블록은, , ..., 으로 표현할 수 있다. Likewise, Is divided into m blocks and each block is divided into , , ..., It can be expressed as
본 명세서에서는 임의의 대상 프레임()을 m개의 블록으로 조각하여 분할한 경우, 대상 블록을 대상 프레임 블록이라 칭하여 설명하기로 한다.In this specification, any target frame ( ) Is carved into m blocks, the target block will be described as a target frame block.
후처리부(330)는 추출부(310)를 통해 추출된 특징점의 위치를 이진화하는 기능을 수행한다.The
즉, 후처리부(330)는 추출부(310)를 통해 특징점이 추출된 프레임 블록의 위치를 이진화하여 수치처리한다. 예를 들어, 후처리부(330)는 특징점이 추출된 프레임의 블록은 1로 이진화할 수 있다. 본 실시예에서는 특징점이 추출된 프레임의 블록만 이진화하여 저장하는 것을 가정하여 설명하기로 한다. That is, the
예를 들어, 임의의 프레임의 첫번째 블록에 특징점이 포함된 경우, 20번째 비트에 이진화된 값을 저장하고, 2번째 블록에 특징점이 포함된 경우, 21번째 비트에 이진화된 값을 저장하며, n번째 블록에 특징점에 포함된 경우, 2n번째 비트에 이진화된 값을 저장할 수 있다.For example, if the first block of any frame contains a feature point, store the binarized value in the 2 0 th bit; if the second block contains the feature point, store the binarized value in the 2 1st bit; When the n th block is included in the feature point, the binarized value may be stored in the 2 n th bit.
추출된 특징점은 하나의 프레임의 복수의 블록(또는 조각)에 포함될 수 있으며, 후처리부(330)는 특징점을 포함하는 블록(또는 조각)에 상응하는 비트에 이진화된 값을 저장하여 수치화할 수 있다. 이와 같이하여, 본 발명의 실시예에서는 프레임의 어느 부분에서 특징점이 존재하였는지를 저장할 수 있게 된다.The extracted feature point may be included in a plurality of blocks (or pieces) of one frame, and the
후처리부(330)는 각 프레임 단위로 특징점이 추출된 블록의 위치를 이진화하는 기능을 수행할 수 있다. 이와 같이 각 프레임 단위로 추출된 특징점을 포함하는 블록의 위치를 이진화한 정보를 본 실시예서는 블록별 특징점 위치 정보라 통칭하여 설명하기로 한다.The
전술한 바와 같이, 영상 처리부(220)는 복수의 카메라를 통해 수집된 영상을 프레임 단위로 분류하고, 영상 분석을 통해 특징점을 추출하며, 각 프레임을 m개의 블록으로 분할하고, 추출된 특징점이 존재하는 블록 위치를 이진화할 수 있다. 여기서, 추출된 특징점이 존재하는 위치는 해당 프레임의 블록의 위치일 수 있다.As described above, the
다시 도 2를 참조하면, 등록부(230)는 사용자를 등록하는 기능을 수행한다.Referring back to FIG. 2, the
등록부(230)는 사용자 등록을 위해 카메라를 통해 사용자에 대해 영상을 획득하고, 이를 전술한 영상 처리부(220)를 통해 영상 처리하여 특징점을 추출하고, 특징점이 추출된 영상을 m개의 블록으로 분할한 후 해당 특징점이 포함된 블록의 위치를 이진화하여 데이터베이스에 저장하고 등록할 수 있다. 영상 처리부(220)를 통해 영상 처리하는 과정은 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.The
또한, 등록부(230)는 사용자의 식별정보, 권한 등급 등을 입력받고, 이를 데이터베이스에 이진화된 특징점에 대한 정보(즉, 블록별 특징점 위치 정보)과 함께 매핑하여 저장할 수 있다.In addition, the
저장부(240)는 본 발명의 실시예에 따른 인증 장치(120)를 운용하기 위한 알고리즘이 저장된다.The
인증부(250)는 인증받을 객체(즉, 사용자)에 상응하는 블록별 특징점 위치 정보와 기저장된 블록별 특징점 위치 정보들을 비교하여 객체에 대해 인증을 수행한다.The
이때, 인증부(250)는 슬라이드 윈도우 방식으로 순차적으로 각 프레임의 블록에 대한 특징점 위치 정보를 기저장된 블록별 특징점 위치 정보와 비교함으로써 인증을 수행할 수 있다.In this case, the
인증부(250)는 블록별 특징점 위치 정보와 기저장된 블록별 특징점 위치 정보들을 순차적으로 비교하여 가장 높은 매칭을 갖는 블록별 특징점 위치 정보를 저장한다. 그리고, 인증부(250)는 가장 높은 매칭에 상응하는 블록별 특징점 위치 정보의 평균값이 기설정된 임계치를 초과하는 경우, 객체(즉, 사용자)에 대해 인증이 성공한 것으로 간주한다. The
그러나 만일 가장 높은 매칭에 상응하는 특징점 추출 위치 정보의 평균값이 기설정된 임계치 미만인경우, 인증부(250)는 객체(즉, 사용자)에 대해 인증이 실패한 것으로 간주한다.However, if the average value of the feature extraction position information corresponding to the highest match is less than the predetermined threshold, the
만일 인증 성공인 경우, 해당 객체(즉, 사용자)가 해당 구역을 출입(또는 접근)할 수 있도록 할 수 있다. 그러나 만일 인증 실패인 경우에는 해당 사용자가 해당 구역을 출입(또는 접근)하지 못하도록 할 수 있다.If authentication is successful, the object (ie user) can be allowed to enter (or access) the area. However, if authentication fails, the user can be prevented from entering (or accessing) the area.
제어부(260)는 본 발명의 실시예에 따른 인증 장치의 내부 구성들(예를 들어, 수집부(210), 영상 처리부(220), 등록부(230), 저장부(240), 인증부(250) 등)을 제어하는 기능을 수행한다.The
또한, 제어부(260)는 인증부(250)의 사용자의 인증 결과에 따라 임의의 구역의 출입 또는 접근을 허가 또는 제한하도록 제어할 수 있다.
In addition, the
[도 4 설명][Description of Fig. 4]
도 4는 본 발명의 실시예에 따른 사용자 인증 방법을 나타낸 순서도이다. 4 is a flowchart illustrating a user authentication method according to an embodiment of the present invention.
이하에서 설명되는 각각의 단계는 인증 장치(120)의 각각의 내부 구성 요소에 의해 수행되나 이해와 설명의 편의를 도모하기 위해 인증 장치로 통칭하여 설명하기로 한다.Each step described below is performed by each internal component of the
단계 410에서 인증 장치(120)는 복수의 카메라로부터 사용자를 촬영한 영상을 수집한다. 본 실시예에서는 인증 장치(120)는 4대의 카메라를 통해 사용자에 대한 앞, 뒤, 좌, 우 영상을 수집할 수 있다. 여기서, 각 카메라를 통해 수집되는 영상은 복수의 프레임으로 구성된다.In
단계 415에서 인증 장치(120)는 수집된 복수의 영상을 프레임 단위로 분석하여 특징점을 추출한다. 여기서, 인증 장치(120)가 특징점을 추출하는 방법은 이미 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.In
또한, 전술한 바와 같이, 인증 장치(120)는 수집된 복수의 영상에 대해 특징점을 추출한 후 이후 과정에서의 연산 처리 속도를 향상시키기 위해 영상을 그레이 영상으로 변환하여 이후 과정을 수행할 수도 있다.단계 420에서 인증 장치(120)는 복수의 영상을 m개의 블록(조각)으로 분할한다. 여기서, m은 전술한 바와 같이 임의의 자연수이다. 본 실시예에서는 m이 9인 것을 가정하여 설명하기로 한다.In addition, as described above, the
단계 425에서 인증 장치(120)는 대상 프레임에 대해 추출된 특징점을 포함하는 블록의 위치를 이진화하여 프레임에 대한 블록별 특징점 위치 정보를 생성할 수 있다.In
즉, 인증 장치(120)는 대상 프레임에서 특징점을 포함하는 블록의 위치에 따라 블록의 위치에 상응하는 비트의 비트값을 1로 이진화하여 대상 프레임에 대한 블록별 특징점 위치 정보를 생성할 수 있다.That is, the
예를 들어, 대상 프레임의 첫번째 블록이 특징점을 포함하는 경우, 첫번째 블록의위치에 상응하여 제1 비트의 비트값(즉, 20비트의 비트값)을 1로 설정하고, 대상 프레임의 두번째 블록이 특징점을 포함하는 경우, 제2 비트의 비트값(21비트의 비트값)을 1로 설정할 수 있다. 이와 같은 방식으로 인증 장치(120)는 대상 프레임에서 특징점을 포함하는 복수의 블록에 대해 블록의 위치에 따른 비트의 비트값을 1로 설정하여 프레임에 대한 블록별 특징점 위치 정보를 출력할 수 있다.For example, when the first block of the target frame includes a feature point, the bit value of the first bit (that is, the bit value of 2 0 bits) is set to 1 corresponding to the position of the first block, and the second block of the target frame. When this feature point is included, the bit value (bit value of 2 1 bits) of the second bit can be set to one. In this manner, the
블록별 특징점 위치 정보의 전체 비트는 블록의 개수와 동일하게 설정될 수 있다. 예를 들어, 대상 프레임이 9개의 블록으로 분할된 경우, 블록별 특징점 위치 정보는 9비트로 설정되고, 대상 프레임이 12개의 블록으로 분할된 경우, 블록별 특징점 위치 정보는 12비트로 설정될 수 있다.All bits of the feature point position information for each block may be set equal to the number of blocks. For example, when the target frame is divided into nine blocks, the feature point position information for each block may be set to 9 bits, and when the target frame is divided into 12 blocks, the feature point position information for each block may be set to 12 bits.
예를 들어, 대상 프레임이 9개의 블록으로 분할되어 있으며, 제1 블록, 제3 블록, 제5 블록이 특징점을 포함하고 있다고 가정하자. 이와 같은 경우, 하나의 프레임에 대한 블록별 특징점 위치 정보는 00010101과 같이 생성될 수 있다.For example, assume that the target frame is divided into nine blocks, and the first block, the third block, and the fifth block include feature points. In this case, block-specific feature point position information for one frame may be generated as shown in 00010101.
단계 430에서 인증 장치(120)는 블록별 특징점 위치 정보를 기저장된 블록별 특징점 위치 정보들과 비교하여 매칭 정도가 가장 높은 블록별 특징점 위치 정보를 임시 저장한다. 본 실시예에서는 매칭 정도가 가장 높은 블록별 특징점 위치 정보를 임시 저장하는 것을 가정하여 설명하나 구현 방법에 따라 해당 블록별 특징점 위치 정보를 선택하도록 할 수도 있음은 당연하다.In
단계 435에서 인증 장치(120)는 임시 저장된 블록별 특징점 위치 정보에 대한 평균값을 산출한다.In
단계 440에서 인증 장치(120)는 산출된 평균값이 미리 설정된 임계치를 초과하는지 여부를 판단한다.In
만일 산출된 평균값이 설정된 임계치를 초과하는 경우, 단계 445에서 인증 장치(120)는 해당 사용자에 대해 인증 성공으로 결정한다. 이에 따라 인증 장치(120)는 해당 사용자에 대해 해당 구역의 출입 또는 접근이 허용되도록 제어할 수 있다.If the calculated average value exceeds the set threshold, in
즉, 인증이 성공한 경우, 인증 장치(120)는 사용자에 대한 권한 정보(예를 들어, 출입 등급, 접근 권한 정보 등)을 추출하고, 이에 따라 사용자의 권한이 출입 또는 접근 가능한 경우 해당 구역의 출입 또는 접근이 가능하도록 제어할 수 있다. 만일 사용자의 권한이 출입 또는 접근 불가능한 경우, 인증 장치(120)는 미리 설정된 안내 메시지(예를 들어, 출입 불가능 지역입니다 또는 접근 불가능 지역입니다)를 추출하여 출력할 수 있다.That is, if authentication is successful, the
그러나 만일 산출된 평균값이 설정된 임계치 미만이면, 단계 450에서 인증 장치(120)는 해당 사용자에 대해 인증 실패로 결정한다. 이에 따라 인증 장치(120)는 해당 사용자에 대해 해당 구역의 출입 또는 접근이 제한되도록 제어할 수 있다.
However, if the calculated average value is less than the set threshold, the
[도 5 설명][Description of Fig. 5]
도 5는 본 발명의 실시예에 따른 인증 장치에서 블록별 특징점 위치 정보를 비교하는 과정을 설명하기 위해 도시한 도면이다.5 is a diagram illustrating a process of comparing feature point position information for each block in the authentication apparatus according to an exemplary embodiment of the present invention.
도 5에 도시된 바와 같이, 각 사용자에 대해 등록 과정에서 복수의 카메라를 통해 촬영된 영상을 수집하여 특징점을 추출하고, 해당 각 영상을 m개의 블록으로 분할한 후 추출된 특징점이 포함된 블록의 위치에 상응하여 블록별 특징점 위치 정보를 데이터베이스에 등록할 수 있다.As shown in FIG. 5, a feature point is extracted by collecting images photographed through a plurality of cameras in a registration process for each user, and each of the images is divided into m blocks, Block-specific feature position information may be registered in a database corresponding to the position.
이해와 설명의 편의를 도모하기 위해 복수의 사용자에 대해 데이터베이스에 등록된 영상의 각 프레임을 라 칭하기로 하자. 프레임을 m개의 블록으로 분할한 후 각 블록은 이라 칭하기로 하자. 도 5에 도시된 바와 같이, 각 사용자별 블록별 특징점 위치 정보가 각각 저장되어 있다. 여기서, 블록별 특징점 위치 정보는 전술한 바와 같이 이진화된 정보일 수 있다.For the convenience of understanding and explanation, each frame of the image registered in the database for a plurality of users Let's call it. After dividing the frame into m blocks, each block Let's call it. As shown in FIG. 5, feature point location information of each user block is stored. Here, the feature point position information for each block may be binarized information as described above.
인증할 사용자에 대해 카메라를 통해 수집된 영상의 임의의 프레임을 라 칭하기로 하며, 이를 m개의 블록으로 분할한 임의의 조각을 라 칭하기로 하자.Random frames of video collected by the camera for the user to be authenticated Let's call it an arbitrary piece that is divided into m blocks Let's call it.
이해와 설명의 편의를 도모하기 위해 각 프레임을 9개로 분할한 것을 가정하여 설명하기로 하자.For convenience of explanation and explanation, it is assumed that each frame is divided into nine parts.
이와 같은 경우, 인증 장치는 데이터베이스에 저장된 모든 사용자에 대한 블록별 특징점 위치 정보들을 순차적으로 1비트 단위씩 이동하면서 인증할 사용자에 대해 생성된 블록별 특징점 위치 정보를 비교하여 인증을 수행할 수 있다.
In this case, the authentication apparatus may perform authentication by comparing block-specific feature point position information generated for a user to be authenticated while sequentially moving block-specific feature point position information of all users stored in a database by 1 bit unit.
상기에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
Although the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art to which the present invention pertains without departing from the spirit and scope of the present invention as set forth in the claims below It will be appreciated that modifications and variations can be made.
Claims (20)
(a) 복수의 카메라를 통해 사용자를 촬영한 복수의 영상을 획득하는 단계;
(b) 상기 획득된 복수의 영상을 분석하여 특징점을 각각 추출하는 단계;
(c) 상기 영상을 m(임의의 자연수)개의 블록으로 각각 분할하는 단계;
(d) 상기 추출된 특징점을 포함하는 각 영상의 블록 위치를 이진화하여 블록별 특징점 위치 정보를 생성하는 단계-상기 블록별 특징점 위치 정보는 상기 영상의 분할된 블록의 수에 따른 비트 수임-; 및
(e) 상기 블록별 특징점 위치 정보 및 기저장된 블록별 특징점 위치 정보들을 비교하여 상기 사용자에 대해 인증을 수행하는 단계를 포함하는 사용자 인증 방법.
In a method for authenticating a user in an authentication device,
(a) acquiring a plurality of images photographing a user through a plurality of cameras;
(b) extracting feature points by analyzing the obtained plurality of images;
(c) dividing the image into m (random natural numbers) blocks, respectively;
(d) generating feature point position information for each block by binarizing block positions of each image including the extracted feature points, wherein the feature point position information for each block is the number of bits according to the number of divided blocks of the image; And
(e) comparing the feature point position information for each block and the feature point position information for each block, and performing authentication for the user.
상기 카메라는 상기 사용자를 앞, 뒤, 좌, 우에서 촬영할 수 있도록 배치되는 것을 특징으로 하는 사용자 인증 방법.
The method according to claim 1,
The camera is a user authentication method, characterized in that arranged to be photographed from the front, back, left, right.
상기 (a) 단계는,
상기 사용자에 대해 앞, 뒤, 좌, 우 영상을 획득하는 단계인 것을 특징으로 하는 사용자 인증 방법.
The method of claim 2,
In step (a),
And acquiring a front, back, left, and right image of the user.
상기 (b) 단계는,
상기 영상의 침식 및 팽창 과정을 통한 각 화소의 색상 정보를 이용하여 상기 영상에 대한 특징점을 추출하는 사용자 인증 방법.
The method according to claim 1,
In step (b),
And extracting a feature point of the image using color information of each pixel through erosion and expansion of the image.
상기 (d) 단계는,
상기 영상에서 상기 특징점을 포함하는 블록의 위치에 상응하는 비트의 비트값을 1로 설정하는 단계인 것을 특징으로 하는 사용자 인증 방법.
The method according to claim 1,
In step (d),
And setting a bit value of a bit corresponding to a position of a block including the feature point to 1 in the image.
상기 (c) 단계 이전에,
상기 영상을 그레이 영상으로 변환하는 단계를 더 포함하는 사용자 인증 방법.
The method according to claim 1,
Before step (c),
And converting the image into a gray image.
상기 (e) 단계는,
상기 블록별 특징점 위치 정보와 기저장된 블록별 특징점 위치 정보들을 순차적으로 비교하여 매칭 정도가 가장 높은 프레임의 특징점 추출 위치 정보를 선택하는 단계;
상기 선택된 블록별 특징점 위치 정보의 평균값을 산출하는 단계; 및
상기 평균값이 미리 설정된 임계치를 초과하는 경우, 상기 사용자에 대해 인증 성공으로 결정하는 단계를 포함하는 것을 특징으로 하는 사용자 인증 방법.
The method according to claim 1,
In step (e),
Selecting feature point extraction position information of a frame having the highest matching degree by sequentially comparing the feature point position information for each block and prestored feature point position information for each block;
Calculating an average value of the feature point position information for each selected block; And
And determining the successful authentication for the user when the average value exceeds a preset threshold.
상기 평균값이 미리 설정된 임계치 미만인 경우, 상기 사용자에 대해 인증 실패로 결정하는 단계를 더 포함하는 것을 특징으로 하는 사용자 인증 방법.
The method of claim 8,
If the average value is less than a preset threshold, determining that the authentication failed for the user.
복수의 카메라를 통해 사용자를 촬영한 복수의 영상을 획득하여 수집하는 수집부;
상기 수집된 복수의 영상을 프레임 단위로 분석하여 특징점을 추출하고, 상기 복수의 영상을 m(자연수)개의 블록으로 분할하여 상기 추출된 특징점이 포함된 블록의 위치를 이진화하여 블록별 특징점 위치 정보를 생성하는 영상 처리부-상기 블록별 특징점 위치 정보는 상기 영상의 분할된 블록의 수에 따른 비트 수임-; 및
상기 블록별 특징점 위치 정보 및 기저장된 블록별 특징점 위치 정보들을 비교하여 상기 사용자에 대해 인증을 수행하는 인증부를 포함하는 인증 장치.
An authentication device connected to a plurality of cameras to authenticate a user,
A collector configured to acquire and collect a plurality of images photographing the user through a plurality of cameras;
Feature points are extracted by analyzing the collected plurality of images on a frame-by-frame basis, the plurality of images are divided into m (natural numbers) blocks, and the position of the block including the extracted feature points is binarized to obtain feature point position information for each block. An image processing unit to generate, wherein the feature point position information for each block is a number of bits according to the number of divided blocks of the image; And
And an authentication unit configured to compare the feature point position information for each block and the feature point position information for each block to perform authentication for the user.
상기 카메라는 상기 사용자를 앞, 뒤, 좌, 우에서 촬영할 수 있도록 배치되는 것을 특징으로 하는 인증 장치.
The method of claim 10,
And the camera is arranged to photograph the user from the front, the back, the left and the right.
상기 수집부는, 상기 사용자에 대해 앞, 뒤, 좌, 우 영상을 획득하여 수집하는 것을 특징으로 하는 인증 장치.
The method of claim 11, wherein
The collection unit, the authentication device, characterized in that to obtain and collect the front, back, left, right images for the user.
상기 영상 처리부는,
상기 복수의 영상을 각 프레임 단위로 분석하는 추출부;
상기 복수의 영상을 프레임 단위로 상기 m개의 블록으로 각각 분할하는 전처리부; 및
각 프레임 단위로 상기 추출된 특징점을 포함하는 블록의 위치를 이진화하여 블록별 특징점 위치 정보를 생성하는 후처리부를 포함하는 것을 특징으로 하는 인증 장치.
The method of claim 10,
Wherein the image processing unit comprises:
An extraction unit for analyzing the plurality of images in units of frames;
A preprocessor dividing the plurality of images into the m blocks on a frame basis; And
And a post-processing unit for generating the feature point position information for each block by binarizing the position of the block including the extracted feature point in each frame unit.
상기 추출부는 상기 특징점 추출 이후에 상기 영상을 그레이 영상으로 변환하는 것을 특징으로 하는 인증 장치.
The method of claim 13,
And the extractor converts the image into a gray image after the feature point extraction.
상기 추출부는 상기 영상의 침식 및 팽창 과정을 통해 각 화소의 색상 정보를 이용하여 특징점을 추출하는 것을 특징으로 하는 인증 장치.
The method of claim 13,
The extractor extracts a feature point by using color information of each pixel through erosion and expansion of the image.
상기 후처리부는,
대상 프레임에서 상기 특징점을 포함하는 블록의 위치에 상응하는 비트의 비트값을 1로 설정하는 것을 특징으로 하는 인증 장치.
The method of claim 13,
The post-processing unit,
And a bit value of a bit corresponding to the position of the block including the feature point in the target frame is set to one.
상기 인증부는,
블록별 특징점 위치 정보와 기저장된 블록별 특징점 위치 정보들을 순차적으로 비교하여 매칭 정도가 높은 프레임의 블록별 특징점 위치 정보를 임시 저장하고, 상기 임시 저장된 블록별 특징점 위치 정보의 평균값을 산출하며, 상기 평균값이 미리 설정된 임계치를 초과하는 경우, 상기 사용자에 대해 인증 성공으로 결정하는 것을 특징으로 하는 인증 장치.
The method of claim 10,
The authentication unit,
By sequentially comparing the feature point location information of each block with the previously stored feature point location information of each block, temporarily storing the feature point location information of each block of a frame having a high matching degree, calculating an average value of the feature point location information of each temporarily stored block, and the average value. And if the predetermined threshold is exceeded, determining that the authentication succeeds for the user.
상기 인증부는,
상기 평균값이 미리 설정된 임계치 미만인 경우, 상기 사용자에 대해 인증 실패로 결정하는 것을 특징으로 하는 인증 장치.
The method of claim 18,
The authentication unit,
And determine the authentication failure for the user when the average value is less than a preset threshold.
(a) 복수의 카메라를 통해 사용자를 촬영한 복수의 영상을 획득하는 단계;
(b) 상기 획득된 복수의 영상을 분석하여 특징점을 각각 추출하는 단계;
(c) 상기 영상을 m(임의의 자연수)개의 블록으로 각각 분할하는 단계;
(d) 상기 추출된 특징점을 포함하는 각 영상의 블록 위치를 이진화하여 블록별 특징점 위치 정보를 생성하는 단계-상기 블록별 특징점 위치 정보는 상기 영상의 분할된 블록의 수에 따른 비트 수임-; 및
(e) 상기 블록별 특징점 위치 정보 및 기저장된 블록별 특징점 위치 정보들을 비교하여 상기 사용자에 대해 인증을 수행하는 단계를 실행하는 프로그램을 기록한 기록매체.
In the recording medium recording a program that can be read by the digital processing device is implemented programmatically implemented by the digital processing device to perform a method for user authentication,
(a) acquiring a plurality of images photographing a user through a plurality of cameras;
(b) extracting feature points by analyzing the obtained plurality of images;
(c) dividing the image into m (random natural numbers) blocks, respectively;
(d) generating feature point position information for each block by binarizing block positions of each image including the extracted feature points, wherein the feature point position information for each block is the number of bits according to the number of divided blocks of the image; And
(e) a recording medium for recording a program executing the step of performing authentication for the user by comparing the feature point position information for each block and prestored feature point position information for each block.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100007143A KR101083367B1 (en) | 2010-01-26 | 2010-01-26 | Method and apparatus for user authentication using image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100007143A KR101083367B1 (en) | 2010-01-26 | 2010-01-26 | Method and apparatus for user authentication using image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110087634A KR20110087634A (en) | 2011-08-03 |
KR101083367B1 true KR101083367B1 (en) | 2011-11-14 |
Family
ID=44926351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100007143A KR101083367B1 (en) | 2010-01-26 | 2010-01-26 | Method and apparatus for user authentication using image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101083367B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331799A (en) * | 2000-03-16 | 2001-11-30 | Toshiba Corp | Image processor and image processing method |
JP2008197904A (en) * | 2007-02-13 | 2008-08-28 | Toshiba Corp | Person retrieving device and person retrieving method |
-
2010
- 2010-01-26 KR KR1020100007143A patent/KR101083367B1/en not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331799A (en) * | 2000-03-16 | 2001-11-30 | Toshiba Corp | Image processor and image processing method |
JP2008197904A (en) * | 2007-02-13 | 2008-08-28 | Toshiba Corp | Person retrieving device and person retrieving method |
Also Published As
Publication number | Publication date |
---|---|
KR20110087634A (en) | 2011-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9672406B2 (en) | Touchless fingerprinting acquisition and processing application for mobile devices | |
CN109948408B (en) | Activity test method and apparatus | |
CN106599772B (en) | Living body verification method and device and identity authentication method and device | |
Stein et al. | Fingerphoto recognition with smartphone cameras | |
KR102466997B1 (en) | Liveness test method and apparatus | |
US8582833B2 (en) | Method and apparatus for detecting forged face using infrared image | |
CN108563990B (en) | Certificate authentication method and system based on CIS image acquisition system | |
WO2019033572A1 (en) | Method for detecting whether face is blocked, device and storage medium | |
WO2018192448A1 (en) | People-credentials comparison authentication method, system and camera | |
KR20040059313A (en) | Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image | |
JP2009540403A (en) | Person identification method and photographing apparatus | |
KR100824757B1 (en) | Gait recognition method | |
KR101724971B1 (en) | System for recognizing face using wide angle camera and method for recognizing face thereof | |
CN111079816A (en) | Image auditing method and device and server | |
CN113642639B (en) | Living body detection method, living body detection device, living body detection equipment and storage medium | |
CN106991448A (en) | A kind of portrait compares processing method | |
KR100347058B1 (en) | Method for photographing and recognizing a face | |
CN114387548A (en) | Video and liveness detection method, system, device, storage medium and program product | |
KR20150069799A (en) | Method for certifying face and apparatus thereof | |
JP2005259049A (en) | Face collation device | |
CN112183167A (en) | Attendance checking method, authentication method, living body detection method, device and equipment | |
JP7269897B2 (en) | Data registration device, biometric authentication device, and data registration program | |
CN108875472B (en) | Image acquisition device and face identity verification method based on image acquisition device | |
WO2023028947A1 (en) | Palm vein non-contact three-dimensional modeling method and apparatus, and authentication method | |
KR101083367B1 (en) | Method and apparatus for user authentication using image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151023 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |