KR102171018B1 - Method and system for recognizing face and iris by securing capture volume space - Google Patents
Method and system for recognizing face and iris by securing capture volume space Download PDFInfo
- Publication number
- KR102171018B1 KR102171018B1 KR1020190148371A KR20190148371A KR102171018B1 KR 102171018 B1 KR102171018 B1 KR 102171018B1 KR 1020190148371 A KR1020190148371 A KR 1020190148371A KR 20190148371 A KR20190148371 A KR 20190148371A KR 102171018 B1 KR102171018 B1 KR 102171018B1
- Authority
- KR
- South Korea
- Prior art keywords
- iris
- user
- camera
- processor
- capture volume
- Prior art date
Links
Images
Classifications
-
- G06K9/00892—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G06K9/00221—
-
- G06K9/00597—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H04N5/2257—
-
- H04N5/23299—
-
- H04N5/247—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Bioethics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
본 발명은 생체 인식 시스템에 관한 것으로, 더욱 상세하게는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템에 관한 것이다.The present invention relates to a biometric system, and more particularly, to a method and system for recognizing a face and an iris through securing a space for a capture volume.
일반적으로 홍채 인식은 피촬영자의 홍채를 추출하여 다른 영상에서 추출된 홍채와 서로 비교함으로써 인증 또는 신원확인을 수행하는 데, 이러한 홍채 인식에 있어서 가장 중요한 요소는 피촬영자의 편의성을 극대화하면서 선명한 홍채 이미지를 어떻게 획득할 수 있는지 여부이다.In general, iris recognition performs authentication or identification by extracting the subject's iris and comparing it with the iris extracted from another image. The most important factor in this iris recognition is a clear iris image while maximizing the convenience of the subject. It is how you can get it.
선명한 홍채이미지를 얻기 위해서는 피촬영자의 눈이 홍채 인식 카메라의 화각 범위 내와 초점이 맞는 거리에 맞도록 위치시켜야 하는데, 이를 위해서 다양한 방법이 시도되어 왔다.In order to obtain a clear iris image, the subject's eyes must be positioned within the range of the field of view of the iris recognition camera and at a distance that is in focus. To this end, various methods have been tried.
가장 흔히 사용되고 있는 종래의 기술은 피촬영자가 직접 화면을 보고 일정한 거리로 움직여서 정지한 상태로 측정하는 것으로서 피촬영자의 협조없이는 불가능하며, 피촬영자의 숙련도에 따라 획득하는 홍채 이미지의 품질이 달라지는 등의 문제가 발생하였다.The most commonly used conventional technique is that the subject directly looks at the screen and moves at a certain distance to measure in a stationary state.It is impossible without the cooperation of the subject, and the quality of the iris image acquired varies according to the subject's skill level. There was a problem.
게다가 최근에는 기존에는 생각하지 못했던 다양한 기기에 홍채 인식을 적용하기 위한 연구가 진행되고 있다. 기존의 CCTV와 같은 보안기기 또는 도어락과 같은 출입관련 기기 이외에 카메라와 비디오, 캠코더 같은 영상기기 및 스마트폰, 태블릿, PDA, PC, 노트북과 같은 스마트 기기 등에서의 홍채 인식을 적용하기 위한 연구가 산업계에서도 매우 활발하게 논의되고 있다.In addition, research is being conducted to apply iris recognition to various devices that were not previously thought of. In addition to existing security devices such as CCTV or access-related devices such as door locks, research to apply iris recognition in video devices such as cameras, video and camcorders, and smart devices such as smartphones, tablets, PDAs, PCs, and notebooks has also been conducted in the industry It is being discussed very actively.
특히 스마트폰과 같은 단말기 등에서의 지능화가 매우 빠르게 진행되고, 또한 스마트폰과 같은 단말기 등에 장착되는 카메라와 관련된 기술분야도 눈부시게 매우 빠른 속도로 발전되고 있다. 최근에는 12M 또는 16M 픽셀의 해상도와 초당 30 프레임 이상의 전송 속도를 갖는 스마트폰용 카메라 모듈이 저가로 이미 사용되기 시작하고 있으며, 단시일내에 더 높은 해상도와 더 빠른 프레임 전송 속도를 갖는 카메라 모듈들을 사용한 기기들이 매우 낮은 가격으로 보편적으로 사용될 것으로 예상되고 있다.In particular, intelligence in terminals such as smartphones is progressing very quickly, and technical fields related to cameras installed in terminals such as smartphones are also developing at a remarkably very fast speed. Recently, camera modules for smartphones with a resolution of 12M or 16M pixels and a transmission rate of 30 frames per second or more are already starting to be used at low cost, and devices using camera modules having a higher resolution and a faster frame transmission rate are beginning to be used in a short period of time. It is expected to be universally used at a very low price.
따라서 물리적 공간 및 경제적 비용 문제를 충분히 고려하면서 사용자의 편의성을 증대할 수 있으며, 기존의 CCTV와 같은 보안기기 또는 도어락과 같은 출입관련 기기 이외에 카메라와 비디오, 캠코더 같은 영상기기 및 스마트폰, 태블릿, PDA, PC, 노트북과 같은 다양한 스마트 기기에도 홍채 인식을 쉽게 적용할 수 있는 기술적 장치 및 방법에 관한 요구가 증대되고 있는 실정이다.Therefore, it is possible to increase the user's convenience while sufficiently considering the physical space and economic cost issues, and in addition to the existing security devices such as CCTV or access-related devices such as door locks, video devices such as cameras, videos, camcorders, smartphones, tablets, PDAs There is an increasing demand for technical devices and methods that can easily apply iris recognition to various smart devices such as PCs and laptops.
본 명세서는 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 사용자가 카메라에 직접 눈을 가져다 대지 않더라도 사용자의 홍채를 인식할 수 있는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템을 제공하는 데 그 목적이 있다.The present specification has been devised to solve the above-described problems, and provides a method and system for recognizing faces and irises by securing a capture volume space capable of recognizing the user's iris even if the user does not directly bring his eyes to the camera. Having that purpose.
본 발명의 다른 목적은 워크 스루(Walk-thru) 형태로 홍채를 인식할 수 있는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템을 제공한다.Another object of the present invention is to provide a method and system for recognizing faces and irises by securing a capture volume space capable of recognizing an iris in a walk-thru form.
이와 같은 목적을 달성하기 위한, 본 명세서의 실시예에 따르면, 본 명세서에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템은, 사용자와의 거리를 측정하여 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면을 인식하고, 안면 구성요소의 위치를 취득하는 제1 카메라; 상기 제1 카메라에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식하는 제2 카메라; 및 상기 제1 카메라에 의해 인식된 사용자의 안면 및 상기 제2 카메라에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 상기 사용자에 대한 인증을 수행하는 프로세서를 포함한다.In order to achieve such an object, according to an embodiment of the present specification, the facial and iris recognition system through securing a capture volume space according to the present specification measures the distance to the user to capture the iris image by the user. A first camera that recognizes a user's face when positioned within the volume space and obtains a position of a facial component; Based on the position of the user's facial component acquired by the first camera, the user is photographed while tilting while panning at a specific pan angle, and the user's iris is recognized by photographing the user's iris image at a specific tilt angle. A second camera; And a processor for performing authentication for the user by comparing the user's face recognized by the first camera and the user's iris recognized by the second camera with a plurality of previously stored facial information and a plurality of iris information, respectively. Include.
바람직하게는, 상기 프로세서는 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할한 후, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하며, 디지털화된 홍채 패턴을 암호화하여 저장하는 것을 특징으로 한다.Preferably, the processor is characterized in that after dividing the iris pattern into a plurality of tracks around the pupil, digitizing the iris pattern included in each track by a quantization algorithm, and encrypting and storing the digitized iris pattern. .
바람직하게는, 상기 프로세서는 홍채 이미지를 복수의 픽셀들로 나누고, 상기 복수의 픽셀들을 복수의 그룹들로 나누며, 상기 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하고, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하는 것을 특징으로 한다.Preferably, the processor divides the iris image into a plurality of pixels, divides the plurality of pixels into a plurality of groups, and in each of the plurality of groups, first and second standard deviations having first and second standard deviations 2 The iris pattern is calculated using a filter having a coefficient corresponding to the difference between the normal distribution curves, and an iris vector corresponding to a value between logical values "0" to "1" is detected from the calculated iris pattern. do.
바람직하게는, 상기 프로세서는 상기 홍채 이미지에서 좌우 눈을 분리하고, 오리진(origin)화에 의해 상기 홍채 이미지를 이동시키며, 이동된 홍채 이미지에서 노이즈를 제거하여 홍채 데이터를 생성하고, 홍채 데이터를 암호화 코드로 변환하여 저장하는 것을 특징으로 한다.Preferably, the processor separates the left and right eyes from the iris image, moves the iris image by origination, removes noise from the moved iris image to generate iris data, and encrypts the iris data. It is characterized in that it is converted into a code and stored.
바람직하게는, 상기 캡쳐 볼륨 공간은 원하는 캡쳐 볼륨을 형성하기 위해 배열된 복수의 셀을 포함하고, 상기 제1 카메라는 상기 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성되며, 상기 프로세서는 사용자와의 거리가 변경됨에 따라 상기 복수의 카메라의 개수를 변경하여 상기 캡쳐 볼륨 공간을 조절하는 것을 특징으로 한다.Preferably, the capture volume space includes a plurality of cells arranged to form a desired capture volume, and the first camera is composed of a camera array including a plurality of cameras respectively corresponding to the plurality of cells, The processor may adjust the capture volume space by changing the number of the plurality of cameras as the distance to the user is changed.
본 명세서의 다른 실시예에 따르면, 본 명세서에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법은, 제1 카메라가 사용자와의 거리를 측정하는 단계; 상기 제1 카메라가, 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면을 인식하고, 안면 구성요소의 위치를 취득하는 단계; 제2 카메라가, 상기 제1 카메라에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식하는 단계; 및 프로세서가, 상기 제1 카메라에 의해 인식된 사용자의 안면 및 상기 제2 카메라에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 상기 사용자에 대한 인증을 수행하는 단계를 포함한다.According to another embodiment of the present specification, a method for recognizing a face and an iris by securing a space for a capture volume according to the present specification includes: measuring, by a first camera, a distance to a user; When the first camera is located in a capture volume space in which a user can acquire an iris image, recognizing a user's face and acquiring a position of a facial component; The second camera photographs the user while tilting while panning at a specific pan angle based on the position of the user's facial component acquired by the first camera, and photographs the user's iris image at a specific tilt angle. Recognizing the iris of the; And the processor performs authentication for the user by comparing the user's face recognized by the first camera and the user's iris recognized by the second camera with a plurality of previously stored facial information and a plurality of iris information, respectively. It includes the step of.
바람직하게는, 상기 프로세서가, 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할하는 단계; 상기 프로세서가, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하는 단계; 및 상기 프로세서가, 디지털화된 홍채 패턴을 암호화하여 저장하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the processor, dividing the iris pattern into a plurality of tracks around the pupil; Digitizing, by the processor, an iris pattern included in each track by a quantization algorithm; And storing, by the processor, the digitized iris pattern.
바람직하게는, 상기 프로세서가, 홍채 이미지를 복수의 픽셀들로 나누는 단계; 상기 프로세서가, 상기 복수의 픽셀들을 복수의 그룹들로 나누는 단계; 상기 프로세서가, 상기 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하는 단계; 및 상기 프로세서가, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하는 단계를 더 포함하는 것을 특징으로 한다.Advantageously, the processor further comprises: dividing an iris image into a plurality of pixels; Dividing, by the processor, the plurality of pixels into a plurality of groups; Calculating, by the processor, in each of the plurality of groups, an iris pattern using a filter having a coefficient corresponding to a difference between first and second normal distribution curves having first and second standard deviations; And detecting, by the processor, an iris vector corresponding to a value between the logical values "0" and "1" from the calculated iris pattern.
바람직하게는, 상기 프로세서가, 상기 홍채 이미지에서 좌우 눈을 분리하는 단계; 상기 프로세서가, 오리진(origin)화에 의해 상기 홍채 이미지를 이동시키는 단계; 상기 프로세서가, 이동된 홍채 이미지에서 노이즈를 제거하여 홍채 데이터를 생성하는 단계; 및 상기 프로세서가, 홍채 데이터를 암호화 코드로 변환하여 저장하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the processor, separating the left and right eyes from the iris image; Moving, by the processor, the iris image by originating; Generating, by the processor, iris data by removing noise from the moved iris image; And converting, by the processor, the iris data into an encryption code and storing it.
바람직하게는, 상기 캡쳐 볼륨 공간은 원하는 캡쳐 볼륨을 형성하기 위해 배열된 복수의 셀을 포함하고, 상기 제1 카메라는 상기 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성되며, 상기 방법은, 상기 프로세서가, 사용자와의 거리가 변경됨에 따라 상기 복수의 카메라의 개수를 변경하여 상기 캡쳐 볼륨 공간을 조절하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the capture volume space includes a plurality of cells arranged to form a desired capture volume, and the first camera is composed of a camera array including a plurality of cameras respectively corresponding to the plurality of cells, The method may further include, by the processor, adjusting the capture volume space by changing the number of the plurality of cameras as the distance to the user is changed.
이상에서 설명한 바와 같이 본 명세서에 의하면, 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면 및 홍채를 인식하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템을 제공함으로써, 사용자가 카메라에 직접 눈을 가져다 대지 않고도 워크 스루(Walk-thru) 형태로 홍채를 인식할 수 있으며, 이에 특정 출입 시간에 인원이 집중될 경우 대기 및 지체 현상 발생을 억제할 수 있다.As described above, according to the present specification, a method and system for recognizing faces and irises by securing a capture volume space for recognizing a user's face and iris when located in a capture volume space in which a user can acquire an iris image is provided. By doing so, it is possible to recognize the iris in a walk-thru form without the user directly putting their eyes on the camera, and thus, waiting and delays can be suppressed when personnel are concentrated at a specific access time.
도 1은 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템의 캡쳐 볼륨 공간 촬영을 보여주는 도면,
도 2는 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템 내부의 개략적인 구성을 나타낸 블럭 구성도,
도 3은 홍채 이미지를 극 좌표계에 대응시킨 개념도,
도 4는 도 3의 홍채 이미지를 홍채 행렬로 재배열한 블럭도,
도 5는 도 4의 제1 트랙이 정규화되는 과정을 보여주는 블럭도,
도 6은 정규화된 제1 트랙으로부터 홍채 패턴을 계산하는 방법을 보여주는 블럭도,
도 7은 퍼지 맴버쉽 함수를 보여주는 그래프,
도 8은 본 발명의 실시예에 따른 프로세서의 기능부를 나타낸 블럭 구성도,
도 9는 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 인식 방법을 나타낸 흐름도, 및
도 10은 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 홍채 인식 방법을 나타낸 흐름도이다.1 is a view showing a capture volume space shooting of a facial and iris recognition system through securing a capture volume space according to an embodiment of the present invention;
2 is a block diagram showing a schematic configuration of an interior of a facial and iris recognition system through securing a space for a capture volume according to an embodiment of the present invention;
3 is a conceptual diagram of an iris image corresponding to a polar coordinate system;
4 is a block diagram of rearranging the iris image of FIG. 3 in an iris matrix;
5 is a block diagram showing a process in which the first track of FIG. 4 is normalized;
6 is a block diagram showing a method of calculating an iris pattern from a normalized first track;
7 is a graph showing a fuzzy membership function,
8 is a block diagram showing a functional unit of a processor according to an embodiment of the present invention;
9 is a flow chart showing a face recognition method through securing a space for a capture volume according to an embodiment of the present invention, and
10 is a flowchart illustrating a method of recognizing an iris by securing a space for a capture volume according to an embodiment of the present invention.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that technical terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present specification should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present specification, and excessively comprehensive It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present specification is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present specification includes a plurality of expressions unless the context clearly indicates otherwise. In the present application, terms such as "consist of" or "include" should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional elements or steps.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the constituent elements used in the present specification are given or used interchangeably in consideration of only the ease of writing the specification, and do not themselves have a distinct meaning or role from each other.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는 데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present specification may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are intended to make the spirit of the present invention easier to understand, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
도 1은 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템의 캡쳐 볼륨 공간 촬영을 보여주는 도면이고, 도 2는 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템 내부의 개략적인 구성을 나타낸 블럭 구성도이다.1 is a view showing a capture volume space shooting of a facial and iris recognition system through securing a capture volume space according to an embodiment of the present invention, and FIG. 2 is a face and iris through securing a capture volume space according to an embodiment of the present invention. It is a block diagram showing a schematic configuration of an internal recognition system.
우선, 도 1을 참조하면, 캡쳐 볼륨 공간(100)은 홍채 인식에 사용 가능한 홍채 템플릿 생성을 위한 홍채 영상 획득 공간 영역을 나타낸다. 여기서, 캡쳐 볼륨 공간(100)은 원하는 캡쳐 볼륨을 형성하기 위해 복수의 셀을 포함할 수 있다. 각 셀은 캡쳐 볼륨 공간(100) 내의 임의의 다른 셀과 동일한 치수를 가질 수 있다.First, referring to FIG. 1, a
또한, 캡쳐 볼륨 공간(100)은 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템(200)과 사용자 사이의 거리에 따라 변경될 수 있다.In addition, the
한편, 도 1 및 도 2를 참조하면, 본 발명에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템(200)은 제1 카메라(210), 제2 카메라(220), 및 프로세서(230)를 포함할 수 있다.Meanwhile, referring to FIGS. 1 and 2, the facial and
제1 카메라(210)는 사용자와의 거리를 측정하여 사용자가 캡쳐 볼륨 공간(100) 내에 위치하는 경우, 사용자의 안면을 인식하고, 눈, 코 및 입 등을 포함하는 안면 구성요소의 위치를 취득하며, 취득한 안면 구성요소의 위치를 제2 카메라(220)에 제공한다. 여기서, 제1 카메라(210)는 사용자와의 거리를 측정하기 위해서 라이다(Lidar) 센서를 포함할 수 있다.The
또한, 제1 카메라(210)는 안면 인증을 위해 인식한 사용자의 안면을 프로세서(230)로 전송할 수 있다.In addition, the
또한, 제1 카메라(210)는 캡쳐 볼륨 공간(100)의 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성될 수 있다. 카메라 어레이는 사용자의 이미지가 홍채 생체 인식에 적합한 홍채 이미지를 생성할 가능성이 가장 높은 캡쳐 볼륨 공간(100)을 정의하도록 구성될 수 있다. 예를 들면, 적절한 캡쳐 볼륨 공간은 다양한 높이, 머리 위치, 및 의복 등을 갖는 사용자의 홍채 이미지를 얻거나, 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템(200)이 존재하는 영역에 존재할 수 있는 물리적 장애물을 보상하도록 설계될 수 있다. 이를 위해, 캡쳐 볼륨 공간(100)은 카메라 어레이의 각 카메라에 대해 피사계 심도 파라미터(depth-of-field parameters)의 조합 및 구성에 의해 정의될 수 있다.In addition, the
제2 카메라(220)는 프로세서(230)의 제어에 의해, 제1 카메라(210)에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식한다. 구체적으로는, 프로세서(230)는 사용자의 안면 구성요소의 위치를 근거로 산출된 특정 팬 각도로 제2 카메라(220)를 패닝시킨 후 제2 카메라(220)를 틸팅시키며, 제2 카메라(220)가 틸팅하면서 촬영한 사용자 영상 중에 얼굴 영상 또는 눈 영상이 검출되면 이때의 틸트 각도와 사용자의 안면 구성요소의 위치를 이용하여 제2 카메라(220)와 사용자의 얼굴(혹은 눈) 사이의 거리를 산출하고, 산출된 거리에 따라 제2 카메라(220)의 줌 및 포커스 렌즈를 미리 설정된 초기 줌 및 포커스 렌즈 위치로 이동시킨 다음, 제2 카메라(220)의 포커스 렌즈의 초점을 자동 조절한다.The
또한, 제2 카메라(220)는 홍채 인증을 위해 인식한 사용자의 홍채를 프로세서(230)로 전송할 수 있다.Also, the
또한, 제2 카메라(220)는 홍채 인식률을 높이기 위해서 적외선 센서를 포함할 수 있다. 제2 카메라(220)는 적외선 촬영으로 반사값 측정을 통해 반사영역을 분석하고, 분석된 홍채 데이터에 이상 발생시 안경 또는 선글러스 착용자에게 알람 등의 형태로 경고 메시지를 출력할 수 있다.In addition, the
프로세서(230)는 제1 카메라(210)에 의해 인식된 사용자의 안면 및 제2 카메라(220)에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 사용자에 대한 인증을 수행한다.The
프로세서(230)는 전술한 사용자에 대한 인증을 수행하기 위해서 복수의 홍채 정보를 미리 저장할 수 있다. 즉, 프로세서(230)는 홍채 이미지에서 좌우 눈을 분리하고, 오리진(origin)화에 의해 홍채 이미지를 이동시키며, 이동된 홍채 이미지에서 눈썹 및 눈꺼풀 등의 노이즈를 제거하여 홍채 데이터를 생성하고, 홍채 데이터를 암호화 코드로 변환하여 홍채 정보로 저장한다. 구체적으로는, 프로세서(230)는 홍채 데이터에 포함된 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할한 후, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하며, 디지털화된 홍채 패턴을 암호화하여 홍채 정보로 저장할 수 있다.The
또한, 프로세서(230)는 홍채 이미지를 복수의 픽셀들로 나누고, 복수의 픽셀들을 복수의 그룹들로 나누며, 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하고, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하고, 검출된 홍채 벡터를 기저장된 홍채 데이터와 비교함으로써, 사용자에 대한 인증을 수행할 수 있다.In addition, the
또한, 프로세서(230)는 사용자와의 거리가 변경됨에 따라 제1 카메라(210)에 포함된 복수의 카메라의 개수를 변경하여 캡쳐 볼륨 공간(100)을 조절할 수 있다. 따라서, 제1 카메라(210)는 워크 스루(Walk-thru) 형태로 홍채를 인식할 수 있다.Also, the
도 3은 홍채 이미지를 극 좌표계에 대응시킨 개념도이다.3 is a conceptual diagram of an iris image corresponding to a polar coordinate system.
도 3을 참조하면, 홍채 이미지(200)의 중심(o)을 기준으로 반지름 축(ρ)은 거리를 나타낸다. 홍채 이미지(200)의 중심을 기준으로 각도 축(θ)은 각도를 나타낸다.Referring to FIG. 3, a radius axis ρ represents a distance based on the center o of the
홍채 이미지(200)는 눈의 중심인 동공과 동공 외곽의 홍채 주름을 포함하여, 전체적으로 검은 자를 포함하는 영상이다. 예시적으로, 홍채 주름의 패턴이 이용되므로, 컬러 영상이 아닌, 흑백 영상이 요구된다.The
홍채 이미지(200)는 반지름 축(ρ) 방향으로 복수의 트랙들로 나누어질 수 있다. 예시적으로, CCD, CMOS 칩을 포함하는 디지털 카메라에 의하여 캡쳐된 영상은 복수의 트랙으로 나뉠 수 있을 것이다. 예시적으로, 도 3에 8개의 트랙들로 나뉜 홍채 이미지(200)가 도시된다. 그리고 각각의 트랙에서, 복수의 픽셀들이 반지름 축(ρ) 방향으로 배열될 수 있다(미도시). 또, 각각의 트랙에서, 각도 축(θ) 방향으로 복수의 픽셀들이 배열될 수 있다(미도시). 즉, 홍채 이미지는 복수의 픽셀들로 나누어 수신될 것이다.The
도 4는 도 3의 홍채 이미지를 홍채 행렬로 재배열한 블럭도이다.4 is a block diagram illustrating the iris image of FIG. 3 rearranged in an iris matrix.
도 4를 참조하면, 홍채 행렬(300)은 행 방향으로 M개의 픽셀들이 배열된다. 행 방향은 도 3의 각도 축(θ)에 대응된다. 그리고 홍채 행렬(300)은 열 방향으로 N개의 트랙들이 배열된다. 열 방향은 도 3의 반지름 축(ρ)과 대응된다.Referring to FIG. 4, in the
도 5는 도 4의 제1 트랙이 정규화되는 과정을 보여주는 블럭도이다. 제1 트랙(310)에서, 열 방향으로 복수의 픽셀들이 배열된다. 예를 들면, 도 5에 도시된 바와 같이, 제1 트랙(310)에서 3개의 픽셀들이 열 방향으로 배열된다. 그리고, 도 4를 참조하여 설명된 바와 마찬가지로, 제1 트랙(310)의 행 방향으로 M개의 픽셀들이 배열될 것이다.5 is a block diagram showing a process in which the first track of FIG. 4 is normalized. In the
트랙들 각각에 포함된 픽셀들은 복수의 그룹으로 나뉘고, 복수의 그룹마다 정규분포를 이용한 가중 평균이 계산될 수 있다. 예시적으로, 평균값(m) 및 제1 표준 편차(σ1)를 가지는 제1 산포(240)가 이용되어, 제1 트랙(310)의 각각의 열들의 가중 평균(weighted sum)이 계산되어, 정규화된 제1 트랙(320)의 각각의 픽셀들이 도출될 것이다. 예시적으로, 제1 트랙(310)의 제5 열(311)에 제1 산포(240)의 곡선상의 세 점의 값을 특정할 것이다. 그리고 제5 열(311)의 각각의 픽셀들의 값들과 특정된 각각의 점들의 값들이 곱해진 후, 곱해진 값들이 더해져 정규화된 제5 픽셀(321)이 도출될 것이다. 제1 트랙(310)에 포함된 각각의 열들의 가중 평균(weighted sum)이 계산되면, 정규화된 제1 트랙(320)이 도출된다. 정규화된 제1 트랙(320)은 M개의 픽셀들을 포함할 것이다.Pixels included in each of the tracks are divided into a plurality of groups, and a weighted average using a normal distribution may be calculated for each of the plurality of groups. Exemplarily, a
제1 산포(240)의 평균값(m) 및 제1 표준 편차(σ1)는 홍채 행렬(300)에 포함된 노이즈(noise)를 감소시킬 수 있도록 설정된다. 따라서, 제1 산포(240)가 이용되어 제1 트랙(310)이 정규화됨으로써, 홍채 이미지에 포함된 노이즈가 감소될 것이다. 또, 복수의 행으로 구성된 제1 트랙(310)으로부터, 하나의 행으로 구성된 정규화된 제1 트랙(320)이 계산됨으로써, 홍채 이미지의 처리시간이 단축될 것이다.The average value m and the first standard deviation σ1 of the
도 5에서, 제1 트랙(310)이 정규화되는 과정이 도시되나, 도 4의 홍채 행렬(300)에 포함된 다른 트랙들도 제1 트랙(310)과 마찬가지로 정규화될 것이다.In FIG. 5, a process in which the
도 6은 정규화된 제1 트랙으로부터 홍채 패턴을 계산하는 방법을 보여주는 블럭도이다.6 is a block diagram showing a method of calculating an iris pattern from a normalized first track.
도 6을 참조하면, 제2 산포(G2)는 제2 표준 편차(σ2)를 갖는다. 제3 산포(G3)는 제3 표준 편차(σ3)를 갖는다. 제3 표준 편차(σ3)는 제2 표준 편치(σ2)보다 작을 수 있다. 예시적으로, 제2 및 제3 산포들(G2,G3)은 가우스 분포(Gaussian distribution)일 수 있다. 그리고, 제2 및 제3 산포들의 차(G2-G3)는 가우스 분포의 차에 기반한 DOG(Difference of Gaussian) 필터의 계수로 사용될 수 있다.Referring to FIG. 6, the second dispersion G2 has a second standard deviation σ2. The third dispersion (G3) has a third standard deviation (σ3). The third standard deviation σ3 may be smaller than the second standard deviation σ2. For example, the second and third distributions G2 and G3 may be Gaussian distribution. In addition, the difference between the second and third distributions (G2-G3) may be used as a coefficient of a difference of Gaussian (DOG) filter based on a difference in a Gaussian distribution.
제2 산포(G2) 및 제3 산포(G3)가 이용되어, 정규화된 제1 트랙(320)으로부터 홍채 패턴이 계산될 수 있다. 제2 및 제3 표준 편차(σ3,σ3)를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여, 정규화된 제1 트랙(320)과 컨볼루션(convolution) 함으로써 홍채 패턴들이 계산된다.The second dispersion G2 and the third dispersion G3 are used, and the iris pattern may be calculated from the normalized
예시적으로, 제2 표준 편차(σ2)를 갖는 제2 산포(G2)와 제3 표준 편차(σ3)를 갖는 제3 산포(G3)의 차에 대응하는 필터(이하, 제2 및 제3 표준 편차들(σ2,σ3)을 가진 필터)가 이용되어, 정규화된 제1 트랙(320)의 가중 평균(weighted sum)이 계산될 수 있다. 계산된 가중 평균들은 홍채 패턴을 구성할 것이다.Exemplarily, a filter corresponding to the difference between the second dispersion (G2) having the second standard deviation (σ2) and the third dispersion (G3) having the third standard deviation (σ3) (hereinafter referred to as the second and third standards A filter with deviations σ2, σ3) can be used to calculate a weighted sum of the normalized
예시적으로, 도 6에 도시된 바와 같이, 정규화된 제5 픽셀(321)에 대응하는 제5 홍채 특징 패턴(331)이 계산될 때, 제2 표준 편차(σ2)를 갖는 제2 산포(G2)에, 정규화된 제5 픽셀(321)에 대응하도록 제2 평균값(x2)이 설정될 수 있을 것이다. 마찬가지로, 제3 표준 편차(σ3)를 갖는 제3 산포(G3)에, 정규화된 제5 픽셀(321)에 대응하도록 제3 평균값(x3)이 설정될 수 있다. 그리고, 제2 산포(G2)와 제3 산포(G3)의 차가 계산되어, 제2 및 제3 표준 편차들(σ2,σ3)을 가진 필터가 도출될 것이다. 제2 및 제3 표준 편차들(σ2,σ3)을 가진 필터상의 점들이 특정되고, 각각의 특정된 점과 정규화된 제1 트랙(320)의 각각의 픽셀들이 곱해지고, 곱해진 값들이 더해져 제5 홍채 패턴(331)이 산출될 것이다.Illustratively, as shown in FIG. 6, when the fifth
제5 홍채 패턴(331)과 마찬가지로, 정규화된 제1 트랙의 픽셀들 각각에 대하여 홍채 패턴이 산출될 것이다. 예를 들면, 정규화된 제1 트랙(320)의 픽셀들 각각에 대응하도록 제2 및 제3 평균값들(x2,x3)이 설정될 수 있을 것이다. 그리고 제2 및 제3 평균값들(x2,x3)을 가진 제2 및 제3 산포들(G1,G2)을 이용하여, 정규화된 제1 트랙(320)의 각각의 픽셀들에 대한 제1 홍채 패턴들(330)이 계산될 것이다. 이 경우, 홍채 패턴은 M개 생성될 것이다.Like the
제2 산포(G2)의 제2 표준 편차(σ2) 및 제3 산포(G3)의 제3 표준 편차(σ3)는 실험을 통해, 홍채 인식률의 관점에서 인식률이 최대가 되도록 설정될 것이다. 또한, 제2 및 제3 표준 편차들(σ2,σ3)은 실험을 통해, 홍채 이미지의 노이즈가 감소될 수 있도록 설정될 것이다.The second standard deviation (σ2) of the second dispersion (G2) and the third standard deviation (σ3) of the third dispersion (G3) will be set to maximize the recognition rate in terms of the iris recognition rate. Further, the second and third standard deviations σ2 and σ3 will be set so that noise of the iris image can be reduced through an experiment.
예시적으로, 수학식 1과 같이 홍채 특징 패턴이 계산될 수 있다.For example, an iris feature pattern may be calculated as shown in
수학식 1에서, G2(x2,σ2)는 제2 표준 편차(σ2) 및 제2 평균값(x2)을 가지는 제2 산포(G2)를 나타낸다. G3(x3,σ3)는 제3 표준 편차(σ3) 및 제3 평균 값(x3)을 가지는 제3 산포(G3)를 나타낸다. 제2 평균값(x2)과 제3 평균값(x3)은 같을 수 있다. f(x)는 정규화된 제1 트랙(320)에 포함된 픽셀들의 값을 나타낸다. x는 제1 트랙(320)에 포함된 픽셀들 중 어느 하나에 대응될 것이다. D(x)는 홍채 패턴값을 나타낸다. 예시적으로, G2(x,σ2)는 수학식 2와 같이 표현될 수 있다.In
수학식 2에서, σ2는 제2 산포(G2)의 표준 편차를 나타낼 것이다. x2는 제2 산포(G2)의 평균을 나타낼 것이다. 예시적으로, 수학식 2에 x3 및 σ3가 대입되면, 제3 산포(G3)도 수학식 2와 마찬가지로 표현될 수 있을 것이다.In Equation 2, σ2 will represent the standard deviation of the second dispersion G2. x2 will represent the average of the second dispersion (G2). For example, when x3 and ?3 are substituted in Equation 2, the third dispersion G3 may be expressed in the same manner as in Equation 2.
도 7은 퍼지 맴버쉽 함수를 보여주는 그래프이다.7 is a graph showing a fuzzy membership function.
도 7을 참조하면, 가로축은 홍채 패턴의 값(t)을 나타낸다. 그리고 세로축은 홍채 벡터의 값(s)을 나타낸다. 홍채 벡터의 값(s)은 논리 값 "0" 내지 "1" 사이의 값과 대응된다.Referring to FIG. 7, the horizontal axis represents the value t of the iris pattern. And the vertical axis represents the value (s) of the iris vector. The value s of the iris vector corresponds to a value between the logical values "0" and "1".
제2 및 제3 표준 편차들(σ2,σ3)을 가진 필터를 이용하여 계산된 홍채 패턴들의 값은, 퍼지 맴버쉽 함수에 기반하여 0 내지 1 사이의 값에 대응될 수 있다. 퍼지 맴버쉽 함수(s(t))를 이용하면, 홍채 패턴들의 값이 양자화(quantization)되는 것이 아니라, 0 내지 1 사이의 값에 대응되어 홍채 벡터가 계산된다.Values of iris patterns calculated using filters having the second and third standard deviations (σ2,σ3) may correspond to values between 0 and 1 based on the fuzzy membership function. When the fuzzy membership function s(t) is used, values of iris patterns are not quantized, but an iris vector is calculated corresponding to a value between 0 and 1.
예시적으로, 정규화된 제5 픽셀(321, 도 6 참조)에 대한 제5 홍채 패턴(331,도 6 참조)의 값이 to에 대응된다고 가정한다. 이 경우, 세로축에 대응되는 홍채 벡터의 값은 0.8일 것이다.For example, it is assumed that the value of the fifth iris pattern 331 (see FIG. 6) for the normalized fifth pixel 321 (see FIG. 6) corresponds to to. In this case, the value of the iris vector corresponding to the vertical axis will be 0.8.
예시적으로, 퍼지 맴버쉽 함수(s(t))는 수학식 3과 같이 표현될 수 있다.For example, the fuzzy membership function s(t) may be expressed as in Equation 3.
수학식 3에서, t는 홍채 패턴의 값을 나타낸다. c는 특정된 상수를 나타낸다. c를 이용되어 s(t)의 기울기가 변화될 수 있을 것이다. 따라서, c가 이용되면, 홍채 패턴의 값(t)과 대응하는 홍채 벡터의 값(s)이 조절될 수 있다.In Equation 3, t represents the value of the iris pattern. c represents a specified constant. The slope of s(t) could be changed using c. Therefore, if c is used, the value t of the iris pattern and the value s of the corresponding iris vector can be adjusted.
도 8은 본 발명의 실시예에 따른 프로세서의 기능부를 나타낸 블럭 구성도이다.8 is a block diagram showing a functional unit of a processor according to an embodiment of the present invention.
도 8을 참조하면, 본 발명에 따른 프로세서(230)는 영상 수신부(810), 안면 인식부(820), 홍채 인식부(830), 데이터베이스(840) 및 비교부(850)를 포함할 수 있다.Referring to FIG. 8, the
영상 수신부(810)는 제1 카메라(210) 및 제2 카메라(220)로부터 안면 이미지 및 홍채 이미지를 각각 획득한다. 영상 수신부(820)는 안면 인식부(820)와 홍채 인식부(830)에 연결되어, 안면 인식부(820)와 홍채 인식부(830)에 획득된 안면 이미지 및 홍채 이미지를 각각 전달한다.The
안면 인식부(820)는 영상 수신부(810) 및 비교부(850)와 연결된다. 안면 인식부(820)는 영상 수신부(820)를 통해 수신한 안면 이미지에 기반하여 안면 벡터를 계산한다.The
홍채 인식부(830)는 영상 수신부(810) 및 비교부(850)와 연결된다. 홍채 인식부(830)는 영상 수신부(820)를 통해 수신한 홍채 이미지에 기반하여 홍채 벡터를 계산한다. 도 3 및 도 7을 참조하여 설명된 바와 마찬가지로 홍채 벡터들이 계산된다. 즉, 수신된 홍채 이미지가 정규화되고(도 5 참조), 정규화된 홍채 이미지가 이용되어 홍채 패턴들이 계산된다(도 6 참조). 그리고 계산된 홍채 패턴이 이용되어 홍채 벡터가 산출된다(도 7 참조).The
데이터베이스부(840)는 비교부(850)와 연결된다. 데이터베이스부(840)는 본인의 안면 형상 및 홍채 형상과 대응되는 데이터를 저장한다. 영상 수신부(810)에서 안면 이미지 및 홍채 이미지가 획득되기 전에 미리 데이터베이스부(840)에 데이터가 저장될 것이다. 즉, 데이터베이스부(840)는 홍채 이미지에서 좌우 눈을 분리하고, 오리진(origin)화에 의해 홍채 이미지를 이동시키며, 이동된 홍채 이미지에서 눈썹 및 눈꺼풀 등의 노이즈를 제거하여 홍채 정보로서 홍채 데이터를 생성하고, 홍채 데이터를 암호화 코드로 변환하여 저장한다. 구체적으로는, 데이터베이스부(840)는 홍채 데이터에 포함된 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할한 후, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하며, 디지털화된 홍채 패턴을 암호화하여 저장할 수 있다.The
비교부(850)는 데이터베이스부(840)에 저장된 데이터와 산출된 안면 벡터와 홍채 벡터에 기반하여, 영상 수신부(810)에서 획득된 안면 이미지 및 홍채 이미지가 본인인지 여부를 식별할 것이다. 예시적으로, 각각의 안면 벡터 및 홍채 벡터와, 그와 대응되는 데이터베이스에 포함된 데이터의 차의 절대값이 계산될 것이다. 그리고 각각의 절대값이 합산되고, 정해진 임계치와 비교될 것이다. 합산된 절대값이 정해진 임계치보다 큰 경우, 본인의 안면 형상 및 홍채 형상이 아니라고 판단될 것이다. 합산된 절대값이 정해진 임계치보다 작은 경우, 본인의 안면 형상 및 홍채 형상이라고 판단될 것이다.The
도 9는 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 인식 방법을 나타낸 흐름도이다.9 is a flowchart illustrating a method of recognizing a face by securing a space for a capture volume according to an embodiment of the present invention.
도 9를 참조하면, 제1 카메라(210)는 사용자와의 거리를 측정한다(S910). 이때, 제1 카메라(210)는 라이다 센서를 이용하여 사용자와의 거리를 측정할 수 있다.Referring to FIG. 9, the
제1 카메라(210)는 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는지 여부를 판단하고(S920), 사용자가 캡쳐 볼륨 공간 내에 위치한다고 판단한 경우, 사용자의 안면을 인식하며(S930), 눈, 코 및 입 등을 포함하는 안면 구성요소의 위치를 취득한다(S940).The
이어서, 제1 카메라(210)는 취득한 안면 구성요소의 위치를 제2 카메라(220)에 제공한다(S950).Subsequently, the
프로세서(230)는 제1 카메라(210)에 의해 인식된 사용자의 안면을 기저장된 복수의 안면 정보와 각각 비교하여 사용자에 대한 인증을 수행한다(S960). 즉, 프로세서(230)는 데이터베이스부(840)에 저장된 데이터와 산출된 안면 벡터에 기반하여, 영상 수신부(810)에서 획득된 안면 이미지가 본인인지 여부를 식별할 것이다. 예시적으로, 각각의 안면 벡터와, 그와 대응되는 데이터베이스에 포함된 데이터의 차의 절대값이 계산될 것이다. 그리고 각각의 절대값이 합산되고, 정해진 임계치와 비교될 것이다. 합산된 절대값이 정해진 임계치보다 큰 경우, 본인의 안면 형상이 아니라고 판단될 것이다. 합산된 절대값이 정해진 임계치보다 작은 경우, 본인의 안면 형상이라고 판단될 것이다.The
도 10은 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 홍채 인식 방법을 나타낸 흐름도이다.10 is a flowchart illustrating a method of recognizing an iris by securing a space for a capture volume according to an embodiment of the present invention.
도 10을 참조하면, 제2 카메라(220)는 제1 카메라(210)에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식한다(S1010).Referring to FIG. 10, the
프로세서(230)는 제2 카메라(220)에 의해 인식된 사용자의 홍채를 기저장된 복수의 홍채 정보와 각각 비교하여 사용자에 대한 인증을 수행한다(S1020). 즉, 프로세서(230)는 홍채 이미지를 복수의 픽셀들로 나누고, 복수의 픽셀들을 복수의 그룹들로 나누며, 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하고, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하고, 검출된 홍채 벡터를 기저장된 홍채 데이터와 비교함으로써, 사용자에 대한 인증을 수행할 수 있다. 예시적으로, 각각의 홍채 벡터와, 그와 대응되는 데이터베이스에 포함된 데이터의 차의 절대값이 계산될 것이다. 그리고 각각의 절대값이 합산되고, 정해진 임계치와 비교될 것이다. 합산된 절대값이 정해진 임계치보다 큰 경우, 본인의 홍채 형상이 아니라고 판단될 것이다. 합산된 절대값이 정해진 임계치보다 작은 경우, 본인의 홍채 형상이라고 판단될 것이다.The
전술한 방법은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(Firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described method can be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.
하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 프로세서, 마이크로프로세서 및 마이크로프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). , Field Programmable Gate Arrays (FPGAs), processors, processors, microprocessors, and microprocessors.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor through various known means.
이상에서 본 명세서에 개시된 실시예들을 첨부된 도면들을 참조로 설명하였다. 이와 같이 각 도면에 도시된 실시예들은 한정적으로 해석되면 아니되며, 본 명세서의 내용을 숙지한 당업자에 의해 서로 조합될 수 있고, 조합될 경우 일부 구성 요소들은 생략될 수도 있는 것으로 해석될 수 있다.In the above, embodiments disclosed in the present specification have been described with reference to the accompanying drawings. As described above, the embodiments shown in each drawing are not to be construed as limiting, and may be combined with each other by those skilled in the art who are familiar with the contents of the present specification, and when combined, some elements may be interpreted as being omitted.
여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 명세서에 개시된 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Here, the terms or words used in the specification and claims should not be construed as being limited to a conventional or dictionary meaning, but should be interpreted as meanings and concepts consistent with the technical idea disclosed in the present specification.
따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 명세서에 개시된 실시예에 불과할 뿐이고, 본 명세서에 개시된 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the embodiments disclosed in the present specification, and do not represent all of the technical ideas disclosed in the present specification, and various equivalents that can replace them at the time of application It should be understood that there may be water and variations.
210: 제1 카메라 220: 제2 카메라
230: 프로세서 810: 영상 수신부
820: 안면 인식부 830: 홍채 인식부
840: 데이터베이스부 850: 비교부210: first camera 220: second camera
230: processor 810: image receiving unit
820: facial recognition unit 830: iris recognition unit
840: database unit 850: comparison unit
Claims (10)
상기 제1 카메라에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식하는 제2 카메라; 및
상기 제1 카메라에 의해 인식된 사용자의 안면 및 상기 제2 카메라에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 상기 사용자에 대한 인증을 수행하는 프로세서;
를 포함하되,
상기 프로세서는 홍채 이미지를 복수의 픽셀들로 나누고, 상기 복수의 픽셀들을 복수의 그룹들로 나누며, 상기 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하고, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템.
A first camera for recognizing a user's face and acquiring a position of a facial component when the user is located in a capture volume space in which an iris image can be obtained by measuring a distance from the user;
Taking a picture of the user while tilting while panning at a specific pan angle based on the position of the user's facial component acquired by the first camera, and recognizing the user's iris by photographing the user's iris image at a specific tilt angle. A second camera; And
A processor for performing authentication for the user by comparing the user's face recognized by the first camera and the user's iris recognized by the second camera with a plurality of previously stored facial information and a plurality of iris information;
Including,
The processor divides the iris image into a plurality of pixels, divides the plurality of pixels into a plurality of groups, and in each of the plurality of groups, first and second normal distribution curves having first and second standard deviations A capture volume space, characterized in that an iris pattern is calculated using a filter having a coefficient corresponding to the difference between the two and an iris vector corresponding to a value between logical values "0" to "1" from the calculated iris pattern. Facial and iris recognition system through securing.
상기 프로세서는 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할한 후, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하며, 디지털화된 홍채 패턴을 암호화하여 저장하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템.
The method of claim 1,
The processor divides the iris pattern into a plurality of tracks centered on the pupil, then digitizes the iris pattern included in each track by a quantization algorithm, and encrypts and stores the digitized iris pattern. Facial and iris recognition system through.
상기 프로세서는 상기 홍채 이미지에서 좌우 눈을 분리하고, 오리진(origin)화에 의해 상기 홍채 이미지를 이동시키며, 이동된 홍채 이미지에서 노이즈를 제거하여 홍채 데이터를 생성하고, 홍채 데이터를 암호화 코드로 변환하여 저장하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템.
The method of claim 1,
The processor separates the left and right eyes from the iris image, moves the iris image by origination, generates iris data by removing noise from the moved iris image, and converts the iris data into an encryption code. A facial and iris recognition system through securing a capture volume space, characterized in that to store.
상기 캡쳐 볼륨 공간은 원하는 캡쳐 볼륨을 형성하기 위해 배열된 복수의 셀을 포함하고, 상기 제1 카메라는 상기 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성되며,
상기 프로세서는 사용자와의 거리가 변경됨에 따라 상기 복수의 카메라의 개수를 변경하여 상기 캡쳐 볼륨 공간을 조절하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템.
The method of claim 1,
The capture volume space includes a plurality of cells arranged to form a desired capture volume, and the first camera is composed of a camera array including a plurality of cameras respectively corresponding to the plurality of cells,
The processor adjusts the capture volume space by changing the number of the plurality of cameras as the distance to the user is changed. The facial and iris recognition system by securing the capture volume space.
상기 제1 카메라가, 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면을 인식하고, 안면 구성요소의 위치를 취득하는 단계;
제2 카메라가, 상기 제1 카메라에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식하는 단계; 및
프로세서가, 상기 제1 카메라에 의해 인식된 사용자의 안면 및 상기 제2 카메라에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 상기 사용자에 대한 인증을 수행하는 단계;
를 포함하되,
상기 프로세서가, 홍채 이미지를 복수의 픽셀들로 나누는 단계;
상기 프로세서가, 상기 복수의 픽셀들을 복수의 그룹들로 나누는 단계;
상기 프로세서가, 상기 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하는 단계; 및
상기 프로세서가, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하는 단계;
를 더 포함하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법.
Measuring a distance from the user by the first camera;
When the first camera is located in a capture volume space in which a user can acquire an iris image, recognizing a user's face and acquiring a position of a facial component;
The second camera photographs the user while panning at a specific pan angle based on the position of the user's facial component acquired by the first camera and photographs the user's iris image at a specific tilt angle. Recognizing the iris of the; And
The processor performs authentication for the user by comparing the user's face recognized by the first camera and the user's iris recognized by the second camera with a plurality of previously stored facial information and a plurality of iris information, respectively. step;
Including,
Dividing, by the processor, an iris image into a plurality of pixels;
Dividing, by the processor, the plurality of pixels into a plurality of groups;
Calculating, by the processor, in each of the plurality of groups, an iris pattern using a filter having a coefficient corresponding to a difference between first and second normal distribution curves having first and second standard deviations; And
Detecting, by the processor, an iris vector corresponding to a value between logical values "0" and "1" from the calculated iris pattern;
Face and iris recognition method by securing a capture volume space, characterized in that it further comprises.
상기 프로세서가, 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할하는 단계;
상기 프로세서가, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하는 단계; 및
상기 프로세서가, 디지털화된 홍채 패턴을 암호화하여 저장하는 단계;
를 더 포함하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법.
The method of claim 6,
Dividing the iris pattern into a plurality of tracks around the pupil;
Digitizing, by the processor, an iris pattern included in each track by a quantization algorithm; And
Encrypting and storing, by the processor, the digitized iris pattern;
Face and iris recognition method by securing a capture volume space, characterized in that it further comprises.
상기 프로세서가, 상기 홍채 이미지에서 좌우 눈을 분리하는 단계;
상기 프로세서가, 오리진(origin)화에 의해 상기 홍채 이미지를 이동시키는 단계;
상기 프로세서가, 이동된 홍채 이미지에서 노이즈를 제거하여 홍채 데이터를 생성하는 단계; 및
상기 프로세서가, 홍채 데이터를 암호화 코드로 변환하여 저장하는 단계;
를 더 포함하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법.
The method of claim 6,
Separating, by the processor, left and right eyes from the iris image;
Moving, by the processor, the iris image by originating;
Generating, by the processor, iris data by removing noise from the moved iris image; And
Converting, by the processor, iris data into an encryption code and storing it;
Face and iris recognition method by securing a capture volume space, characterized in that it further comprises.
상기 캡쳐 볼륨 공간은 원하는 캡쳐 볼륨을 형성하기 위해 배열된 복수의 셀을 포함하고, 상기 제1 카메라는 상기 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성되며,
상기 방법은,
상기 프로세서가, 사용자와의 거리가 변경됨에 따라 상기 복수의 카메라의 개수를 변경하여 상기 캡쳐 볼륨 공간을 조절하는 단계;
를 더 포함하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법.
The method of claim 6,
The capture volume space includes a plurality of cells arranged to form a desired capture volume, and the first camera is composed of a camera array including a plurality of cameras respectively corresponding to the plurality of cells,
The above method,
Adjusting, by the processor, the capture volume space by changing the number of the plurality of cameras as the distance to the user is changed;
Face and iris recognition method by securing a capture volume space, characterized in that it further comprises.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190148371A KR102171018B1 (en) | 2019-11-19 | 2019-11-19 | Method and system for recognizing face and iris by securing capture volume space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190148371A KR102171018B1 (en) | 2019-11-19 | 2019-11-19 | Method and system for recognizing face and iris by securing capture volume space |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102171018B1 true KR102171018B1 (en) | 2020-10-28 |
Family
ID=73018476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190148371A KR102171018B1 (en) | 2019-11-19 | 2019-11-19 | Method and system for recognizing face and iris by securing capture volume space |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102171018B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230010392A (en) * | 2021-07-12 | 2023-01-19 | 김한필 | Method and system for generating perfume recipe based on image |
WO2023063861A1 (en) * | 2021-10-13 | 2023-04-20 | Fingerprint Cards Anacatum Ip Ab | A method and a system configured to reduce impact of impairment data in captured iris images |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020073653A (en) | 2001-03-15 | 2002-09-28 | 엘지전자 주식회사 | Distance measuring method and apparatus of iris recognition system |
KR20020086977A (en) | 2001-05-12 | 2002-11-21 | 엘지전자 주식회사 | Focusing distance measurement in iris recognition system |
KR20060081380A (en) | 2005-01-08 | 2006-07-12 | 아이리텍 잉크 | Iris identification system and method using mobile device with stereo camera |
KR20130123859A (en) | 2012-05-04 | 2013-11-13 | 삼성전자주식회사 | Terminal and method for iris scanning and proximity sensing |
KR20160068884A (en) * | 2013-10-08 | 2016-06-15 | 에스알아이 인터내셔널 | Iris biometric recognition module and access control assembly |
KR20190022654A (en) * | 2016-06-24 | 2019-03-06 | 포토내이션 리미티드 | Image processing method and system for iris recognition |
KR20190072323A (en) * | 2017-12-15 | 2019-06-25 | 동의대학교 산학협력단 | Image Monitoring System and Method for Monitoring Image |
-
2019
- 2019-11-19 KR KR1020190148371A patent/KR102171018B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020073653A (en) | 2001-03-15 | 2002-09-28 | 엘지전자 주식회사 | Distance measuring method and apparatus of iris recognition system |
KR20020086977A (en) | 2001-05-12 | 2002-11-21 | 엘지전자 주식회사 | Focusing distance measurement in iris recognition system |
KR20060081380A (en) | 2005-01-08 | 2006-07-12 | 아이리텍 잉크 | Iris identification system and method using mobile device with stereo camera |
KR20130123859A (en) | 2012-05-04 | 2013-11-13 | 삼성전자주식회사 | Terminal and method for iris scanning and proximity sensing |
KR20160068884A (en) * | 2013-10-08 | 2016-06-15 | 에스알아이 인터내셔널 | Iris biometric recognition module and access control assembly |
KR20190022654A (en) * | 2016-06-24 | 2019-03-06 | 포토내이션 리미티드 | Image processing method and system for iris recognition |
KR20190072323A (en) * | 2017-12-15 | 2019-06-25 | 동의대학교 산학협력단 | Image Monitoring System and Method for Monitoring Image |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230010392A (en) * | 2021-07-12 | 2023-01-19 | 김한필 | Method and system for generating perfume recipe based on image |
KR102634828B1 (en) * | 2021-07-12 | 2024-02-06 | 김한필 | Method and system for generating perfume recipe based on image |
WO2023063861A1 (en) * | 2021-10-13 | 2023-04-20 | Fingerprint Cards Anacatum Ip Ab | A method and a system configured to reduce impact of impairment data in captured iris images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288504B2 (en) | Iris liveness detection for mobile devices | |
CN107818305B (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
CN107886484B (en) | Beautifying method, beautifying device, computer-readable storage medium and electronic equipment | |
US9366843B2 (en) | Iris imaging apparatus and methods for configuring an iris imaging apparatus | |
WO2019218621A1 (en) | Detection method for living being, device, electronic apparatus, and storage medium | |
CN102147856B (en) | Image recognition apparatus and its control method | |
KR102270674B1 (en) | Biometric camera | |
CN107945135B (en) | Image processing method, image processing apparatus, storage medium, and electronic device | |
US11676424B2 (en) | Iris or other body part identification on a computing device | |
US8983202B2 (en) | Smile detection systems and methods | |
US9813643B2 (en) | Thermal recognition systems and methods | |
CN111780673B (en) | Distance measurement method, device and equipment | |
KR102317180B1 (en) | Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information | |
CN104680128B (en) | Biological feature recognition method and system based on four-dimensional analysis | |
WO2016010724A1 (en) | Multispectral eye analysis for identity authentication | |
US10769415B1 (en) | Detection of identity changes during facial recognition enrollment process | |
CN107862658B (en) | Image processing method, image processing device, computer-readable storage medium and electronic equipment | |
US9449217B1 (en) | Image authentication | |
GB2343945A (en) | Photographing or recognising a face | |
KR102171018B1 (en) | Method and system for recognizing face and iris by securing capture volume space | |
CN107844764B (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
JP2012118817A (en) | Image processing device and image processing method, program, and storage medium | |
KR20090086891A (en) | Face recognition system and method using the infrared rays | |
CN109683698B (en) | Payment verification method and device, electronic equipment and computer-readable storage medium | |
JP6396357B2 (en) | Face image authentication device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |