KR102171018B1 - Method and system for recognizing face and iris by securing capture volume space - Google Patents

Method and system for recognizing face and iris by securing capture volume space Download PDF

Info

Publication number
KR102171018B1
KR102171018B1 KR1020190148371A KR20190148371A KR102171018B1 KR 102171018 B1 KR102171018 B1 KR 102171018B1 KR 1020190148371 A KR1020190148371 A KR 1020190148371A KR 20190148371 A KR20190148371 A KR 20190148371A KR 102171018 B1 KR102171018 B1 KR 102171018B1
Authority
KR
South Korea
Prior art keywords
iris
user
camera
processor
capture volume
Prior art date
Application number
KR1020190148371A
Other languages
Korean (ko)
Inventor
우광제
추광운
Original Assignee
주식회사 아이트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이트 filed Critical 주식회사 아이트
Priority to KR1020190148371A priority Critical patent/KR102171018B1/en
Application granted granted Critical
Publication of KR102171018B1 publication Critical patent/KR102171018B1/en

Links

Images

Classifications

    • G06K9/00892
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • G06K9/00221
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/2257
    • H04N5/23299
    • H04N5/247

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to a method for recognizing a face and an iris through securing a capture volume space and to a system thereof. The system comprises: a first camera recognizing a face of a user and obtaining a position of a facial component when the user is positioned in a capture volume space in which an iris image can be obtained by the user by measuring a distance from the user; a second camera photographing the user by tilting in a panning state at a specific pan angle based on the position of the facial component of the user obtained by the first camera, and photographing an iris image of the user at the specific tilt angle to recognize the iris of the user; and a processor comparing the face of the user recognized by the first camera and the iris of the user recognized by the second camera with multiple types of face information and multiple types of iris information, respectively, to perform authentication for the user.

Description

캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템{METHOD AND SYSTEM FOR RECOGNIZING FACE AND IRIS BY SECURING CAPTURE VOLUME SPACE}Face and iris recognition method and system by securing capture volume space {METHOD AND SYSTEM FOR RECOGNIZING FACE AND IRIS BY SECURING CAPTURE VOLUME SPACE}

본 발명은 생체 인식 시스템에 관한 것으로, 더욱 상세하게는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템에 관한 것이다.The present invention relates to a biometric system, and more particularly, to a method and system for recognizing a face and an iris through securing a space for a capture volume.

일반적으로 홍채 인식은 피촬영자의 홍채를 추출하여 다른 영상에서 추출된 홍채와 서로 비교함으로써 인증 또는 신원확인을 수행하는 데, 이러한 홍채 인식에 있어서 가장 중요한 요소는 피촬영자의 편의성을 극대화하면서 선명한 홍채 이미지를 어떻게 획득할 수 있는지 여부이다.In general, iris recognition performs authentication or identification by extracting the subject's iris and comparing it with the iris extracted from another image. The most important factor in this iris recognition is a clear iris image while maximizing the convenience of the subject. It is how you can get it.

선명한 홍채이미지를 얻기 위해서는 피촬영자의 눈이 홍채 인식 카메라의 화각 범위 내와 초점이 맞는 거리에 맞도록 위치시켜야 하는데, 이를 위해서 다양한 방법이 시도되어 왔다.In order to obtain a clear iris image, the subject's eyes must be positioned within the range of the field of view of the iris recognition camera and at a distance that is in focus. To this end, various methods have been tried.

가장 흔히 사용되고 있는 종래의 기술은 피촬영자가 직접 화면을 보고 일정한 거리로 움직여서 정지한 상태로 측정하는 것으로서 피촬영자의 협조없이는 불가능하며, 피촬영자의 숙련도에 따라 획득하는 홍채 이미지의 품질이 달라지는 등의 문제가 발생하였다.The most commonly used conventional technique is that the subject directly looks at the screen and moves at a certain distance to measure in a stationary state.It is impossible without the cooperation of the subject, and the quality of the iris image acquired varies according to the subject's skill level. There was a problem.

게다가 최근에는 기존에는 생각하지 못했던 다양한 기기에 홍채 인식을 적용하기 위한 연구가 진행되고 있다. 기존의 CCTV와 같은 보안기기 또는 도어락과 같은 출입관련 기기 이외에 카메라와 비디오, 캠코더 같은 영상기기 및 스마트폰, 태블릿, PDA, PC, 노트북과 같은 스마트 기기 등에서의 홍채 인식을 적용하기 위한 연구가 산업계에서도 매우 활발하게 논의되고 있다.In addition, research is being conducted to apply iris recognition to various devices that were not previously thought of. In addition to existing security devices such as CCTV or access-related devices such as door locks, research to apply iris recognition in video devices such as cameras, video and camcorders, and smart devices such as smartphones, tablets, PDAs, PCs, and notebooks has also been conducted in the industry It is being discussed very actively.

특히 스마트폰과 같은 단말기 등에서의 지능화가 매우 빠르게 진행되고, 또한 스마트폰과 같은 단말기 등에 장착되는 카메라와 관련된 기술분야도 눈부시게 매우 빠른 속도로 발전되고 있다. 최근에는 12M 또는 16M 픽셀의 해상도와 초당 30 프레임 이상의 전송 속도를 갖는 스마트폰용 카메라 모듈이 저가로 이미 사용되기 시작하고 있으며, 단시일내에 더 높은 해상도와 더 빠른 프레임 전송 속도를 갖는 카메라 모듈들을 사용한 기기들이 매우 낮은 가격으로 보편적으로 사용될 것으로 예상되고 있다.In particular, intelligence in terminals such as smartphones is progressing very quickly, and technical fields related to cameras installed in terminals such as smartphones are also developing at a remarkably very fast speed. Recently, camera modules for smartphones with a resolution of 12M or 16M pixels and a transmission rate of 30 frames per second or more are already starting to be used at low cost, and devices using camera modules having a higher resolution and a faster frame transmission rate are beginning to be used in a short period of time. It is expected to be universally used at a very low price.

따라서 물리적 공간 및 경제적 비용 문제를 충분히 고려하면서 사용자의 편의성을 증대할 수 있으며, 기존의 CCTV와 같은 보안기기 또는 도어락과 같은 출입관련 기기 이외에 카메라와 비디오, 캠코더 같은 영상기기 및 스마트폰, 태블릿, PDA, PC, 노트북과 같은 다양한 스마트 기기에도 홍채 인식을 쉽게 적용할 수 있는 기술적 장치 및 방법에 관한 요구가 증대되고 있는 실정이다.Therefore, it is possible to increase the user's convenience while sufficiently considering the physical space and economic cost issues, and in addition to the existing security devices such as CCTV or access-related devices such as door locks, video devices such as cameras, videos, camcorders, smartphones, tablets, PDAs There is an increasing demand for technical devices and methods that can easily apply iris recognition to various smart devices such as PCs and laptops.

국내특허공개공보 제10-2002-0086977호Korean Patent Publication No. 10-2002-0086977 국내특허공개공보 제10-2002-0073653호Korean Patent Publication No. 10-2002-0073653 국내특허공개공보 제10-2006-0081380호Korean Patent Publication No. 10-2006-0081380 국내특허공개공보 제10-2013-0123859호Korean Patent Publication No. 10-2013-0123859

본 명세서는 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 사용자가 카메라에 직접 눈을 가져다 대지 않더라도 사용자의 홍채를 인식할 수 있는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템을 제공하는 데 그 목적이 있다.The present specification has been devised to solve the above-described problems, and provides a method and system for recognizing faces and irises by securing a capture volume space capable of recognizing the user's iris even if the user does not directly bring his eyes to the camera. Having that purpose.

본 발명의 다른 목적은 워크 스루(Walk-thru) 형태로 홍채를 인식할 수 있는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템을 제공한다.Another object of the present invention is to provide a method and system for recognizing faces and irises by securing a capture volume space capable of recognizing an iris in a walk-thru form.

이와 같은 목적을 달성하기 위한, 본 명세서의 실시예에 따르면, 본 명세서에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템은, 사용자와의 거리를 측정하여 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면을 인식하고, 안면 구성요소의 위치를 취득하는 제1 카메라; 상기 제1 카메라에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식하는 제2 카메라; 및 상기 제1 카메라에 의해 인식된 사용자의 안면 및 상기 제2 카메라에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 상기 사용자에 대한 인증을 수행하는 프로세서를 포함한다.In order to achieve such an object, according to an embodiment of the present specification, the facial and iris recognition system through securing a capture volume space according to the present specification measures the distance to the user to capture the iris image by the user. A first camera that recognizes a user's face when positioned within the volume space and obtains a position of a facial component; Based on the position of the user's facial component acquired by the first camera, the user is photographed while tilting while panning at a specific pan angle, and the user's iris is recognized by photographing the user's iris image at a specific tilt angle. A second camera; And a processor for performing authentication for the user by comparing the user's face recognized by the first camera and the user's iris recognized by the second camera with a plurality of previously stored facial information and a plurality of iris information, respectively. Include.

바람직하게는, 상기 프로세서는 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할한 후, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하며, 디지털화된 홍채 패턴을 암호화하여 저장하는 것을 특징으로 한다.Preferably, the processor is characterized in that after dividing the iris pattern into a plurality of tracks around the pupil, digitizing the iris pattern included in each track by a quantization algorithm, and encrypting and storing the digitized iris pattern. .

바람직하게는, 상기 프로세서는 홍채 이미지를 복수의 픽셀들로 나누고, 상기 복수의 픽셀들을 복수의 그룹들로 나누며, 상기 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하고, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하는 것을 특징으로 한다.Preferably, the processor divides the iris image into a plurality of pixels, divides the plurality of pixels into a plurality of groups, and in each of the plurality of groups, first and second standard deviations having first and second standard deviations 2 The iris pattern is calculated using a filter having a coefficient corresponding to the difference between the normal distribution curves, and an iris vector corresponding to a value between logical values "0" to "1" is detected from the calculated iris pattern. do.

바람직하게는, 상기 프로세서는 상기 홍채 이미지에서 좌우 눈을 분리하고, 오리진(origin)화에 의해 상기 홍채 이미지를 이동시키며, 이동된 홍채 이미지에서 노이즈를 제거하여 홍채 데이터를 생성하고, 홍채 데이터를 암호화 코드로 변환하여 저장하는 것을 특징으로 한다.Preferably, the processor separates the left and right eyes from the iris image, moves the iris image by origination, removes noise from the moved iris image to generate iris data, and encrypts the iris data. It is characterized in that it is converted into a code and stored.

바람직하게는, 상기 캡쳐 볼륨 공간은 원하는 캡쳐 볼륨을 형성하기 위해 배열된 복수의 셀을 포함하고, 상기 제1 카메라는 상기 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성되며, 상기 프로세서는 사용자와의 거리가 변경됨에 따라 상기 복수의 카메라의 개수를 변경하여 상기 캡쳐 볼륨 공간을 조절하는 것을 특징으로 한다.Preferably, the capture volume space includes a plurality of cells arranged to form a desired capture volume, and the first camera is composed of a camera array including a plurality of cameras respectively corresponding to the plurality of cells, The processor may adjust the capture volume space by changing the number of the plurality of cameras as the distance to the user is changed.

본 명세서의 다른 실시예에 따르면, 본 명세서에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법은, 제1 카메라가 사용자와의 거리를 측정하는 단계; 상기 제1 카메라가, 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면을 인식하고, 안면 구성요소의 위치를 취득하는 단계; 제2 카메라가, 상기 제1 카메라에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식하는 단계; 및 프로세서가, 상기 제1 카메라에 의해 인식된 사용자의 안면 및 상기 제2 카메라에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 상기 사용자에 대한 인증을 수행하는 단계를 포함한다.According to another embodiment of the present specification, a method for recognizing a face and an iris by securing a space for a capture volume according to the present specification includes: measuring, by a first camera, a distance to a user; When the first camera is located in a capture volume space in which a user can acquire an iris image, recognizing a user's face and acquiring a position of a facial component; The second camera photographs the user while tilting while panning at a specific pan angle based on the position of the user's facial component acquired by the first camera, and photographs the user's iris image at a specific tilt angle. Recognizing the iris of the; And the processor performs authentication for the user by comparing the user's face recognized by the first camera and the user's iris recognized by the second camera with a plurality of previously stored facial information and a plurality of iris information, respectively. It includes the step of.

바람직하게는, 상기 프로세서가, 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할하는 단계; 상기 프로세서가, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하는 단계; 및 상기 프로세서가, 디지털화된 홍채 패턴을 암호화하여 저장하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the processor, dividing the iris pattern into a plurality of tracks around the pupil; Digitizing, by the processor, an iris pattern included in each track by a quantization algorithm; And storing, by the processor, the digitized iris pattern.

바람직하게는, 상기 프로세서가, 홍채 이미지를 복수의 픽셀들로 나누는 단계; 상기 프로세서가, 상기 복수의 픽셀들을 복수의 그룹들로 나누는 단계; 상기 프로세서가, 상기 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하는 단계; 및 상기 프로세서가, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하는 단계를 더 포함하는 것을 특징으로 한다.Advantageously, the processor further comprises: dividing an iris image into a plurality of pixels; Dividing, by the processor, the plurality of pixels into a plurality of groups; Calculating, by the processor, in each of the plurality of groups, an iris pattern using a filter having a coefficient corresponding to a difference between first and second normal distribution curves having first and second standard deviations; And detecting, by the processor, an iris vector corresponding to a value between the logical values "0" and "1" from the calculated iris pattern.

바람직하게는, 상기 프로세서가, 상기 홍채 이미지에서 좌우 눈을 분리하는 단계; 상기 프로세서가, 오리진(origin)화에 의해 상기 홍채 이미지를 이동시키는 단계; 상기 프로세서가, 이동된 홍채 이미지에서 노이즈를 제거하여 홍채 데이터를 생성하는 단계; 및 상기 프로세서가, 홍채 데이터를 암호화 코드로 변환하여 저장하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the processor, separating the left and right eyes from the iris image; Moving, by the processor, the iris image by originating; Generating, by the processor, iris data by removing noise from the moved iris image; And converting, by the processor, the iris data into an encryption code and storing it.

바람직하게는, 상기 캡쳐 볼륨 공간은 원하는 캡쳐 볼륨을 형성하기 위해 배열된 복수의 셀을 포함하고, 상기 제1 카메라는 상기 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성되며, 상기 방법은, 상기 프로세서가, 사용자와의 거리가 변경됨에 따라 상기 복수의 카메라의 개수를 변경하여 상기 캡쳐 볼륨 공간을 조절하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the capture volume space includes a plurality of cells arranged to form a desired capture volume, and the first camera is composed of a camera array including a plurality of cameras respectively corresponding to the plurality of cells, The method may further include, by the processor, adjusting the capture volume space by changing the number of the plurality of cameras as the distance to the user is changed.

이상에서 설명한 바와 같이 본 명세서에 의하면, 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면 및 홍채를 인식하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법 및 시스템을 제공함으로써, 사용자가 카메라에 직접 눈을 가져다 대지 않고도 워크 스루(Walk-thru) 형태로 홍채를 인식할 수 있으며, 이에 특정 출입 시간에 인원이 집중될 경우 대기 및 지체 현상 발생을 억제할 수 있다.As described above, according to the present specification, a method and system for recognizing faces and irises by securing a capture volume space for recognizing a user's face and iris when located in a capture volume space in which a user can acquire an iris image is provided. By doing so, it is possible to recognize the iris in a walk-thru form without the user directly putting their eyes on the camera, and thus, waiting and delays can be suppressed when personnel are concentrated at a specific access time.

도 1은 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템의 캡쳐 볼륨 공간 촬영을 보여주는 도면,
도 2는 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템 내부의 개략적인 구성을 나타낸 블럭 구성도,
도 3은 홍채 이미지를 극 좌표계에 대응시킨 개념도,
도 4는 도 3의 홍채 이미지를 홍채 행렬로 재배열한 블럭도,
도 5는 도 4의 제1 트랙이 정규화되는 과정을 보여주는 블럭도,
도 6은 정규화된 제1 트랙으로부터 홍채 패턴을 계산하는 방법을 보여주는 블럭도,
도 7은 퍼지 맴버쉽 함수를 보여주는 그래프,
도 8은 본 발명의 실시예에 따른 프로세서의 기능부를 나타낸 블럭 구성도,
도 9는 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 인식 방법을 나타낸 흐름도, 및
도 10은 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 홍채 인식 방법을 나타낸 흐름도이다.
1 is a view showing a capture volume space shooting of a facial and iris recognition system through securing a capture volume space according to an embodiment of the present invention;
2 is a block diagram showing a schematic configuration of an interior of a facial and iris recognition system through securing a space for a capture volume according to an embodiment of the present invention;
3 is a conceptual diagram of an iris image corresponding to a polar coordinate system;
4 is a block diagram of rearranging the iris image of FIG. 3 in an iris matrix;
5 is a block diagram showing a process in which the first track of FIG. 4 is normalized;
6 is a block diagram showing a method of calculating an iris pattern from a normalized first track;
7 is a graph showing a fuzzy membership function,
8 is a block diagram showing a functional unit of a processor according to an embodiment of the present invention;
9 is a flow chart showing a face recognition method through securing a space for a capture volume according to an embodiment of the present invention, and
10 is a flowchart illustrating a method of recognizing an iris by securing a space for a capture volume according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that technical terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present specification should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present specification, and excessively comprehensive It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present specification is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present specification includes a plurality of expressions unless the context clearly indicates otherwise. In the present application, terms such as "consist of" or "include" should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional elements or steps.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the constituent elements used in the present specification are given or used interchangeably in consideration of only the ease of writing the specification, and do not themselves have a distinct meaning or role from each other.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는 데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present specification may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are intended to make the spirit of the present invention easier to understand, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1은 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템의 캡쳐 볼륨 공간 촬영을 보여주는 도면이고, 도 2는 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템 내부의 개략적인 구성을 나타낸 블럭 구성도이다.1 is a view showing a capture volume space shooting of a facial and iris recognition system through securing a capture volume space according to an embodiment of the present invention, and FIG. 2 is a face and iris through securing a capture volume space according to an embodiment of the present invention. It is a block diagram showing a schematic configuration of an internal recognition system.

우선, 도 1을 참조하면, 캡쳐 볼륨 공간(100)은 홍채 인식에 사용 가능한 홍채 템플릿 생성을 위한 홍채 영상 획득 공간 영역을 나타낸다. 여기서, 캡쳐 볼륨 공간(100)은 원하는 캡쳐 볼륨을 형성하기 위해 복수의 셀을 포함할 수 있다. 각 셀은 캡쳐 볼륨 공간(100) 내의 임의의 다른 셀과 동일한 치수를 가질 수 있다.First, referring to FIG. 1, a capture volume space 100 denotes an iris image acquisition space area for generating an iris template usable for iris recognition. Here, the capture volume space 100 may include a plurality of cells to form a desired capture volume. Each cell may have the same dimensions as any other cell in the capture volume space 100.

또한, 캡쳐 볼륨 공간(100)은 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템(200)과 사용자 사이의 거리에 따라 변경될 수 있다.In addition, the capture volume space 100 may be changed according to the distance between the face and iris recognition system 200 and the user through securing the capture volume space.

한편, 도 1 및 도 2를 참조하면, 본 발명에 따른 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템(200)은 제1 카메라(210), 제2 카메라(220), 및 프로세서(230)를 포함할 수 있다.Meanwhile, referring to FIGS. 1 and 2, the facial and iris recognition system 200 by securing a space for a capture volume according to the present invention includes a first camera 210, a second camera 220, and a processor 230. Can include.

제1 카메라(210)는 사용자와의 거리를 측정하여 사용자가 캡쳐 볼륨 공간(100) 내에 위치하는 경우, 사용자의 안면을 인식하고, 눈, 코 및 입 등을 포함하는 안면 구성요소의 위치를 취득하며, 취득한 안면 구성요소의 위치를 제2 카메라(220)에 제공한다. 여기서, 제1 카메라(210)는 사용자와의 거리를 측정하기 위해서 라이다(Lidar) 센서를 포함할 수 있다.The first camera 210 measures the distance to the user and, when the user is located in the capture volume space 100, recognizes the user's face and acquires the positions of facial components including eyes, nose, and mouth. And, the position of the acquired facial component is provided to the second camera 220. Here, the first camera 210 may include a Lidar sensor to measure a distance to a user.

또한, 제1 카메라(210)는 안면 인증을 위해 인식한 사용자의 안면을 프로세서(230)로 전송할 수 있다.In addition, the first camera 210 may transmit a user's face recognized for facial authentication to the processor 230.

또한, 제1 카메라(210)는 캡쳐 볼륨 공간(100)의 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성될 수 있다. 카메라 어레이는 사용자의 이미지가 홍채 생체 인식에 적합한 홍채 이미지를 생성할 가능성이 가장 높은 캡쳐 볼륨 공간(100)을 정의하도록 구성될 수 있다. 예를 들면, 적절한 캡쳐 볼륨 공간은 다양한 높이, 머리 위치, 및 의복 등을 갖는 사용자의 홍채 이미지를 얻거나, 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템(200)이 존재하는 영역에 존재할 수 있는 물리적 장애물을 보상하도록 설계될 수 있다. 이를 위해, 캡쳐 볼륨 공간(100)은 카메라 어레이의 각 카메라에 대해 피사계 심도 파라미터(depth-of-field parameters)의 조합 및 구성에 의해 정의될 수 있다.In addition, the first camera 210 may be configured as a camera array including a plurality of cameras respectively corresponding to a plurality of cells of the capture volume space 100. The camera array may be configured to define a capture volume space 100 in which a user's image is most likely to generate an iris image suitable for iris biometric recognition. For example, an appropriate capture volume space may exist in an area where the face and iris recognition system 200 exists by obtaining a user's iris image having various heights, head positions, clothes, etc., or by securing a capture volume space. It can be designed to compensate for physical obstacles. To this end, the capture volume space 100 may be defined by a combination and configuration of depth-of-field parameters for each camera in the camera array.

제2 카메라(220)는 프로세서(230)의 제어에 의해, 제1 카메라(210)에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식한다. 구체적으로는, 프로세서(230)는 사용자의 안면 구성요소의 위치를 근거로 산출된 특정 팬 각도로 제2 카메라(220)를 패닝시킨 후 제2 카메라(220)를 틸팅시키며, 제2 카메라(220)가 틸팅하면서 촬영한 사용자 영상 중에 얼굴 영상 또는 눈 영상이 검출되면 이때의 틸트 각도와 사용자의 안면 구성요소의 위치를 이용하여 제2 카메라(220)와 사용자의 얼굴(혹은 눈) 사이의 거리를 산출하고, 산출된 거리에 따라 제2 카메라(220)의 줌 및 포커스 렌즈를 미리 설정된 초기 줌 및 포커스 렌즈 위치로 이동시킨 다음, 제2 카메라(220)의 포커스 렌즈의 초점을 자동 조절한다.The second camera 220 photographs the user while tilting while panning at a specific pan angle based on the position of the user's facial component acquired by the first camera 210 under the control of the processor 230. , The iris of the user is recognized by capturing the iris image of the user at a specific tilt angle. Specifically, the processor 230 pans the second camera 220 at a specific pan angle calculated based on the position of the user's facial component, and then tilts the second camera 220. When a face image or an eye image is detected among the user images taken while tilting ), the distance between the second camera 220 and the user's face (or eyes) is determined using the tilt angle and the position of the user's facial component. After calculating and moving the zoom and focus lens of the second camera 220 to a preset initial zoom and focus lens position according to the calculated distance, the focus of the focus lens of the second camera 220 is automatically adjusted.

또한, 제2 카메라(220)는 홍채 인증을 위해 인식한 사용자의 홍채를 프로세서(230)로 전송할 수 있다.Also, the second camera 220 may transmit the user's iris recognized for iris authentication to the processor 230.

또한, 제2 카메라(220)는 홍채 인식률을 높이기 위해서 적외선 센서를 포함할 수 있다. 제2 카메라(220)는 적외선 촬영으로 반사값 측정을 통해 반사영역을 분석하고, 분석된 홍채 데이터에 이상 발생시 안경 또는 선글러스 착용자에게 알람 등의 형태로 경고 메시지를 출력할 수 있다.In addition, the second camera 220 may include an infrared sensor to increase the iris recognition rate. The second camera 220 may analyze a reflective area by measuring a reflection value through infrared photographing, and output a warning message in the form of an alarm to a wearer of glasses or sunglasses when an abnormality occurs in the analyzed iris data.

프로세서(230)는 제1 카메라(210)에 의해 인식된 사용자의 안면 및 제2 카메라(220)에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 사용자에 대한 인증을 수행한다.The processor 230 compares the user's face recognized by the first camera 210 and the user's iris recognized by the second camera 220 with a plurality of pre-stored facial information and a plurality of iris information to the user. Authentication is performed.

프로세서(230)는 전술한 사용자에 대한 인증을 수행하기 위해서 복수의 홍채 정보를 미리 저장할 수 있다. 즉, 프로세서(230)는 홍채 이미지에서 좌우 눈을 분리하고, 오리진(origin)화에 의해 홍채 이미지를 이동시키며, 이동된 홍채 이미지에서 눈썹 및 눈꺼풀 등의 노이즈를 제거하여 홍채 데이터를 생성하고, 홍채 데이터를 암호화 코드로 변환하여 홍채 정보로 저장한다. 구체적으로는, 프로세서(230)는 홍채 데이터에 포함된 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할한 후, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하며, 디지털화된 홍채 패턴을 암호화하여 홍채 정보로 저장할 수 있다.The processor 230 may pre-store a plurality of iris information in order to perform the above-described user authentication. That is, the processor 230 separates the left and right eyes from the iris image, moves the iris image by origination, removes noise such as eyebrows and eyelids from the moved iris image to generate iris data, and The data is converted into an encryption code and stored as iris information. Specifically, the processor 230 divides the iris pattern included in the iris data into a plurality of tracks around the pupil, then digitizes the iris pattern included in each track by a quantization algorithm, and encrypts the digitized iris pattern. It can be saved as iris information.

또한, 프로세서(230)는 홍채 이미지를 복수의 픽셀들로 나누고, 복수의 픽셀들을 복수의 그룹들로 나누며, 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하고, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하고, 검출된 홍채 벡터를 기저장된 홍채 데이터와 비교함으로써, 사용자에 대한 인증을 수행할 수 있다.In addition, the processor 230 divides the iris image into a plurality of pixels, divides the plurality of pixels into a plurality of groups, and, in each of the plurality of groups, first and second normal deviations having first and second standard deviations An iris pattern is calculated using a filter having a coefficient corresponding to the difference between the distribution curves, and an iris vector corresponding to a value between logical values "0" to "1" is detected from the calculated iris pattern, and the detected iris vector By comparing the pre-stored iris data, the user can be authenticated.

또한, 프로세서(230)는 사용자와의 거리가 변경됨에 따라 제1 카메라(210)에 포함된 복수의 카메라의 개수를 변경하여 캡쳐 볼륨 공간(100)을 조절할 수 있다. 따라서, 제1 카메라(210)는 워크 스루(Walk-thru) 형태로 홍채를 인식할 수 있다.Also, the processor 230 may adjust the capture volume space 100 by changing the number of a plurality of cameras included in the first camera 210 as the distance to the user is changed. Accordingly, the first camera 210 may recognize the iris in a walk-thru form.

도 3은 홍채 이미지를 극 좌표계에 대응시킨 개념도이다.3 is a conceptual diagram of an iris image corresponding to a polar coordinate system.

도 3을 참조하면, 홍채 이미지(200)의 중심(o)을 기준으로 반지름 축(ρ)은 거리를 나타낸다. 홍채 이미지(200)의 중심을 기준으로 각도 축(θ)은 각도를 나타낸다.Referring to FIG. 3, a radius axis ρ represents a distance based on the center o of the iris image 200. The angle axis θ represents an angle based on the center of the iris image 200.

홍채 이미지(200)는 눈의 중심인 동공과 동공 외곽의 홍채 주름을 포함하여, 전체적으로 검은 자를 포함하는 영상이다. 예시적으로, 홍채 주름의 패턴이 이용되므로, 컬러 영상이 아닌, 흑백 영상이 요구된다.The iris image 200 is an image including a pupil that is the center of the eye and an iris wrinkle of the outer pupil, and includes a black ruler as a whole. For example, since the pattern of the iris wrinkle is used, a black and white image is required, not a color image.

홍채 이미지(200)는 반지름 축(ρ) 방향으로 복수의 트랙들로 나누어질 수 있다. 예시적으로, CCD, CMOS 칩을 포함하는 디지털 카메라에 의하여 캡쳐된 영상은 복수의 트랙으로 나뉠 수 있을 것이다. 예시적으로, 도 3에 8개의 트랙들로 나뉜 홍채 이미지(200)가 도시된다. 그리고 각각의 트랙에서, 복수의 픽셀들이 반지름 축(ρ) 방향으로 배열될 수 있다(미도시). 또, 각각의 트랙에서, 각도 축(θ) 방향으로 복수의 픽셀들이 배열될 수 있다(미도시). 즉, 홍채 이미지는 복수의 픽셀들로 나누어 수신될 것이다.The iris image 200 may be divided into a plurality of tracks in the radial axis (ρ) direction. For example, an image captured by a digital camera including a CCD and CMOS chip may be divided into a plurality of tracks. As an example, an iris image 200 divided into eight tracks is shown in FIG. 3. Further, in each track, a plurality of pixels may be arranged in the radial axis ρ (not shown). Further, in each track, a plurality of pixels may be arranged in the direction of the angular axis θ (not shown). That is, the iris image will be divided into a plurality of pixels and received.

도 4는 도 3의 홍채 이미지를 홍채 행렬로 재배열한 블럭도이다.4 is a block diagram illustrating the iris image of FIG. 3 rearranged in an iris matrix.

도 4를 참조하면, 홍채 행렬(300)은 행 방향으로 M개의 픽셀들이 배열된다. 행 방향은 도 3의 각도 축(θ)에 대응된다. 그리고 홍채 행렬(300)은 열 방향으로 N개의 트랙들이 배열된다. 열 방향은 도 3의 반지름 축(ρ)과 대응된다.Referring to FIG. 4, in the iris matrix 300, M pixels are arranged in a row direction. The row direction corresponds to the angular axis θ of FIG. 3. In addition, in the iris matrix 300, N tracks are arranged in a column direction. The column direction corresponds to the radial axis ρ of FIG. 3.

도 5는 도 4의 제1 트랙이 정규화되는 과정을 보여주는 블럭도이다. 제1 트랙(310)에서, 열 방향으로 복수의 픽셀들이 배열된다. 예를 들면, 도 5에 도시된 바와 같이, 제1 트랙(310)에서 3개의 픽셀들이 열 방향으로 배열된다. 그리고, 도 4를 참조하여 설명된 바와 마찬가지로, 제1 트랙(310)의 행 방향으로 M개의 픽셀들이 배열될 것이다.5 is a block diagram showing a process in which the first track of FIG. 4 is normalized. In the first track 310, a plurality of pixels are arranged in a column direction. For example, as shown in FIG. 5, three pixels are arranged in a column direction in the first track 310. And, as described with reference to FIG. 4, M pixels will be arranged in the row direction of the first track 310.

트랙들 각각에 포함된 픽셀들은 복수의 그룹으로 나뉘고, 복수의 그룹마다 정규분포를 이용한 가중 평균이 계산될 수 있다. 예시적으로, 평균값(m) 및 제1 표준 편차(σ1)를 가지는 제1 산포(240)가 이용되어, 제1 트랙(310)의 각각의 열들의 가중 평균(weighted sum)이 계산되어, 정규화된 제1 트랙(320)의 각각의 픽셀들이 도출될 것이다. 예시적으로, 제1 트랙(310)의 제5 열(311)에 제1 산포(240)의 곡선상의 세 점의 값을 특정할 것이다. 그리고 제5 열(311)의 각각의 픽셀들의 값들과 특정된 각각의 점들의 값들이 곱해진 후, 곱해진 값들이 더해져 정규화된 제5 픽셀(321)이 도출될 것이다. 제1 트랙(310)에 포함된 각각의 열들의 가중 평균(weighted sum)이 계산되면, 정규화된 제1 트랙(320)이 도출된다. 정규화된 제1 트랙(320)은 M개의 픽셀들을 포함할 것이다.Pixels included in each of the tracks are divided into a plurality of groups, and a weighted average using a normal distribution may be calculated for each of the plurality of groups. Exemplarily, a first dispersion 240 having an average value m and a first standard deviation σ1 is used, and a weighted sum of each column of the first track 310 is calculated and normalized. Each of the pixels of the first track 320 will be derived. For example, values of three points on the curve of the first scatter 240 will be specified in the fifth column 311 of the first track 310. In addition, after the values of the pixels in the fifth column 311 are multiplied by the values of the specified points, the multiplied values are added to obtain a normalized fifth pixel 321. When the weighted sum of each of the columns included in the first track 310 is calculated, a normalized first track 320 is derived. The normalized first track 320 will include M pixels.

제1 산포(240)의 평균값(m) 및 제1 표준 편차(σ1)는 홍채 행렬(300)에 포함된 노이즈(noise)를 감소시킬 수 있도록 설정된다. 따라서, 제1 산포(240)가 이용되어 제1 트랙(310)이 정규화됨으로써, 홍채 이미지에 포함된 노이즈가 감소될 것이다. 또, 복수의 행으로 구성된 제1 트랙(310)으로부터, 하나의 행으로 구성된 정규화된 제1 트랙(320)이 계산됨으로써, 홍채 이미지의 처리시간이 단축될 것이다.The average value m and the first standard deviation σ1 of the first dispersion 240 are set to reduce noise included in the iris matrix 300. Accordingly, by using the first dispersion 240 to normalize the first track 310, noise included in the iris image will be reduced. Further, since the normalized first track 320 composed of one row is calculated from the first track 310 composed of a plurality of rows, the processing time of the iris image will be shortened.

도 5에서, 제1 트랙(310)이 정규화되는 과정이 도시되나, 도 4의 홍채 행렬(300)에 포함된 다른 트랙들도 제1 트랙(310)과 마찬가지로 정규화될 것이다.In FIG. 5, a process in which the first track 310 is normalized is shown, but other tracks included in the iris matrix 300 of FIG. 4 will also be normalized like the first track 310.

도 6은 정규화된 제1 트랙으로부터 홍채 패턴을 계산하는 방법을 보여주는 블럭도이다.6 is a block diagram showing a method of calculating an iris pattern from a normalized first track.

도 6을 참조하면, 제2 산포(G2)는 제2 표준 편차(σ2)를 갖는다. 제3 산포(G3)는 제3 표준 편차(σ3)를 갖는다. 제3 표준 편차(σ3)는 제2 표준 편치(σ2)보다 작을 수 있다. 예시적으로, 제2 및 제3 산포들(G2,G3)은 가우스 분포(Gaussian distribution)일 수 있다. 그리고, 제2 및 제3 산포들의 차(G2-G3)는 가우스 분포의 차에 기반한 DOG(Difference of Gaussian) 필터의 계수로 사용될 수 있다.Referring to FIG. 6, the second dispersion G2 has a second standard deviation σ2. The third dispersion (G3) has a third standard deviation (σ3). The third standard deviation σ3 may be smaller than the second standard deviation σ2. For example, the second and third distributions G2 and G3 may be Gaussian distribution. In addition, the difference between the second and third distributions (G2-G3) may be used as a coefficient of a difference of Gaussian (DOG) filter based on a difference in a Gaussian distribution.

제2 산포(G2) 및 제3 산포(G3)가 이용되어, 정규화된 제1 트랙(320)으로부터 홍채 패턴이 계산될 수 있다. 제2 및 제3 표준 편차(σ3,σ3)를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여, 정규화된 제1 트랙(320)과 컨볼루션(convolution) 함으로써 홍채 패턴들이 계산된다.The second dispersion G2 and the third dispersion G3 are used, and the iris pattern may be calculated from the normalized first track 320. By using a filter having a coefficient corresponding to the difference between the first and second normal distribution curves having second and third standard deviations (σ3,σ3), by convolving with the normalized first track 320 Iris patterns are calculated.

예시적으로, 제2 표준 편차(σ2)를 갖는 제2 산포(G2)와 제3 표준 편차(σ3)를 갖는 제3 산포(G3)의 차에 대응하는 필터(이하, 제2 및 제3 표준 편차들(σ2,σ3)을 가진 필터)가 이용되어, 정규화된 제1 트랙(320)의 가중 평균(weighted sum)이 계산될 수 있다. 계산된 가중 평균들은 홍채 패턴을 구성할 것이다.Exemplarily, a filter corresponding to the difference between the second dispersion (G2) having the second standard deviation (σ2) and the third dispersion (G3) having the third standard deviation (σ3) (hereinafter referred to as the second and third standards A filter with deviations σ2, σ3) can be used to calculate a weighted sum of the normalized first track 320. The calculated weighted averages will constitute the iris pattern.

예시적으로, 도 6에 도시된 바와 같이, 정규화된 제5 픽셀(321)에 대응하는 제5 홍채 특징 패턴(331)이 계산될 때, 제2 표준 편차(σ2)를 갖는 제2 산포(G2)에, 정규화된 제5 픽셀(321)에 대응하도록 제2 평균값(x2)이 설정될 수 있을 것이다. 마찬가지로, 제3 표준 편차(σ3)를 갖는 제3 산포(G3)에, 정규화된 제5 픽셀(321)에 대응하도록 제3 평균값(x3)이 설정될 수 있다. 그리고, 제2 산포(G2)와 제3 산포(G3)의 차가 계산되어, 제2 및 제3 표준 편차들(σ2,σ3)을 가진 필터가 도출될 것이다. 제2 및 제3 표준 편차들(σ2,σ3)을 가진 필터상의 점들이 특정되고, 각각의 특정된 점과 정규화된 제1 트랙(320)의 각각의 픽셀들이 곱해지고, 곱해진 값들이 더해져 제5 홍채 패턴(331)이 산출될 것이다.Illustratively, as shown in FIG. 6, when the fifth iris feature pattern 331 corresponding to the normalized fifth pixel 321 is calculated, a second dispersion G2 having a second standard deviation σ2 ), a second average value x2 may be set to correspond to the normalized fifth pixel 321. Likewise, the third average value x3 may be set to correspond to the normalized fifth pixel 321 in the third distribution G3 having the third standard deviation ?3. Then, the difference between the second dispersion G2 and the third dispersion G3 is calculated, and a filter having second and third standard deviations σ2 and σ3 will be derived. Points on the filter with second and third standard deviations (σ2,σ3) are specified, each specified point is multiplied by each pixel of the normalized first track 320, and the multiplied values are added to obtain 5 iris pattern 331 will be calculated.

제5 홍채 패턴(331)과 마찬가지로, 정규화된 제1 트랙의 픽셀들 각각에 대하여 홍채 패턴이 산출될 것이다. 예를 들면, 정규화된 제1 트랙(320)의 픽셀들 각각에 대응하도록 제2 및 제3 평균값들(x2,x3)이 설정될 수 있을 것이다. 그리고 제2 및 제3 평균값들(x2,x3)을 가진 제2 및 제3 산포들(G1,G2)을 이용하여, 정규화된 제1 트랙(320)의 각각의 픽셀들에 대한 제1 홍채 패턴들(330)이 계산될 것이다. 이 경우, 홍채 패턴은 M개 생성될 것이다.Like the fifth iris pattern 331, an iris pattern will be calculated for each of the pixels of the normalized first track. For example, the second and third average values x2 and x3 may be set to correspond to each of the pixels of the normalized first track 320. And the first iris pattern for each pixel of the normalized first track 320 by using the second and third distributions G1 and G2 having the second and third average values x2 and x3. Fields 330 will be calculated. In this case, M iris patterns will be generated.

제2 산포(G2)의 제2 표준 편차(σ2) 및 제3 산포(G3)의 제3 표준 편차(σ3)는 실험을 통해, 홍채 인식률의 관점에서 인식률이 최대가 되도록 설정될 것이다. 또한, 제2 및 제3 표준 편차들(σ2,σ3)은 실험을 통해, 홍채 이미지의 노이즈가 감소될 수 있도록 설정될 것이다.The second standard deviation (σ2) of the second dispersion (G2) and the third standard deviation (σ3) of the third dispersion (G3) will be set to maximize the recognition rate in terms of the iris recognition rate. Further, the second and third standard deviations σ2 and σ3 will be set so that noise of the iris image can be reduced through an experiment.

예시적으로, 수학식 1과 같이 홍채 특징 패턴이 계산될 수 있다.For example, an iris feature pattern may be calculated as shown in Equation 1.

Figure 112019118612452-pat00001
Figure 112019118612452-pat00001

수학식 1에서, G2(x2,σ2)는 제2 표준 편차(σ2) 및 제2 평균값(x2)을 가지는 제2 산포(G2)를 나타낸다. G3(x3,σ3)는 제3 표준 편차(σ3) 및 제3 평균 값(x3)을 가지는 제3 산포(G3)를 나타낸다. 제2 평균값(x2)과 제3 평균값(x3)은 같을 수 있다. f(x)는 정규화된 제1 트랙(320)에 포함된 픽셀들의 값을 나타낸다. x는 제1 트랙(320)에 포함된 픽셀들 중 어느 하나에 대응될 것이다. D(x)는 홍채 패턴값을 나타낸다. 예시적으로, G2(x,σ2)는 수학식 2와 같이 표현될 수 있다.In Equation 1, G2(x2, ?2) represents a second distribution G2 having a second standard deviation ?2 and a second average value x2. G3(x3, σ3) represents a third dispersion G3 having a third standard deviation σ3 and a third average value x3. The second average value x2 and the third average value x3 may be the same. f(x) represents the values of pixels included in the normalized first track 320. x will correspond to any one of the pixels included in the first track 320. D(x) represents an iris pattern value. For example, G2(x,σ2) may be expressed as Equation 2.

Figure 112019118612452-pat00002
Figure 112019118612452-pat00002

수학식 2에서, σ2는 제2 산포(G2)의 표준 편차를 나타낼 것이다. x2는 제2 산포(G2)의 평균을 나타낼 것이다. 예시적으로, 수학식 2에 x3 및 σ3가 대입되면, 제3 산포(G3)도 수학식 2와 마찬가지로 표현될 수 있을 것이다.In Equation 2, σ2 will represent the standard deviation of the second dispersion G2. x2 will represent the average of the second dispersion (G2). For example, when x3 and ?3 are substituted in Equation 2, the third dispersion G3 may be expressed in the same manner as in Equation 2.

도 7은 퍼지 맴버쉽 함수를 보여주는 그래프이다.7 is a graph showing a fuzzy membership function.

도 7을 참조하면, 가로축은 홍채 패턴의 값(t)을 나타낸다. 그리고 세로축은 홍채 벡터의 값(s)을 나타낸다. 홍채 벡터의 값(s)은 논리 값 "0" 내지 "1" 사이의 값과 대응된다.Referring to FIG. 7, the horizontal axis represents the value t of the iris pattern. And the vertical axis represents the value (s) of the iris vector. The value s of the iris vector corresponds to a value between the logical values "0" and "1".

제2 및 제3 표준 편차들(σ2,σ3)을 가진 필터를 이용하여 계산된 홍채 패턴들의 값은, 퍼지 맴버쉽 함수에 기반하여 0 내지 1 사이의 값에 대응될 수 있다. 퍼지 맴버쉽 함수(s(t))를 이용하면, 홍채 패턴들의 값이 양자화(quantization)되는 것이 아니라, 0 내지 1 사이의 값에 대응되어 홍채 벡터가 계산된다.Values of iris patterns calculated using filters having the second and third standard deviations (σ2,σ3) may correspond to values between 0 and 1 based on the fuzzy membership function. When the fuzzy membership function s(t) is used, values of iris patterns are not quantized, but an iris vector is calculated corresponding to a value between 0 and 1.

예시적으로, 정규화된 제5 픽셀(321, 도 6 참조)에 대한 제5 홍채 패턴(331,도 6 참조)의 값이 to에 대응된다고 가정한다. 이 경우, 세로축에 대응되는 홍채 벡터의 값은 0.8일 것이다.For example, it is assumed that the value of the fifth iris pattern 331 (see FIG. 6) for the normalized fifth pixel 321 (see FIG. 6) corresponds to to. In this case, the value of the iris vector corresponding to the vertical axis will be 0.8.

예시적으로, 퍼지 맴버쉽 함수(s(t))는 수학식 3과 같이 표현될 수 있다.For example, the fuzzy membership function s(t) may be expressed as in Equation 3.

Figure 112019118612452-pat00003
Figure 112019118612452-pat00003

수학식 3에서, t는 홍채 패턴의 값을 나타낸다. c는 특정된 상수를 나타낸다. c를 이용되어 s(t)의 기울기가 변화될 수 있을 것이다. 따라서, c가 이용되면, 홍채 패턴의 값(t)과 대응하는 홍채 벡터의 값(s)이 조절될 수 있다.In Equation 3, t represents the value of the iris pattern. c represents a specified constant. The slope of s(t) could be changed using c. Therefore, if c is used, the value t of the iris pattern and the value s of the corresponding iris vector can be adjusted.

도 8은 본 발명의 실시예에 따른 프로세서의 기능부를 나타낸 블럭 구성도이다.8 is a block diagram showing a functional unit of a processor according to an embodiment of the present invention.

도 8을 참조하면, 본 발명에 따른 프로세서(230)는 영상 수신부(810), 안면 인식부(820), 홍채 인식부(830), 데이터베이스(840) 및 비교부(850)를 포함할 수 있다.Referring to FIG. 8, the processor 230 according to the present invention may include an image receiving unit 810, a face recognition unit 820, an iris recognition unit 830, a database 840, and a comparison unit 850. .

영상 수신부(810)는 제1 카메라(210) 및 제2 카메라(220)로부터 안면 이미지 및 홍채 이미지를 각각 획득한다. 영상 수신부(820)는 안면 인식부(820)와 홍채 인식부(830)에 연결되어, 안면 인식부(820)와 홍채 인식부(830)에 획득된 안면 이미지 및 홍채 이미지를 각각 전달한다.The image receiver 810 acquires a face image and an iris image from the first camera 210 and the second camera 220, respectively. The image receiving unit 820 is connected to the face recognition unit 820 and the iris recognition unit 830 and transmits the acquired facial image and the iris image to the face recognition unit 820 and the iris recognition unit 830, respectively.

안면 인식부(820)는 영상 수신부(810) 및 비교부(850)와 연결된다. 안면 인식부(820)는 영상 수신부(820)를 통해 수신한 안면 이미지에 기반하여 안면 벡터를 계산한다.The face recognition unit 820 is connected to the image receiving unit 810 and the comparison unit 850. The facial recognition unit 820 calculates a face vector based on the facial image received through the image receiving unit 820.

홍채 인식부(830)는 영상 수신부(810) 및 비교부(850)와 연결된다. 홍채 인식부(830)는 영상 수신부(820)를 통해 수신한 홍채 이미지에 기반하여 홍채 벡터를 계산한다. 도 3 및 도 7을 참조하여 설명된 바와 마찬가지로 홍채 벡터들이 계산된다. 즉, 수신된 홍채 이미지가 정규화되고(도 5 참조), 정규화된 홍채 이미지가 이용되어 홍채 패턴들이 계산된다(도 6 참조). 그리고 계산된 홍채 패턴이 이용되어 홍채 벡터가 산출된다(도 7 참조).The iris recognition unit 830 is connected to the image receiving unit 810 and the comparison unit 850. The iris recognition unit 830 calculates an iris vector based on the iris image received through the image receiving unit 820. Iris vectors are calculated as described with reference to FIGS. 3 and 7. That is, the received iris image is normalized (see FIG. 5), and the normalized iris image is used to calculate iris patterns (see FIG. 6). And the calculated iris pattern is used to calculate an iris vector (see FIG. 7).

데이터베이스부(840)는 비교부(850)와 연결된다. 데이터베이스부(840)는 본인의 안면 형상 및 홍채 형상과 대응되는 데이터를 저장한다. 영상 수신부(810)에서 안면 이미지 및 홍채 이미지가 획득되기 전에 미리 데이터베이스부(840)에 데이터가 저장될 것이다. 즉, 데이터베이스부(840)는 홍채 이미지에서 좌우 눈을 분리하고, 오리진(origin)화에 의해 홍채 이미지를 이동시키며, 이동된 홍채 이미지에서 눈썹 및 눈꺼풀 등의 노이즈를 제거하여 홍채 정보로서 홍채 데이터를 생성하고, 홍채 데이터를 암호화 코드로 변환하여 저장한다. 구체적으로는, 데이터베이스부(840)는 홍채 데이터에 포함된 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할한 후, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하며, 디지털화된 홍채 패턴을 암호화하여 저장할 수 있다.The database unit 840 is connected to the comparison unit 850. The database unit 840 stores data corresponding to the shape of the user's face and the shape of the iris. Before the image receiving unit 810 acquires the facial image and the iris image, data will be stored in the database unit 840 in advance. In other words, the database unit 840 separates the left and right eyes from the iris image, moves the iris image by origination, and removes noise such as eyebrows and eyelids from the moved iris image, and provides iris data as iris information. It is generated, and the iris data is converted into an encryption code and stored. Specifically, the database unit 840 divides the iris pattern included in the iris data into a plurality of tracks centering on the pupil, then digitizes the iris pattern included in each track by a quantization algorithm, and generates the digitized iris pattern. Can be encrypted and stored.

비교부(850)는 데이터베이스부(840)에 저장된 데이터와 산출된 안면 벡터와 홍채 벡터에 기반하여, 영상 수신부(810)에서 획득된 안면 이미지 및 홍채 이미지가 본인인지 여부를 식별할 것이다. 예시적으로, 각각의 안면 벡터 및 홍채 벡터와, 그와 대응되는 데이터베이스에 포함된 데이터의 차의 절대값이 계산될 것이다. 그리고 각각의 절대값이 합산되고, 정해진 임계치와 비교될 것이다. 합산된 절대값이 정해진 임계치보다 큰 경우, 본인의 안면 형상 및 홍채 형상이 아니라고 판단될 것이다. 합산된 절대값이 정해진 임계치보다 작은 경우, 본인의 안면 형상 및 홍채 형상이라고 판단될 것이다.The comparison unit 850 will identify whether the facial image and the iris image obtained by the image receiving unit 810 are the person based on the data stored in the database unit 840 and the calculated facial vector and iris vector. For example, an absolute value of a difference between each face vector and iris vector and data included in a database corresponding thereto will be calculated. And each absolute value will be summed and compared to a predetermined threshold. If the summed absolute value is larger than the predetermined threshold, it will be determined that the shape of the face and the iris of the person are not. If the summed absolute value is less than the predetermined threshold, it will be determined to be the shape of the person's face and iris.

도 9는 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 안면 인식 방법을 나타낸 흐름도이다.9 is a flowchart illustrating a method of recognizing a face by securing a space for a capture volume according to an embodiment of the present invention.

도 9를 참조하면, 제1 카메라(210)는 사용자와의 거리를 측정한다(S910). 이때, 제1 카메라(210)는 라이다 센서를 이용하여 사용자와의 거리를 측정할 수 있다.Referring to FIG. 9, the first camera 210 measures a distance to a user (S910). In this case, the first camera 210 may measure a distance to the user using a lidar sensor.

제1 카메라(210)는 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는지 여부를 판단하고(S920), 사용자가 캡쳐 볼륨 공간 내에 위치한다고 판단한 경우, 사용자의 안면을 인식하며(S930), 눈, 코 및 입 등을 포함하는 안면 구성요소의 위치를 취득한다(S940).The first camera 210 determines whether the user is located within the capture volume space in which the iris image can be acquired (S920), and when it is determined that the user is located within the capture volume space, recognizes the user's face (S930). , The positions of facial components including the eyes, nose, and mouth are acquired (S940).

이어서, 제1 카메라(210)는 취득한 안면 구성요소의 위치를 제2 카메라(220)에 제공한다(S950).Subsequently, the first camera 210 provides the acquired position of the facial component to the second camera 220 (S950).

프로세서(230)는 제1 카메라(210)에 의해 인식된 사용자의 안면을 기저장된 복수의 안면 정보와 각각 비교하여 사용자에 대한 인증을 수행한다(S960). 즉, 프로세서(230)는 데이터베이스부(840)에 저장된 데이터와 산출된 안면 벡터에 기반하여, 영상 수신부(810)에서 획득된 안면 이미지가 본인인지 여부를 식별할 것이다. 예시적으로, 각각의 안면 벡터와, 그와 대응되는 데이터베이스에 포함된 데이터의 차의 절대값이 계산될 것이다. 그리고 각각의 절대값이 합산되고, 정해진 임계치와 비교될 것이다. 합산된 절대값이 정해진 임계치보다 큰 경우, 본인의 안면 형상이 아니라고 판단될 것이다. 합산된 절대값이 정해진 임계치보다 작은 경우, 본인의 안면 형상이라고 판단될 것이다.The processor 230 performs authentication for the user by comparing the user's face recognized by the first camera 210 with a plurality of previously stored facial information, respectively (S960). That is, the processor 230 will identify whether the facial image obtained by the image receiving unit 810 is the person based on the data stored in the database unit 840 and the calculated facial vector. For example, an absolute value of a difference between each facial vector and data included in a database corresponding thereto will be calculated. And each absolute value will be summed and compared to a predetermined threshold. If the summed absolute value is greater than the predetermined threshold, it will be judged that it is not the shape of the person's face. If the summed absolute value is less than the predetermined threshold, it will be judged as the shape of the person's face.

도 10은 본 발명의 실시예에 따른 캡쳐 볼륨 공간 확보를 통한 홍채 인식 방법을 나타낸 흐름도이다.10 is a flowchart illustrating a method of recognizing an iris by securing a space for a capture volume according to an embodiment of the present invention.

도 10을 참조하면, 제2 카메라(220)는 제1 카메라(210)에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식한다(S1010).Referring to FIG. 10, the second camera 220 photographs the user while tilting while panning at a specific pan angle based on the position of the user's facial component acquired by the first camera 210. The iris image of the user is captured at an angle to recognize the user's iris (S1010).

프로세서(230)는 제2 카메라(220)에 의해 인식된 사용자의 홍채를 기저장된 복수의 홍채 정보와 각각 비교하여 사용자에 대한 인증을 수행한다(S1020). 즉, 프로세서(230)는 홍채 이미지를 복수의 픽셀들로 나누고, 복수의 픽셀들을 복수의 그룹들로 나누며, 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하고, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하고, 검출된 홍채 벡터를 기저장된 홍채 데이터와 비교함으로써, 사용자에 대한 인증을 수행할 수 있다. 예시적으로, 각각의 홍채 벡터와, 그와 대응되는 데이터베이스에 포함된 데이터의 차의 절대값이 계산될 것이다. 그리고 각각의 절대값이 합산되고, 정해진 임계치와 비교될 것이다. 합산된 절대값이 정해진 임계치보다 큰 경우, 본인의 홍채 형상이 아니라고 판단될 것이다. 합산된 절대값이 정해진 임계치보다 작은 경우, 본인의 홍채 형상이라고 판단될 것이다.The processor 230 performs authentication for the user by comparing the iris of the user recognized by the second camera 220 with a plurality of previously stored iris information (S1020). That is, the processor 230 divides the iris image into a plurality of pixels, divides the plurality of pixels into a plurality of groups, and in each of the plurality of groups, first and second normal deviations having first and second standard deviations An iris pattern is calculated using a filter having a coefficient corresponding to the difference between the distribution curves, and an iris vector corresponding to a value between logical values "0" to "1" is detected from the calculated iris pattern, and the detected iris vector By comparing the pre-stored iris data, the user can be authenticated. For example, an absolute value of a difference between each iris vector and data included in a database corresponding thereto will be calculated. And each absolute value will be summed and compared to a predetermined threshold. If the summed absolute value is greater than the predetermined threshold, it will be determined that the shape of the iris is not the person's iris. If the summed absolute value is less than the predetermined threshold, it will be determined to be the shape of the user's iris.

전술한 방법은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(Firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described method can be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 프로세서, 마이크로프로세서 및 마이크로프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). , Field Programmable Gate Arrays (FPGAs), processors, processors, microprocessors, and microprocessors.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor through various known means.

이상에서 본 명세서에 개시된 실시예들을 첨부된 도면들을 참조로 설명하였다. 이와 같이 각 도면에 도시된 실시예들은 한정적으로 해석되면 아니되며, 본 명세서의 내용을 숙지한 당업자에 의해 서로 조합될 수 있고, 조합될 경우 일부 구성 요소들은 생략될 수도 있는 것으로 해석될 수 있다.In the above, embodiments disclosed in the present specification have been described with reference to the accompanying drawings. As described above, the embodiments shown in each drawing are not to be construed as limiting, and may be combined with each other by those skilled in the art who are familiar with the contents of the present specification, and when combined, some elements may be interpreted as being omitted.

여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 명세서에 개시된 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Here, the terms or words used in the specification and claims should not be construed as being limited to a conventional or dictionary meaning, but should be interpreted as meanings and concepts consistent with the technical idea disclosed in the present specification.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 명세서에 개시된 실시예에 불과할 뿐이고, 본 명세서에 개시된 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the embodiments disclosed in the present specification, and do not represent all of the technical ideas disclosed in the present specification, and various equivalents that can replace them at the time of application It should be understood that there may be water and variations.

210: 제1 카메라 220: 제2 카메라
230: 프로세서 810: 영상 수신부
820: 안면 인식부 830: 홍채 인식부
840: 데이터베이스부 850: 비교부
210: first camera 220: second camera
230: processor 810: image receiving unit
820: facial recognition unit 830: iris recognition unit
840: database unit 850: comparison unit

Claims (10)

사용자와의 거리를 측정하여 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면을 인식하고, 안면 구성요소의 위치를 취득하는 제1 카메라;
상기 제1 카메라에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식하는 제2 카메라; 및
상기 제1 카메라에 의해 인식된 사용자의 안면 및 상기 제2 카메라에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 상기 사용자에 대한 인증을 수행하는 프로세서;
를 포함하되,
상기 프로세서는 홍채 이미지를 복수의 픽셀들로 나누고, 상기 복수의 픽셀들을 복수의 그룹들로 나누며, 상기 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하고, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템.
A first camera for recognizing a user's face and acquiring a position of a facial component when the user is located in a capture volume space in which an iris image can be obtained by measuring a distance from the user;
Taking a picture of the user while tilting while panning at a specific pan angle based on the position of the user's facial component acquired by the first camera, and recognizing the user's iris by photographing the user's iris image at a specific tilt angle. A second camera; And
A processor for performing authentication for the user by comparing the user's face recognized by the first camera and the user's iris recognized by the second camera with a plurality of previously stored facial information and a plurality of iris information;
Including,
The processor divides the iris image into a plurality of pixels, divides the plurality of pixels into a plurality of groups, and in each of the plurality of groups, first and second normal distribution curves having first and second standard deviations A capture volume space, characterized in that an iris pattern is calculated using a filter having a coefficient corresponding to the difference between the two and an iris vector corresponding to a value between logical values "0" to "1" from the calculated iris pattern. Facial and iris recognition system through securing.
제1항에 있어서,
상기 프로세서는 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할한 후, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하며, 디지털화된 홍채 패턴을 암호화하여 저장하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템.
The method of claim 1,
The processor divides the iris pattern into a plurality of tracks centered on the pupil, then digitizes the iris pattern included in each track by a quantization algorithm, and encrypts and stores the digitized iris pattern. Facial and iris recognition system through.
삭제delete 제1항에 있어서,
상기 프로세서는 상기 홍채 이미지에서 좌우 눈을 분리하고, 오리진(origin)화에 의해 상기 홍채 이미지를 이동시키며, 이동된 홍채 이미지에서 노이즈를 제거하여 홍채 데이터를 생성하고, 홍채 데이터를 암호화 코드로 변환하여 저장하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템.
The method of claim 1,
The processor separates the left and right eyes from the iris image, moves the iris image by origination, generates iris data by removing noise from the moved iris image, and converts the iris data into an encryption code. A facial and iris recognition system through securing a capture volume space, characterized in that to store.
제1항에 있어서,
상기 캡쳐 볼륨 공간은 원하는 캡쳐 볼륨을 형성하기 위해 배열된 복수의 셀을 포함하고, 상기 제1 카메라는 상기 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성되며,
상기 프로세서는 사용자와의 거리가 변경됨에 따라 상기 복수의 카메라의 개수를 변경하여 상기 캡쳐 볼륨 공간을 조절하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 시스템.
The method of claim 1,
The capture volume space includes a plurality of cells arranged to form a desired capture volume, and the first camera is composed of a camera array including a plurality of cameras respectively corresponding to the plurality of cells,
The processor adjusts the capture volume space by changing the number of the plurality of cameras as the distance to the user is changed. The facial and iris recognition system by securing the capture volume space.
제1 카메라가 사용자와의 거리를 측정하는 단계;
상기 제1 카메라가, 사용자가 홍채 이미지를 획득할 수 있는 캡쳐 볼륨 공간 내에 위치하는 경우, 사용자의 안면을 인식하고, 안면 구성요소의 위치를 취득하는 단계;
제2 카메라가, 상기 제1 카메라에 의해 취득된 사용자의 안면 구성요소의 위치에 기초하여 특정 팬 각도로 패닝한 상태에서 틸팅하면서 사용자를 촬영하고, 특정 틸트 각도에서 사용자의 홍채 이미지를 촬영하여 사용자의 홍채를 인식하는 단계; 및
프로세서가, 상기 제1 카메라에 의해 인식된 사용자의 안면 및 상기 제2 카메라에 의해 인식된 사용자의 홍채를 기저장된 복수의 안면 정보 및 복수의 홍채 정보와 각각 비교하여 상기 사용자에 대한 인증을 수행하는 단계;
를 포함하되,
상기 프로세서가, 홍채 이미지를 복수의 픽셀들로 나누는 단계;
상기 프로세서가, 상기 복수의 픽셀들을 복수의 그룹들로 나누는 단계;
상기 프로세서가, 상기 복수의 그룹들 각각에서, 제1 및 제2 표준 편차를 갖는 제1 및 제2 정규 분포 곡선들의 차이에 대응하는 계수를 갖는 필터를 이용하여 홍채 패턴을 계산하는 단계; 및
상기 프로세서가, 계산된 홍채 패턴으로부터 논리 값 "0" 내지 "1" 사이의 값에 대응하는 홍채 벡터를 검출하는 단계;
를 더 포함하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법.
Measuring a distance from the user by the first camera;
When the first camera is located in a capture volume space in which a user can acquire an iris image, recognizing a user's face and acquiring a position of a facial component;
The second camera photographs the user while panning at a specific pan angle based on the position of the user's facial component acquired by the first camera and photographs the user's iris image at a specific tilt angle. Recognizing the iris of the; And
The processor performs authentication for the user by comparing the user's face recognized by the first camera and the user's iris recognized by the second camera with a plurality of previously stored facial information and a plurality of iris information, respectively. step;
Including,
Dividing, by the processor, an iris image into a plurality of pixels;
Dividing, by the processor, the plurality of pixels into a plurality of groups;
Calculating, by the processor, in each of the plurality of groups, an iris pattern using a filter having a coefficient corresponding to a difference between first and second normal distribution curves having first and second standard deviations; And
Detecting, by the processor, an iris vector corresponding to a value between logical values "0" and "1" from the calculated iris pattern;
Face and iris recognition method by securing a capture volume space, characterized in that it further comprises.
제6항에 있어서,
상기 프로세서가, 홍채 패턴을 동공을 중심으로 복수의 트랙으로 분할하는 단계;
상기 프로세서가, 각 트랙에 포함된 홍채 패턴을 양자화 알고리즘에 의해 디지털화하는 단계; 및
상기 프로세서가, 디지털화된 홍채 패턴을 암호화하여 저장하는 단계;
를 더 포함하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법.
The method of claim 6,
Dividing the iris pattern into a plurality of tracks around the pupil;
Digitizing, by the processor, an iris pattern included in each track by a quantization algorithm; And
Encrypting and storing, by the processor, the digitized iris pattern;
Face and iris recognition method by securing a capture volume space, characterized in that it further comprises.
삭제delete 제6항에 있어서,
상기 프로세서가, 상기 홍채 이미지에서 좌우 눈을 분리하는 단계;
상기 프로세서가, 오리진(origin)화에 의해 상기 홍채 이미지를 이동시키는 단계;
상기 프로세서가, 이동된 홍채 이미지에서 노이즈를 제거하여 홍채 데이터를 생성하는 단계; 및
상기 프로세서가, 홍채 데이터를 암호화 코드로 변환하여 저장하는 단계;
를 더 포함하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법.
The method of claim 6,
Separating, by the processor, left and right eyes from the iris image;
Moving, by the processor, the iris image by originating;
Generating, by the processor, iris data by removing noise from the moved iris image; And
Converting, by the processor, iris data into an encryption code and storing it;
Face and iris recognition method by securing a capture volume space, characterized in that it further comprises.
제6항에 있어서,
상기 캡쳐 볼륨 공간은 원하는 캡쳐 볼륨을 형성하기 위해 배열된 복수의 셀을 포함하고, 상기 제1 카메라는 상기 복수의 셀에 각각 대응되는 복수의 카메라를 포함하는 카메라 어레이로 구성되며,
상기 방법은,
상기 프로세서가, 사용자와의 거리가 변경됨에 따라 상기 복수의 카메라의 개수를 변경하여 상기 캡쳐 볼륨 공간을 조절하는 단계;
를 더 포함하는 것을 특징으로 하는 캡쳐 볼륨 공간 확보를 통한 안면 및 홍채 인식 방법.
The method of claim 6,
The capture volume space includes a plurality of cells arranged to form a desired capture volume, and the first camera is composed of a camera array including a plurality of cameras respectively corresponding to the plurality of cells,
The above method,
Adjusting, by the processor, the capture volume space by changing the number of the plurality of cameras as the distance to the user is changed;
Face and iris recognition method by securing a capture volume space, characterized in that it further comprises.
KR1020190148371A 2019-11-19 2019-11-19 Method and system for recognizing face and iris by securing capture volume space KR102171018B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190148371A KR102171018B1 (en) 2019-11-19 2019-11-19 Method and system for recognizing face and iris by securing capture volume space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190148371A KR102171018B1 (en) 2019-11-19 2019-11-19 Method and system for recognizing face and iris by securing capture volume space

Publications (1)

Publication Number Publication Date
KR102171018B1 true KR102171018B1 (en) 2020-10-28

Family

ID=73018476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190148371A KR102171018B1 (en) 2019-11-19 2019-11-19 Method and system for recognizing face and iris by securing capture volume space

Country Status (1)

Country Link
KR (1) KR102171018B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230010392A (en) * 2021-07-12 2023-01-19 김한필 Method and system for generating perfume recipe based on image
WO2023063861A1 (en) * 2021-10-13 2023-04-20 Fingerprint Cards Anacatum Ip Ab A method and a system configured to reduce impact of impairment data in captured iris images

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020073653A (en) 2001-03-15 2002-09-28 엘지전자 주식회사 Distance measuring method and apparatus of iris recognition system
KR20020086977A (en) 2001-05-12 2002-11-21 엘지전자 주식회사 Focusing distance measurement in iris recognition system
KR20060081380A (en) 2005-01-08 2006-07-12 아이리텍 잉크 Iris identification system and method using mobile device with stereo camera
KR20130123859A (en) 2012-05-04 2013-11-13 삼성전자주식회사 Terminal and method for iris scanning and proximity sensing
KR20160068884A (en) * 2013-10-08 2016-06-15 에스알아이 인터내셔널 Iris biometric recognition module and access control assembly
KR20190022654A (en) * 2016-06-24 2019-03-06 포토내이션 리미티드 Image processing method and system for iris recognition
KR20190072323A (en) * 2017-12-15 2019-06-25 동의대학교 산학협력단 Image Monitoring System and Method for Monitoring Image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020073653A (en) 2001-03-15 2002-09-28 엘지전자 주식회사 Distance measuring method and apparatus of iris recognition system
KR20020086977A (en) 2001-05-12 2002-11-21 엘지전자 주식회사 Focusing distance measurement in iris recognition system
KR20060081380A (en) 2005-01-08 2006-07-12 아이리텍 잉크 Iris identification system and method using mobile device with stereo camera
KR20130123859A (en) 2012-05-04 2013-11-13 삼성전자주식회사 Terminal and method for iris scanning and proximity sensing
KR20160068884A (en) * 2013-10-08 2016-06-15 에스알아이 인터내셔널 Iris biometric recognition module and access control assembly
KR20190022654A (en) * 2016-06-24 2019-03-06 포토내이션 리미티드 Image processing method and system for iris recognition
KR20190072323A (en) * 2017-12-15 2019-06-25 동의대학교 산학협력단 Image Monitoring System and Method for Monitoring Image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230010392A (en) * 2021-07-12 2023-01-19 김한필 Method and system for generating perfume recipe based on image
KR102634828B1 (en) * 2021-07-12 2024-02-06 김한필 Method and system for generating perfume recipe based on image
WO2023063861A1 (en) * 2021-10-13 2023-04-20 Fingerprint Cards Anacatum Ip Ab A method and a system configured to reduce impact of impairment data in captured iris images

Similar Documents

Publication Publication Date Title
US11288504B2 (en) Iris liveness detection for mobile devices
CN107818305B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN107886484B (en) Beautifying method, beautifying device, computer-readable storage medium and electronic equipment
US9366843B2 (en) Iris imaging apparatus and methods for configuring an iris imaging apparatus
WO2019218621A1 (en) Detection method for living being, device, electronic apparatus, and storage medium
CN102147856B (en) Image recognition apparatus and its control method
KR102270674B1 (en) Biometric camera
CN107945135B (en) Image processing method, image processing apparatus, storage medium, and electronic device
US11676424B2 (en) Iris or other body part identification on a computing device
US8983202B2 (en) Smile detection systems and methods
US9813643B2 (en) Thermal recognition systems and methods
CN111780673B (en) Distance measurement method, device and equipment
KR102317180B1 (en) Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information
CN104680128B (en) Biological feature recognition method and system based on four-dimensional analysis
WO2016010724A1 (en) Multispectral eye analysis for identity authentication
US10769415B1 (en) Detection of identity changes during facial recognition enrollment process
CN107862658B (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
US9449217B1 (en) Image authentication
GB2343945A (en) Photographing or recognising a face
KR102171018B1 (en) Method and system for recognizing face and iris by securing capture volume space
CN107844764B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP2012118817A (en) Image processing device and image processing method, program, and storage medium
KR20090086891A (en) Face recognition system and method using the infrared rays
CN109683698B (en) Payment verification method and device, electronic equipment and computer-readable storage medium
JP6396357B2 (en) Face image authentication device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant