KR20160033346A - Method and device of identification and analysis for sweat pore mapping using dot matching - Google Patents

Method and device of identification and analysis for sweat pore mapping using dot matching Download PDF

Info

Publication number
KR20160033346A
KR20160033346A KR1020140123750A KR20140123750A KR20160033346A KR 20160033346 A KR20160033346 A KR 20160033346A KR 1020140123750 A KR1020140123750 A KR 1020140123750A KR 20140123750 A KR20140123750 A KR 20140123750A KR 20160033346 A KR20160033346 A KR 20160033346A
Authority
KR
South Korea
Prior art keywords
pore
pores
optical image
coordinates
optical
Prior art date
Application number
KR1020140123750A
Other languages
Korean (ko)
Other versions
KR101649547B1 (en
Inventor
김종만
이찬우
이주섭
표민경
박범준
Original Assignee
한양대학교 산학협력단
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단, 경희대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020140123750A priority Critical patent/KR101649547B1/en
Publication of KR20160033346A publication Critical patent/KR20160033346A/en
Application granted granted Critical
Publication of KR101649547B1 publication Critical patent/KR101649547B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1371Matching features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

According to an embodiment of the present invention, a method to recognize and analyze a sweat pore map by using dot matching includes: a step of obtaining a first optical image about a sweat pore pattern from a thin film where the sweat pore is put by using an optical microscope; a step of obtaining a second optical image about a potential fingerprint from the thin film by using a sweat pore pattern detection method; a step of extracting position coordinates of the sweat pores from each of the first and second optical images; and a step of confirming whether the sweat pores are matched or not by comparing and analyzing the extracted position coordinates.

Description

점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법과 그 장치 {METHOD AND DEVICE OF IDENTIFICATION AND ANALYSIS FOR SWEAT PORE MAPPING USING DOT MATCHING}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for recognizing and analyzing a pockole map using point matching,

본 발명의 실시예들은 점 매칭을 이용하여 땀구멍 지도를 인식 및 분석하는 방법과 그 장치에 관한 것이다.
Embodiments of the present invention relate to a method and apparatus for recognizing and analyzing a pockole map using point matching.

지문인식은 수세기 동안 범인을 잡기 위하여 범죄수사에서 활용되어 왔다. 지문 인식 기술은 점점 발달하게 되어 범죄 수사에만 국한 되지 않고, 신분 확인, 출입 관리 시스템 등으로 활용범위가 넓혀져 왔다. 요즈음에는 보안, 개인 인증의 인식이 강해지면서, 우리가 일상생활에서 사용하는 스마트 폰, 전자기기 등에도 지문 인식이 활용되어 더욱더 쉽게 접할 수 있게 되었다.Fingerprint recognition has been used in criminal investigations to catch criminals for centuries. Fingerprint recognition technology has become more and more developed, not limited to criminal investigation, but has been widely used for identification and access control systems. Nowadays, as the recognition of security and personal authentication becomes stronger, fingerprint recognition is used more easily in smart phones and electronic devices that we use in everyday life.

하지만 지문 인식 기술이 발달하고, 우리 주변에 점점 가까이 다가올수록, 이를 위조하는 방법도 점점 더 발달하게 되었다. 이를 피하기 위해 홍채 인식, 목소리 인식, 얼굴 인식 등 다양한 인식 기술도 발달하게 되었지만, 지금까지 연구해온 지문 인식과는 새로운 방향이어서 지문 인식 기술을 그대로 이용하기에는 단점이 있다. But as the technology of fingerprint recognition develops and gets closer to us, the method of counterfeiting it is getting more and more developed. In order to avoid this, a variety of recognition technologies such as iris recognition, voice recognition, and face recognition have been developed. However, this is a new direction to the fingerprint recognition that has been studied so far, and there is a drawback in using the fingerprint recognition technology as it is.

따라서 기존의 지문 인식 기술을 그대로 활용하면서 보완하는 새로운 지문 인식 기술이 필요하게 되었다. 지금까지의 연구에 따르면 지문 인식의 방법에는 난이도에 따라 3가지 단계로 나누어 진다. 첫째로 지문의 융선 패턴을 분석하는 방법, 두 번째로는 융선이 갈라지고 합쳐지는 분기점, 끝점 등을 분석하는 방법, 마지막 세 번째로는 융선 위에 분포하는 땀구멍의 패턴을 분석하는 방법이다.Therefore, new fingerprint recognition technology which is complementary to existing fingerprint recognition technology is required. According to the researches so far, the method of fingerprint recognition is divided into three stages according to the degree of difficulty. The first is the method of analyzing the ridge pattern of the fingerprint, the second is the method of analyzing the bifurcation and the end point where the ridge is divided and merged, and the third is the method of analyzing the pattern of the pores distributed on the ridge.

점점 단계가 올라갈수록 지문의 상태와 고화질의 분석 장비가 필요해진다. 현재 일상적인 지문 인식 기술로 활용 되는 기법은 두 번째 단계까지 와있는 상태이다. 현재 세 번째 단계인 땀구멍의 패턴을 추출하여 인식하는 방법은 아직 나와 있지 않은 상태이다.As the stages get higher, fingerprints and high-resolution analysis equipment become necessary. Currently, the technique used as a routine fingerprint recognition technology is in the second stage. Currently, there is no method of extracting and recognizing the pattern of the third step, pore hole.

관련 선행기술로는 지문 융선을 이용하여 효과적으로 분석 할 수 있는 "듀얼모드 매칭을 이용한 지문인식방법" (등록 특허 10-0393753), "위치이동, 회전에 무관한 지문인식 방법 및 지문인식 장치 및 그 방법을 실행시키기 위한 프로그램을 기록한 기록매체" (공개특허 특2003-00866396), "지문 특징데이터 추출알고리즘에 있어서의 방향 필터링방법" (공개특허 10-2008-0027613)이 있으며, 세 번째 단계인 땀구멍을 이용한 인식 방법은 아직 나와있지 않은 상태이다.Related prior arts include a " fingerprint recognition method using dual mode matching "(Patent Registration No. 10-0393753)," fingerprint recognition method and fingerprint recognition device irrespective of position movement and rotation, (Patent Document No. 2003-00866396), "Direction Filtering Method in Fingerprint Feature Data Extraction Algorithm" (Patent Document 10-2008-0027613), and the third step, Has not yet been identified.

또한, 땀구멍 지도를 검출할 수 있는 필름에 관한 선행기술로는 "수변색 다이아세틸렌 복합체 조성물, 이를 이용한 수변색 박막필름 및 이의 용도" (국제 특허 공개번호 PCT/KR2014/000522)가 있으며, 이를 이용하여 땀구멍의 영상 정보를 얻을 수 있다.
As a prior art relating to a film capable of detecting a pore map, there is a water-color changing-die acetylene composite composition, a water-coloring thin film using the same and its use (International Patent Publication No. PCT / KR2014 / 000522) So that the image information of the pores can be obtained.

본 발명의 일 실시예는 땀구멍 지도의 영상 정보를 이용하여 점 성분을 인식 및 분석하여 땀구멍 패턴의 일치 여부를 확인할 수 있도록 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법과 그 장치를 제공한다.
An embodiment of the present invention provides a method and apparatus for recognizing and analyzing a pockole map using point matching that enables recognition of a point component and recognition of a pore pattern by using image information of a pockole map.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
The problems to be solved by the present invention are not limited to the above-mentioned problem (s), and another problem (s) not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법은 광학 현미경을 이용하여 땀구멍이 찍힌 박막필름으로부터 땀구멍 패턴에 관한 제1 광학 이미지를 획득하는 단계; 땀구멍 패턴 검출법을 이용하여 상기 박막필름으로부터 잠재 지문에 관한 제2 광학 이미지를 획득하는 단계; 상기 제1 및 제2 광학 이미지 각각으로부터 땀구멍의 위치 좌표를 추출하는 단계; 및 상기 추출된 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a method for recognizing and analyzing a pockole map using spot matching, comprising: obtaining a first optical image of a pore pattern from a thin film having pore holes formed by using an optical microscope; Obtaining a second optical image of the potential fingerprint from the thin film using a pore pattern detection method; Extracting position coordinates of the pore from each of the first and second optical images; And comparing the extracted position coordinates with each other to confirm whether or not the pores coincide with each other.

상기 땀구멍의 위치 좌표를 추출하는 단계는 상기 제1 광학 이미지를 바이너리 이미지로 변환하는 단계; 및 상기 바이너리 이미지로부터 상기 땀구멍의 위치 좌표에 대한 정보를 추출하는 단계를 포함할 수 있다.The step of extracting the position coordinates of the pore may include: converting the first optical image into a binary image; And extracting information on a position coordinate of the pore from the binary image.

상기 땀구멍의 위치 좌표를 추출하는 단계는 상기 제2 광학 이미지를 루미넌스(luminance)를 가진 흑백(grayscale) 이미지로 전환하는 단계; 노이즈 허용오차를 고려하여 상기 흑백 이미지로부터 상기 루미넌스의 최대값들을 추출하는 단계; 및 상기 루미넌스의 최대값들에 기초하여 상기 잠재 지문상의 땀구멍의 위치 좌표에 대한 정보를 추출하는 단계를 포함할 수 있다.The step of extracting the position coordinates of the pore may include converting the second optical image into a grayscale image having luminance; Extracting maximum values of the luminance from the monochrome image in consideration of noise tolerance; And extracting information on the position coordinates of the pore on the potential fingerprint based on the maximum values of the luminance.

상기 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인하는 단계는 상기 제1 및 제2 광학 이미지 각각으로부터 임의로 선택된 땀구멍과 주변 땀구멍 간의 거리, 및 타겟 땀구멍의 위치 좌표들 사이의 상대각에 기초하여, 상기 제2 광학 이미지를 회전 또는 대칭 이동시켜 제3 광학 이미지를 생성하는 단계; 및 상기 제1 및 제3 광학 이미지의 모든 땀구멍에 대한 변위값들에 기초하여 찾은 땀구멍의 수를 고려하여 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는지를 확인하는 단계를 포함할 수 있다.Wherein the step of comparing and analyzing the positional coordinates to confirm whether or not the pores are coincident with each other is based on a relative angle between a distance between the pore holes and the surrounding pore holes arbitrarily selected from each of the first and second optical images and a positional coordinate of the target pore hole, Rotating or symmetrically moving the second optical image to produce a third optical image; And checking whether the patterns of the pores on the first and third optical images coincide with each other in consideration of the number of pores found based on displacement values of all the pores of the first and third optical images have.

상기 제3 광학 이미지를 생성하는 단계는 상기 제1 광학 이미지에 위치한 n개의 땀구멍에 대해, 임의로 선택된 i번째 땀구멍과 상기 i번째 땀구멍을 둘러싸고 있는 미리 설정된 k개의 가장 가까운 땀구멍들 간의 제1 거리를 계산하는 단계; 상기 제2 광학 이미지에 위치한 m개의 땀구멍에 대해, 임의로 선택된 j번째 땀구멍과 상기 j번째 땀구멍을 둘러싸고 있는 미리 설정된 k개의 가장 가까운 땀구멍들 간의 제2 거리를 계산하는 단계; 상기 제1 및 제2 거리를 비교하여 상기 미리 설정된 k개수에 해당하는 거리 차이값을 산출하는 단계; 상기 거리 차이값에 기초하여 제1 조건을 만족하는 타겟 땀구멍 좌표들을 포함하는 타겟 땀구멍 집합들을 생성하는 단계; 상기 타겟 땀구멍 집합들 각각에 대해서 상기 타겟 땀구멍 좌표들 사이의 상대각을 상기 제1 및 제2 광학 이미지 각각에 대하여 계산하는 단계; 및 상기 타겟 땀구멍 좌표들 사이의 상대각 차이가 제2 조건을 만족하는 경우, 상기 타겟 땀구멍의 위치 좌표들 중 해당 위치 좌표들이 서로 일치하도록 상기 제2 광학 이미지를 회전 또는 대칭 이동시켜 상기 제3 광학 이미지를 생성하는 단계를 포함할 수 있다.Wherein the step of generating the third optical image calculates a first distance between the arbitrarily selected i-th pore and the preset k closest pores surrounding the i-th pore for n pores located in the first optical image ; Calculating a second distance between the arbitrarily selected jth pore and the preset k closest pores surrounding the jth pore for the m pores located in the second optical image; Comparing the first and second distances to calculate a distance difference value corresponding to the preset number of k; Generating target pore assemblies including target pore coordinates satisfying a first condition based on the distance difference value; Calculating a relative angle between the target pore co-ordinates for each of the first and second optical images for each of the target pore assemblies; And rotating the second optical image such that the position coordinates of the target porthole coincide with each other when the relative angle difference between the coordinates of the target porthole satisfies a second condition, And generating an image.

상기 거리 차이값을 산출하는 단계에서, 상기 제3 광학 이미지를 생성하는 단계는 상기 제1 및 제2 광학 이미지에 존재하는 모든 땀구멍에 대한 거리 차이값을 포함하는 n*m*k 메트릭스를 생성하는 단계를 더 포함할 수 있다.In the step of calculating the distance difference value, the step of generating the third optical image may comprise generating an n * m * k matrix including a distance difference value for all pores present in the first and second optical images Step < / RTI >

상기 제2 조건을 만족하지 않는 경우, 상기 제3 광학 이미지를 생성하는 단계는 상기 제2 조건을 만족할 때까지, 상기 타겟 땀구멍 집합들 중 다음의 다른 집합에 대해서 상기 타겟 땀구멍 좌표들 사이의 상대각을 상기 제1 및 제2 광학 이미지 각각에 대하여 계산하는 단계를 포함할 수 있다.Wherein if the second condition is not satisfied, the step of generating the third optical image may include determining a relative angle between the target pawl co-ordinates for another set of the target pawl assemblies, For each of the first and second optical images.

상기 땀구멍의 패턴이 서로 일치하는지를 확인하는 단계는 상기 제1 광학 이미지상의 타겟 땀구멍 좌표들 주위의 땀구멍 좌표와, 상기 제3 광학 이미지상의 타겟 땀구멍 좌표들 주위의 땀구멍 좌표를 비교하는 단계; 상기 비교 결과에 기초하여 상기 제3 광학 이미지에 있는 모든 주위의 땀구멍 좌표들에 대하여 가장 가까운 각각의 좌표를 상기 제1 광학 이미지에서 찾아 해당 좌표 간의 변위값을 계산하는 단계; 상기 제3 광학 이미지상의 모든 땀구멍에 대한 변위값들에 대하여 제3 조건을 만족하는 땀구멍 좌표의 수를 찾는 단계; 및 상기 땀구멍의 수가 상기 제3 광학 이미지상의 전체 땀구멍의 수에 대해 일정 비율 이상이면, 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는 것으로 판단하는 단계를 포함할 수 있다.The step of verifying whether the patterns of the pores match each other includes the steps of comparing the pore coordinates around the target pore coordinates on the first optical image and the pore coordinates around the target pore coordinates on the third optical image; Calculating in each of the first optical images each of coordinates closest to all surrounding pore coordinates in the third optical image based on the comparison result, and calculating a displacement value between the coordinates; Finding a number of pore coordinates satisfying a third condition with respect to displacement values of all the pore holes on the third optical image; And determining that the patterns of the pores on the first and third optical images coincide with each other if the number of the pores is greater than or equal to a predetermined ratio to the total number of pores on the third optical image.

상기 땀구멍 패턴 검출법은 닌하이드린(Ninhydrin) 검출법, 1,8-Diazafluoren-8-one(DFO), 및 1,2-Indanedione, 5-methylthioninhydrin(5-MTN) 검출법 중 적어도 하나를 포함할 수 있다.The pore pattern detection method may include at least one of Ninhydrin detection method, 1,8-Diazafluoren-8-one (DFO), and 1,2-Indanedione and 5-methylthioninhydrin (5-MTN) detection methods .

본 발명의 일 실시예에 따른 점 매칭을 이용한 땀구멍 지도 인식 및 분석 장치는 광학 현미경을 이용하여 땀구멍이 찍힌 박막필름으로부터 땀구멍 패턴에 관한 제1 광학 이미지를 획득하고, 땀구멍 패턴 검출법을 이용하여 상기 박막필름으로부터 잠재 지문에 관한 제2 광학 이미지를 획득하는 이미지 획득부; 상기 제1 및 제2 광학 이미지 각각으로부터 땀구멍의 위치 좌표를 추출하는 좌표 추출부; 및 상기 추출된 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인하는 매칭 비교부를 포함한다.
The apparatus for recognizing and analyzing a pockole map using point matching according to an embodiment of the present invention can acquire a first optical image of a pore pattern from a thin film on which pore holes have been formed by using an optical microscope, An image obtaining unit obtaining a second optical image related to a potential fingerprint from the film; A coordinate extracting unit for extracting a position coordinate of a pore from each of the first and second optical images; And a matching comparing unit comparing and analyzing the extracted position coordinates to confirm whether or not the pores match.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 첨부 도면들에 포함되어 있다.
The details of other embodiments are included in the detailed description and the accompanying drawings.

본 발명의 일 실시예에 따르면, 땀구멍 지도의 영상 정보를 이용하여 점 성분을 인식 및 분석하여 땀구멍 패턴의 일치 여부를 확인할 수 있다.According to an embodiment of the present invention, it is possible to recognize whether or not the pore pattern matches by recognizing and analyzing point components using the image information of the pore map.

본 발명의 일 실시예에 따르면, 땀구멍 패턴의 비교 분석을 통해 지문의 일치 여부를 확인함으로써 신원 확인 및 대조 분석의 정확성, 신뢰성 등을 향상시킬 수 있다.
According to an embodiment of the present invention, it is possible to improve accuracy, reliability, and the like of identity verification and verification analysis by confirming whether fingerprints are matched through comparison analysis of pore patterns.

도 1은 본 발명의 일 실시예에 따른 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법을 설명하기 위해 도시한 전체 흐름도이다.
도 2는 본 발명의 일 실시예에 따라 제1 광학 이미지로부터 땀구멍의 위치 좌표를 추출하는 방법을 설명하기 위해 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따라 제2 광학 이미지로부터 땀구멍의 위치 좌표를 추출하는 방법을 설명하기 위해 도시한 흐름도이다.
도 4 내지 도 6은 본 발명의 일 실시예에 따라 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인하는 방법을 설명하기 위해 도시한 흐름도이다.
도 7은 땀구멍을 인식하는 박막 필름과 잠재 지문의 영상 정보를 이용하여 패턴 매칭 알고리즘을 진행한 모습의 일례를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따라 위치이동 및 회전된 작은 비율의 잠재 지문을 영상 정보로 입력하여 패턴 매칭 알고리즘을 진행하였을 때 성공적으로 매칭 확인된 모습을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 점 매칭을 이용한 땀구멍 지도 인식 및 분석 장치를 설명하기 위해 도시한 블록도이다.
1 is an overall flowchart illustrating a method for recognizing and analyzing a pockole map using point matching according to an embodiment of the present invention.
2 is a flowchart illustrating a method of extracting a position coordinate of a pore from a first optical image according to an embodiment of the present invention.
3 is a flowchart illustrating a method of extracting a position coordinate of a pore from a second optical image according to an embodiment of the present invention.
FIGS. 4 to 6 are flowcharts for explaining a method for comparing and analyzing position coordinates according to an embodiment of the present invention to determine whether or not the pores are consistent.
FIG. 7 is a diagram showing an example of a pattern matching algorithm performed using a thin film for recognizing pores and image information of a potential fingerprint.
FIG. 8 is a view showing a pattern matching algorithm that is successfully matched when a pattern matching algorithm is performed by inputting a small percentage of potential fingerprints that are moved and rotated according to an embodiment of the present invention as image information.
FIG. 9 is a block diagram illustrating an apparatus for recognizing and analyzing a pockole map using point matching according to an embodiment of the present invention. Referring to FIG.

본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.
BRIEF DESCRIPTION OF THE DRAWINGS The advantages and / or features of the present invention, and how to accomplish them, will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but is capable of many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법을 설명하기 위해 도시한 전체 흐름도이다. 여기서, 상기 방법은 도 9의 땀구멍 지도 인식 및 분석 장치(900)에 의해 수행될 수 있다.1 is an overall flowchart illustrating a method for recognizing and analyzing a pockole map using point matching according to an embodiment of the present invention. Here, the method may be performed by the apparatus 1000 for recognizing and analyzing the porthole of FIG.

도 1을 참조하면, 단계(110)에서 상기 땀구멍 지도 인식 및 분석 장치는 광학 현미경을 이용하여 땀구멍이 찍힌 박막필름으로부터 땀구멍 패턴에 관한 제1 광학 이미지를 획득한다.Referring to FIG. 1, in step 110, the apparatus for recognizing and analyzing a puckle map acquires a first optical image of a pore pattern from a thin film on which pore holes have been formed using an optical microscope.

여기서, 상기 제1 광학 이미지를 획득하기 위해, 상기 박막필름으로는 수변색 폴리다이아세틸렌 필름을 사용하였으나, 땀구멍 패턴을 얻을 수 있는 박막필름에는 제한이 없으며, 땀구멍 패턴을 얻을 수 있는 어떤 박막필름도 사용 가능하다.Here, in order to obtain the first optical image, a water-discolored poly-diacetylene film is used as the thin film, but there is no limitation to the thin film capable of obtaining the pore pattern, and any thin film capable of obtaining the pore pattern Available.

다음으로, 단계(120)에서 상기 땀구멍 지도 인식 및 분석 장치는 땀구멍 패턴 검출법을 이용하여 상기 박막필름으로부터 잠재 지문에 관한 제2 광학 이미지를 획득한다.Next, in step 120, the puckle-hole map recognition and analysis apparatus acquires a second optical image of the potential fingerprint from the thin film using the pore pattern detection method.

여기서, 상기 제2 광학 이미지를 획득하기 위해, 상기 땀구멍 패턴 검출법으로는 닌하이드린(Ninhydrin) 검출법을 이용하였으나, 땀구멍 잠재지문 패턴을 얻을 수 있는 검출법에는 제한이 없으며, 1,8-Diazafluoren-8-one(DFO), 1,2-Indanedione, 5-methylthioninhydrin(5-MTN) 검출법 등, 땀구멍 잠재지문 패턴을 얻을 수 있는 어떤 검출법도 사용 가능하다.In order to obtain the second optical image, although the ninhydrin detection method is used as the pore pattern detection method, there is no limitation on the detection method that can obtain the pattern of the potential fingerprint of the pore, and 1,8-Diazafluoren-8 Any detection method capable of obtaining a potential fingerprint pattern of the pore such as -one (DFO), 1,2-Indanedione, and 5-methylthioninhydrin (5-MTN) detection method can be used.

다음으로, 단계(130)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 및 제2 광학 이미지 각각으로부터 땀구멍의 위치 좌표를 추출한다.Next, in step 130, the pore-hole map recognition and analysis apparatus extracts the position coordinates of the pore holes from each of the first and second optical images.

여기서, 먼저 상기 제1 광학 이미지로부터 땀구멍의 위치 좌표를 추출하는 방법을 도 2를 참조하여 구체적으로 설명하면 다음과 같다. 참고로, 도 2는 본 발명의 일 실시예에 따라 제1 광학 이미지로부터 땀구멍의 위치 좌표를 추출하는 방법을 설명하기 위해 도시한 흐름도이다.Hereinafter, a method of extracting the position coordinates of the pore from the first optical image will be described in detail with reference to FIG. 2 is a flowchart illustrating a method of extracting a position coordinate of a pore from a first optical image according to an embodiment of the present invention.

도 2를 참조하면, 단계(210)에서 상기 땀구멍 지도 인식 및 분석 장치는 자바(Java)에 기반한 이미지 프로세싱 프로그램(예: ImageJ)을 사용하여 상기 제1 광학 이미지(RGB)를 불러온다.Referring to FIG. 2, in step 210, the pucker map recognition and analysis device retrieves the first optical image (RGB) using an image processing program (e.g., ImageJ) based on Java.

본 실시예에서는 자바에 기반한 이미지 프로세싱 프로그램을 사용하였지만, 이에 한정되지 않고 상기 땀구멍 지도 인식 및 분석 장치는 이미지 분석을 위한 그 밖의 모든 프로그램을 사용할 수도 있다.Although an image processing program based on Java is used in this embodiment, the present invention is not limited to this, and the puckle map recognition and analysis apparatus may use all other programs for image analysis.

이후, 단계(220)에서 상기 땀구멍 지도 인식 및 분석 장치는 트레숄드(threshold) 과정을 거쳐서 상기 제1 광학 이미지를 바이너리 이미지로 변환한다.Thereafter, in step 220, the apparatus for recognizing and analyzing the pockole map converts the first optical image into a binary image through a threshold process.

이후, 단계(230)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 바이너리 이미지로부터 상기 땀구멍의 위치 좌표에 대한 정보를 추출한다.Thereafter, in step 230, the apparatus for recognizing and analyzing poultry maps extracts information on the coordinates of the porthole from the binary image.

상기 바이너리 이미지에서, 땀구멍의 위치는 검은색으로 표시될 수 있다. 따라서, 상기 땀구멍 지도 인식 및 분석 장치는 상기 바이너리 이미지상에 있는 검은색 영역의 무게 중심에 해당하는 땀구멍의 위치 좌표 (x, y)에 대한 정보를 추출할 수 있다.In the binary image, the position of the pore may be displayed in black. Therefore, the apparatus for recognizing and analyzing the pore-hole map can extract information on the position coordinates (x, y) of the pore corresponding to the center of gravity of the black region on the binary image.

다음으로, 상기 제2 광학 이미지로부터 땀구멍의 위치 좌표를 추출하는 방법을 도 3을 참조하여 자세히 설명하면 다음과 같다. 참고로, 도 3은 본 발명의 일 실시예에 따라 제2 광학 이미지로부터 땀구멍의 위치 좌표를 추출하는 방법을 설명하기 위해 도시한 흐름도이다.Next, a method of extracting the position coordinates of the pore from the second optical image will be described in detail with reference to FIG. 3 is a flowchart illustrating a method of extracting a position coordinate of a pore from a second optical image according to an embodiment of the present invention.

도 3을 참조하면, 단계(310)에서 상기 땀구멍 지도 인식 및 분석 장치는 자바에 기반한 이미지 프로세싱 프로그램(예: ImageJ)을 이용하여 상기 제2 광학 이미지를 불러온다.Referring to FIG. 3, in step 310, the pucker map recognition and analysis device retrieves the second optical image using a Java based image processing program (e.g., ImageJ).

여기서, 상기 땀구멍 지도 인식 및 분석 장치는 자바에 기반한 이미지 프로세싱 프로그램을 사용하였지만, 이에 한정되지 않고 이미지 분석을 위한 그 밖의 모든 프로그램을 사용할 수도 있다.Here, although the pockole map recognition and analysis apparatus uses an image processing program based on Java, it is not limited to this, and all other programs for image analysis may be used.

이후, 단계(320)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제2 광학 이미지를 루미넌스(luminance)를 가진 흑백(grayscale) 이미지로 전환한다.Thereafter, in step 320, the pucker map recognition and analysis device converts the second optical image into a grayscale image with luminance.

이때, 상기 루미넌스는 RGB색의 비가중 평균 (unweighted average) 값에 의해 다음과 같이 정의된다.In this case, the luminance is defined as follows by an unweighted average value of RGB colors.

Gray = (Red + Green + Blue)/3Gray = (Red + Green + Blue) / 3

이후, 단계(330)에서 상기 땀구멍 지도 인식 및 분석 장치는 노이즈 허용오차(noise tolerance)를 고려하여 상기 흑백 이미지로부터 상기 루미넌스의 최대값들을 추출한다.Then, in step 330, the puckle-hole map recognition and analysis apparatus extracts the maximum values of the luminance from the monochrome image in consideration of noise tolerance.

여기서, 상기 노이즈 허용 오차는 15-20 정도로 설정될 수 있다. 다만, 상기 노이즈 허용오차는 그 수치한정의 범위에 있어서 상기 범위에 제한되지 않으며, 실험적으로 얻은 상기 제2 광학 이미지의 해상도에 따라 최적의 값이 임의로 선택될 수 있다.Here, the noise tolerance may be set to about 15-20. However, the noise tolerance is not limited to the above range in the range of the numerical limitation, and an optimum value can be arbitrarily selected according to the resolution of the second optical image obtained experimentally.

이후, 단계(340)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 루미넌스의 최대값들에 기초하여 상기 잠재 지문상의 땀구멍의 위치 좌표에 대한 정보를 추출한다.Thereafter, in step 340, the apparatus for recognizing and analyzing the pore-hole map extracts information on the position coordinates of the pore on the potential fingerprint based on the maximum values of the luminance.

즉, 상기 땀구멍 지도 인식 및 분석 장치는 상기 루미넌스의 최대값들이 추출될 때의 위치 좌표 (x, y)를 상기 잠재 지문상의 땀구멍의 위치에 해당한다고 판단하고, 그 위치의 좌표에 대한 정보를 추출할 수 있다.That is, the apparatus for recognizing and analyzing the pore-hole map determines that the position coordinates (x, y) at which the maximum values of the luminance are extracted correspond to the positions of the pore holes on the potential fingerprint and extracts information about the coordinates can do.

다시 도 1을 참조하면, 단계(140)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 추출된 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인한다.Referring again to FIG. 1, in step 140, the apparatus for recognizing and analyzing the pore-hole map compares and analyzes the extracted position coordinates to check whether or not the pore is consistent.

이하에서는 상기 땀구멍의 일치 여부를 확인하는 과정에 대해 도 4 내지 도 6을 참조하여 상세히 설명하기로 한다. 참고로, 도 4 내지 도 6은 본 발명의 일 실시예에 따라 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인하는 방법을 설명하기 위해 도시한 흐름도이다.Hereinafter, the process of confirming whether or not the pores are coincident will be described in detail with reference to FIGS. 4 to 6. FIG. 4 to 6 are flowcharts for explaining a method for checking whether or not the pores are coincident by comparing and analyzing position coordinates according to an embodiment of the present invention.

먼저 도 4를 참조하면, 단계(410)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 및 제2 광학 이미지 각각으로부터 임의로 선택된 땀구멍과 주변 땀구멍 간의 거리, 및 타겟 땀구멍의 위치 좌표들 사이의 상대각에 기초하여, 상기 제2 광학 이미지를 회전 또는 대칭 이동시켜 제3 광학 이미지를 생성한다.Referring first to FIG. 4, in step 410, the apparatus for recognizing and analyzing a porthole map includes a distance between a porthole selected from each of the first and second optical images and a peripheral porthole, and a relative angle between position coordinates of the target porthole , The second optical image is rotated or flipped to produce a third optical image.

상기 제3 광학 이미지를 생성하는 과정을 보다 구체적으로 설명하면 다음과 같다.The process of generating the third optical image will be described in more detail as follows.

도 5에 도시된 바와 같이, 단계(510)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 광학 이미지에서 i번째 땀구멍에 대한 제1 거리를 계산한다.As shown in FIG. 5, in step 510, the apparatus for recognizing and analyzing poultry maps calculates a first distance to the i-th pore in the first optical image.

즉, 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 광학 이미지에 위치한 n개의 땀구멍에 대해, 임의로 선택된 i번째 땀구멍과 상기 i번째 땀구멍을 둘러싸고 있는 미리 설정된 k개의 가장 가까운 땀구멍들 간의 제1 거리를 계산한다.That is, the pore-hole map recognition and analysis apparatus calculates a first distance between the arbitrarily selected i-th pore and the preset k closest pores surrounding the i-th pore for the n pores located in the first optical image do.

이후, 단계(520)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제2 광학 이미지에서 j번째 땀구멍에 대한 제2 거리를 계산한다.Thereafter, in step 520, the pucker map recognition and analysis apparatus calculates a second distance to the jth pore in the second optical image.

즉, 상기 땀구멍 지도 인식 및 분석 장치는 상기 제2 광학 이미지에 위치한 m개의 땀구멍에 대해, 임의로 선택된 j번째 땀구멍과 상기 j번째 땀구멍을 둘러싸고 있는 미리 설정된 k개의 가장 가까운 땀구멍들 간의 제2 거리를 계산한다.That is, the pore-hole map recognition and analysis apparatus calculates a second distance between the arbitrarily selected jth pore hole and the predetermined k closest pore holes surrounding the jth pore hole, for the m pore holes located in the second optical image do.

이후, 단계(530)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 및 제2 거리를 비교하여 상기 미리 설정된 k개수에 해당하는 거리 차이값을 산출한다.Thereafter, in step 530, the pelvis map recognition and analysis apparatus compares the first and second distances to calculate a distance difference value corresponding to the preset number of k.

이때, 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 및 제2 광학 이미지에 존재하는 모든 땀구멍에 대한 거리 차이값을 포함하는 n*m*k 메트릭스를 생성할 수 있다.At this time, the pore-hole map recognition and analysis apparatus may generate an n * m * k matrix including distance difference values for all pores present in the first and second optical images.

이후, 단계(540)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 거리 차이값에 기초하여 제1 조건을 만족하는 타겟 땀구멍 좌표들을 포함하는 타겟 땀구멍 집합들을 생성한다.Thereafter, in step 540, the apparatus for recognizing and analyzing the pelvis map generates target pore assemblies including target pore coordinates satisfying the first condition based on the distance difference value.

이후, 단계(550)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 타겟 땀구멍 집합들 각각에 대해서 상기 타겟 땀구멍 좌표들 사이의 상대각을 상기 제1 및 제2 광학 이미지 각각에 대하여 계산한다.Thereafter, in step 550, the apparatus for recognizing and analyzing poultry maps calculates a relative angle between the coordinates of the target pawl for each of the target pawl assemblies, for each of the first and second optical images.

이후, 단계(560)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 타겟 땀구멍 좌표들 사이의 상대각 차이가 제2 조건을 만족하는지 여부를 판단한다.Thereafter, in step 560, the pore-hole map recognition and analysis apparatus determines whether the relative angle difference between the target pore coordinates satisfies the second condition.

상기 판단 결과, 상기 제2 조건을 만족하면(560의 "예" 방향), 단계(570)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 타겟 땀구멍의 위치 좌표들 중 해당 위치 좌표들이 서로 일치하도록 상기 제2 광학 이미지를 회전 또는 대칭 이동시켜 상기 제3 광학 이미지를 생성한다.As a result of the determination, if the second condition is satisfied (the "Yes" direction of 560), the puckle-hole map recognition and analysis apparatus in step 570 determines whether or not the position coordinates of the target pore- 2 optical image to produce the third optical image.

반면, 상기 판단 결과, 상기 제2 조건을 만족하지 않으면(560의 "아니오" 방향), 상기 땀구멍 지도 인식 및 분석 장치는 상기 단계(550)으로 리턴한다.On the other hand, if it is determined that the second condition is not satisfied (No in 560), the puckle-hole map recognition and analysis apparatus returns to step 550.

즉, 상기 땀구멍 지도 인식 및 분석 장치는 상기 제2 조건을 만족할 때까지, 상기 타겟 땀구멍 집합들 중 다음의 다른 집합에 대해서 상기 타겟 땀구멍 좌표들 사이의 상대각을 상기 제1 및 제2 광학 이미지 각각에 대하여 계산할 수 있다.That is, the apparatus for recognizing and analyzing the porthole map recognizes a relative angle between the coordinates of the target porthole with respect to another set of the target portholes, from the first and second optical images, respectively, until the second condition is satisfied . ≪ / RTI >

한편, 상기 단계(510) 내지 단계(530)의 과정과 상기 단계(540) 내지 단계(550)의 과정은 그 순서가 바뀔 수도 있다. 즉, 본 실시예에서는 상기 단계(510) 내지 단계(530)의 과정을 수행한 다음에 상기 단계(540) 내지 단계(550)의 과정을 수행하였지만, 다른 실시예로서 상기 단계(540) 내지 단계(550)의 과정을 수행한 다음에 상기 단계(510) 내지 단계(530)의 과정을 수행할 수도 있다.The order of steps 510 to 530 and steps 540 to 550 may be changed. That is, in the present embodiment, the processes of steps 540 to 550 are performed after performing the processes of steps 510 to 530, but as another embodiment, (510) to (530) may be performed after performing the process of step (550).

다시 도 4를 참조하면, 단계(420)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 및 제3 광학 이미지의 모든 땀구멍에 대한 변위값들에 기초하여 찾은 땀구멍의 수를 고려하여 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는지를 확인한다.Referring again to FIG. 4, in step 420, the apparatus for recognizing and analyzing the pelvis guide recognizes the number of pelvis found based on the displacement values for all the pores of the first and third optical images, It is confirmed whether or not the patterns of the pore holes on the third optical image coincide with each other.

상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는지를 확인하는 과정에 대해 보다 구체적으로 설명하면 다음과 같다.A process of checking whether the patterns of the pores on the first and third optical images coincide with each other will be described in more detail as follows.

도 6에 도시된 바와 같이, 단계(610)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 및 제3 광학 이미지의 모든 땀구멍에 대한 변위값을 계산한다.As shown in FIG. 6, in step 610, the apparatus for recognizing and analyzing the pelvis map calculates displacement values for all the pores of the first and third optical images.

상술하면, 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 광학 이미지상의 타겟 땀구멍 좌표들 주위의 땀구멍 좌표와, 상기 제3 광학 이미지상의 타겟 땀구멍 좌표들 주위의 땀구멍 좌표를 비교한다. 그리고, 상기 땀구멍 지도 인식 및 분석 장치는 상기 비교 결과에 기초하여 상기 제3 광학 이미지에 있는 모든 주위의 땀구멍 좌표들에 대하여 가장 가까운 각각의 좌표를 상기 제1 광학 이미지에서 찾아 해당 좌표 간의 변위값을 계산한다.Specifically, the apparatus for recognizing and analyzing the porthole map compares the pore coordinates around the target pore coordinates on the first optical image with the pore coordinates around the target pore coordinates on the third optical image. The apparatus for recognizing and analyzing a porthole of a porthole according to the present invention is characterized in that each of the closest porthole coordinates to all surrounding portholes coordinates in the third optical image is found in the first optical image and a displacement value between the coordinates .

이후, 단계(620)에서 상기 땀구멍 지도 인식 및 분석 장치는 제3 조건을 만족하는 땀구멍 좌표의 수를 계산한다.Thereafter, in step 620, the apparatus for recognizing and analyzing the pockole map calculates the number of pore coordinates satisfying the third condition.

즉, 상기 땀구멍 지도 인식 및 분석 장치는 상기 제3 광학 이미지상의 모든 땀구멍에 대한 변위값들에 대하여, 상기 제3 조건을 만족하는 땀구멍 좌표의 수를 찾는다.That is, the apparatus for recognizing and analyzing the porthole map finds the number of porthole coordinates satisfying the third condition with respect to displacement values for all pores on the third optical image.

이후, 단계(630)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 땀구멍의 수가 상기 제3 광학 이미지상의 전체 땀구멍의 수에 대해 일정 비율 이상인지 여부를 판단한다.Then, in step 630, the apparatus for recognizing and analyzing the porthole map determines whether or not the number of pores is greater than or equal to a predetermined ratio to the total number of pores on the third optical image.

상기 판단 결과, 일정 비율 이상이면(630의 "예" 방향), 단계(640)에서 상기 땀구멍 지도 인식 및 분석 장치는 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는 것으로 판단한다.As a result of the determination, if the ratio is equal to or greater than a predetermined ratio (in the "YES" direction of 630), then in step 640, the apparatus for recognizing and analyzing pore holes determines that patterns of pore holes on the first and third optical images coincide with each other.

반면, 상기 판단 결과, 일정 비율 미만이면(630의 "아니오" 방향), 상기 땀구멍 지도 인식 및 분석 장치는 도 5의 단계(550)으로 리턴한다.
On the other hand, if it is determined that the ratio is less than the predetermined ratio (No in step 630), the apparatus for recognizing and analyzing the pockole map returns to step 550 in FIG.

이하에서는 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는지를 확인하는 땀구멍 패턴 매칭 알고리즘에 대해 두 개의 단계, 즉 (1) 타겟 땀구멍 매칭(matching target pore positions), (2) 타겟 땀구멍 주위에 있는 배경 땀구멍 매칭(matching background pore positions)로 나누어 설명하기로 한다.Hereinafter, the algorithm for matching the pattern of the pores on the first and third optical images to each other will be described in two steps: (1) matching target pore positions, (2) And the matching background pore positions in the background.

(1) 타겟 땀구멍 매칭(1) Matching the target pores

상기 제1 광학 이미지에서 임의로 선택된 i번째 땀구멍과 이를 둘러싸고 있는 15개의 가장 가까운 땀구멍 사이의 제1 거리 (dI)를 계산하고, 같은 작업을 나머지 (n-1)개의 땀구멍에 대해서 반복한다.The first distance d I between the i-th pore selected arbitrarily in the first optical image and the fifteen closest pores surrounding the selected pore is calculated and the same operation is repeated for the remaining (n-1) pores.

여기서 둘러싸고 있는 땀구멍의 수의 제한은 딱히 정해진 바가 없으며 수가 너무 많으면 계산하는 시간이 너무 오래 걸리며, 수가 너무 적으면 패턴을 인식하는 경우의 수가 너무 적어 인식 정확도가 떨어지므로, 15개로 설정함이 가장 바람직하다.There are no limitations on the number of surrounding pore holes. If the number is too large, it takes too long to calculate. If the number is too small, the number of pattern recognition cases is too small and recognition accuracy is low. Do.

상기 제2 광학 이미지에서도 마찬가지로, j번째 땀구멍과 주위의 가장 가까운 15개의 땀구멍 사이의 제2 거리 (dII)를 계산하고, 나머지 (m-1)개의 땀구멍에 대해서 반복한다.Similarly in the second optical image, the second distance d II between the jth pore and the nearest fifteen pores is calculated, and the remaining distance is repeated for the remaining (m-1) pores.

상기 제1 광학 이미지에서 i번째 땀구멍 (i = 1, 2, ..., n)으로부터 얻은 제1 거리 값과 상기 제2 광학 이미지에서 j번째 땀구멍 (j = 1, 2, ..., m)으로부터 얻은 제2 거리 값을 반복적으로 비교하여 거리 차이값(sij = |dI - dII|)을 구한다.(J = 1, 2, ..., m) in the second optical image and a first distance value obtained from the i-th pore (i = 1, 2, ) To obtain a distance difference value (s ij = | d I - d II |).

이때, sij는 n * m * 15 메트릭스로서 결과적으로 두 개의 이미지에 존재하는 모든 땀구멍에 대한 값을 포함한다. sij 값을 크기가 낮은 순부터 1부터 15까지 정렬한 후, 이 값들 중 4~5 개의 가장 낮은 값들이 모두 sij < ε1 의 조건(제1 조건)을 만족하면, 이들 4~5개의 땀구멍은 타겟 탐구멍으로 할당된다. 이때 ε1 값은 일반적으로 0.04 mm를 사용한다.Where s ij is the n * m * 15 matrix and consequently contains values for all pores present in the two images. If the s ij values are sorted from 1 to 15 from the lowest to the lowest, then the lowest values of 4 to 5 of these values satisfy the condition of s ij1 (first condition) The pores are assigned to the target exploration bruises. The value of ε 1 is generally 0.04 mm.

반복 작업을 n * m 번 실행하여, 다수의 타겟 탐구멍 위치 좌표를 포함하는 타겟 땀구멍 집합들 (Ukl)을 얻는다. 다음으로, 임의의 한 개의 집합 (예, U11)에 포함된 4~5개의 타겟 좌표들 사이의 상대각 (relative angle) θ 와 θ를 상기 제1 및 제2 광학 이미지 각각에 대하여 계산하고, 그 값들의 차이

Figure pat00001
Figure pat00002
보다 작을 경우(조건 2를 만족할 경우), 두 개 이미지 사이의 타겟 좌표들이 서로 일치한다고 가정하고, 이들 타겟 좌표들이 서로 일치하도록 상기 제2 광학 이미지를 회전/대칭 이동시켜 상기 제3 광학 이미지를 생성한다. 만약, Δθkl > ε2 일 경우(조건 2를 만족하지 않을 경우), 다음 집합 (예, U12)에 대해서 반복 계산하고, Ukl 중에서 Δθkl < ε2을 만족하는 경우, 다음 단계로 진행한다.The iterative operation is executed n * m times to obtain target pawl set (U kl ) including a plurality of target exploration hole position coordinates. Next, any one set of calculated for (for example, U 11) 4 ~ 5 of the target coordinates relative angle (relative angle) between θ and θ for each of the first and second optical images contained in , And the difference
Figure pat00001
end
Figure pat00002
(If condition 2 is satisfied), it is assumed that the target coordinates between the two images coincide with each other, and the second optical image is rotated / symmetrically such that these target coordinates coincide with each other to generate the third optical image do. If Δθ kl > ε 2 (condition 2 is not satisfied), it is repeatedly calculated for the next set (eg, U 12 ), and U kl If? K kl &lt;? 2 is satisfied, the process proceeds to the next step.

상기에서 4~5개의 낮은 값을 타겟 땀구멍으로 할당하였을 때 수의 제한은 딱히 정해진 바가 없으며, 타겟 땀구멍의 수가 너무 적을 경우 다음 단계의 배경 땀구멍 매칭 테스트를 만족시킬 확률이 줄어들고, 그 수가 너무 많을 경우 타겟 땀구멍으로 지정될 확률이 감소한다. 따라서, 상기 타겟 땀구멍의 수는 4~5개로 설정하는 것이 가장 바람직하다.When the number of the target pore holes is too small, the probability of satisfying the background pore hole matching test of the next step is reduced. If the number of the target pore holes is too large, The probability of being designated as the target pore decreases. Therefore, it is most preferable that the number of the target pore holes is set to 4 to 5.

또한, 상기에서 ε1 = 0.04mm, ε2 =10도(o)를 할당하였을 때 해당 값의 제한은 딱히 정해진 바가 없으며, 두 값이 너무 작을 경우 타겟 땀구멍으로 지정될 확률이 감소하고, 반대로 너무 커질 경우 배경 땀구멍 매칭 테스트를 만족시킬 확률이 감소한다. 따라서, ε1 = 0.04mm, ε2 =10o 로 설정하는 것이 가장 바람직하다.In addition, when ε 1 = 0.04 mm and ε 2 = 10 degrees ( o ) are assigned in the above, there is no limitation on the value. When the values are too small, the probability of being designated as the target pore decreases, The probability of satisfying the background pore matching test is reduced. Therefore, it is most preferable to set? 1 = 0.04 mm and? 2 = 10 o .

(2) 배경 땀구멍 매칭(2) Background Patch Matching

Δθkl < ε2 (조건 2)을 만족하는 경우, 상기 제1 및 제3 광학 이미지상의 타겟 좌표 주위의 땀구멍의 좌표를 비교한다. 이때, 상기 제1 및 제3 광학 이미지 각각에 있는 타겟 좌표들 사이의 거리와 상대각은 각각 ε1 과 ε2 의 오차범위 내에 있게 된다. 상기 제3 광학 이미지에 있는 모든 주위의 땀구멍 좌표들 (총 m개)에 대하여 가장 가까운 각각의 좌표를 상기 제1 광학 이미지에서 찾고 해당 변위값 (λ)를 계산한다.And the coordinates of the pores around the target coordinates on the first and third optical images are compared when? K kl &lt;? 2 (condition 2) is satisfied. At this time, the distances between the target coordinates in the first and third optical images and the relative angles are within the error ranges of? 1 and? 2 , respectively. Finds in the first optical image each coordinate closest to all surrounding pore coordinates (m total) in the third optical image and calculates the corresponding displacement value ([lambda]).

상기 계산된 변위값들에 대하여 λ < ε1 (조건 3)을 만족하는 땀구멍 좌표의 수 (Nmat)를 찾고, 이 값이 상기 제3 광학 이미지의 전체 땀구멍의 수 m개에 대해 일정 비율 이상이면, 두 개 이미지(제1 및 제3 광학 이미지)상의 땀구멍의 패턴은 서로 일치한다고 할 수 있다 (Nmat/m > ε3 = 0.08~0.3).(N mat ) satisfying? <? 1 (Condition 3) with respect to the calculated displacement values is found, and when the value is larger than a predetermined ratio (m N) to the number of all pores in the third optical image , It can be said that the patterns of the pores on the two images (the first and third optical images) coincide with each other (N mat / m>? 3 = 0.08 to 0.3).

상기에서 ε3 = 0.08~0.3으로 설정하였을 때 그 값의 제한은 딱히 정해진 바가 없으며, 잠재 패턴 이미지의 질이나 땀구멍의 수에 따라 적절한 값을 선택할 수 있다. 일반적으로 그 값의 범위는 0.08~0.3으로 설정하는 것이 가장 바람직하다.
When ε 3 = 0.08 ~ 0.3 is set in the above, the limit of the value is not definite, and an appropriate value can be selected according to the quality of the latent pattern image or the number of pores. In general, it is most preferable to set the range of the value to 0.08 to 0.3.

도 7은 땀구멍을 인식하는 박막 필름과 잠재 지문의 영상 정보를 이용하여 패턴 매칭 알고리즘을 진행한 모습의 일례를 도시한 도면이다.FIG. 7 is a diagram showing an example of a pattern matching algorithm performed using a thin film for recognizing pores and image information of a potential fingerprint.

도 7의 (a)는 실시예 1에 따른 필름 위에 가볍게 지문을 눌러 찍은 다음 포지션 트레킹(Position Tracking) 방법을 이용하여 땀구멍만을 현출한 트레숄드(threshold) 이미지이고, 도 7의 (b)는 닌하이드린(Ninhydrin)을 이용하여 얻은 동일인의 지문 이미지를 포지션 트레킹(Position Tracking) 방법을 이용하여 땀구멍만을 현출한 것이다.7 (a) is a threshold image obtained by lightly pressing a fingerprint on the film according to the first embodiment and then using only a position tracking method, and FIG. 7 (b) The fingerprint image of the same person obtained by using Ninhydrin was found only in the pore using the position tracking method.

도 7에서, 상기 (a)의 형광 이미지인 (c)와 (d)는 실시예 2에 따른 알고리즘을 이용하여 상기 (a)와 (b)가 일치하는지를 비교 분석한 결과이다. 그리고, 도 7의 (e)는 상기 (c)에서 특정 부분을 확대한 이미지이며, 도 7의 (f)는 상기 (d)에서 특정 부분을 확대한 이미지이다.In FIG. 7, (a) and (d) of FIG. 7 (a) are the results of comparing and analyzing whether the above (a) and (b) are coincident with each other using the algorithm according to the second embodiment. 7 (e) is an enlarged image of a specific portion in (c), and FIG. 7 (f) is an enlarged image of a specific portion in (d).

마지막으로, 도 7의 (g)는 상기 (e)의 형광 부분과 상기 (f)의 이미지를 오버랩(overlap)한 결과이다. 여기서 땀구멍의 위치가 이미지 상으로도 일치함을 확인할 수 있다.
Finally, FIG. 7 (g) is a result of overlapping the fluorescent portion of (e) with the image of (f). Here, it can be seen that the positions of the pores coincide with the image.

도 8은 본 발명의 일 실시예에 따라 위치이동 및 회전된 작은 비율의 잠재 지문을 영상 정보로 입력하여 패턴 매칭 알고리즘을 진행하였을 때 성공적으로 매칭 확인된 모습을 나타낸 도면이다.FIG. 8 is a view showing a pattern matching algorithm that is successfully matched when a pattern matching algorithm is performed by inputting a small percentage of potential fingerprints that are moved and rotated according to an embodiment of the present invention as image information.

도 8은 도 7에서 실시한 방법보다 조금 더 복잡한 조건이며, 잠재 지문의 이미지가 전체 비율의 15~50%일 때의 환경, 위치 이동 및 회전한 환경에서 실시한 실험 결과로서, 성공적으로 매칭을 할 수 있음을 보여준다.FIG. 8 is a more complex condition than the method of FIG. 7, and can be successfully matched as an experimental result in an environment, position shift, and rotated environment when the image of the potential fingerprint is 15% to 50% Respectively.

도 8에서, Matching 1, 2, 3 각각의 이미지 (a)는 땀구멍 검출 박막 필름으로부터 얻은 땀구멍 전체 이미지이며, 이미지 (b)는 닌하이드린 검출법으로부터 얻은 잠재 지문의 땀구멍 이미지이다.In FIG. 8, each image (a) of Matching 1, 2 and 3 is an image of the entire pore obtained from the pore-detecting thin film, and the image (b) is an image of the pore of the potential fingerprint obtained from the ninhydrin detection method.

상기 Matching 1은 잠재 지문의 이미지의 비율이 전체 지문의 약 40%일 때의 환경이고, 상기 Matching 2는 잠재 지문의 이미지가 약 20%의 비율과 위치이동 및 회전하였을 때의 환경이며, 상기 Matching 3는 약 15%의 비율과 위치이동 및 회전하였을 때의 환경이다. 도 8의 이미지들을 통해 모두 성공적으로 매칭에 성공하였음을 확인할 수 있다.
The Matching 1 is an environment when the ratio of the image of the potential fingerprint is about 40% of the total fingerprint. The Matching 2 is the environment when the image of the potential fingerprint is about 20% 3 is a ratio of about 15%, and the environment when it is moved and rotated. It can be confirmed that all the images are successfully matched through the images of FIG.

도 9는 본 발명의 일 실시예에 따른 점 매칭을 이용한 땀구멍 지도 인식 및 분석 장치를 설명하기 위해 도시한 블록도이다.FIG. 9 is a block diagram illustrating an apparatus for recognizing and analyzing a pockole map using point matching according to an embodiment of the present invention. Referring to FIG.

도 9를 참조하면, 본 발명의 일 실시예에 따른 점 매칭을 이용한 땀구멍 지도 인식 및 분석 장치(900)는 이미지 획득부(910), 좌표 추출부(920), 매칭 비교부(930), 및 제어부(940)를 포함할 수 있다.9, an apparatus 1000 for recognizing and analyzing a pockole map using point matching according to an embodiment of the present invention includes an image obtaining unit 910, a coordinate extracting unit 920, a matching comparing unit 930, And a control unit 940.

상기 이미지 획득부(910)는 광학 현미경을 이용하여 땀구멍이 찍힌 박막필름으로부터 땀구멍 패턴에 관한 제1 광학 이미지를 획득하고, 땀구멍 패턴 검출법을 이용하여 상기 박막필름으로부터 잠재 지문에 관한 제2 광학 이미지를 획득한다.The image obtaining unit 910 obtains a first optical image of the pore pattern from the thin film having the pore holes formed thereon by using an optical microscope and detects a second optical image of the potential fingerprint from the thin film using the pore pattern detection method .

상기 좌표 추출부(920)는 상기 제1 및 제2 광학 이미지 각각으로부터 땀구멍의 위치 좌표를 추출한다.The coordinate extraction unit 920 extracts the position coordinates of the pore from each of the first and second optical images.

즉, 상기 좌표 추출부(920)는 자바에 기반한 이미지 프로세싱 프로그램을 사용하여 상기 제1 광학 이미지를 불러오고, 트레숄드(threshold) 과정을 거쳐서 상기 제1 광학 이미지를 바이너리 이미지로 변환한 후, 상기 바이너리 이미지로부터 상기 땀구멍의 위치 좌표에 대한 정보를 추출할 수 있다.That is, the coordinate extracting unit 920 retrieves the first optical image using a Java-based image processing program, converts the first optical image into a binary image through a threshold process, Information on the position coordinates of the pore can be extracted from the binary image.

또한, 상기 좌표 추출부(920)는 자바에 기반한 이미지 프로세싱 프로그램을 이용하여 상기 제2 광학 이미지를 불러오고, 상기 제2 광학 이미지를 루미넌스(luminance)를 가진 흑백(grayscale) 이미지로 전환한 다음, 노이즈 허용오차를 고려하여 상기 흑백 이미지로부터 상기 루미넌스의 최대값들을 추출하고, 상기 루미넌스의 최대값들에 기초하여 상기 잠재 지문상의 땀구멍의 위치 좌표에 대한 정보를 추출할 수 있다.In addition, the coordinate extracting unit 920 may retrieve the second optical image using an image processing program based on Java, convert the second optical image into a luminance grayscale image, Extracting the maximum values of the luminance from the monochrome image in consideration of the noise tolerance, and extracting information on the position coordinates of the pore on the potential fingerprint based on the maximum values of the luminance.

상기 매칭 비교부(930)는 상기 추출된 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인한다.The matching comparator 930 compares and analyzes the extracted position coordinates to check whether or not the pores match.

이를 위해, 상기 매칭 비교부(930)는 상기 제1 및 제2 광학 이미지 각각으로부터 임의로 선택된 땀구멍과 주변 땀구멍 간의 거리, 및 타겟 땀구멍의 위치 좌표들 사이의 상대각에 기초하여, 상기 제2 광학 이미지를 회전 또는 대칭 이동시켜 제3 광학 이미지를 생성할 수 있다. 상기 매칭 비교부(930)는 상기 제1 및 제3 광학 이미지의 모든 땀구멍에 대한 변위값들에 기초하여 찾은 땀구멍의 수를 고려하여 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는지를 확인할 수 있다.For this purpose, the matching comparator 930 compares the distance between the pseudopore and the peripheral pore selected arbitrarily from each of the first and second optical images, and the relative angle between the position coordinates of the target pore, May be rotated or mirrored to produce a third optical image. The matching comparator 930 compares the patterns of the pores on the first and third optical images with each other in consideration of the number of pores found based on the displacement values of all the pores of the first and third optical images Can be confirmed.

구체적으로, 상기 매칭 비교부(930)는 상기 제1 광학 이미지에 위치한 n개의 땀구멍에 대해, 임의로 선택된 i번째 땀구멍과 상기 i번째 땀구멍을 둘러싸고 있는 미리 설정된 k개의 가장 가까운 땀구멍들 간의 제1 거리를 계산하고, 상기 제2 광학 이미지에 위치한 m개의 땀구멍에 대해, 임의로 선택된 j번째 땀구멍과 상기 j번째 땀구멍을 둘러싸고 있는 미리 설정된 k개의 가장 가까운 땀구멍들 간의 제2 거리를 계산한 후, 상기 제1 및 제2 거리를 비교하여 상기 미리 설정된 k개수에 해당하는 거리 차이값을 산출할 수 있다.Specifically, the matching comparator 930 compares a first distance between the arbitrarily selected i-th pore and the preset k closest pores surrounding the i-th pore, for the n pores located in the first optical image Calculating a second distance between the arbitrarily selected jth pore and the preset k closest pores surrounding the jth pore for the m pores located in the second optical image, The distance difference value corresponding to the preset number of k can be calculated by comparing the second distance.

상기 매칭 비교부(930)는 상기 거리 차이값에 기초하여 제1 조건을 만족하는 타겟 땀구멍 좌표들을 포함하는 타겟 땀구멍 집합들을 생성하고, 상기 타겟 땀구멍 집합들 각각에 대해서 상기 타겟 땀구멍 좌표들 사이의 상대각을 상기 제1 및 제2 광학 이미지 각각에 대하여 계산한 후, 상기 타겟 땀구멍 좌표들 사이의 상대각 차이가 제2 조건을 만족하는 경우, 상기 타겟 땀구멍의 위치 좌표들 중 해당 위치 좌표들이 서로 일치하도록 상기 제2 광학 이미지를 회전 또는 대칭 이동시켜 상기 제3 광학 이미지를 생성할 수 있다.The matching comparator 930 generates target pore assemblies containing target pore coordinates satisfying the first condition based on the distance difference value, and calculates a target relative to the target pore coordinates with respect to each of the target pore assemblies Wherein when the relative angle difference between the target pore coordinates satisfies the second condition after calculating the angle for each of the first and second optical images, the position coordinates of the target pore coincide with each other To rotate or symmetrically move the second optical image to create the third optical image.

상기 매칭 비교부(930)는 상기 제1 광학 이미지상의 타겟 땀구멍 좌표들 주위의 땀구멍 좌표와, 상기 제3 광학 이미지상의 타겟 땀구멍 좌표들 주위의 땀구멍 좌표를 비교한 후, 상기 비교 결과에 기초하여 상기 제3 광학 이미지에 있는 모든 주위의 땀구멍 좌표들에 대하여 가장 가까운 각각의 좌표를 상기 제1 광학 이미지에서 찾아 해당 좌표 간의 변위값을 계산할 수 있다.The matching comparator 930 compares the pore coordinates around the target pore coordinates on the first optical image with the pore coordinates around the target pore coordinates on the third optical image, It is possible to find in the first optical image each coordinate closest to all surrounding pore coordinates in the third optical image to calculate the displacement value between the corresponding coordinates.

상기 매칭 비교부(930)는 상기 제3 광학 이미지상의 모든 땀구멍에 대한 변위값들에 대하여 제3 조건을 만족하는 땀구멍 좌표의 수를 찾고, 상기 땀구멍의 수가 상기 제3 광학 이미지상의 전체 땀구멍의 수에 대해 일정 비율 이상이면, 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는 것으로 판단할 수 있다.The matching comparator 930 finds the number of pore coordinates satisfying the third condition with respect to displacement values of all the pore holes on the third optical image, and the number of the pore holes is the number of all the pore holes on the third optical image It can be determined that the patterns of the pores on the first and third optical images coincide with each other.

상기 제어부(940)는 본 발명의 일 실시예에 따른 점 매칭을 이용한 땀구멍 지도 인식 및 분석 장치(900), 즉 상기 이미지 획득부(910), 상기 좌표 추출부(920), 상기 매칭 비교부(930) 등의 동작을 전반적으로 제어할 수 있다.
The control unit 940 may be a device for recognizing and analyzing puck holes using the point matching according to an embodiment of the present invention, that is, the image obtaining unit 910, the coordinate extracting unit 920, 930, and the like.

<< 실시예Example >>

실시예Example 1: 땀구멍 지도 영상 정보의 입력 1: Input of pussy map image information

땀구멍에서 나오는 분비물을 인식하는 박막필름을 이용하여 땀구멍 지도를 얻을 수 있다. 상기의 박막 필름을 땀구멍에서 나오는 분비물과 반응하여 색이 변하거나, 형광 및 투과도 등 반응한 부분과 반응하지 않은 부분을 서로 구분할 수 있다. 땀구멍 패턴이 있는 박막필름을 광학 현미경 및 형광 현미경을 이용하여 영상 정보 데이터로 저장을 한다. 또한, 닌하이드린 검출법을 이용하여 잠재 지문을 현상하고, 광학 현미경을 이용하여 영상 정보 데이터로 저장을 한다.
A thin film that recognizes secretions from the pores can be used to obtain a map of the pores. The thin film may react with the secretion from the pores to change the color or distinguish the reacted part from the reacted part such as fluorescence and transparency. Thin films with pore patterns are stored as image information data using an optical microscope and a fluorescence microscope. In addition, the potential fingerprint is developed using the ninhydrin detection method and stored as image information data using an optical microscope.

실시예Example 2: 프로그램을 이용한 땀구멍 일치 여부 확인 2: Check if the pores match with the program

땀구멍 인식 박막필름의 광학 이미지를 제1 광학 이미지라 하고, Ninhydrin 검출법을 이용하여 얻은 광학 이미지를 제2 광학 이미지라 하며, 위에 기술한 이미지 분석법을 이용하여 각각의 이미지에 n, m 개의 땀구멍의 위치좌표를 얻는다. 이렇게 얻은 위치좌표를 이용한 땀구멍 패턴 매칭 알고리즘은 앞서 언급한 바와 같이 두 개의 단계로 진행된다: (1) 타겟 땀구멍 매칭 (matching target pore positions), (2) 타겟 땀구멍 주위에 있는 배경 땀구멍 매칭 (matching background pore positions). 각각의 매칭 알고리즘은 앞서 설명하였으므로 여기에서는 그에 대한 자세한 설명은 생략한다.
The optical image of the pore-recognition thin film is referred to as a first optical image, and the optical image obtained by using the Ninhydrin detection method is referred to as a second optical image. The image analysis method described above is used to determine the positions of n and m pores Get the coordinates. The pore pattern matching algorithm using the position coordinates thus obtained proceeds in two steps as described above: (1) matching target pore positions, (2) background matching around the target pore hole (matching background pore positions). Since the respective matching algorithms have been described above, detailed description thereof will be omitted here.

실시예Example 3: 이미지를 위치 이동 및 회전하였을 때의  3: When moving and rotating the image 매칭matching 확인 Confirm

잠재 지문의 이미지를 원본 이미지에서 0~360도 회전을 하였을 경우와 일직선상으로 위치 이동한 결과를 영상 정보로 입력을 한다. 매칭 프로그램을 이용하여 분석한 결과, 위치 이동 및 회전에 관계없이 성공적으로 매칭이 가능함을 확인할 수 있다.
The image of the potential fingerprint is rotated from 0 to 360 degrees in the original image and the result of linearly moving the fingerprint image is input as image information. As a result of the analysis using the matching program, it can be confirmed that the matching can be successfully performed irrespective of the position movement and rotation.

실시예Example 4: 작은 부분의 잠재 지문 이미지의  4: A small portion of the potential fingerprint image 매칭matching 확인 Confirm

잠재 지문의 전체 이미지에서 약 15~50% 의 면적 비율의 부분 이미지를 영상 정보로 입력을 한다. 매칭 프로그램을 이용하여 분석한 결과, 전체 이미지가 아닌 작은 분량의 부분 정보만으로도 매칭이 가능함을 확인할 수 있다.
A partial image of an area ratio of about 15 to 50% is input as the image information from the entire image of the potential fingerprint. As a result of the analysis using the matching program, it can be confirmed that only a small amount of partial information, not the entire image, can be matched.

실시예Example 5: 임의의 잠재 지문 이미지의  5: Any of the potential fingerprint images 매칭matching 확인 Confirm

임의의 잠재 지문 이미지를 이용하여 신원을 확인할 수 있는지를 알아 보기 위하여, 5명의 지원자의 땀구멍 전체 지도를 데이터베이스화 하였다. 그리고 5명의 지원자의 잠재지문 이미지를 17장 얻은 후, 매칭 프로그램을 이용하여 신원을 확인 하였다. 그 결과, 17장 중에서 15장의 잠재 지문을 인식할 수 있었고 (나머지 2장은 해상도가 매우 낮아서 추출하지 못함), 추출한 이미지를 이용하여 알고리즘을 돌린 이후에는, 거의 100% 확률로 신원을 확인할 수 있었다.
To see if any potential fingerprint images could be used to verify the identity, a map of the pores of five volunteers was databaseed. After obtaining 17 potential fingerprint images of 5 volunteers, their identity was verified using a matching program. As a result, we could identify 15 potential fingerprints out of 17 (the remaining 2 were not able to extract because of the very low resolution), and after the algorithm was used to extract the images, the identity could be confirmed with almost 100% probability.

본 발명의 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
Embodiments of the present invention include computer readable media including program instructions for performing various computer implemented operations. The computer-readable medium may include program instructions, local data files, local data structures, etc., alone or in combination. The media may be those specially designed and constructed for the present invention or may be those known to those skilled in the computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floppy disks, and ROMs, And hardware devices specifically configured to store and execute the same program instructions. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

지금까지 본 발명에 따른 구체적인 실시예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허 청구의 범위뿐 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the scope of the appended claims and equivalents thereof.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Modification is possible. Accordingly, the spirit of the present invention should be understood only in accordance with the following claims, and all equivalents or equivalent variations thereof are included in the scope of the present invention.

910: 이미지 획득부
920: 좌표 추출부
930: 매칭 비교부
940: 제어부
910: Image acquisition unit
920:
930:
940:

Claims (10)

광학 현미경을 이용하여 땀구멍이 찍힌 박막필름으로부터 땀구멍 패턴에 관한 제1 광학 이미지를 획득하는 단계;
땀구멍 패턴 검출법을 이용하여 상기 박막필름으로부터 잠재 지문에 관한 제2 광학 이미지를 획득하는 단계;
상기 제1 및 제2 광학 이미지 각각으로부터 땀구멍의 위치 좌표를 추출하는 단계; 및
상기 추출된 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인하는 단계
를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
Obtaining a first optical image of a pore pattern from a thin film of pores with an optical microscope;
Obtaining a second optical image of the potential fingerprint from the thin film using a pore pattern detection method;
Extracting position coordinates of the pore from each of the first and second optical images; And
Comparing the extracted position coordinates with each other, and confirming whether or not the pores coincide with each other
The method of claim 1, further comprising:
제1항에 있어서,
상기 땀구멍의 위치 좌표를 추출하는 단계는
상기 제1 광학 이미지를 바이너리 이미지로 변환하는 단계; 및
상기 바이너리 이미지로부터 상기 땀구멍의 위치 좌표에 대한 정보를 추출하는 단계
를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
The method according to claim 1,
The step of extracting the position coordinates of the pore
Converting the first optical image into a binary image; And
Extracting information on a position coordinate of the pore from the binary image
The method of claim 1, further comprising:
제1항에 있어서,
상기 땀구멍의 위치 좌표를 추출하는 단계는
상기 제2 광학 이미지를 루미넌스(luminance)를 가진 흑백(grayscale) 이미지로 전환하는 단계;
노이즈 허용오차를 고려하여 상기 흑백 이미지로부터 상기 루미넌스의 최대값들을 추출하는 단계; 및
상기 루미넌스의 최대값들에 기초하여 상기 잠재 지문상의 땀구멍의 위치 좌표에 대한 정보를 추출하는 단계
를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
The method according to claim 1,
The step of extracting the position coordinates of the pore
Converting the second optical image to a grayscale image with luminance;
Extracting maximum values of the luminance from the monochrome image in consideration of noise tolerance; And
Extracting information on the position coordinates of the pore on the potential fingerprint based on the maximum values of the luminance;
The method of claim 1, further comprising:
제1항에 있어서,
상기 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인하는 단계는
상기 제1 및 제2 광학 이미지 각각으로부터 임의로 선택된 땀구멍과 주변 땀구멍 간의 거리, 및 타겟 땀구멍의 위치 좌표들 사이의 상대각에 기초하여, 상기 제2 광학 이미지를 회전 또는 대칭 이동시켜 제3 광학 이미지를 생성하는 단계; 및
상기 제1 및 제3 광학 이미지의 모든 땀구멍에 대한 변위값들에 기초하여 찾은 땀구멍의 수를 고려하여 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는지를 확인하는 단계
를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
The method according to claim 1,
The step of comparing and analyzing the position coordinates to check whether or not the pores are coincident
The second optical image is rotated or flipped based on the relative angle between the position of the target pore and the distance between the pore hole and the peripheral pore hole arbitrarily selected from each of the first and second optical images, ; And
Confirming whether the patterns of the pores on the first and third optical images coincide with each other in consideration of the number of pores found based on displacement values of all the pores of the first and third optical images
The method of claim 1, further comprising:
제4항에 있어서,
상기 제3 광학 이미지를 생성하는 단계는
상기 제1 광학 이미지에 위치한 n개의 땀구멍에 대해, 임의로 선택된 i번째 땀구멍과 상기 i번째 땀구멍을 둘러싸고 있는 미리 설정된 k개의 가장 가까운 땀구멍들 간의 제1 거리를 계산하는 단계;
상기 제2 광학 이미지에 위치한 m개의 땀구멍에 대해, 임의로 선택된 j번째 땀구멍과 상기 j번째 땀구멍을 둘러싸고 있는 미리 설정된 k개의 가장 가까운 땀구멍들 간의 제2 거리를 계산하는 단계;
상기 제1 및 제2 거리를 비교하여 상기 미리 설정된 k개수에 해당하는 거리 차이값을 산출하는 단계;
상기 거리 차이값에 기초하여 제1 조건을 만족하는 타겟 땀구멍 좌표들을 포함하는 타겟 땀구멍 집합들을 생성하는 단계;
상기 타겟 땀구멍 집합들 각각에 대해서 상기 타겟 땀구멍 좌표들 사이의 상대각을 상기 제1 및 제2 광학 이미지 각각에 대하여 계산하는 단계; 및
상기 타겟 땀구멍 좌표들 사이의 상대각 차이가 제2 조건을 만족하는 경우, 상기 타겟 땀구멍의 위치 좌표들 중 해당 위치 좌표들이 서로 일치하도록 상기 제2 광학 이미지를 회전 또는 대칭 이동시켜 상기 제3 광학 이미지를 생성하는 단계
를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
5. The method of claim 4,
The step of generating the third optical image
Calculating for each of the n pores located in the first optical image a first distance between an arbitrarily selected i-th pore and a preset k nearest pores surrounding the i-th pore;
Calculating a second distance between the arbitrarily selected jth pore and the preset k closest pores surrounding the jth pore for the m pores located in the second optical image;
Comparing the first and second distances to calculate a distance difference value corresponding to the preset number of k;
Generating target pore assemblies including target pore coordinates satisfying a first condition based on the distance difference value;
Calculating a relative angle between the target pore co-ordinates for each of the first and second optical images for each of the target pore assemblies; And
Wherein when the relative angle difference between the target pore coordinates satisfies the second condition, the second optical image is rotated or symmetrically rotated such that the corresponding position coordinates of the position coordinates of the target pore hole coincide with each other, &Lt; / RTI &gt;
The method of claim 1, further comprising:
제5항에 있어서,
상기 거리 차이값을 산출하는 단계에서,
상기 제3 광학 이미지를 생성하는 단계는
상기 제1 및 제2 광학 이미지에 존재하는 모든 땀구멍에 대한 거리 차이값을 포함하는 n*m*k 메트릭스를 생성하는 단계
를 더 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
6. The method of claim 5,
In the step of calculating the distance difference value,
The step of generating the third optical image
Generating an n * m * k matrix including a distance difference value for all pores existing in the first and second optical images
The method of claim 1, further comprising the steps of:
제5항에 있어서,
상기 제2 조건을 만족하지 않는 경우,
상기 제3 광학 이미지를 생성하는 단계는
상기 제2 조건을 만족할 때까지, 상기 타겟 땀구멍 집합들 중 다음의 다른 집합에 대해서 상기 타겟 땀구멍 좌표들 사이의 상대각을 상기 제1 및 제2 광학 이미지 각각에 대하여 계산하는 단계
를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
6. The method of claim 5,
If the second condition is not satisfied,
The step of generating the third optical image
Calculating a relative angle between the target pore co-ordinates for each of the other set of the target pawl assemblies for each of the first and second optical images until the second condition is satisfied;
The method of claim 1, further comprising:
제4항에 있어서,
상기 땀구멍의 패턴이 서로 일치하는지를 확인하는 단계는
상기 제1 광학 이미지상의 타겟 땀구멍 좌표들 주위의 땀구멍 좌표와, 상기 제3 광학 이미지상의 타겟 땀구멍 좌표들 주위의 땀구멍 좌표를 비교하는 단계;
상기 비교 결과에 기초하여 상기 제3 광학 이미지에 있는 모든 주위의 땀구멍 좌표들에 대하여 가장 가까운 각각의 좌표를 상기 제1 광학 이미지에서 찾아 해당 좌표 간의 변위값을 계산하는 단계;
상기 제3 광학 이미지상의 모든 땀구멍에 대한 변위값들에 대하여 제3 조건을 만족하는 땀구멍 좌표의 수를 찾는 단계; 및
상기 땀구멍의 수가 상기 제3 광학 이미지상의 전체 땀구멍의 수에 대해 일정 비율 이상이면, 상기 제1 및 제3 광학 이미지상의 땀구멍의 패턴이 서로 일치하는 것으로 판단하는 단계
를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
5. The method of claim 4,
The step of checking whether the patterns of the pore holes coincide with each other
Comparing the pore coordinates around the target pore coordinates on the first optical image with the pore coordinates around the target pore coordinates on the third optical image;
Calculating in each of the first optical images each of coordinates closest to all surrounding pore coordinates in the third optical image based on the comparison result, and calculating a displacement value between the coordinates;
Finding a number of pore coordinates satisfying a third condition with respect to displacement values of all the pore holes on the third optical image; And
Determining that the patterns of the pores on the first and third optical images coincide with each other if the number of the pores is equal to or more than a predetermined ratio to the total number of pores on the third optical image
The method of claim 1, further comprising:
제1항에 있어서,
상기 땀구멍 패턴 검출법은
닌하이드린(Ninhydrin) 검출법, 1,8-Diazafluoren-8-one(DFO), 및 1,2-Indanedione, 5-methylthioninhydrin(5-MTN) 검출법 중 적어도 하나를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 방법.
The method according to claim 1,
The pore pattern detection method
Wherein the detection method comprises at least one of Ninhydrin detection method, 1,8-Diazafluoren-8-one (DFO), and 1,2-Indanedione and 5-methylthioninhydrin (5-MTN) A method of recognition and analysis of pore maps used.
광학 현미경을 이용하여 땀구멍이 찍힌 박막필름으로부터 땀구멍 패턴에 관한 제1 광학 이미지를 획득하고, 땀구멍 패턴 검출법을 이용하여 상기 박막필름으로부터 잠재 지문에 관한 제2 광학 이미지를 획득하는 이미지 획득부;
상기 제1 및 제2 광학 이미지 각각으로부터 땀구멍의 위치 좌표를 추출하는 좌표 추출부; 및
상기 추출된 위치 좌표를 비교 분석하여 땀구멍의 일치 여부를 확인하는 매칭 비교부
를 포함하는 것을 특징으로 하는 점 매칭을 이용한 땀구멍 지도 인식 및 분석 장치.
An image obtaining unit obtaining a first optical image relating to a pore pattern from a thin film having pore holes formed using an optical microscope and obtaining a second optical image relating to a potential fingerprint from the thin film using a pore pattern detection method;
A coordinate extracting unit for extracting a position coordinate of a pore from each of the first and second optical images; And
And comparing the extracted position coordinates with each other to confirm whether the pores are coincident or not.
Wherein the puck map recognizing and analyzing apparatus comprises:
KR1020140123750A 2014-09-17 2014-09-17 Method and device of identification and analysis for sweat pore mapping using dot matching KR101649547B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140123750A KR101649547B1 (en) 2014-09-17 2014-09-17 Method and device of identification and analysis for sweat pore mapping using dot matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140123750A KR101649547B1 (en) 2014-09-17 2014-09-17 Method and device of identification and analysis for sweat pore mapping using dot matching

Publications (2)

Publication Number Publication Date
KR20160033346A true KR20160033346A (en) 2016-03-28
KR101649547B1 KR101649547B1 (en) 2016-08-22

Family

ID=56855000

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140123750A KR101649547B1 (en) 2014-09-17 2014-09-17 Method and device of identification and analysis for sweat pore mapping using dot matching

Country Status (1)

Country Link
KR (1) KR101649547B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169960A (en) * 2017-05-15 2017-09-15 精诚工坊电子集成技术(北京)有限公司 A kind of skin surface pore size detection method based on color of image space

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060123710A (en) * 2003-08-29 2006-12-04 코닌클리케 필립스 일렉트로닉스 엔.브이. Biometrical identification device
KR20140093900A (en) * 2013-01-18 2014-07-29 한양대학교 산학협력단 Hydrochromic polydiacetylene composite, hydrochromic thin film using the same and use thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060123710A (en) * 2003-08-29 2006-12-04 코닌클리케 필립스 일렉트로닉스 엔.브이. Biometrical identification device
KR20140093900A (en) * 2013-01-18 2014-07-29 한양대학교 산학협력단 Hydrochromic polydiacetylene composite, hydrochromic thin film using the same and use thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169960A (en) * 2017-05-15 2017-09-15 精诚工坊电子集成技术(北京)有限公司 A kind of skin surface pore size detection method based on color of image space

Also Published As

Publication number Publication date
KR101649547B1 (en) 2016-08-22

Similar Documents

Publication Publication Date Title
US20220165087A1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9361507B1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN110326001B (en) System and method for performing fingerprint-based user authentication using images captured with a mobile device
KR20190075560A (en) Liveness test method and apparatus
Dibeklioglu et al. 3D facial landmarking under expression, pose, and occlusion variations
JP5798691B2 (en) Face recognition method, apparatus, and computer-readable recording medium for executing the method
Tahaoglu et al. Ciratefi based copy move forgery detection on digital images
Rathgeb et al. Bit reliability-driven template matching in iris recognition
KR101649547B1 (en) Method and device of identification and analysis for sweat pore mapping using dot matching
US7957555B2 (en) Method and apparatus for localizing an object part in digital image data by updating an initial position estimate based on a displacement of the object part
Izadi et al. Introduction of cylinder quality measure into minutia cylinder-code based fingerprint matching
Su et al. Automatic seal imprint verification systems using edge difference
Mohammadi et al. New approaches to fingerprint authentication using software methods based on fingerprint texture
CN110795769B (en) Anti-counterfeiting method for check-in data of face recognition check-in system
Hahmann et al. Combination of facial landmarks for robust eye localization using the Discriminative Generalized Hough Transform
Sharifi Two-stage morph detection scheme for face and iris biometrics
KR101945821B1 (en) Facial landmark localization method using a spatial-contextual AdaBoost algorithm
CN111915582B (en) Image tampering detection method based on brightness characteristic coupling information quantity constraint
JP2008250848A (en) Clustering method, data processor, and program
US20230274574A1 (en) System and method for rotation invariant fingerprint recognition
Szumilas et al. Invariant shape matching for detection of semi-local image structures
Alonso-Fernandez et al. Exploiting character class information in forensic writer identification
CN118172803A (en) Palm print recognition method and device
Verma et al. Finger-Knuckle-Print Based Recognition System using LBP and SURF
JP2008186125A (en) Authentication method, and authentication device and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190624

Year of fee payment: 4