KR20180098443A - 지문 인식 장치 및 지문 인식 방법 - Google Patents

지문 인식 장치 및 지문 인식 방법 Download PDF

Info

Publication number
KR20180098443A
KR20180098443A KR1020170024883A KR20170024883A KR20180098443A KR 20180098443 A KR20180098443 A KR 20180098443A KR 1020170024883 A KR1020170024883 A KR 1020170024883A KR 20170024883 A KR20170024883 A KR 20170024883A KR 20180098443 A KR20180098443 A KR 20180098443A
Authority
KR
South Korea
Prior art keywords
fingerprint
fingerprint image
image
control unit
registered
Prior art date
Application number
KR1020170024883A
Other languages
English (en)
Other versions
KR102668332B1 (ko
Inventor
카츠마사 요시이
김일남
Original Assignee
삼성디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성디스플레이 주식회사 filed Critical 삼성디스플레이 주식회사
Priority to KR1020170024883A priority Critical patent/KR102668332B1/ko
Priority to US15/866,202 priority patent/US10509944B2/en
Publication of KR20180098443A publication Critical patent/KR20180098443A/ko
Application granted granted Critical
Publication of KR102668332B1 publication Critical patent/KR102668332B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • G06K9/00006
    • G06K9/4609
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)

Abstract

실시예에 따른 지문 인증 장치는 사용자의 지문으로부터 지문 이미지를 획득하는 센싱부, 등록 지문 이미지를 저장하는 메모리, 그리고 지문 이미지의 적어도 일 영역과 등록 지문 이미지 간의 상관 계수를 계산하고, 상관 계수와 임계치를 비교한 결과에 따라 지문 이미지를 미리 결정된 각도에 따라 회전 보정하는 제어부를 포함하고, 적어도 일 영역의 면적이 지문 이미지의 면적의 5% 내지 40% 범위이다.

Description

지문 인식 장치 및 지문 인식 방법{METHOD AND APPARATUS FOR RECOGNIZING FINGER PRINT}
본 개시는 지문 인식 장치 및 지문 인식 방법에 관한 것이다.
최근 다양한 모바일 기기 및 웨어러블(wearable) 기기의 발전에 따라, 금융, 보안 등 개인 정보가 활용되는 다양한 기능이 제공되고 있어, 보안 인증에 대한 중요성이 증대되고 있다.
생체 인식에 의한 인증 기술은 지문, 홍채, 목소리, 얼굴, 혈관 등을 이용하여 사용자를 인증한다. 인증에 사용되는 생체 특성들은 사람마다 다르고, 소지의 불편함이 없을 뿐 아니라, 도용이나 모조의 위험성이 적고, 일생 동안 잘 변하지 않는다.
특히, 지문 인증 방식은 편리성, 보안성, 경제성 등의 여러 가지 이유로 점차 상용화되고 있다. 지문 인증 방식에서 사용되는 센싱부는 사용자의 손가락과 직접적으로 또는 간접적으로 접촉하여 손가락의 지문을 인식하고, 지문 패턴을 지문 이미지로서 획득할 수 있다.
실시예들은 저해상도의 지문 이미지를 이용하여 지문 인증을 수행하는 지문 인증 장치 및 지문 인증 방법을 제공하기 위한 것이다.
실시예들은 여러 유형으로 획득된 지문 이미지를 이용하여 정확한 지문 인증을 수행하는 지문 인증 장치 및 지문 인증 방법을 제공하기 위한 것이다.
실시예에 따른 지문 인증 장치는 사용자의 지문으로부터 지문 이미지를 획득하는 센싱부, 등록 지문 이미지를 저장하는 메모리, 그리고 지문 이미지의 적어도 일 영역과 등록 지문 이미지 간의 상관 계수를 계산하고, 상관 계수와 임계치를 비교한 결과에 따라 지문 이미지를 미리 결정된 각도에 따라 회전 보정하는 제어부를 포함하고, 적어도 일 영역의 면적이 지문 이미지의 면적의 5% 내지 40% 범위이다.
제어부는 위상 한정 상관법(POC: Phase only Correlation)을 이용하여, 적어도 일 영역과 등록 지문 이미지 간의 중첩 영역을 판정하고, 판정 결과를 이용하여 등록 이미지에 대한 적어도 일 영역의 위치를 보정할 수 있다.
제어부는 적어도 일 영역과 등록 이미지 간의 최대 상관 계수를 갖게 하는 회전 각도 및 보정 위치를 메모리에 저장할 수 있다.
제어부는 지문 이미지를 복수의 블록으로 분할하고, 각각의 블록 마다 휘도 편차를 산출하여, 각각의 블록의 가중치 계수를 획득할 수 있다.
제어부는 지문 이미지의 적어도 하나의 분기점을 지문 이미지의 특징점으로서 검출하여, 지문 이미지의 특징점이 등록 지문 이미지의 특징점과 일치하는지 여부를 판단할 수 있다.
제어부는 분기점들 사이의 거리를 검출하고, 검출된 거리를 이용하여 적어도 하나의 분기점 중 적어도 하나의 분기점을 지문 이미지의 특징점에서 제외할 수 있다.
제어부는 지문 이미지의 특징점이 등록 지문 이미지의 특징점과 일치하는지 여부를 판단할 때, 가중치 계수를 고려하여, 지문 이미지의 특징점과 등록 지문 이미지의 특징점의 일치 정도를 산출할 수 있다.
센싱부가 획득한 지문 이미지는 해상도가 300dpi 미만일 수 있다.
제어부는 지문 이미지에 대해 고해상화 처리하고, 처리된 지문 이미지를 복수의 서브 블록으로 분할하며, 각각의 서브 블록 내의 고주파 노이즈를 제거하여 조합 지문 이미지를 생성할 수 있다.
제어부는 처리된 이미지를 서로 상이한 원점을 기준으로 분할하여 생성된 적어도 두 개의 조합 지문 이미지를 평균화 처리할 수 있다.
실시예에 따른 지문 인증 방법은 센싱부가 사용자의 지문으로부터 지문 이미지를 획득하는 단계, 메모리에 미리 저장된 등록 지문 이미지를 판독하는 단계, 지문 이미지의 적어도 일 영역과 등록 지문 이미지 간의 상관 계수를 계산하는 단계, 그리고 상관 계수와 임계치를 비교한 결과에 따라 지문 이미지를 미리 결정된 각도에 따라 회전 보정하는 단계를 포함하고, 적어도 일 영역의 면적이 지문 이미지의 면적의 5% 내지 40% 범위이다.
상관 계수를 계산하는 단계 이전에, 위상 한정 상관법(POC: Phase only Correlation)을 이용하여, 적어도 일 영역와 등록 지문 이미지 간의 중첩 영역을 판정하는 단계, 그리고 판정 결과를 이용하여 등록 이미지에 대한 적어도 일 영역의 위치를 보정하는 단계를 더 포함할 수 있다.
회전 보정 하는 단계 이후에, 적어도 일 영역과 등록 이미지 간의 최대 상관 계수를 갖게 하는 회전 각도 및 보정 위치를 메모리에 저장하는 단계를 더 포함할 수 있다.
메모리에 저장하는 단계 이후에, 지문 이미지를 복수의 블록으로 분할하는 단계, 그리고, 각각의 블록 마다 휘도 편차를 산출하여, 각각의 블록의 가중치 계수를 획득하는 단계를 더 포함할 수 있다.
메모리에 저장하는 단계 이후에, 지문 이미지의 적어도 하나의 분기점을 지문 이미지의 특징점으로서 검출하는 단계, 그리고 지문 이미지의 특징점이 등록 지문 이미지의 특징점과 일치하는지 여부를 판단하는 단계를 더 포함할 수 있다.
지문 이미지의 적어도 하나의 분기점을 지문 이미지의 특징점으로서 검출하는 단계 이후에, 분기점들 사이의 거리를 검출하고, 검출된 거리를 이용하여 적어도 하나의 분기점 중 적어도 하나의 분기점을 지문 이미지의 특징점에서 제외하는 단계를 더 포함할 수 있다.
지문 이미지의 특징점이 등록 지문 이미지의 특징점과 일치하는지 여부를 판단하는 단계는, 가중치 계수를 고려하여, 지문 이미지의 특징점과 등록 지문 이미지의 특징점의 일치 정도를 산출하는 단계를 포함할 수 있다.
상관 계수를 계산하는 단계 이전에, 지문 이미지에 대해 고해상화 처리하는 단계, 처리된 지문 이미지를 복수의 서브 블록으로 분할하는 단계, 그리고 각각의 서브 블록 내의 고주파 노이즈를 제거하여 조합 지문 이미지를 생성하는 단계를 더 포함할 수 있다.
조합 지문 이미지를 생성하는 단계 이후에, 처리된 이미지를 서로 상이한 원점을 기준으로 분할하여 생성된 적어도 두 개의 조합 지문 이미지를 평균화 처리하는 단계를 더 포함할 수 있다.
센싱부가 획득한 지문 이미지는 해상도가 300dpi 미만일 수 있다.
실시예들에 따르면, 저해상도의 센싱부를 이용하여 지문 인증을 수행할 수 있는 장점이 있다.
실시예들에 따르면, 신속하고 편리하게 지문 인증을 수행할 수 있는 장점이 있다.
도 1은 실시예의 지문 인증 장치를 개략적으로 나타낸 블록도(block diagram)이다.
도 2는 실시예의 지문 인증 방법을 개략적으로 나타낸 순서도(flow chart)이다.
도 3은 도 2의 지문 이미지 처리 단계를 구체적으로 나타낸 순서도이다.
도 4는 도 3의 고해상화 처리의 일 예를 나타낸 예시도이다.
도 5는 도 3의 조합 이미지 생성의 일 예를 나타낸 예시도이다.
도 6은 도 3의 평균화 처리와 관련된 지문 이미지의 일 예를 나타낸 예시도이다.
도 7은 도 2의 이미지 정합(image matching) 단계를 구체적으로 나타낸 순서도이다.
도 8은 도 7에서 전체 이미지에 대한 기준 이미지의 비율 변화에 따른 이미지 정합을 나타낸 예시도이다.
도 9는 도 2의 특징점 평가 단계를 구체적으로 나타낸 순서도이다.
도 10은 도 9의 서브 블록 분할 후에 계산된 휘도 편차의 일 예를 나타낸 예시도이다.
도 11은 도 9의 특징점 진위 판정 단계를 구체적으로 나타낸 순서도이다.
도 12 및 도 13은 도 11의 방식에 따라 분기점이 특징점인지 판단하는 예들을 나타낸 예시도이다.
도 14는 도 9의 특징점의 일치 여부를 평가하는 일 예를 나타낸 예시도이다.
이하, 첨부한 도면을 참고로 하여 본 발명의 여러 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.
또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
하기에서 설명될 실시예들은 사용자의 지문을 인식(recognize)하는 데 사용될 수 있다. 이하, 사용자의 지문을 인식하는 동작은 사용자의 지문을 인식함으로써 그 사용자를 인증(verify)하거나 식별(identify)하는 동작을 포함할 수 있다. 사용자를 인증하는 동작은 그 사용자가 기 등록된 사용자인지 여부를 판단하는 동작을 포함할 수 있다. 이 경우, 사용자를 인증하는 동작의 결과는 참 또는 거짓으로 출력될 수 있다. 사용자를 식별하는 동작은 그 사용자가 기 등록된 복수의 사용자들 중 어느 사용자에 해당하는지를 판단하는 동작을 포함할 수 있다. 이 경우, 사용자를 식별하는 동작의 결과는 어느 하나의 미리 등록된 사용자의 아이디로서 출력될 수 있다. 만약 그 사용자가 미리 등록된 복수의 사용자들 중 어느 사용자에도 해당하지 않는 경우, 그 사용자가 식별되지 않음을 알리는 신호가 출력될 수도 있다.
실시예들은 데스크톱 컴퓨터, 랩톱 컴퓨터, 태블릿 PC, 스마트 폰, 디지털 TV, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
예를 들어, 실시예들은 스마트 폰, 모바일 기기, 스마트 홈 시스템 등에서 사용자를 인증하는 데 사용될 수 있다. 실시예들은 사용자 인증을 통한 결제 서비스에서 사용될 수 있다. 또한, 실시예들은 사용자를 인증하여 자동으로 시동을 거는 지능형 자동차 시스템 등에도 적용될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 실시예의 지문 인증 장치(100)를 개략적으로 나타낸 블록도(block diagram)이다. 도시된 바와 같이, 지문 인증 장치(100)는 센싱부(20), 메모리(30), 인터페이스부(50), 및 제어부(40)를 포함할 수 있다. 센싱부(20), 메모리(30), 인터페이스부(50), 및 제어부(40)는 버스(10)을 통해 서로 통신할 수 있다.
먼저, 센싱부(20)는 사용자의 손가락(경우에 따라서는 발가락)의 지문의 이미지를 획득(capture)할 수 있다. 센싱부(20)는 광학 방식, 열감지 방식, 및 정전용량 방식 등으로 지문 이미지를 획득할 수 있다.
센싱부(20)는 사용자의 지문을 센싱하는 센싱 영역을 가질 수 있다. 이 때, 센싱부(20)의 센싱 영역의 크기는 지문의 크기보다 작을 수 있다. 이 경우, 센싱부(20)는 센싱 영역을 통하여 지문의 일부를 센싱할 수 있다.
센싱부(20)는 센싱된 지문을 이용하여 지문 이미지를 생성할 수 있다. 지문 이미지는 사용자의 지문을 등록하거나 인식하는데 이용될 수 있다. 센싱부(20)의 센싱 영역의 크기가 지문의 크기보다 작은 경우, 센싱부(20)에 의해 생성되는 지문 이미지는 지문의 일부를 포함하는 부분 이미지(partial image)일 수 있다. 이하, 설명의 편의를 위하여 센싱부(20)가 획득한 이미지를 원본 이미지라고 지칭한다. 한편, 원본 이미지의 해상도는 300dpi 미만의 저해상도 이미지일 수 있다.
다음으로, 메모리(30)는 지문 인증 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(30)는 지문 인증 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다.
특히, 메모리(30)는 지문 이미지를 등록(enroll) 및 저장한다. 메모리(30)에는 센싱부(20)에서 획득한 원본 이미지 및 원본 이미지가 변형된 변형 이미지(modified image) 중 적어도 하나가 등록될 수 있다. 변형 이미지는 원본 이미지가 공간 영역에서 변형된 이미지, 주파수 영역에서 변형된 이미지 및 공간 영역과 주파수 영역에서 변형된 이미지 등을 나타낼 수 있다. 이하, 설명의 편의를 위하여 메모리(30)에 등록된 변형 이미지를 등록 변형 이미지라고 지칭한다.
또한 메모리(30)는 지문 이미지들에 대응하는 특성 정보들을 저장할 수 있다. 예를 들어, 메모리(30)는 센싱부(20)에 의해 획득된 후 변형된 입력 변형 이미지, 제어부(40)에 의해 처리된 지문 이미지, 이미지 정합 결과, 이미지의 특징점 정보, 및 제어부(40)에 의해 계산된 스코어 등을 저장할 수 있다. 메모리(30)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
제어부(40)는 지문 인식 장치의 적어도 하나의 다른 구성요소들을 제어하거나, 데이터 처리에 관련된 다양한 연산을 수행할 수 있다. 예를 들어, 제어부(40)는 CPU, AP(application processor), 또는 CP(communication processor) 중 하나 또는 그 이상을 포함할 수 있다.
제어부(40)는 센싱부(20)로부터 획득된 지문 이미지를 일련의 절차에 따라 처리하여 변형 이미지를 생성하고, 생성한 변형 이미지를 메모리(30)에 등록 및 저장할 수 있다.
또한, 제어부(40)는 센싱부(20)를 통해 획득된 지문 이미지에 기초하여 사용자의 지문 인증을 수행할 수 있다. 예를 들어, 제어부(40)는 메모리(30)에 저장된 등록 변형 이미지와 획득된 지문 이미지를 비교하여, 사용자(지문)의 인증을 수행할 수 있다. 제어부(40)에 의한 지문 인증 방법에 대하여는 도 2와 관련하여 후술한다.
지문 인식 장치는 인터페이스부(50)를 통해 외부 기기에 연결되고, 데이터를 교환할 수 있다. 예를 들어, 인터페이스부(50)는 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 지문 인식 장치의 다른 구성요소에 전달할 수 있다. 또한, 인터페이스부(50)는 지문 인식 장치의 다른 구성요소로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 지문 인식 장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 지문 인식 장치의 동작, 제어, 또는 제어방법은 상기 메모리(30)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 지문 인식 장치 상에서 구현될 수 있다.
이하에서는 실시예의 지문 인식 장치에 의해 수행될 수 있는 지문 인식 방법에 대해 도 2 내지 도 14를 참조하여 설명한다.
도 2는 실시예의 지문 인증 방법을 개략적으로 나타낸 순서도(flow chart)이다.
먼저, 센싱부(20)는 지문 이미지를 획득(S10)한다. 센싱부(20)는 센싱 영역을 통해 사용자의 지문을 센싱하여, 지문 이미지(원본 이미지)를 획득할 수 있다.
그러면, 제어부(40)는 원본 이미지를 이미지 처리(S20)한다. 제어부(40)는 원본 이미지를 고해상도 이미지로 변환(이하에서는 고해상화 처리)하고, 변환된 이미지의 노이즈를 제거하고, 노이즈가 제거된 이미지들을 평균화하여 하나의 입력 변형 이미지로 가공하는 이미지 처리를 수행할 수 있다. 제어부(40)는 원본 이미지를, LBP(local binary pattern) 타입, HOG(histogram of oriented gradients) 타입, Haar feature 타입, MCT(Modified Census Transform) 타입, N비트로 양자화된(N-bit quantized) 타입(여기서, N은 1이상의 정수), 및 기하학적으로 변형(warping)된 타입으로 변형된 이미지 등으로 변형, 가공할 수도 있다. 여기서, 제어부(40)가 원본 이미지를 이미지 처리하는 방식은 이에 제한되지 않는다.
다음으로, 제어부(40)는 입력 변형 이미지와 등록 변형 이미지를 정합(S30)하고, 입력 변형 이미지와 등록 변형 이미지의 특징점을 평가(S40)한다.
그러면, 제어부(40)는 이미지 정합의 결과 및 특징점 평가 결과를 이용하여, 입력 변형 이미지와 등록 변형 이미지가 일치하는지 여부를 판정(S50)한다. 입력 변형 이미지와 등록 변형 이미지가 일치하는지 여부에 따라, 사용자 인증(verification) 결과 또는 사용자 식별(identification) 결과가 도출될 수 있다.
이하에서는, 도 3 내지 도 6을 참조하여 도 2의 이미지 처리 단계(S20)를 구체적으로 설명한다.
도 3은 도 2의 지문 이미지 처리 단계를 구체적으로 나타낸 순서도이다.
제어부(40)는 센싱부(20)에서 획득된 원본 이미지를 고해상화 처리(S210)한다. 고해상화 처리와 관련하여 도 4를 함께 참조한다.
도 4는 도 3의 고해상화 처리의 일 예를 나타낸 예시도이다. 원본 이미지는 M×N개의 화소로 구성된 이미지 데이터일 수 있다. 도 4의 (a)는 저해상도의 원본 이미지의 일부를 모식적으로 나타낸 도면이다. 원본 이미지의 일부는 3×3개의 화소 배열을 포함하고, 화소 각각은 휘도 값(A1-A3, B1-B3, C1-C3)을 포함할 수 있다.
제어부(40)는 (2×M)×(2×N)개의 화소 배열을 마련한다. 그리고, 제어부(40)는 원본 이미지의 위치(i, j)에 있는 화소의 휘도 값을 (2×M)×(2×N)개의 화소 배열 내의 위치(2×i, 2×j)에 있는 화소, 위치(2×i+1, 2×j)에 있는 화소, 위치(2×i, 2×j+1)에 있는 화소, 위치 (2×i+1, 2×j+1)에 있는 화소에 복사한다. 여기서, i 및 j는 1 이상의 정수이다. 그러면 제어부(40)는 3×3 화소 배열을, 도 4의 (b)에 도시된 바와 같이 6×6 화소 배열로 변환할 수 있다.
그 다음, 제어부(40)는 도 4의 (b)의 화소 배열을 하나의 화소만큼 오른쪽으로 이동시킨 화소 배열에 도 4의 (b)의 화소 배열을 더하여 각 화소 마다 평균 휘도 값을 계산한다. 그러면 제어부(40)는 도 4의 (c)에 도시된 바와 같은 6×6 화소 배열을 구성할 수 있다. 여기서, A1'-A3', B1'-B3', C1'-C3'은 다음의 수학식 1 내지 9로 나타낼 수 있다.
Figure pat00001
Figure pat00002
Figure pat00003
Figure pat00004
Figure pat00005
Figure pat00006
Figure pat00007
Figure pat00008
Figure pat00009
그 다음, 제어부(40)는 도 4의 (c)의 화소 배열을 하나의 화소만큼 위쪽으로 이동시킨 화소 배열에 도 4의 (c)의 화소 배열을 더하여 각 화소 마다 평균 휘도 값을 계산한다. 그러면 제어부(40)는 도 4의 (d)에 도시된 바와 같은 6×6 화소 배열을 구성할 수 있다.
다음으로, 제어부(40)는 고해상화 처리 이미지의 제1 원점을 기준으로 고해상화 처리 이미지를 서브 블록 단위로 분할(S220)한다. 제1 원점을 기준으로 분할된 서브 블록들을 제1 서브 블록들로 설명한다.
제어부(40)는 제1 서브 블록들 각각의 고주파 노이즈를 제거(S230)한다. 제어부(40)는 서브 블록들 각각을 주파수 도메인으로 변환할 수 있다. 여기서, 주파수 도메인 변환 방식은 빠른 푸리에 변환(FFT: Fast Fourier Transform), 이산 푸리에 변환(DFT: Discrete Fourier Transform) 등의 2차원 푸리에 변환을 포함한다.
제어부(40)는 각각의 제1 서브 블록에 대해, 2차원 푸리에 변환된 실수부(Re)와 허수부(Im)를 산출하여, 각각의 제1 서브 블록의 공간 주파수 특성을 획득할 수 있다.
일반적으로, 지문 이미지 내의 지문의 융선(Ridge)은 노이즈에 비해 공간 주파수가 더 낮다. 제어부(40)는 노이즈를 제거하기 위해, 실수부(Re)와 허수부(Im)를 저주파 통과 필터(LPF: Low Pass Filter)에 통과시켜 고주파 성분을 제거할 수 있다.
제어부(40)는 저주파 성분에 대해, 주파수 피크(peak)를 강조하기 위해, 실수부(Re)와 허수부(Im) 각각에 계수를 승산할 수 있다. 또는 제어부(40)는 저주파 성분에 대해, 주파수 피크(peak)를 강조하기 위해, 실수부(Re)와 허수부(Im) 각각에 Re^2+Im^2의 제곱근을 승산할 수 있다. 제어부(40)는 강조 처리된 실수부(Re')와 허수부(Im')를 역 푸리에 변환할 수 있다. 그러면, 제어부(40)는 각각의 제1 서브 블록 마다 융선이 강조된 이미지를 획득할 수 있다.
제어부(40)는 각각의 제1 서브 블록의 융선이 강조된 이미지를 연결하여, 제1 서브 블록 이미지를 생성(S240)한다.
제어부(40)는 고해상화 처리 이미지의 제2 원점을 기준으로 고해상화 처리 이미지를 서브 블록 단위로 분할(S250)한다. 제2 원점을 기준으로 분할된 서브 블록들을 제2 서브 블록들로 설명한다.
제어부(40)의 제1 원점 기준 서브 블록 분할 단계(S220) 및 제2 원점 기준 서브 블록 분할 단계(S250)에 대해 도 5를 함께 참조하여 설명한다.
도 5는 도 3의 서브 블록 분할의 일 예를 나타낸 예시도이다. 먼저, 도 5의 (a)에 도시된 바와 같이, 이미지(PIM)의 제1 영역(A1)에 제1 원점 및 제2 원점이 설정되는 예를 들어 설명한다.
도 5의 (b)에 도시된 바와 같이, 제어부(40)는 (0,0)의 화소(PX)를 제1 원점으로 설정할 수 있다. 제어부(40)는 제1 원점을 기준으로 dx×dy개(dx, dy는 자연수)의 화소를 서브 블록 단위로 설정할 수 있다. 그러나, 발명이 이에 한정되는 것은 아니고, 제어부(40)는 서브 블록 단위를 임의의 화소 개수로 설정할 수 있다. 또한, 서브 블록 단위의 형태는 삼각형, 사각형, 육각형과 같은 다각형, 원형, 타원형 등일 수 있으나, 이에 제한되지 않는 임의의 형태를 가질 수 있다.
제어부(40)는 제1 원점(0,0)을 기준으로, x축 방향을 따라 dx개의 화소(dx-1,0)까지를 제1 변, y축 방향을 따라 dy개의 화소(0,dy-1)까지를 제2 변으로 하는 사각 형태의 영역을 하나의 서브 블록으로 설정할 수 있다. 즉, 제1 서브 블록(BA11)은 (0,0)의 화소, (dx-1,0)의 화소, (0,dy-1)의 화소, (dx-1,dy-1)의 화소를 각각 꼭짓점으로 포함하는 사각 형태의 영역 내에 위치한 화소를 포함할 수 있다.
이와 마찬가지로, 제1 서브 블록(BA11)과 x축 방향으로 인접한 제1 서브 블록(BA12)은 (dx,0)의 화소, (2dx-1,0)의 화소, (dx,dy-1)의 화소, (2dx-1,dy-1)의 화소를 각각 꼭짓점으로 포함하는 사각 형태의 영역 내에 위치한 화소를 포함할 수 있다. 그리고 제1 서브 블록(BA11)과 y축 방향으로 인접한 제1 서브 블록(BA21)은 (0,dy)의 화소, (dx-1,dy)의 화소, (0,2dy-1)의 화소, (dx-1,2dy-1)의 화소를 각각 꼭짓점으로 포함하는 사각 형태의 영역 내에 위치한 화소를 포함할 수 있다.
즉, 제어부(40)는 단계(S220)에서 제1 원점(0,0)을 기준으로, 제1 서브 블록들(BA11~BA13, BA21~BA23, BA31~BA33)로 이미지(PIM)를 분할할 수 있다. 그리고, 제어부(40)는 단계(S230) 및 단계(S240)를 수행하여 제1 서브 블록 조합 이미지를 생성할 수 있다.
다음으로, 도 5의 (c)에 도시된 바와 같이, 제어부(40)는 (ax,ay)의 화소(PX)를 제2 원점으로 설정할 수 있다. 이때, 제어부(40)는 제2 원점을 기준으로 dx×dy개의 화소를 서브 블록 단위로 설정할 수 있다. 제어부(40)는 단계(S220)와 단계(S250)에서 설정되는 서브 블록 단위의 형태, 서브 블록 단위에 포함되는 화소의 개수를 서로 다르게 설정할 수 있다.
제어부(40)는 제2 원점(ax,ay)을 기준으로, x축 방향을 따라 dx개의 화소(dx+ax-1,ay)까지를 제1 변, y축 방향을 따라 dy개의 화소(ax,dy+ay-1)까지를 제2 변으로 하는 사각 형태의 영역을 하나의 서브 블록으로 설정할 수 있다. 즉, 제2 서브 블록(BB11)은 (ax,ay)의 화소, (dx+ax-1,ay)의 화소, (ax,dy+ay-1)의 화소, (dx+ax-1,dy+ay-1)의 화소를 각각 꼭짓점으로 포함하는 사각 형태의 영역 내에 위치한 화소를 포함할 수 있다.
이와 마찬가지로, 제2 서브 블록(BB11)과 x축 방향으로 인접한 제2 서브 블록(BB12)은 (dx+ax,ay)의 화소, (2dx+ax-1,ay)의 화소, (dx+ax,dy+ay-1)의 화소, (2dx+ax-1,dy+ay-1)의 화소를 각각 꼭짓점으로 포함하는 사각 형태의 영역 내에 위치한 화소를 포함할 수 있다. 그리고 제2 서브 블록(BB11)과 y축 방향으로 인접한 제2 서브 블록(BB21)은 (ax,dy+ay)의 화소, (dx+ax-1,dy+ay)의 화소, (ax,2dy+ay-1)의 화소, (dx+ax-1,2dy+ay-1)의 화소를 각각 꼭짓점으로 포함하는 사각 형태의 영역 내에 위치한 화소를 포함할 수 있다.
즉, 제어부(40)는 단계(S250)에서 제2 원점(ax,ay)을 기준으로, 제2 서브 블록들(BB11~BB13, BB21~BB23, BB31~BB33)로 이미지(PIM)를 분할할 수 있다. 그리고, 제어부(40)는 단계(S230) 및 단계(S240)와 유사하게, 단계(S260) 및 단계(S270)를 수행하여 제2 서브 블록 조합 이미지를 생성할 수 있다.
이외에도 제어부(40)는 필요에 의해, 임의의 화소를 제3 원점으로 설정하여 이미지(PIM)을 서브 블록들로 분할하고, 고주파 노이즈를 제거하여 제3 서브 블록 조합 이미지를 생성할 수 있다.
제어부(40)는 제1 원점 및 제2 원점 각각을 기준으로 한, 제1 및 제2 서브 블록 조합 이미지를 평균화 처리(S280)한다. 단계(S280)의 평균화 처리에 대해서 도 6을 함께 참조하여 설명한다.
도 6은 도 3의 평균화 처리와 관련된 지문 이미지의 일 예를 나타낸 예시도이다. 먼저 도 6의 (a)는 단계(S210)에서 고해상화 처리된 이미지를 나타낸다.
그리고, 도 6의 (b), (c), 및 (d)는 단계(S220) 내지 단계(S270)에 따라 생성된 서브 블록 조합 이미지를 나타낸다. 강조 처리된 이미지는 서브 블록의 경계에서 융선이 서로 어긋날 수 있다. 즉, 강조 처리된 이미지 내의 적어도 하나의 서브 블록의 경계에서 융선이 불연속할 수 있다.
제어부(40)는 도 6의 (e)에 도시된 바와 같이, 강조 처리된 이미지들을 평균화(image blending) 처리할 수 있다. 평균화는 산술 평균화, 웨이트(weight) 계수를 고려한 평균화 처리(예를 들어, 알파 블렌딩)일 수 있다. 또한 평균화 처리하는 조합 이미지의 개수는 제한이 없고, 조합 이미지가 많을수록 매끄러운 이미지가 생성될 수 있다.
이하에서는, 도 7 및 도 8을 참조하여 도 2의 이미지 정합 단계(S30)를 구체적으로 설명한다.
도 7은 도 2의 이미지 정합 단계를 구체적으로 나타낸 순서도이다. 제어부(40)는 등록 변형 이미지와 획득된 지문 이미지로부터 평균화 처리된 이미지를 이미지 정합할 수 있다.
일 실시예에 따르면 이미지 정합은 서로 다른 이미지를 변형하여 하나의 좌표계에 나타내는 처리 방식이다. 이미지 정합을 통해, 상이한 이미지들이 서로 어떻게 대응되는지 파악될 수 있다.
제어부(40)는 도 7에 도시된 바와 같이, 메모리(30)로부터 등록 변형 이미지를 판독(S310)한다.
다음으로, 제어부(40)는 평균화 처리된 이미지의 일 부분을 기준 이미지로 결정(S320)한다. 이때, 기준 이미지로 결정된 이미지의 일 부분이 전체 이미지의 소정 비율의 면적을 가지도록, 제어부(40)는 기준 이미지를 결정할 수 있다. 예를 들어, 제어부(40)는 기준 이미지가 전체 이미지의 5% 내지 10%의 면적을 가지도록 기준 이미지를 결정할 수 있다.
그리고, 제어부(40)는 위상 한정 상관법(POC: Phase only Correlation)을 이용하여, 등록 변형 이미지 및 기준 이미지 간의 중첩 영역을 판정(S330)한다.
푸리에 공간에서 두 이미지의 위상 간 상호 상관 값을 계산하여 신규 이미지(예를 들어, 상관 강도 이미지)를 생성하면, 신규 이미지에서 최댓값이 나타나는 부분(예를 들어, 상관 강도가 높은 피크)이 두 이미지 간의 상대적인 위치 관계가 될 수 있다. 일례로, 제어부(40)는 상관 강도의 가장 높은 상관 값 및 그 상관 값의 피크 위치를, 등록 변형 이미지와 기준 이미지의 2차원 상의 위치 관계로서 특정한다.
제어부(40)는 복수의 상관 값 및 그것에 대응하는 피크 위치에 기초하여, 기준 이미지의 위치를 보정(S340)한다. 예를 들어, 제어부(40)는 기준 이미지의 패턴과 등록 변형 이미지의 패턴이 서로 일치하도록, 기준 이미지를 평행 이동할 수 있다.
제어부(40)는 두 이미지 사이의 유사한 정도를 나타내는 상관 계수를 계산(S350)한다. 예를 들어, 제어부(40)는 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC: Zero-mean normalized cross correlation)을 사용하여 등록 변형 이미지에 대해 기준 이미지가 얼마나 유사한지를 0 내지 1의 값을 갖는 상관 계수로서 나타낼 수 있다.
제어부(40)는 두 이미지, 즉 기준 이미지와 중첩하는 것으로 판정된 등록 변형 이미지의 일 영역 및 기준 이미지에 각각 포함된 화소들의 밝기, 에지(edge) 성분, 색좌표 등을 비교한 후, 이를 정규화(normalized)하여 상관 정도를 0부터 1까지의 값 중 하나로 나타낼 수 있다. 제어부(40)는 상관 정도가 0에 가까우면 두 이미지의 유사도가 낮은 것이고, 상관 정도가 1에 가까우면 두 이미지가 동일한 것으로 결정할 수 있다. ZNCC를 사용하여 이미지의 유사도를 나타내는 방법은 영상 처리 분야에서 당업자에게 공지되어 있으므로 자세한 설명은 생략한다.
그러면, 제어부(40)는 상관 계수가 임계치를 초과하는지 판단(S360)한다.
제어부(40)는 상관 계수가 임계치를 초과하지 않는 경우, 기준 이미지를 회전 보정(S370)한다. 이때, 기준 이미지가 회전 보정되는 각도는 임의의 각도 값으로 설정될 수 있다. 예를 들어, 단계(S360)에서, 제어부(40)는 기준 이미지를 시계 방향을 따라 5도 단위, 10도 단위, 또는 15도 단위 등으로 회전 보정할 수 있다.
제어부(40)는 단계(S330) 내지 단계(S370)의 루프 내에서는 하나의 각도 값만을 이용하여, 기준 이미지를 회전 보정할 수 있다. 예를 들어, 제어부(40)는 단계(S370)에서, 기준 이미지를 10도 단위로만 회전시켜 보정할 수 있다.
그 다음 제어부(40)는 다시 POC를 사용하여 중첩 영역을 판정(S330)한다.
즉, 제어부(40)는 계산된 상관 계수의 값에 따라, 기준 이미지의 회전 각도를 점진적으로 증가(또는 감소)시켜 보정한다. 즉, 단계(S330) 내지 단계(S370)가 반복적으로 수행되어, 기준 이미지와 등록 변형 이미지 간의 위치 관계 및 회전 각도가 보정된다.
한편, 제어부(40)는 상관 계수가 임계치를 초과하는 경우, 계산된 상관 계수, 회전 각도 보정 값, 및 위치 보정 값(예를 들어, 평행 이동 값)을 저장(S380)한다. 제어부(40)는 상관 계수, 회전 각도 보정 값, 및 위치 보정 값을 평균화 처리된 이미지에 관련시켜 저장할 수 있다. 즉, 제어부(40)는 두 이미지 간의 최대 상관 계수를 갖는 위치 관계 및 회전 각도를 저장할 수 있다.
도 8은 도 7에서 전체 이미지에 대한 기준 이미지의 비율 변화에 따른 이미지 정합을 나타낸 예시도이다.
도 8의 (a) 내지 도 8의 (d)는 전체 이미지에 대해 각각 1%, 2%, 3%, 4%의 면적으로 기준 이미지들을 결정하여 등록 변형 이미지에 대해 이미지 정합을 수행한 결과를 나타낸다.
도 8의 (a) 내지 도 8의 (d)에서, 등록 변형 이미지에 대한 기준 이미지의 위치, 기준 이미지와 등록 변형 이미지가 이루는 각도가 상이하다.
도 8의 (e) 내지 도 8의 (h)는 전체 이미지에 대해 각각 5%, 10%, 20%, 30%의 면적으로 기준 이미지들을 결정하여 등록 변형 이미지에 대해 이미지 정합을 수행한 결과를 나타낸다.
도 8의 (e) 내지 도 8의 (h)에서, 등록 변형 이미지에 대한 기준 이미지의 위치, 기준 이미지와 등록 변형 이미지가 이루는 각도가 각 도면 마다 서로 동일하다. 그러므로, 이미지 정합성을 높일 수 있도록, 기준 이미지는 평균화 처리된 이미지 전체에 대해 5% 이상의 면적 비율을 갖는 영역을 포함할 수 있다.
한편, 기준 이미지가 전체 이미지에 대해 40%를 초과하는 경우, 기준 이미지는 전체 이미지의 코어(core) 영역(CA)을 포함하여 결정될 수 있다. 코어 영역은 융선 패턴의 명확하지 않을 수 있다. 그러므로, 코어 영역을 제외한 영역을 기준 영역으로 갖도록, 기준 이미지는 평균화 처리된 이미지 전체에 대해 40% 이내의 면적 비율을 갖는 영역을 포함할 수 있다.
다음으로, 도 9 내지 도 12를 참조하여 도 2의 특징점 평가 단계(S40)를 구체적으로 설명한다.
도 9는 도 2의 특징점 평가 단계를 구체적으로 나타낸 순서도이다. 도 9에 도시된 바와 같이, 제어부(40)는 회전 각도 보정 값 및 위치 보정 값을 이용하여, 평균화 처리된 이미지를 보정(S410)한다. 제어부(40)는 회전 각도 보정 값을 이용하여 평균화 처리된 이미지를 회전 처리하고, 위치 보정 값을 이용하여 회전 처리된 이미지를 평행 이동 처리할 수 있다. 또는 제어부(40)는 위치 보정 값을 이용하여 평균화 처리된 이미지를 평행 이동 처리한 후, 회전 각도 보정 값을 이용하여 평행 이동 처리된 이미지를 회전 처리할 수 있다.
제어부(40)는 보정된 이미지를 서브 블록 단위로 분할(S420)한다. 제어부(40)는 m×n개(m, n은 자연수)의 화소 단위를 서브 블록 단위로 설정할 수 있다. 도 9의 서브 블록 단위 도 5에서 설명한 서브 블록 단위와 동일하거나 상이할 수 있다.
제어부(40)는 각각의 서브 블록 내의 화소 휘도 편차를 계산(S430)한다. 구체적으로, 제어부(40)는 서브 블록 내에 위치한 화소들의 휘도 평균을 계산할 수 있다. 제어부(40)는 휘도 평균과 서브 블록 내의 각 화소의 휘도 사이의 차이를 계산하고, 각각의 차이들의 절대 값의 평균을 휘도 편차 값으로서 계산한다.
그러면, 제어부(40)는 휘도 편차 값이 포함되는 범위에 따라 가중치 계수를 서브 블록 별로 결정(S440)한다. 예를 들어, 제어부(40)는 휘도 편차 값이, (1) 0 이상 a(a>0) 미만인 경우, 해당 서브 블록에 대응하는 가중치 계수를 0.5로 결정하고, (2) a 이상 b(b>a>0) 미만인 경우, 해당 서브 블록에 대응하는 가중치 계수를 1로 결정하며, (3) b 이상인 경우, 해당 서브 블록에 대응하는 가중치 계수를 2로 결정한다.
단계(S420) 내지 단계(S440)와 관련하여 도 10을 함께 참조하여 설명한다.
도 10은 도 9의 서브 블록 분할 후에 계산된 휘도 편차의 일 예를 나타낸 예시도이다.
도 10의 (a)는 원본 이미지를 나타내고, 도 10의 (b)는 원본 이미지에 대응하는 가중치 계수를 서브 블록 별로 모식적으로 나타낸다. 도 10의 (b)에서 각 서브 블록은 세 개의 가중치 계수(W1, W2, W3) 중 적어도 하나를 가진다.
도 10의 (a)와 도 10의 (b)를 비교하면, 도 10의 (a)의 코어 영역(CA)에 대응하는 영역에는 휘도 편차 값이 작은 서브 블록이 분포한다. 코어 영역(CA)의 경우, 융선의 패턴이 명확하게 인식되지 않을 수 있어, 평균적으로 높은 휘도를 갖는 화소가 위치할 수 있다. 그러므로, 코어 영역(CA)에 대응하는 서브 블록은 비교적 작은 값을 갖는 가중치 계수(W3) 또는 가중치 계수(W2)로 결정되는 경향이 있다.
코어 영역(CA) 외의 영역은 비교적 융선이 명확하게 인식되어, 코어 영역(CA) 외의 영역에 위치하는 서브 블록 내의 화소들 간의 휘도 편차가 크게 나타나는 경향이 있다. 그러므로, 코어 영역(CA) 외의 영역에 위치하는 서브 블록은 비교적 높은 값을 갖는 가중치 계수(W1)로 결정된다. 즉, 융선이 비교적 명확하게 인식된 영역(즉, 신뢰도가 높은 영역)에 위치하는 특징점에 대해 평가할 때, 더 높은 가중치 계수를 부여할 수 있다.
상이한 값으로 결정된 가중치 계수에 따라, 이후의 특징점 평가 단계에서 각각의 특징점이 위치한 서브 블록의 가중치 계수를 고려하여 특징점 일치 여부를 평가할 수 있다.
이어서, 도 9를 다시 참조하면, 제어부(40)는 이미지에 대해 이진화(binarization)를 수행(S450)한다. 이진화는 임계치 보다 휘도가 높은 화소들은 모두 최대 휘도 값(예를 들어, 1 비트의 이진화 이미지로 나타내면, 1)으로 변경하고, 임계치 보다 휘도가 같거나 낮은 화소들은 모두 최소 휘도 값(예를 들어, 1 비트의 이진화 이미지로 나타내면, 0)으로 바꾸는 것을 지칭한다. 이미지 이진화 방법은 영상 처리 분야에서 당업자에게 공지되어 있으므로 자세한 설명은 생략한다.
제어부(40)는 이진화된 이미지로부터 특징점을 검출(S460)한다. 이진화된 이미지에서 지문의 특징점, 즉, 융선의 끝점(ridge end)이나 분기점(bifurcation) 등의 세밀한 특징점인 미뉴샤(minutiae)가 존재할 수 있다.
제어부(40)는 검출된 특징점들 중 분기점의 진위를 판정(S470)한다. 원본 이미지의 해상도가 낮은 경우, 인접한 융선들이 서로 완전하게 분리되지 않고, 노이즈 등에 의해 서로 연결될 수 있다. 이 경우, 노이즈에 의해 연결된 지점(이하, 가짜 분기점)이 분기점으로 검출될 수 있으므로, 제어부(40)는 각각의 분기점들 마다 진위를 판정할 수 있다.
가짜 분기점은 노이즈에 의해 형성되므로, 가짜 분기점들 사이의 거리가 진짜 분기점들 사이의 거리에 비해 가깝다. 이러한 특징을 고려하여 이하에서 특징점 진위를 판정하는 방법을 도 11 및 도 12를 함께 참조하여 설명한다.
도 11은 도 9의 특징점 진위 판정 단계를 구체적으로 나타낸 순서도이고, 도 12 및 도 13은 도 11의 방식에 따라 분기점이 특징점인지 판단하는 예들을 나타낸 예시도이다.
먼저, 한 화소는 네 방향(상, 하, 좌, 우)으로 인접한 화소들과 연결될 수 있다. 분기점은 세 방향으로 인접한 화소들과 연결된 지점이고, 끝점은 한 방향으로 인접한 화소와 연결된 지점이며, 연결점은 두 방향으로 인접한 화소들과 연결된 지점이다.
도 11에 도시된 바와 같이, 제어부(40)는 분기점들 중 어느 하나의 분기점(a)을 특징점 후보로서 결정(S471)한다. 도 12 및 도 13에 도시된 바와 같이, 이진화된 이미지 내에서 분기점(도 12의 P10, 도 13의 P20)을 특징점 후보로서 결정한다.
그러면, 제어부(40)는 대상 화소(분기점(a))의 주변 화소들의 연결 화소 개수를 판단(S472)한다. 즉, 제어부(40)는 분기점(a)을 기준으로, 분기점(a)의 주변에 위치하는 화소가 끝점, 연결점, 또는 분기점인지를 판단한다.
주변에 위치하는 화소가 끝점, 연결점, 또는 분기점인지 확인하기 위해, 제어부(40)는 주변에 위치하는 화소가 몇 개의 방향으로 인접한 화소들과 연결되어 있는지 판단한다.
도 12에서 제어부(40)는 화소(P10)의 주변에 위치하는 화소가 몇 개의 방향으로 인접한 화소들과 연결되어 있는지 판단한다. 예를 들어, 제어부(40)는 화소(P10) 좌측의 화소(P13), 상측의 화소(P11), 및 하측의 화소(P12)가 몇 개의 방향으로 인접한 화소들과 연결되어 있는지 판단할 수 있다.
또한, 도 13를 참조하면, 제어부(40)는 화소(P20)의 상측의 화소(P23), 좌측의 화소(P22), 하측의 화소(P21)가 몇 개의 방향으로 인접한 화소들과 연결되어 있는지 판단할 수 있다.
제어부(40)는 대상 화소의 주변의 화소가 하나의 방향으로 인접한 화소와 연결되어 있으면, 그 주변 화소를 끝점으로서 결정(S473)한다. 예를 들어, 도 12에서 화소(P10)의 하측의 화소(P12)가 연결된 화소는 화소(P10)이다. 화소(P10)의 하측의 화소(P12)는 하나의 방향으로 인접한 화소(P10)와 연결되어 있으므로, 끝점으로서 결정된다.
한편, 대상 화소(분기점(a))의 주변에 끝점만 존재하는 경우, 즉 분기점(a)에 대해 단계(S472)만 수행되고, 단계(S475) 및 단계(S479)가 수행되지 않는 경우, 제어부(40)는 대상 화소(분기점(a)) 주변에 다른 분기점이 존재하지 않으므로, 해당 대상 화소(분기점(a))을 특징점으로 결정(S474)한다.
또는, 제어부(40)는 대상 화소(분기점(a))의 주변의 화소에 연결된 화소가 3개이면, 대상 화소(분기점(a))을 특징점에서 제외하도록 결정(S479)한다. 제어부(40)는 대상 화소(분기점(a)) 주변에 다른 분기점이 존재하기 때문에, 대상 화소(분기점(a))를 가짜 분기점으로 결정한다.
또는, 제어부(40)는 대상 화소(분기점(a)) 주변의 화소가 두 방향으로 인접한 화소들과 연결되어 있으면, 그 주변 화소를 연결점으로서 결정(S475)한다.
예를 들어, 도 12에서 화소(P10)의 좌측의 화소(P13)가 연결된 화소는 화소(P10)와 화소(P14)이다. 화소(P10)의 좌측의 화소(P13)는 두 개의 방향으로 인접한 화소(P10, P12)와 연결되어 있으므로, 연결점으로서 결정된다.
연결점은 화소와 화소를 잇는 점으로서, 분기점(a)가 연결점을 통해 다른 분기점과 연결되어 있을 수 있다. 그러므로, 연결점의 주변에 다른 분기점이 위치하는지 여부를 판단하기 위해, 연결점의 주변 화소들이 끝점, 연결점, 또는 분기점인지 판단해야 한다. 즉, 단계(S476) 및 단계(S477) 이후에, 연결점이 단계(S472)의 대상 화소로서 설정될 수 있다. 이 경우 연결점의 주변 화소들은 연결점에 의해 분기점(a)으로부터 하나의 화소 만큼 이격된다.
그러므로, 제어부(40)는 거리(L) 값을 하나의 화소 만큼 증가(S476)시킨다. 여기서 거리(L)는 연결 화소 개수가 판단될 화소(대상 화소의 주변 화소)와 분기점(a)와의 거리를 나타내고, 초기 값은 1로 설정된다.
거리(L) 값이 임계치(Lth)를 초과하는지를 판단(S477)한다.
거리(L) 값이 임계치(Lth)를 초과하지 않는 경우, 제어부(40)는 대상 화소(연결점) 주변의 화소들의 연결 화소 개수를 판단(S472)한다. 그리고, 제어부(40)는 연결 화소 개수에 따라, 대상 화소(연결점)의 주변의 화소를 끝점, 분기점, 또는 연결점으로서 각각 결정(S473, S479, S475)할 수 있다. 대상 화소(연결점)의 주변의 화소가 끝점으로 결정된 경우, 분기점(a)를 특징점으로 결정할 수 있다. 대상 화소(연결점)의 주변의 화소가 분기점인 경우, 분기점(a)를 특징점에서 제외하도록 결정(S479)할 수 있다. 또는 대상 화소(연결점)의 주변의 화소가 연결점인 경우, 거리(L) 값을 증가(S476)시키고, 임계치와 비교(S477)한다.
일례로, 도 12에 도시된 바와 같이, 제어부(40)는 화소(P10)의 좌측의 연결점 화소(P13)를 기준으로, 연결점 화소(P13) 주변에 위치하는 화소는 화소(P14) 또는 화소(P10)이다. 그러면, 연결점 화소(P13)의 주변에 위치하는 화소들(P14, P10)이 끝점, 연결점, 또는 분기점인지를 판단한다. 화소(P10)는 특징점 후보 화소이므로, 판단에서 제외된다.
제어부(40)는 화소(P14)가 끝점, 연결점, 또는 분기점인지 판단할 수 있다. 화소(P14)는 세 개의 방향으로 인접한 화소들(P13, P15, P16)과 연결되어 있으므로, 분기점으로서 판단된다. 그러므로 제어부(40)는 분기점(a)을 특징점에서 제외하도록 결정(S479)한다.
다른 예로, 도 13에 도시된 바와 같이, 제어부(40)는 화소(P20)의 상측의 연결점 화소(P23)를 기준으로, 연결점 화소(P23)의 주변에 위치하는 화소가 끝점, 연결점, 또는 분기점인지를 판단한다. 연결점 화소(P23) 주변의 위치하는 화소는 화소(P20) 또는 화소(P24)이다. 화소(P20)은 특징점 후보 화소이므로 판단에서 제외된다. 제어부(40)는 화소(P24)가 끝점, 연결점, 또는 분기점인지 판단한다. 제어부(40)는, 화소(P24)가 다시 두 개의 방향으로 인접한 화소들(P23, P25)와 연결되어 있으므로, 화소(P24)를 연결점인 것으로 판단(S475)한다.
제어부(40)는 거리(L) 값을 증가(S476)시키며, 거리(L) 값이 임계치(Lth)를 초과하는지 판단한다. 도 13에서 임계치는 7로 가정하여 설명한다. 제어부(40)는 화소(P25), 화소(P26), 화소(P27), 화소(P28), 화소(P29)에 대해서도 단계(S472) 내지 단계(S477)를 순차적으로 수행할 수 있다. 화소(P29)에 대해 단계(S477)이 수행되는 때, 제어부(40)는 거리(L) 값이 임계치(Lth=7)를 초과하므로, 분기점(a)을 특징점으로 결정할 수 있다. 즉, 분기점(a)로부터 미리 설정된 거리 이내에 다른 분기점이 없는 경우, 분기점(a)를 특징점으로 결정할 수 있다.
상기와 같은 방식으로, 제어부(40)는 분기점들 각각을 특징점에서 제외할지 여부를 결정할 수 있다.
다시 도 9를 참조하면, 제어부(40)는 특징점 일치 여부를 평가(S480)한다. 제어부(40)는 메모리(30)에 저장된 등록 변형 이미지의 특징점 정보를 이용하여, 등록 변형 이미지와 보정된 이미지의 특징점이 서로 일치하는지 여부를 판단할 수 있다.
제어부(40)는 두 이미지 내에서 대응하는 특징점들이 위치한 서브 블록의 가중치 계수, 대응하는 특징점들의 종류가 일치하는지 여부, 대응하는 특징점들 간의 거리, 및 대응하는 특징점들의 벡터가 이루는 각도를 모두 고려하여 특징점 일치 여부를 평가할 수 있다.
예를 들어, 제어부(40)는 각각의 특징점에 대해 가중치 계수, 종류가 일치도, 거리, 및 각도를 모두 승산한 값을 평균한 값으로, 두 이미지들 간의 특징점 일치 정도를 산출할 수 있다.
이러한 특징점 일치 여부 평가에 대해 도 14를을 참조하여 함께 설명한다.
도 14는 도 9의 특징점의 일치 여부를 평가하는 일 예를 나타낸 예시도이다. 도 14에 도시된 바와 같이, 제어부(40)는 등록 변형 이미지의 특징점들의 위치 및 각 특징점들의 벡터와 획득된 보정 이미지의 특징점들의 위치 및 각 특징점들의 벡터가 서로 어느 정도로 일치하는지 여부를 평가할 수 있다.
그러면, 제어부(40)는 이미지 정합에서 산출된 상관 계수 및 특징점 일치 정도를 이용하여, 입력 변형 이미지와 등록 변형 이미지가 일치하는지 여부를 판정할 수 있다.
이상에서 사용자의 지문의 일부를 이용하여 사용자를 인식하는 경우를 설명하였으나, 실시예들은 사용자의 생체 데이터의 일부를 이용하여 사용자를 인식하는 경우로 확장될 수 있다. 여기서, 생체 데이터는 사용자의 지문에 관한 정보, 정맥(blood vessel)에 관한 정보, 홍채(iris)에 관한 정보 등을 포함할 수 있다. 이 경우, 제어부(40)는 센싱부(20)로부터 사용자의 생체 데이터의 일부에 해당하는 입력 데이터를 수신하고, 입력 데이터를 변형 이미지로 변형하며, 변형 이미지들과 기 등록된 생체 데이터의 부분 데이터들에 해당하는 등록 변형 데이터들을 비교하며, 비교 결과에 기초하여 사용자를 인식할 수 있다.
일 예로, 센싱부(20)는 사용자의 정맥 패턴을 인식하는 센서를 포함할 수 있다. 센싱부(20)는 사용자의 손등의 피부로부터 정맥 패턴을 추출할 수 있다. 센싱부(20)는 적외선 조명과 필터를 사용하여 피부에 대한 혈관의 밝기 대비를 최대화한 뒤, 정맥 패턴을 포함하는 이미지를 획득할 수 있다. 이 때, 센싱부(20)는 정맥 패턴을 변형한 변형 이미지를 획득할 수 있다. 이 경우, 제어부(40)는 정맥 패턴 중 일부에 해당하는 변형 이미지와 기 등록된 정맥 패턴의 변형 이미지들을 비교함으로써, 사용자를 인식할 수 있다.
다른 예로, 센싱부(20)는 사용자의 홍채 패턴을 인식하는 센서를 포함할 수 있다. 센싱부(20)는 사용자의 동공과 공막(눈의 백색 영역) 사이의 홍채 패턴을 스캔 또는 캡쳐할 수 있다. 이 때, 센싱부(20)는 홍채 패턴을 변형한 변형 이미지를 획득할 수 있다. 이 경우, 제어부(40)는 홍채 패턴 중 일부에 해당하는 변형 이미지와 기 등록된 홍채 패턴의 변형 이미지들을 비교함으로써, 사용자를 인식할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.

Claims (20)

  1. 사용자의 지문으로부터 지문 이미지를 획득하는 센싱부,
    등록 지문 이미지를 저장하는 메모리, 그리고
    상기 지문 이미지의 적어도 일 영역과 상기 등록 지문 이미지 간의 상관 계수를 계산하고, 상기 상관 계수와 임계치를 비교한 결과에 따라 상기 지문 이미지를 미리 결정된 각도에 따라 회전 보정하는 제어부
    를 포함하고,
    상기 적어도 일 영역의 면적이 상기 지문 이미지의 면적의 5% 내지 40% 범위인,
    지문 인증 장치.
  2. 제1항에 있어서,
    상기 제어부는 위상 한정 상관법(POC: Phase only Correlation)을 이용하여, 상기 적어도 일 영역과 상기 등록 지문 이미지 간의 중첩 영역을 판정하고, 상기 판정 결과를 이용하여 상기 등록 이미지에 대한 상기 적어도 일 영역의 위치를 보정하는,
    지문 인증 장치.
  3. 제2항에 있어서,
    상기 제어부는 상기 적어도 일 영역과 상기 등록 이미지 간의 최대 상관 계수를 갖게 하는 회전 각도 및 보정 위치를 상기 메모리에 저장하는,
    지문 인증 장치.
  4. 제3항에 있어서,
    상기 제어부는 상기 지문 이미지를 복수의 블록으로 분할하고, 각각의 블록 마다 휘도 편차를 산출하여, 상기 각각의 블록의 가중치 계수를 획득하는,
    지문 인증 장치.
  5. 제4항에 있어서,
    상기 제어부는 상기 지문 이미지의 적어도 하나의 분기점을 상기 지문 이미지의 특징점으로서 검출하여, 상기 지문 이미지의 특징점이 상기 등록 지문 이미지의 특징점과 일치하는지 여부를 판단하는,
    지문 인증 장치.
  6. 제5항에 있어서,
    상기 제어부는 상기 분기점들 사이의 거리를 검출하고, 상기 검출된 거리를 이용하여 상기 적어도 하나의 분기점 중 적어도 하나의 분기점을 상기 지문 이미지의 특징점에서 제외하는,
    지문 인증 장치.
  7. 제5항에 있어서,
    상기 제어부는 상기 지문 이미지의 특징점이 상기 등록 지문 이미지의 특징점과 일치하는지 여부를 판단할 때, 상기 가중치 계수를 고려하여, 상기 지문 이미지의 특징점과 상기 등록 지문 이미지의 특징점의 일치 정도를 산출하는,
    지문 인증 장치.
  8. 제1항에 있어서,
    상기 센싱부가 획득한 상기 지문 이미지는 해상도가 300dpi 미만인, 지문 인증 장치.
  9. 제1항에 있어서,
    상기 제어부는 상기 지문 이미지에 대해 고해상화 처리하고, 처리된 지문 이미지를 복수의 서브 블록으로 분할하며, 각각의 서브 블록 내의 고주파 노이즈를 제거하여 조합 지문 이미지를 생성하는,
    지문 인증 장치.
  10. 제9항에 있어서,
    상기 제어부는 상기 처리된 이미지를 서로 상이한 원점을 기준으로 분할하여 생성된 적어도 두 개의 조합 지문 이미지를 평균화 처리하는,
    지문 인증 장치.
  11. 센싱부가 사용자의 지문으로부터 지문 이미지를 획득하는 단계,
    메모리에 미리 저장된 등록 지문 이미지를 판독하는 단계,
    상기 지문 이미지의 적어도 일 영역과 상기 등록 지문 이미지 간의 상관 계수를 계산하는 단계, 그리고
    상기 상관 계수와 임계치를 비교한 결과에 따라 상기 지문 이미지를 미리 결정된 각도에 따라 회전 보정하는 단계
    를 포함하고,
    상기 적어도 일 영역의 면적이 상기 지문 이미지의 면적의 5% 내지 40% 범위인,
    지문 인증 방법.
  12. 제11항에 있어서,
    상기 상관 계수를 계산하는 단계 이전에, 위상 한정 상관법(POC: Phase only Correlation)을 이용하여, 상기 적어도 일 영역와 상기 등록 지문 이미지 간의 중첩 영역을 판정하는 단계, 그리고
    상기 판정 결과를 이용하여 상기 등록 이미지에 대한 상기 적어도 일 영역의 위치를 보정하는 단계
    를 더 포함하는 지문 인증 방법.
  13. 제12항에 있어서,
    상기 회전 보정 하는 단계 이후에, 상기 적어도 일 영역과 상기 등록 이미지 간의 최대 상관 계수를 갖게 하는 회전 각도 및 보정 위치를 상기 메모리에 저장하는 단계,
    를 더 포함하는 지문 인증 방법.
  14. 제13항에 있어서,
    상기 메모리에 저장하는 단계 이후에, 상기 지문 이미지를 복수의 블록으로 분할하는 단계, 그리고,
    각각의 블록 마다 휘도 편차를 산출하여, 상기 각각의 블록의 가중치 계수를 획득하는 단계
    를 더 포함하는 지문 인증 방법.
  15. 제14항에 있어서,
    상기 메모리에 저장하는 단계 이후에, 상기 지문 이미지의 적어도 하나의 분기점을 상기 지문 이미지의 특징점으로서 검출하는 단계, 그리고
    상기 지문 이미지의 특징점이 상기 등록 지문 이미지의 특징점과 일치하는지 여부를 판단하는 단계
    를 더 포함하는 지문 인증 방법.
  16. 제15항에 있어서,
    상기 지문 이미지의 적어도 하나의 분기점을 상기 지문 이미지의 특징점으로서 검출하는 단계 이후에, 상기 분기점들 사이의 거리를 검출하고, 상기 검출된 거리를 이용하여 상기 적어도 하나의 분기점 중 적어도 하나의 분기점을 상기 지문 이미지의 특징점에서 제외하는 단계
    를 더 포함하는 지문 인증 방법.
  17. 제15항에 있어서,
    상기 지문 이미지의 특징점이 상기 등록 지문 이미지의 특징점과 일치하는지 여부를 판단하는 단계는, 상기 가중치 계수를 고려하여, 상기 지문 이미지의 특징점과 상기 등록 지문 이미지의 특징점의 일치 정도를 산출하는 단계를 포함하는,
    지문 인증 방법.
  18. 제11항에 있어서,
    상기 상관 계수를 계산하는 단계 이전에,
    상기 지문 이미지에 대해 고해상화 처리하는 단계,
    처리된 지문 이미지를 복수의 서브 블록으로 분할하는 단계, 그리고
    각각의 서브 블록 내의 고주파 노이즈를 제거하여 조합 지문 이미지를 생성하는 단계
    를 더 포함하는 지문 인증 방법.
  19. 제18항에 있어서,
    상기 조합 지문 이미지를 생성하는 단계 이후에, 상기 처리된 이미지를 서로 상이한 원점을 기준으로 분할하여 생성된 적어도 두 개의 조합 지문 이미지를 평균화 처리하는 단계
    를 더 포함하는 지문 인증 방법.
  20. 제11항에 있어서,
    상기 센싱부가 획득한 상기 지문 이미지는 해상도가 300dpi 미만인,
    지문 인증 방법.
KR1020170024883A 2017-02-24 2017-02-24 지문 인식 장치 및 지문 인식 방법 KR102668332B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170024883A KR102668332B1 (ko) 2017-02-24 2017-02-24 지문 인식 장치 및 지문 인식 방법
US15/866,202 US10509944B2 (en) 2017-02-24 2018-01-09 Method and device for recognizing fingerprint

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170024883A KR102668332B1 (ko) 2017-02-24 2017-02-24 지문 인식 장치 및 지문 인식 방법

Publications (2)

Publication Number Publication Date
KR20180098443A true KR20180098443A (ko) 2018-09-04
KR102668332B1 KR102668332B1 (ko) 2024-05-23

Family

ID=63246790

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170024883A KR102668332B1 (ko) 2017-02-24 2017-02-24 지문 인식 장치 및 지문 인식 방법

Country Status (2)

Country Link
US (1) US10509944B2 (ko)
KR (1) KR102668332B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10877599B2 (en) 2018-02-14 2020-12-29 Samsung Display Co., Ltd. Touch sensing unit and display device including the same
WO2021132736A1 (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 인증 정보를 확인하는 전자 장치 및 그 제어 방법
US11176350B2 (en) 2019-08-27 2021-11-16 Samsung Electronics Co., Ltd. Electronic apparatus and method of processing fingerprint image
WO2022139151A1 (ko) * 2020-12-21 2022-06-30 삼성전자 주식회사 전자 장치 및 전자 장치의 생체 정보 획득 방법
US11776300B2 (en) 2020-12-21 2023-10-03 Samsung Electronics Co., Ltd. Electronic device and method for obtaining biometric information thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339361B2 (en) * 2017-03-23 2019-07-02 International Business Machines Corporation Composite fingerprint authenticator
JP2019109619A (ja) * 2017-12-15 2019-07-04 富士通株式会社 生体認証装置、生体認証方法、および生体認証プログラム
US11328045B2 (en) 2020-01-27 2022-05-10 Nxp B.V. Biometric system and method for recognizing a biometric characteristic in the biometric system
CN111345928B (zh) * 2020-03-09 2022-02-25 腾讯科技(深圳)有限公司 头部姿势监测方法及装置、存储介质、电子设备
CN113918908A (zh) * 2020-07-07 2022-01-11 三星电子株式会社 用于指纹验证的方法和设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150142563A (ko) * 2014-06-11 2015-12-22 삼성전자주식회사 이미지를 처리하는 방법 및 이를 위한 전자 장치
KR20160126842A (ko) * 2015-04-23 2016-11-02 삼성전자주식회사 지문 인증 방법 및 장치
KR20170003361A (ko) * 2015-06-30 2017-01-09 삼성전자주식회사 지문 인식 방법 및 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2833313B2 (ja) 1992-01-10 1998-12-09 富士通株式会社 指紋特徴点の真偽判定装置
KR100267262B1 (ko) 1998-03-13 2000-11-01 김영진 지문 특징 추출방법
EP1017008B1 (en) * 1998-12-28 2007-04-04 Casio Computer Co., Ltd. Apparatus and method for collating image
JP2000322559A (ja) 1999-05-12 2000-11-24 Nec Soft Ltd 指紋画像データの画質調整方法及び装置
JP4911218B2 (ja) 2000-03-31 2012-04-04 富士通株式会社 指紋データ合成装置
JP4232800B2 (ja) 2006-08-03 2009-03-04 日本電気株式会社 ラインノイズ除去装置、ラインノイズ除去方法、ラインノイズ除去プログラム
KR100795187B1 (ko) 2006-11-29 2008-01-16 엘지전자 주식회사 지문 인식 장치 및 방법
CN101946264B (zh) * 2008-02-19 2012-12-05 日本电气株式会社 模式验证设备和模式验证方法
JP5206218B2 (ja) 2008-08-20 2013-06-12 富士通株式会社 指紋画像取得装置、指紋認証装置、指紋画像取得方法及び指紋認証方法
JP5699845B2 (ja) * 2011-07-29 2015-04-15 富士通株式会社 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
KR102214503B1 (ko) * 2013-03-26 2021-02-09 삼성전자주식회사 지문 인식 방법 및 그 전자 장치
KR101537211B1 (ko) 2014-02-14 2015-07-16 크루셜텍 (주) 상이한 지문 입력 방식을 지원하는 지문 인증 방법 및 전자 장치
KR20160133991A (ko) 2015-05-14 2016-11-23 삼성전자주식회사 지문 등록 방법 및 지문 인증 방법
CN106022290B (zh) * 2016-05-30 2018-03-27 广东欧珀移动通信有限公司 一种指纹模板更新方法及终端设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150142563A (ko) * 2014-06-11 2015-12-22 삼성전자주식회사 이미지를 처리하는 방법 및 이를 위한 전자 장치
KR20160126842A (ko) * 2015-04-23 2016-11-02 삼성전자주식회사 지문 인증 방법 및 장치
KR20170003361A (ko) * 2015-06-30 2017-01-09 삼성전자주식회사 지문 인식 방법 및 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10877599B2 (en) 2018-02-14 2020-12-29 Samsung Display Co., Ltd. Touch sensing unit and display device including the same
US11176350B2 (en) 2019-08-27 2021-11-16 Samsung Electronics Co., Ltd. Electronic apparatus and method of processing fingerprint image
US11631273B2 (en) 2019-08-27 2023-04-18 Samsung Electronics Co., Ltd. Electronic apparatus and method of processing fingerprint image
US11869271B2 (en) 2019-08-27 2024-01-09 Samsung Electronics Co., Ltd. Electronic apparatus and method of processing fingerprint image
WO2021132736A1 (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 인증 정보를 확인하는 전자 장치 및 그 제어 방법
WO2022139151A1 (ko) * 2020-12-21 2022-06-30 삼성전자 주식회사 전자 장치 및 전자 장치의 생체 정보 획득 방법
US11776300B2 (en) 2020-12-21 2023-10-03 Samsung Electronics Co., Ltd. Electronic device and method for obtaining biometric information thereof

Also Published As

Publication number Publication date
KR102668332B1 (ko) 2024-05-23
US20180247098A1 (en) 2018-08-30
US10509944B2 (en) 2019-12-17

Similar Documents

Publication Publication Date Title
KR102668332B1 (ko) 지문 인식 장치 및 지문 인식 방법
US10679037B2 (en) Method and apparatus for recognizing fingerprint
US10339178B2 (en) Fingerprint recognition method and apparatus
KR102170725B1 (ko) 지문 등록 방법 및 장치
TWI706272B (zh) 生物識別系統及用於生物識別之電腦實施方法
KR102434562B1 (ko) 위조 지문 검출 방법 및 장치, 지문 인식 방법 및 장치
US10248775B2 (en) Managing latency and power in a heterogeneous distributed biometric authentication hardware
JP6837288B2 (ja) 指紋認証方法及び装置
KR102415509B1 (ko) 얼굴 인증 방법 및 장치
KR102387569B1 (ko) 지문 인증 방법 및 장치
CN107004113B (zh) 用于获取多模式生物识别信息的***和方法
KR101774746B1 (ko) 지문 인증 방법 및 그 지문 인증 방법을 이용한 장치
KR102459852B1 (ko) 지문 인식을 위한 후보 지문 이미지를 선정하는 장치 및 방법
KR101997479B1 (ko) 사용자 인증을 위한 생체 영역을 검출하는 방법 및 장치
KR102369412B1 (ko) 홍채 인식 장치 및 방법
US8792686B2 (en) Biometric authentication device, method of controlling biometric authentication device and non-transitory, computer readable storage medium
KR102558736B1 (ko) 지문 인식 방법 및 장치
KR102205495B1 (ko) 지문 인식 방법 및 장치
KR102204307B1 (ko) 생체 정보를 포함하는 영상의 전 처리 방법
CN106940802B (zh) 用于使用生物测量学信息的认证的方法和设备
US20100008546A1 (en) Pattern identification method, registration device, verification device and program
KR102447100B1 (ko) 지문 인증 방법 및 장치
JP2009020698A (ja) 登録装置、照合装置、データ構造及び記憶媒体
KR101995025B1 (ko) 지문인식센서 및 터치스크린에 남은 지문을 이용한 지문 이미지 복원 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant