KR20210136127A - 지문 이미지 강조, 지문 인식, 애플리케이션 프로그램 기동 방법, 지문 감지 시스템, 전자기기 및 저장 매체 - Google Patents

지문 이미지 강조, 지문 인식, 애플리케이션 프로그램 기동 방법, 지문 감지 시스템, 전자기기 및 저장 매체 Download PDF

Info

Publication number
KR20210136127A
KR20210136127A KR1020217033357A KR20217033357A KR20210136127A KR 20210136127 A KR20210136127 A KR 20210136127A KR 1020217033357 A KR1020217033357 A KR 1020217033357A KR 20217033357 A KR20217033357 A KR 20217033357A KR 20210136127 A KR20210136127 A KR 20210136127A
Authority
KR
South Korea
Prior art keywords
fingerprint
image
fingerprint image
present application
current frame
Prior art date
Application number
KR1020217033357A
Other languages
English (en)
Inventor
밍밍 주
화 레이
지아차이 자오
리 메이
진 왕
Original Assignee
아크소프트 코포레이션 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아크소프트 코포레이션 리미티드 filed Critical 아크소프트 코포레이션 리미티드
Publication of KR20210136127A publication Critical patent/KR20210136127A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00067
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/604Tools and structures for managing or administering access control systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6209Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
    • G06K9/00087
    • G06T5/002
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Automation & Control Theory (AREA)
  • Collating Specific Patterns (AREA)
  • Geometry (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

지문 이미지 강조, 지문 인식 및 애플리케이션 프로그램 기동 방법에 있어서, 상기 지문 이미지 강조 방법은, 현재 프레임의 지문 이미지의 배경 텍스처를 제거하고, 순수 지문 이미지를 획득하는 단계(S101); 상기 순수 지문 이미지에 대해 제1 사전 처리를 진행하여 제1 사전 처리 이미지를 획득하는 단계(S102); 상기 제1 사전 처리 이미지의 유효 영역을 획득하는 단계(S103); 상기 유효 영역에 대해 방향장 추정 및 방향장 교정을 진행하는 단계(S104); 방향장 교정을 거친 상기 유효 영역에 대해 제2 사전 처리를 진행하여 지문 강조 이미지를 획득하는 단계(S105); 를 포함한다. 효과적으로 지문 수집 횟수를 감소하고, 지문 이미지의 품질을 향상시키며, 지문 수집의 번거로움을 감소하고, 지문 잠금 해제 효율을 향상시켰으며 사용자 체험감을 높일 수 있다.

Description

지문 이미지 강조, 지문 인식 및 애플리케이션 프로그램 기동 방법
본 출원의 실시예는 이미지 처리와 터미널 애플리케이션 기술에 관한 것으로, 특히 지문 이미지 강조, 지문 인식 및 애플리케이션 프로그램 기동 방법에 관한 것이다. 본 출원은 2019년 3월 15일 중국특허청에 제출한 출원 번호가 201910198302.7이고, 발명 명칭이 "지문 이미지 강조, 지문 인식 및 애플리케이션 프로그램 기동 방법"인 특허 출원의 우선권을 주장하고, 그 전체 내용은 본 발명에 원용된다.
이동 터미널(모바일폰 등)이 기능 기기로부터 스마트 기기로 발전 및 전환됨에 따라, 이동 터미널의 잠금 해제 방식도 나날이 변화되고 있으며, 최초의 숫자 비밀번호 또는 패턴을 주로 하는 잠금 해제 방식으로부터, 지문, 안면, 홍막 등을 주로 하는 생체 식별 잠금 해제 방식으로 전환되고 있다. 기술의 끝없는 돌파와 더불어, 잠금 해제의 편리성과 안전성도 대폭적으로 향상되었다.
오늘 날, 스크린 하부 지문 잠금 해제 방안은 미관적이고, 편리하며, 잠금 해제 속도가 빠르고, 사용자 습관에 부합되는 등 장점들을 구비하며, 현재 모바일폰 잠금 해제의 주류 방식 중의 하나로 되었다. 그러나, 현재의 절대다수의 스크린 하부 지문 잠금 해제 방안에서, 수집된 지문 이미지가 뚜렷하지 못하고, 완전하지 못하거나 또는 변형되는 등 원인으로 인해 사용자가 등록 시 반복하여 손가락을 지문 수집 영역에 놓고 다수회의 부분 지문을 수집해야 하므로, 비교적 번거롭고, 또한, 잠금 해제 시 지문 이미지의 품질 문제로 인해 잠금 해제 효율이 낮고, 사용자 체험감에 큰 영향을 끼친다.
본 출원의 실시예는 지문 이미지 강조, 지문 인식 및 애플리케이션 프로그램의 기동 방법을 제공하고 지문 수집 횟수를 감소하고, 지문 이미지의 품질을 향상시키며, 지문 수집의 번거로움을 감소하고, 지문 잠금 해제 효율을 향상시키며, 사용자 체험감을 높일 수 있다.
본 출원의 실시예의 목적을 실현하기 위해, 본 출원의 실시예는 지문 이미지 강조 방법을 제공하고, 상기 방법은,
현재 프레임의 지문 이미지의 배경 텍스처를 제거하고, 순수 지문 이미지를 획득하는 단계;
상기 순수 지문 이미지에 대해 제1 사전 처리를 진행하여 제1 사전 처리 이미지를 획득하는 단계;
상기 제1 사전 처리 이미지의 유효 영역을 획득하는 단계;
상기 유효 영역에 대해 방향장 추정 및 방향장 교정을 진행하는 단계; 및
방향장 교정을 거친 상기 유효 영역에 대해 제2 사전 처리를 진행하여 지문 강조 이미지를 획득하는 단계; 를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 배경 텍스처는 상기 현재 프레임의 지문 이미지의 전의 N프레임의 지문 이미지의 화소 평균값이고, N은 양의 정수이다.
본 출원의 예시적 실시예에서, 지문 이미지의 배경 텍스처를 제거하고, 순수 지문 이미지를 획득하는 상기 단계는,
상기 현재 프레임의 지문 이미지에서 상기 배경 텍스처에 대해 화소 대응 차감을 진행하여 상기 순수 지문 이미지를 획득하는 단계를 포함한다.
본 출원의 예시적 실시예에서, 현재 프레임의 지문 이미지의 배경 텍스처를 제거하기 전, 상기 현재 프레임의 지문 이미지와 상기 배경 텍스처에 대해 부분 컬러 전달을 진행한다.
본 출원의 예시적 실시예에서, 상기 제1 사전 처리는, 상기 순수 지문 이미지에 대해 콘트라스트 강조 및/또는 노이즈 제거를 진행하는 단계를 포함힌다.
본 출원의 예시적 실시예에서, 상기 제1 사전 처리 이미지의 유효 영역을 획득하는 단계는 사전 설정된 지문 전경 분할 알고리즘을 사용한다.
본 출원의 예시적 실시예에서, 상기 제2 사전 처리는,
상기 유효 영역에 대해 노이즈 제거하는 단계;
이진화 이미지를 획득하는 단계; 및
상기 이진화 이미지 중의 지문 능선을 세분화하여 상기 지문 강조 이미지를 획득하는 단계; 를 포함한다.
본 출원의 실시예는 지문 인식 방법을 더 제공하였고, 상기 방법은,
수집한 현재 프레임의 지문 이미지에 대해 강조 처리를 진행하여 지문 강조 이미지를 획득하는 단계이고, 상기 강조 처리는, 상기 현재 프레임의 지문 이미지의 배경 텍스처 제거를 진행하여 순수 지문 이미지를 획득하는 단계;
상기 지문 강조 이미지에 대해 특징 추출을 진행하여 특징 데이터를 획득하는 단계; 및
상기 특징 데이터와 지문 템플릿의 특징 데이터의 비교에 의해 지문 인식을 완료하는 단계; 를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 강조 처리는,
상기 순수 지문 이미지에 대해 제1 사전 처리를 진행하여 제1 사전 처리 이미지를 획득하는 단계;
상기 제1 사전 처리 이미지의 유효 영역을 획득하는 단계; 및
상기 유효 영역에 대해 방향장 추정 및 방향장 교정을 진행하는 단계;
방향장 교정을 거친 상기 유효 영역에 대해 제2 사전 처리를 진행하여 지문 강조 이미지를 획득하는 단계; 를 더 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 배경 텍스처는 상기 현재 프레임의 지문 이미지의 전의 N프레임의 지문 이미지의 화소 평균값이고, N은 양의 정수이다.
본 출원의 예시적 실시예에서, 지문 이미지의 배경 텍스처를 제거하여 순수 지문 이미지를 획득하는 상기 단계는,
상기 현재 프레임의 지문 이미지에서 상기 배경 텍스처에 대해 화소 대응 차감을 진행하여 상기 순수 지문 이미지를 획득하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 현재 프레임의 지문 이미지의 배경 텍스처를 제거하기 전, 상기 현재 프레임의 지문 이미지와 상기 배경 텍스처에 대해 부분 컬러 전달을 진행한다.
본 출원의 예시적 실시예에서, 상기 지문 강조 이미지에 대해 특징 추출을 진행하기 전에,
상기 지문 강조 이미지에 대해 지문 왜곡 검측을 진행하고, 상기 지문 강조 이미지가 정상 지문 이미지인지 또는 왜곡 지문 이미지인지를 확정하는 단계; 및
상기 왜곡 지문 이미지에 대해 왜곡 교정을 진행하는 단계; 를 더 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 지문 강조 이미지에 대해 지문 왜곡 검측을 진행하는 단계는,
상기 지문 강조 이미지를 분류기에 입력하여 분류하고, 분류 결과는 정상 지문 이미지 및 왜곡 지문 이미지를 포함하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 왜곡 지문 이미지에 대해 왜곡 교정을 진행하는 단계는:
상기 왜곡 지문 이미지의 방향장 및 주기도를 추출하는 단계;
상기 방향장 및 주기도에 따라 데이터 베이스 세트에서 상기 왜곡 지문 이미지와 가장 근접하는 참조 왜곡 지문을 찾는 단계; 및
상기 참조 왜곡 지문에 따라 상기 왜곡 지문 이미지에 대해 역변환 교정을 진행하는 단계; 를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 특징 데이터는, 지문 능선의 상세점 특징 및/또는 능선 특징을 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 특징 데이터와 지문 템플릿의 특징 데이터의 비교에 의해 지문 인식을 완료하는 단계는,
상기 특징 데이터와 상기 지문 템플릿의 특징 데이터의 특징 유사도를 계산하는 단계; 및
상기 특징 유사도가 특징 유사도 임계값 이상일 경우, 지문 인식을 완료하는 단계; 를 포함할 수 있다.
본 출원의 실시예는 지문 인식에 기반한 애플리케이션 프로그램 기동 방법을 제공하였고, 상기 애플리케이션 프로그램 기동 방법은,
지문 이미지를 수집하는 단계;
상기 내용 중 어느 한 항의 지문 인식 방법을 이용하여 상기 지문 이미지에 대해 지문 인식을 진행하는 단계; 및
지문 인식 성공 시, 상기 애플리케이션 프로그램을 기동하는 단계; 를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 애플리케이션 프로그램 기동 방법은, 상기 지문 이미지 수집 전, 터치 스크린 상의 손가락의 터치 동작이 지문 이미지 수집 단계의 기동에 관한 사전 설정 조건을 만족하는지 여부를 검측한다.
본 출원의 예시적 실시예에서, 상기 지문 인식에 기반한 애플리케이션 프로그램 기동 방법은, 상기 애플리케이션 프로그램을 기동하는 동시에 신분 검증을 완료하는 단계를 더 포함할 수 있다.
본 출원의 실시예는 지문 감지 시스템을 더 제공하였고,
발광 디스플레이 유닛을 포함하고 화면을 디스플레이하는 디스플레이 스크린;
적어도 상기 디스플레이 스크린 하방의 부분 영역에 설치되어 지문 이미지를 수집하는 지문 수집 모듈; 및
상기 지문 이미지를 수신하고, 상기 내용 중 어느 한 항의 상기 지문 인식 방법을 사용하여 상기 지문 이미지에 대해 지문 인식을 진행하는 지문 인식 모듈; 을 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 지문 수집 모듈은,
렌즈; 및
상기 렌즈 하방에 설치되고, 직접 상기 디스플레이 스크린 상의 지문 이미지를 획득하는 이미징 유닛; 을 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 지문 수집 모듈은 디스플레이 스크린으로부터 발사되고 손가락 표면에서 디스플레이 스크린으로 반사되는 광선을 검측하는 것을 통해 지문 이미지를 획득한다.
본 출원의 예시적 실시예에서, 상기 지문 수집 모듈은 손가락으로부터 디스플레이 스크린에 투입되는 광선을 검출하는 것을 통해 지문 이미지를 획득하고, 여기서, 굴절각이 제1 임계값보다 큰 광선이 검측될 시, 지문 능선으로 확정하고, 굴절각이 상기 제1 임계값인 광선이 검측될 시, 지문 곡선으로 확정하며, 상기 지문 능선 및 상기 지문 곡선에 의해 상기 지문 이미지를 획득한다.
본 출원의 예시적 실시예에서, 상기 제1 임계값은 상기 지문 곡선 위치의 굴절각이다.
본 출원의 예시적 실시예에서, 상기 지문 수집 모듈은 굴절각이 상기 제1 임계값보다 큰 광선을 가이드하는 광로 가이드 모듈을 더 포함한다.
본 출원의 예시적 실시예에서, 상기 지문 수집 모듈은, 굴절각이 상기 제1 임계값보다 큰 광선이 검측될 시, 상기 광선을 지문 능선으로 확정하고, 굴절각이 제1 임계값 이하인 광선이 검측될 시, 상기 광선을 지문 곡선으로 확정하여 지문 이미지를 획득하도록 설치된 광전기 센서를 더 포함한다.
본 출원의 실시예는 전자기기를 더 제공하였고,
프로세서; 및
상기 프로세서의 수행 가능한 명령을 저장하는 메모리;를 포함할 수 있고,
상기 프로세서는 상기 수행 가능한 명령을 수행하여 상기 어느 한 항의 지문 인식 방법을 수행하도록 설정된다.
본 출원의 예시적 실시예에서, 상기 전자기기는 상기 어느 한 항의 지문 감지 시스템을 더 포함할 수 있다.
본 출원의 실시예는 저장 매체를 더 제공하였고, 상기 저장 매체는 저장된 프로그램을 포함하고, 상기 프로그램이 운행될 시, 상기 저장 매체가 위치하는 기기가 상기 어느 한 항의 지문 인식 방법을 수행하도록 제어한다.
상기 본 출원의 실시예 방안을 통해, 지문 수집 횟수를 감소하고, 지문 이미지의 품질을 향상시키며, 지문 수집의 번거로움을 감소하고, 지문 잠금 해제 효율을 향상시켰으며, 사용자 체험감을 높인다. 따라서, 적어도 아래와 같은 유익한 효과를 포함한다:
1. 소량 횟수의 지문 수집만을 통해 신분 등록을 완성할 수 있어, 빠르고 편리하다.
2. 모바일폰 스크린의 임의의 위치에서 지문 인식을 진행할 수 있어 유연하고 자유롭다.
3. 애플리케이션 디자인상에서 지문 인식, 애플리케이션 프로그램 기동, 신분 검증을 원스텝으로 실현할 수 있다.
4. 왜곡 변형된 지문에 대해서도 비교적 양호한 인식 효과를 가지며, 안정적이고 신뢰성 있다.
본 출원의 실시예의 기타 특징 및 장점을 아래의 명세서에서 설명하고, 일부는 명세서를 통해 자명되거나 또는 실시예 실시를 통해 이해될 수 있다. 본 출원의 목적 및 기타 장점은 명세서, 청구항 및 도면 중에서 특별히 나타낸 구조를 통해 실현 및 획득될 수 있다.
도면은 본 출원의 기술방안에 대한 더 상세한 이해를 제공하고, 명세서의 일부를 구성하여 본 출원의 실시예와 함께 본 출원의 기술방안을 설명하나, 본 출원의 기술방안에 대한 제한으로 구성되지 않는다.
도 1은 본 출원의 실시예의 지문 이미지 강조 방법의 흐름도이다.
도 2는 본 출원의 실시예의 방향장 사전의 방법을 사용하여 유효 영역의 초기 방향장 중 에러인 부분에 대해 정정하는 방법의 흐름도이다.
도 3은 본 출원의 실시예의 제2 사전 처리 방법의 흐름도이다.
도 4는 본 출원의 실시예의 지문 인식 방법의 흐름도이다.
도 5는 본 출원의 실시예의 상기 현재 프레임의 지문 이미지에 대해 배경 텍스처 제거를 진행하여 순수 지문 이미지를 획득한 후의 강조 처리 방법의 흐름도이다.
도 6은 본 출원의 실시예의 방향장 교정을 거친 유효 영역에 대해 제2 사전 처리를 진행하는 구체적 방법의 흐름도이다.
도 7은 본 출원의 실시예의 지문 강조 이미지에 대해 특징 추출을 진행하기 전의 방법의 흐름도이다.
도 8은 본 출원의 실시예의 상기 왜곡 지문 이미지에 대해 왜곡 교정을 진행하는 방법의 흐름도이다.
도 9-a는 본 출원의 실시예의 능선, 상세점, 서브 능선의 제1 개략도이다.
도 9-b는 본 출원의 실시예의 능선, 상세점, 서브 능선의 제2 개략도이다.
도 9-c는 본 출원의 실시예의 서브 능선의 라벨 관계 개략도이다.
도 10은 본 출원의 실시예의 지문 인식에 기반한 애플리케이션 프로그램 기동 방법의 흐름도이다.
도 11은 본 출원의 실시예의 지문 감지 시스템의 구성 구조 블록도이다.
도 12는 본 출원의 실시예의 지문 감지 시스템이 터치 패널을 포함할 시의 구조 개략도이다.
도 13은 본 출원의 실시예의 디스플레이 스크린으로부터 발사되고 손가락 표면에서 디스플레이 스크린으로 반사되는 광선을 검측하는 것을 통해 지문 이미지를 획득하는 방법의 개략도이다.
도 14는 본 출원의 실시예의 손가락으로부터 디스플레이 스크린에 투입되는 광선을 검측하는 것을 통해 지문 이미지를 획득하는 방법의 개략도이다.
도 15는 본 출원의 실시예의 전자 기기의 구성 구조의 블록도이다.
본 출원의 실시예의 목적, 기술방안 및 장점이 보다 명확하도록 하기 위해, 이하, 도면과 결합하여 본 출원의 실시예에 대해 상세한 설명을 진행한다. 설명해야 할 것은, 충돌되지 않는 상황에서, 본 출원의 실시예 및 실시예의 특징은 서로 임의로 조합될 수 있다.
도면의 흐름도에서 나타낸 단계는 한 조의 컴퓨터가 수행 가능한 명령의 컴퓨터 시스템에서 수행될 수 있다. 또한, 흐름도에서 로직 순서를 나타냈으나, 일부 상황에서 그와 다른 순서로 나타내거나 또는 설명한 단계를 수행할 수 있다.
본 출원의 실시예의 목적을 실현하기 위해, 본 출원의 실시예는 지문 이미지 강조 방법을 제공하였고, 도 1에서 도시한 바와 같이, 상기 방법은 S101단계 ~ S105단계를 포함할 수 있다.
S101단계에서, 현재 프레임의 지문 이미지의 배경 텍스처를 제거하고, 순수 지문 이미지를 획득한다.
본 출원의 예시적 실시예에서, 스크린 하부 지문 잠금 해제 과정 중, 스크린 하부에서 수집한 광학 지문 이미지는 비교적 약하므로, 잠금 해제 과정에서 통상적으로 지문 이미지를 다수회 수집하여 검증을 진행해야 하기 때문에 사용자 조작에 번거로움이 증가하였고, 사용자 체험감을 낮춘다. 상기 문제를 해결하기 위해, 본 출원 실시예의 방안은 우선 수집한 지문 이미지에 대해 강조 처리를 진행할 수 있다.
본 출원의 예시적 실시예에서, 상기 강조 처리는, 상기 현재 프레임의 지문 이미지에 대해 배경 텍스처 제거를 진행하여 순수 지문 이미지를 획득하는 단계를 포함한다.
본 출원의 예시적 실시예에서, 통상적으로, 수집한 이미지에는 지문을 포함할 뿐만 아니라, 지문 이미지의 배경 텍스처(일례로, 스크린 자체의 텍스처, 잔류 지문 이미지 등)도 포함하며, 따라서, 강조 처리에서 우선 지문과 배경 텍스처에 대해 분리를 진행할 수 있다.
본 출원의 예시적 실시예에서, 상기 지문 이미지의 배경 텍스처를 제거하여 순수 지문 이미지를 획득하는 단계는,
상기 현재 프레임의 지문 이미지에서 상기 배경 텍스처에 대해 화소 대응 차감을 진행하여 상기 순수 지문 이미지를 획득하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 배경 텍스처는 상기 현재 프레임의 지문 이미지의 전의 N프레임의 지문 이미지의 화소 평균값으로 표시될 수 있고, N은 양의 정수이다.
본 출원의 예시적 실시예에서, 멀티 프레임의 이미지의 화소 평균값을 구하는 방법을 사용하여 배경 텍스처를 획득할 수 있고, 즉, 현재 프레임의 지문 이미지의 전의 N프레임의 지문 이미지 시퀀스를 통해 화소 평균값을 연산하고, 획득한 결과는 배경 텍스처로 근사하게 여겨질 수 있다. 이는, 수집한 지문 이미지 시퀀스에서, 배경 텍스처는 상대적으로 고정되고 강도가 비교적 높으나, 지문 변화는 비교적 크고 강도가 비교적 약하기 때문이며, 멀티 프레임의 이미지의 평균을 통해 우연히 나타난 지문을 더 약화시키고, 상대적으로 안정적인 배경 텍스처를 보류한다. 배경 텍스처 획득 후, 현재 프레임의 지문 이미지와 배경 텍스처에 대해 화소 대응 차감을 진행하여 배경 텍스처를 제거한 후의 순수 지문 이미지를 획득한다.
본 출원의 예시적 실시예에서, 상기 현재 프레임의 지문 이미지 중, 상기 배경 텍스처에 대해 화소 대응 차감을 진행하는 단계는, 현재 프레임의 지문 이미지의 화소에서 상기 현재 프레임의 지문 이미지의 전의 N프레임의 이미지의 화소 평균값을 감하고, 획득한 결과에 대해 다시 특정 알고리즘(일례로, 사전 설정 계수를 곱하고 다시 사전 설정 값과 더함)을 통해 현재 프레임의 지문 이미지 중의 배경 텍스처의 제거를 실현하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 지문 이미지 강조 방법은, 현재 프레임의 지문 이미지의 배경 텍스처를 제거하기 전, 상기 현재 프레임의 지문 이미지와 상기 배경 텍스처에 대해 부분 컬러 전달을 진행하여, 상기 현재 프레임의 지문 이미지와 상기 배경 텍스처의 밝기가 일치함을 유지하도록 하는 단계를 더 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 현재 프레임의 지문 이미지에 대해 배경 텍스처 제거를 진행할 경우, 현재 프레임의 지문 이미지와 배경 텍스처의 밝기가 불일치한 문제가 발생할 수 있으므로, 직접 감할 경우, 틀린 결과가 나타날 수 있다. 따라서, 우선 지문 이미지와 배경 텍스처에 대해 부분 컬러 전달을 진행하여 배경 텍스처와 지문 이미지의 밝기가 일치함을 유지하도록 한 후, 순차적으로 화소 대응 차감을 진행하여 상대적으로 순수한 지문 이미지, 즉, 상기 순수 지문 이미지를 획득할 수 있다.
S102단계에서, 상기 순수 지문 이미지에 대해 제1 사전 처리를 진행하여 제1 사전 처리 이미지를 획득한다.
본 출원의 예시적 실시예에서, 상기 제1 사전 처리는, 상기 순수 지문 이미지에 대해 콘트라스트 강조 및/또는 노이즈 제거를 진행하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 순수 지문 이미지에 대해 콘트라스트 강조 및 노이즈 제거를 진행하는 단계는,
상기 순수 지문 이미지에 대해 부분 콘트라스트 규범화 또는 부분 자기 적응 히스토그램 균등화 처리를 진행하여 상기 순수 지문 이미지의 콘트라스트를 강조하는 단계; 및
사전 설정된 노이즈 제거 알고리즘을 이용하여 콘트라스트가 강조된 후의 순수 지문 이미지에 대해 제1 필터링을 진행하는 단계; 를 포함할 수 있다.
본 출원의 예시적 실시예에서, 지문 이미지는 비교적 약하므로, 배경 텍스처 제거 후 획득한 지문 이미지는 통상적으로 콘트라스트가 비교적 낮고, 때로는 전반적 콘트라스트가 불균일한 상황이 발생할 수도 있다. 따라서, 배경 텍스처 제거 후의 순수 지문 이미지에 대해 부분 콘트라스트 규범화(Local Contrast Normalization, LCN) 또는 부분 자기 적응 히스토그램 균등화 처리를 진행하여 이미지의 콘트라스트를 증가하고, 이미지의 전반적 콘트라스트가 상대적으로 균일하도록 할 수 있다. 해당 과정에서, 이미지의 오리지널 노이즈는 일정 정도에서 확대되고, 따라서, 사전 설정된 노이즈 제거 알고리즘을 이용하여 별도의 노이즈 제거 처리를 진행하여, 콘트라스트 증가 후의 지문 이미지에 대해 노이즈 억제를 진행할 수 있다. 따라서, 상대적으로 선명한 제1 사전 처리 이미지를 획득하게 된다.
본 출원의 예시적 실시예에서, 상기 사전 설정된 노이즈 제거 알고리즘은, 패스트 비국부 평균값 노이즈 제거 알고리즘(Fast Non-Local Means Denoising)을 포함할 수 있다.
본 출원의 예시적 실시예에서, 많은 전형적인 노이즈 제거 알고리즘은 이미지가 모호해지도록 하고, 상기 패스트 비국부 평균값 노이즈 제거 알고리즘은 노이즈를 제거하는 동시에 이미지 중의 엣지 정보를 비교적 양호하게 보류한다. 또한, 본 출원의 기타 실시예에서 양방향 필터(Bilateral Filter) 또는 이방성 필터(Anisotropic Filter)를 사용하여 패스트 비국부 평균값 노이즈 제거 알고리즘을 대체할 수도 있다.
주의해야 할 것은, 당업자는 실제 응용의 수요에 따라 콘트라스트 강조 및 노이즈 제거 두개의 단계를 사용할 수 있고, 콘트라스트 강조 또는 노이즈 제거만 사용할 수도 있다.
S103단계에서, 상기 제1 사전 처리 이미지의 유효 영역을 획득한다.
본 출원의 예시적 실시예에서, 상술한 제1 사전 처리를 거친 후, 획득한 지문 이미지 품질은 상대적으로 비교적 양호하나, 더 한층의 처리를 진행할 수 있다.
본 출원의 예시적 실시예에서, 제1 필터링을 거친 후의 순수 지문 이미지 중의 유효 영역을 획득할 수 있고, 상기 유효 영역은 사전 설정된 지문 전경 분할 알고리즘에 따라 상기 순수 지문 이미지에 대한 계산을 통해 획득된다.
본 출원의 예시적 실시예에서, 통상적으로, 순수 지문 이미지 중의 유효 영역은 지문 이미지의 중간 부분을 말하고, 지문 이미지의 주변 영역은 통상적으로 무효한 배경 부분이고, 무효 부분에 대한 처리는 시간 소모를 증가할 뿐만 아니라 별도의 간섭도 발생시킬 수 있다. 따라서, 지문 이미지에 대해 분할을 진행하여 유효한 지문 전경을 추출하고 무효한 배경 부분을 제거할 수 있다.
본 출원의 예시적 실시예에서, 상기 제1 사전 처리 이미지의 유효 영역을 획득하는 단계는 사전 설정된 지문 전경 분할 알고리즘을 사용할 수 있다.
본 출원의 예시적 실시예에서, 사전 설정된 지문 전경 분할 알고리즘은, 개량된 바운더리에 기반한 지문 이미지 분할 알고리즘(Fingerprint Images Segmentation Based on Boundary Valuse), 또는, 이미지 블록의 그레이 평균값 또는 그레이 분산에 기반한 분할 방법을 포함할 수 있다. 사전 설정된 지문 전경 분할 알고리즘을 통해 후속 처리 성능을 향상시킬 수 있고, 또한, 불필요한 간섭을 피할 수 있다. 지문 전경 영역(즉, 상기 유효 영역)을 획득한 후, 해당 영역에 대해 규범화 처리를 진행하면, 지문 수집 시 누르는 힘의 다름으로 인한 이미지 강도 차이를 제거할 수 있다.
S104단계에서, 상기 유효 영역에 대해 방향장 추정 및 방향장 교정을 진행한다.
본 출원의 예시적 실시예에서, 순수 지문 이미지 중의 유효 영역에 대해 방향장 추정을 진행할 수 있다. 방향장은 지문 이미지의 고유 속성이고, 지문의 능선 및 곡선의 부분 영역 내에서의 고정 좌표를 정의한다.
본 출원의 예시적 실시예에서, 상기 방향장 추정은 푸리에 변환, 구배법 등 방법을 사용하여 지문 이미지의 초기 방향장을 추정할 수 있고, 상기 방향장 교정은, 방향장 사전의 방법을 이용하여 상기 유효 영역의 초기 방향장 중 에러 부분에 대해 정정을 진행하여 보다 정확한 방향장 결과를 획득하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 도 2에서 도시한 바와 같이, 상기 방향장 사전의 방법을 이용하여 상기 유효 영역의 초기 방향장 중 에러 부분에 대해 정정하는 단계는, S201단계 ~ S203단계를 포함할 수 있고, 구체적으로,
상기 유효 영역을 다수의 블록으로 구분하고, 각 블록 중 방향 분포 특성을 계산하는 S201단계;
각 블록 중의 방향 분포 특성과 사전 설정된 방향장 사전을 비교하여 유사도 파라미터를 획득하는 S202단계; 및
유사도 파라미터가 사전 설정된 유사도 임계값보다 큰 방향장 사전 중의 블록을 참조 블록으로 하고, 참조 블록 중의 방향 분포 특성에 따라 상기 유효 영역 중의 상응 블록의 방향 분포 특성을 교정하는 S203단계; 를 포함하고,
여기서, 상기 사전 설정된 방향장 사전은, 사전 설정된 품질 요구를 만족하는 샘플 지문 이미지를 통해 트레이닝하고, 샘플 지문 이미지 중 모든 블록 중의 방향 분포 특성을 추출하고 클러스터링하여 얻은 것이다.
본 출원의 예시적 실시예에서, 지문 이미지를 복수의 블록으로 구분하여 각 블록 중의 방향 분포 특성을 계산할 수 있고, 따라서, 각 블록은 방향장 사전 중의 하나의 단어로 불리게 된다. 품질이 비교적 양호한 지문 이미지를 사전 사용하여 트레이닝을 진행하고, 모든 블록 중의 방향 분포 특성을 추출하며 클러스터링하여 완전한 방향장 사전을 얻을 수 있으며, 사전 중 각 블록의 방향 분포는 모두 비교적 연속적이고 스무스하다. 현재 지문 이미지의 초기 방향장에 대해, 동일한 방법으로 블록을 구분하고, 트레이닝을 통해 획득한 방향장 사전과 비교하며, 방향장 사전 중 가장 유사한 블록을 통해 현재 블록의 방향 분포에 대해 정정을 진행하여 현재 지문 이미지 중의 방향장이 보다 정확하도록 한다.
S105단계에서, 방향장 교정을 거친 상기 유효 영역에 대해 제2 사전 처리를 진행하여 지문 강조 이미지를 획득한다.
본 출원의 예시적 실시예에서, 도 3에서 도시한 바와 같이, 상기 제2 사전 처리는 S301단계 ~ S303단계를 포함할 수 있다.
S301단계에서, 상기 유효 영역에 대해 노이즈 제거를 진행한다.
본 출원의 예시적 실시예에서, Gabor 필터를 이용하여 상기 방향장 교정을 거친 유효 영역에 대해 제2 필터링을 진행하여 이미지 중의 노이즈를 제거하고, 사인파 형상의 능선 및 곡선을 보류할 수 있다.
S302단계에서, 이진화 이미지를 획득한다.
본 출원의 예시적 실시예에서, 자기 적응 이미지 이진화 알고리즘을 사용하여 상기 제2 필터링 후의 유효 영역 중 상이한 영역에 대해 최적 임계값을 계산하고, 상기 유효 영역 중의 지문 정보가 완전한 이진화 이미지를 획득할 수 있다.
S303단계에서, 상기 이진화 이미지 중의 지문 능선을 세분화하여 상기 지문 강조 이미지를 획득한다.
본 출원의 예시적 실시예에서, 상기 이진화 이미지 중의 능선을 하나의 화소의 폭으로 세분화하고, 지문의 오리지널 토폴로지 구조를 보류하며 별도의 노이즈를 증가하지 않는다.
본 출원의 예시적 실시예에서, 비교적 정확한 방향장 정보를 획득한 후, Gabor 필터를 이용하여 지문 전경에 대해 필터링할 수 있고, 이미지 중의 일부 노이즈를 제거하며, 사인파 형상의 능선 및 곡선을 보류할 수 있다. 다음, 필터링 후의 지문 이미지에 대해 이진화 처리를 진행하되, 이때, 적합한 임계값의 선택은 매우 중요함으로, 자기 적응 이미지 이진화 알고리즘을 사용하여 상이한 영역에 대해 최적 임계값을 계산하여 지문 정보가 완전한 이진화 이미지를 획득할 수 있다. 지문 이미지 사전 처리의 마지막 단계는 세분화일 수 있고, 이 단계는 이진화 이미지 중의 능선을 하나의 화소의 폭으로 세분화하고, 동시에 지문의 오리지널 포톨로지 구조를 보류하며 별도의 노이즈를 증가하지 않기 때문에 후속의 특징 추출에 유리하다.
본 출원의 실시예의 목적을 실현하기 위해, 본 출원의 실시예는 지문 인식 방법을 제공하였고, 도 4에서 도시한 바와 같이, 상기 방법은 S401단계 ~ S403단계를 포함할 수 있다.
S401단계에서, 수집한 현재 프레임의 지문 이미지에 대해 강조 처리를 진행하고, 상기 강조 처리는, 상기 현재 프레임의 지문 이미지에 대해 배경 텍스처 제거를 진행하여 순수 지문 이미지를 획득하는 단계를 포함한다.
본 출원의 예시적 실시예에서, 스크린 하부 지문 잠금 해제 과정 중, 스크린 하부에서 수집한 광학 지문 이미지는 비교적 약하므로, 잠금 해제 과정에서 통상적으로 지문 이미지를 다수회 수집하여 검증을 진행해야 하기 때문에 사용자 조작에 번거로움을 증가하였고, 사용자 체험감을 낮춘다. 상기 문제를 해결하기 위해, 본 출원 실시예의 방안은 우선 수집한 지문 이미지에 대해 강조 처리를 진행할 수 있다.
본 출원의 예시적 실시예에서, 상기 강조 처리는, 상기 현재 프레임의 지문 이미지에 대해 배경 텍스처 제거를 진행하여 순수 지문 이미지를 획득하는 단계를 포함한다.
본 출원의 예시적 실시예에서, 통상적으로, 수집한 이미지에는 지문을 포함할 뿐만 아니라, 지문 이미지의 배경 텍스처(일례로, 스크린 자체의 텍스처, 잔류 지문 이미지 등)도 포함하고, 따라서, 강조 처리에서 우선 지문과 배경 텍스처에 대해 분리를 진행할 수 있다.
본 출원의 예시적 실시예에서, 상기 지문 이미지의 배경 텍스처를 제거하여 순수 지문 이미지를 획득하는 단계는,
상기 현재 프레임의 지문 이미지의 전의 N프레임의 지문 이미지 시퀀스를 통해 화소 평균값을 연산하고, 연산 결과를 상기 배경 텍스처로 하되, N은 양의 정수인 단계; 및
상기 배경 텍스처에 따라, 상기 현재 프레임의 지문 이미지에서 화소 대응 차감을 진행하여 상기 순수 지문 이미지를 획득하는 단계; 를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 현재 프레임의 지문 이미지 중, 상기 배경 텍스처에 대해 화소 대응 차감을 진행하는 단계는, 현재 프레임의 지문 이미지의 화소에서 상기 현재 프레임의 지문 이미지의 전의 N프레임의 이미지의 화소 평균값을 감하고, 획득한 결과에 대해 다시 특정 알고리즘(일례로, 사전 설정 계수를 곱하고 다시 사전 설정 값과 더함)을 통해 현재 프레임의 지문 이미지 중의 배경 텍스처의 제거를 실현하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 배경 텍스처에 따라 상기 현재 프레임의 지문 이미지에서 화소 대응 차감을 진행하기 전, 상기 방법은,
상기 현재 프레임의 지문 이미지와 상기 배경 텍스처에 대해 부분 컬러 전달을 진행하여, 상기 현재 프레임의 지문 이미지와 상기 배경 텍스처의 밝기가 일치함을 유지하도록 하는 단계를 더 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 현재 프레임의 지문 이미지에 대해 배경 텍스처 제거를 진행할 경우, 현재 프레임의 지문 이미지와 배경 텍스처의 밝기가 불일치한 문제가 발생할 수 있으므로, 직접 감할 경우, 틀린 결과가 나타날 수 있다. 따라서, 우선 지문 이미지와 배경 텍스처에 대해 부분 컬러 전달을 진행하여 배경 텍스처와 지문 이미지의 밝기가 일치함을 유지하도록 한 후, 순차적으로 화소 대응 차감을 진행하여 상대적으로 순수한 지문 이미지, 즉, 상기 순수 지문 이미지를 획득할 수 있다.
본 출원의 예시적 실시예에서, 도 5에서 도시한 바와 같이, 상기 현재 프레임의 지문 이미지에 대해 배경 텍스처 제거를 진행하여 순수 지문 이미지를 획득한 후, 상기 강조 처리는 S501단계 ~ S504단계를 더 포함할 수 있다.
S501단계에서, 상기 순수 지문 이미지에 대해 제1 사전 처리를 진행하여 제1 사전 처리 이미지를 획득한다.
본 출원의 예시적 실시예에서, 상기 제1 사전 처리는,
상기 순수 지문 이미지에 대해 부분 콘트라스트 규범화 또는 부분 자기 적응 히스토그램 균등화 처리를 진행하여 상기 순수 지문 이미지의 콘트라스트를 강조하는 단계; 및
사전 설정된 노이즈 제거 알고리즘을 이용하여 콘트라스트가 강조된 후의 순수 지문 이미지에 대해 제1 필터링을 진행하는 단계; 를 포함할 수 있다.
본 출원의 예시적 실시예에서, 지문 이미지는 비교적 약하므로, 배경 텍스처 제거 후 획득한 지문 이미지는 통상적으로 콘트라스트가 비교적 낮고, 때로는 전반적 콘트라스트가 불균일한 상황이 발생할 수도 있다. 따라서, 배경 텍스처 제거 후의 순수 지문 이미지에 대해 부분 콘트라스트 규범화(Local Contrast Normalization, LCN) 또는 부분 자기 적응 히스토그램 균등화 처리를 진행하여 이미지의 콘트라스트를 증가하고, 이미지의 전반적 콘트라스트가 상대적으로 균일하도록 할 수 있다. 해당 과정에서, 이미지의 오리지널 노이즈는 일정 정도에서 확대되고, 따라서, 사전 설정된 노이즈 제거 알고리즘을 이용하여 별도의 노이즈 제거 처리를 진행하여, 콘트라스트 증가 후의 지문 이미지에 대해 노이즈 억제를 진행할 수 있다. 따라서, 상대적으로 선명한 제1 사전 처리 이미지를 획득하게 된다.
본 출원의 예시적 실시예에서, 상기 사전 설정된 노이즈 제거 알고리즘은, 패스트 비국부 평균값 노이즈 제거 알고리즘(Fast Non-Local Means Denoising)을 포함할 수 있다.
본 출원의 예시적 실시예에서, 많은 전형적인 노이즈 제거 알고리즘은 이미지가 모호해지도록 하고, 상기 패스트 비국부 평균값 노이즈 제거 알고리즘은 노이즈를 제거하는 동시에 이미지 중의 엣지 정보를 비교적 양호하게 보류한다. 또한, 본 출원의 기타 실시예에서 양방향 필터(Bilateral Filter) 또는 이방성 필터(Anisotropic Filter)를 사용하여 패스트 비국부 평균값 노이즈 제거 알고리즘을 대체할 수도 있다.
S502단계에서, 상기 제1 사전 처리 이미지의 유효 영역을 획득한다.
본 출원의 예시적 실시예에서, 상술한 제1 사전 처리를 거친 후, 획득한 지문 이미지 품질은 상대적으로 비교적 양호하나, 더 한층의 처리를 진행할 수 있으며, 예를 들어, 상기 제1 필터링을 거친 후의 순수 지문 이미지 중의 유효 영역을 획득하고, 상기 유효 영역은 사전 설정된 지문 전경 분할 알고리즘에 따라 상기 순수 지문 이미지에 대한 계산을 통해 획득된다.
본 출원의 예시적 실시예에서, 통상적으로, 순수 지문 이미지 중의 유효 영역은 지문 이미지의 중간 부분을 말하고, 지문 이미지의 주변 영역은 통상적으로 무효한 배경 부분이고, 무효 부분에 대한 처리는 시간 소모를 증가할 뿐만 아니라 별도의 간섭도 발생시킬 수 있다. 따라서, 지문 이미지에 대해 분할을 진행하여 유효한 지문 전경을 추출하고 무효한 배경 부분을 제거할 수 있다.
본 출원의 예시적 실시예에서, 사전 설정된 지문 전경 분할 알고리즘은, 개량된 바운더리에 기반한 지문 이미지 분할 알고리즘(Fingerprint Images Segmentation Based on Boundary Valuse), 또는, 이미지 블록의 그레이 평균값 또는 그레이 분산에 기반한 분할 방법을 포함할 수 있다. 사전 설정된 지문 전경 분할 알고리즘을 통해 후속 처리 성능을 향상시킬 수 있고, 또한, 불필요한 간섭을 피할 수 있다. 지문 전경 영역(즉, 상기 유효 영역)을 획득한 후, 해당 영역에 대해 규범화 처리를 진행하면, 지문 수집 시 누르는 힘의 다름으로 인한 이미지 강도 차이를 제거할 수 있다.
S503단계에서, 상기 유효 영역에 대해 방향장 추정 및 방향장 교정을 진행한다.
본 출원의 예시적 실시예에서, 순수 지문 이미지 중의 유효 영역에 대해 방향장 추정을 진행할 수 있다. 방향장은 지문 이미지의 고유 속성이고, 지문의 능선 및 곡선의 부분 영역 내에서의 고정 좌표를 정의한다.
본 출원의 예시적 실시예에서, 상기 방향장 추정은 푸리에 변환, 구배법 등 방법을 사용하여 지문 이미지의 초기 방향장을 추정할 수 있고, 상기 방향장 교정은, 방향장 사전의 방법을 이용하여 상기 유효 영역의 초기 방향장 중 에러 부분에 대해 정정을 진행하여 보다 정확한 방향장 결과를 획득하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 상기 방향장 사전의 방법을 이용하여 상기 유효 영역의 초기 방향장 중 에러 부분에 대해 정정하는 단계는,
상기 유효 영역을 다수의 블록으로 구분하고, 각 블록 중 방향 분포 특성을 계산하는 단계;
각 블록 중의 방향 분포 특성과 사전 설정된 방향장 사전을 비교하여 유사도 파라미터를 획득하는 단계; 및
유사도 파라미터가 사전 설정된 유사도 임계값보다 큰 방향장 사전 중의 블록을 참조 블록으로 하고, 참조 블록 중의 방향 분포 특성에 따라 상기 유효 영역 중의 상응 블록의 방향 분포 특성을 교정하는 단계; 를 포함할 수 있고,
여기서, 상기 사전 설정된 방향장 사전은, 사전 설정된 품질 요구를 만족하는 샘플 지문 이미지를 통해 트레이닝하고, 샘플 지문 이미지 중 모든 블록 중의 방향 분포 특성을 추출하고 클러스터링하여 얻은 것이다.
본 출원의 예시적 실시예에서, 지문 이미지를 복수의 블록으로 구분하여 각 블록 중의 방향 분포 특성을 계산할 수 있고, 따라서, 각 블록은 방향장 사전 중의 하나의 단어로 불리게 된다. 품질이 비교적 양호한 지문 이미지를 사전 사용하여 트레이닝을 진행하고, 모든 블록 중의 방향 분포 특성을 추출하며 클러스터링하여 완전한 방향장 사전을 얻을 수 있으며, 사전 중 각 블록의 방향 분포는 모두 비교적 연속적이고 스무스하다. 현재 지문 이미지의 초기 방향장에 대해, 동일한 방법으로 블록을 구분하고, 트레이닝을 통해 획득한 방향장 사전과 비교하며, 방향장 사전 중 가장 유사한 블록을 통해 현재 블록의 방향 분포에 대해 정정을 진행하여 현재 지문 이미지 중의 방향장이 보다 정확하도록 한다.
S504단계에서, 방향장 교정을 거친 상기 유효 영역에 대해 제2 사전 처리를 진행하여 지문 강조 이미지를 획득한다.
본 출원의 예시적 실시예에서, 상기 제2 사전 처리는, 제2 필터링, 이진화 처리 및 세분화를 포함할 수 있다.
본 출원의 예시적 실시예에서, 도 6에서 도시한 바와 같이, 상기 방향장 교정을 거친 유효 영역에 대해 제2 사전 처리를 진행하는 단계는, 구체적으로 S601단계 ~ S603단계를 포함할 수 있다.
S601단계에서, Gabor 필터를 이용하여 상기 방향장 교정을 거친 유효 영역에 대해 상기 제2 필터링을 진행하여 이미지 중의 노이즈를 제거하고, 사인파 형상의 능선 및 곡선을 보류한다.
S602단계에서, 자기 적응 이미지 이진화 알고리즘을 사용하여 상기 제2 필터링 후의 유효 영역 중 상이한 영역에 대해 최적 임계값을 계산하고, 상기 유효 영역 중의 지문 정보가 완전한 이진화 이미지를 획득한다.
S603단계에서, 상기 이진화 이미지 중의 능선을 하나의 화소의 폭으로 세분화하고, 지문의 오리지널 토폴로지 구조를 보류하며 별도의 노이즈를 증가하지 않는다.
본 출원의 예시적 실시예에서, 비교적 정확한 방향장 정보를 획득한 후, Gabor 필터를 이용하여 지문 전경에 대해 필터링할 수 있고, 이미지 중의 일부 노이즈를 제거하며, 사인파 형상의 능선 및 곡선을 보류할 수 있다. 다음, 필터링 후의 지문 이미지에 대해 이진화 처리를 진행하되, 이때, 적합한 임계값의 선택은 매우 중요함으로, 자기 적응 이미지 이진화 알고리즘을 사용하여 상이한 영역에 대해 최적 임계값을 계산하여 지문 정보가 완전한 이진화 이미지를 획득할 수 있다. 지문 이미지 사전 처리의 마지막 단계는 세분화일 수 있고, 이 단계는 이진화 이미지 중의 능선을 하나의 화소의 폭으로 세분화하고, 동시에 지문의 오리지널 포톨로지 구조를 보류하며 별도의 노이즈를 증가하지 않기 때문에 후속의 특징 추출에 유리하다.
본 출원의 예시적 실시예에서, 도 7에서 도시한 바와 같이, 상기 지문 강조 이미지에 대해 특징 추출을 진행하기 전에 S701단계 ~ S702단계를 더 포함할 수 있다.
S701단계에서, 상기 지문 강조 이미지에 대해 지문 왜곡 검측을 진행하고, 상기 지문 강조 이미지가 정상 지문 이미지인지 또는 왜곡 지문 이미지인지를 확정한다.
S702단계에서, 상기 왜곡 지문 이미지에 대해 왜곡 교정을 진행한다.
본 출원의 예시적 실시예에서, 지문 인식 과정에서, 통상적으로 지문 왜곡 변형 문제가 발생될 수도 있고, 이는 수집 과정에서 손가락의 누르는 힘과 방향의 다름으로 인한 것이며, 이는 동일한 손가락에서 상이한 특징 데이터가 생성되도록 하여 최후의 인식 결과에 영향을 준다. 따라서, 지문 왜곡 검측 및 교정 알고리즘을 이용하여, 왜곡이 발생된 지문 이미지를 왜곡 변형이 발생되지 않은 상태로 교정하고, 따라서 최후에 획득한 특징 데이터의 일치성을 보장한다.
본 출원의 예시적 실시예에서, 상기 지문 강조 이미지에 대해 지문 왜곡 검측을 진행하는 단계는,
상기 지문 강조 이미지를 분류기에 입력하여 분류하고, 분류 결과는 정상 지문 이미지 및 왜곡 지문 이미지를 포함하는 단계를 포함할 수 있다.
본 출원의 예시적 실시예에서, 지문의 왜곡 변형으로 인해 최종적으로 추출된 특징 데이터는 정상 상태와 다르며, 매칭 점수를 대폭 저하시켜 잘못된 인식 결과를 발생시킨다. 따라서, 우선 지문 이미지에 대해 왜곡 검측을 진행하고, 왜곡 변형이 검출될 시, 상기 지문 이미지에 대해 교정을 진행하여 지문 이미지가 정상적인 상태로 복구되도록 한다. 이를 위해, 사전에 수집한 대량의 정상 지문 이미지 및 왜곡 지문 이미지를 이용하여 하나의 분류기를 트레이닝하고, 강조 처리를 거친 지문 이미지를 상기 트레이닝된 분류기에 입력하여, 현재 입력된 지문 이미지에 대해 2분적 분류를 진행하고, 분류 결과가 왜곡일 경우, 상기 지문 이미지에 대해 왜곡 교정을 진행한다.
본 출원의 예시적 실시예에서, 도 8에서 도시한 바와 같이, 상기 왜곡 지문 이미지에 대해 왜곡 교정을 진행하는 단계는 S801단계 ~ S803단계를 포함할 수 있다.
S801단계에서, 상기 왜곡 지문 이미지의 방향장 및 주기도를 추출한다.
S802단계에서, 상기 방향장 및 주기도에 따라 데이터 베이스 세트에서 상기 왜곡 지문 이미지와 가장 근접하는 참조 왜곡 지문을 찾는다.
S803단계에서, 상기 참조 왜곡 지문에 따라 상기 왜곡 지문 이미지에 대해 역변환 교정을 진행한다.
본 출원의 예시적 실시예에서, 왜곡 교정은 왜곡 지문 이미지의 왜곡장을 추정하며, 그에 대한 역변환을 통해 완료할 수 있다. 이를 위해, 하나의 데이터 베이스 세트를 구축하고, 다양한 왜곡 지문에 대응되는 왜곡장(왜곡장은, 하나의 지문의 정상적인 비왜곡 상태로부터 왜곡 상태까지의 변환 관계를 말함), 방향장 및 주기도(주기도는, 지문 이미지 중 각 위치의 능선 주기 또는 빈도(능선의 밀집도를 나타냄)를 말함)를 포함한다. 구체적인 방법은, 상규적인 정상 지문과 왜곡 지문의 이미지 페어를 수집하고, 이러한 이미지 페어를 통해 상규적인 왜곡장의 통계 모델을 획득하며, 이러한 통계 모델을 이용하여 대량의 왜곡장을 합성하고, 정상 지문 이미지에 작용하여, 정상 지문 이미지에 대응되는 왜곡 이미지 및 그들의 방향장 및 주기도의 집합을 획득함으로써 상기의 데이터 베이스 세트로 한다.
본 출원의 예시적 실시예에서, 지문 이미지에 대한 왜곡 교정은, 현재 검측된 왜곡 지문 이미지에 대해, 우선 그의 방향장 및 주기도를 추출하고, 다음 데이터 베이스 세트에서 현재 왜곡 지문 이미지 특징에 가장 근접하는 참조 왜곡 지문을 찾으며, 상기 왜곡 지문에 대응되는 왜곡장에 따라 현재 왜곡 지문 이미지에 대해 역변환 교정을 진행하여 현재 왜곡 지문 이미지가 정상 상태로 복구되도록 할 수 있다.
S402단계에서, 상기 지문 강조 이미지에 대해 특징 추출을 진행하여 특징 데이터를 획득한다.
본 출원의 예시적 실시예에서, 상기 특징 데이터는, 지문 능선의 상세점 특징, 능선 특징을 포함할 수 있으나 이에 한정되지 않는다.
본 출원의 예시적 실시예에서, 상기 단계를 거친 후, 지문 이미지 강조 처리를 완료할 수 있고, 왜곡 지문의 교정을 완료할 수 있어, 고품질의 지문 이미지를 획득하게 된다. 상기 고품질의 지문 이미지에 대해, 세분화된 지문 능선에 대해 특징 추출을 진행하여 특징 데이터를 획득할 수 있다.
본 출원의 예시적 실시예에서, 상세점 특징을 추출할 수 있고, 상기 상세점 특징은 능선의 단점 및 분기점 등을 포함할 수 있다. 상세점 특징에 대해 사전 설정된 방식의 코딩 저장을 진행하면, 현재 지문 이미지의 특징 데이터를 획득하게 된다.
S403단계에서, 상기 특징 데이터와 지문 템플릿의 특징 데이터의 비교에 의해 지문 인식을 완료한다. 본 출원의 예시적 실시예에서, 상기 특징 데이터와 지문 템플릿의 특징 데이터의 비교에 의해 지문 인식을 완료하는 단계는,
상기 특징 데이터와 상기 지문 템플릿의 특징 데이터의 특징 유사도를 계산하는 단계를 포함할 수 있고,
상기 특징 유사도가 특징 유사도 임계값 이상일 경우, 지문 인식을 완료한다.
본 출원의 예시적 실시예에서, 획득한 현재 지문 이미지의 특징 데이터와 지문 템플릿의 상이한 지문의 특징 데이터를 비교하면, 상이한 지문 사이의 유사도를 계산할 수 있고, 따라서 상기 유사도에 의해 지문 인식과 검증을 완료할 수 있다. 통상적인 상황에서, 현재 지문 이미지의 상기 특징 데이터와 사전 설정된 상이한 지문의 특징 데이터 중의 임의의 하나의 유사도가 사전 설정된 유사도 임계값 이상일 경우, 양자의 매칭이 확정되고, 검증의 성공을 확정할 수 있다.
본 출원의 예시적 실시예에서, 통상적인 상황에서, 지문 인식의 최후 단계를 진행하고, 지문 비교 시, 내부에 저장된 지문 템플릿(즉, 사전 설정된 상이한 지문의 특징 데이터)은 현재 입력된 지문의 모양과 달라, 직접 매칭될 수 없으므로, 우선 두개의 서로 비교되는 지문 이미지에 대해 정렬한다. 지문 정렬은 통상적으로 가장 유사한 서브 구조(예를 들어, 상세점 세트 또는 능선)를 찾는 것을 통해 완료되고, 여기서, 사용된 서브 구조는 상세점 및 다수의 관련된 능선일 수 있으며, 구체적으로, 상세점, 상세점이 위치한 능선 및 상기 능선 양측에 인접한 능선으로 구성된 서브 구조일 수 있다. 상기 서브 구조에 대해, 우선 상세점을 확정하고(도 9-a, 9-b중의 점이 도시하는 바와 같이, 능선 내부의 단점 또는 분기점은 상세점을 나타냄), 다시 상세점을 통해 능선에 수직되는 방향을 따라 직선을 그리고, 직선과 인접한 능선의 두개의 교점은 투영점으로 지칭되며, 상세점 및 투영점을 통해 서브 구조 중의 능선을 분리하고, 도 9-a, 도 9-b에서 도시한 바와 같이, 그들의 상대적 위치 및 방향에 따라 번호를 표시한다. 도면에서, 원래의 완전한 검은 선은 능선을 표시하고(도 9-a의 2+3, 4+5, 1 및 도 9-b의 4+5, 3+1, 3+2, 6+7과 같이), 능선 내부의 단점 또는 분기점은 상세점을 표시하며(도 9-a, 9-b의 검은 점이 나타내는 바와 같이), 도면 중 하얀 점은 투영점이고, 상세점 또는 투영점에 의해 능선이 분리되어 서브 능선을 얻는다(도 9-a 중의 2, 3, 1, 4, 5 및 도 9-b 중의 4, 5, 3, 1, 2, 6, 7이 나타내는 바와 같이).
본 출원의 예시적 실시예에서, 두개의 서브 구조가 아래의 조건 중의 임의의 하나 이상을 만족할 경우, 그들의 서로 매칭됨을 판정할 수 있다. 1. 상세점 유형이 동일하고, 대응되는 서브 능선의 번호가 동일하다. 2. 상세점 유형이 상이하나, 서브 능선의 번호 관계가 기정된 두가지 중 하나이다(도 9-c에서 도시한 바와 같이). 3. 대응되는 서브 능선의 유사도가 일정한 유사도 임계값보다 크고, 모든 서브 능선의 평균 유사도는 일정한 유사도 임계값보다 크다. 이어서, 모든 매칭된 서브 구조로부터 가장 매칭되는 앞의 N쌍을 선택하고, 최소 제곱법을 통해 그들 사이의 전반적인 방사 변환을 추정하여 두개의 지문 이미지에 대한 정렬을 완료한다.
본 출원의 예시적 실시예에서, 이상적인 상황에서, 매칭되는 상세점 페어 및 서브 구조 페어는 정렬 변환을 거친 후 완전히 중첩되어야 하나, 실제로 상세점 추출 과정의 오차 및 정렬 변환과 실제 물리 변환의 오차로 인해, 상세점 페어와 서브 구조 페어가 완전히 매칭될 수 없다. 따라서, 보다 안정적인 매칭 방안을 사용하여 지문 사이의 유사도를 계산할 수 있고, 주로 아래와 같은 두개의 방면을 고려할 수 있다. 1. 상세점 페어 방면에서, 우선 하나의 참조 상세점을 선택하고, 기타 모든 상세점을 참조 상세점을 원점으로 하는 극좌표로 전환할 수 있으며, 다음, 각도가 커지는 순서에 따라 모든 상세점을 하나의 특징 스트링으로 연결하여 구성할 수 있고, 마지막으로 지문 템플릿 특징 스트링과 현재 지문 특징 스트링 사이의 편집 거리를 계산하여, 편집 거리에 따라 상세점 페어 사이의 매칭 점수를 확정할 수 있다. 2. 서브 구조 페어 방면에서, 지문 정렬 시 얻은 가장 매칭되는 앞의 N쌍의 서브 구조에 대해 에르고딕하고, 각 페어의 서브 구조 중의 대응되는 능선은 초기의 매칭 능선 페어를 구성하며, 매칭 능선 페어와 인접한 능선 페어는 또 새로운 매칭 능성 페어를 구성하며, 따라서 두개의 지문의 매칭 능선 페어 집합을 얻을 수 있다. 임의의 한 쌍의 매칭된 능선 페어에 대해, 그들이 위치하는 서브 구조 페어의 변환을 통하거나 또는 그들의 능선 페어가 위치하는 서브 구조 페어의 변환을 생성하여 정렬을 진행할 수 있고, 다음, 동적 계획을 통해 가장 매칭되는 시퀀스를 계산하여 매칭 능선 페어 사이의 매칭 포인트 수를 얻을 수 있다. 동시에, 서브 구조 페어 중의 상세점에 대해, 그들이 위치하는 매칭 능선 페어 중의 매칭 포인트와의 거리가 일정한 거리 임계값보다 작고, 상세점 인접 능선 사이의 주기와 대응 상세점 인접 능선 사이의 주기가 비교적 접근하면(예를 들어, 사전 설정된 차이 임계값보다 작으며), 상세점 페어가 서로 매칭되는 것으로 여길 수 있다. 마지막으로, 매칭 능선 페어 상의 매칭 포인트의 비례 및 매칭 상세점이 매칭 서브 구조 페어에서 차지하는 비례를 통해 서브 구조 페어 사이의 매칭 점수를 얻을 수 있다. 상세점 페어 매칭 점수와 서브 구조 페어 매칭 점수를 종합하여 두개의 지문 이미지 사이의 최종 유사도를 얻을 수 있고, 상기 최종 유사도와 사전 설정된 유사도 임계값을 비교하는 것을 통해 현재의 두개의 지문의 매칭 성공 여부를 확인할 수 있다.
본 출원의 실시예의 다른 일 측면에 따르면, 또한 지문 인식에 기반한 애플리케이션 프로그램 기동 방법을 제공하였고, 도 10에서 도시한 바와 같이, 상기 애플리케이션 프로그램 기동 방법은 S1001단계 ~ S1003단계를 포함할 수 있다:
S1001단계에서, 지문 이미지를 수집한다.
S1002단계에서, 상기 임의의 지문 인식 방법에 따라 지문 이미지에 대해 인식한다.
S1003단계에서, 지문 인식 성공 시, 해당 애플리케이션 프로그램을 기동한다.
본 출원의 예시적 실시예에서, 애플리케이션 프로그램 기동 방법은, 상기 지문 이미지 수집 전, 터치 스크린 상의 손가락의 터치 동작이 지문 이미지 수집 단계의 기동에 관한 사전 설정 조건을 만족하는지 여부를 검측하는 단계를 더 포함할 수 있다.
본 출원의 예시적 실시예에서, 애플리케이션 프로그램은 수권인의 액세스만 허용하여 사용자 프라이버시, 개인 정보 또는 기업, 사업기관 기밀 정보를 보호하는 컴퓨터 프로그램일 수 있다.
본 출원의 예시적 실시예에서, 지문 인식의 성공으로 애플리케이션 프로그램을 시작하는 동시에, 상기 애플리케이션 프로그램과 상기 지문에 대응되는 사용자 신분 정보를 수집하여 빅데이터 분석에 적용될 수 있다. 예를 들어, 사용자가 애플리케이션 프로그램을 사용하는 빈도, 시점 등 정보를 수집하여 사용자의 선호도 및 습관을 분석할 수 있으며, 따라서 애플리케이션 프로그램 개발자의 시장 계획에 도움을 줄 수 있다.
종래의 애플리케이션 프로그램 기동 방법에서, 우선, 손가락으로 클릭 또는 터치하여 애플리케이션 프로그램을 시작한 후, 애플리케이션 프로그램에서 지문 검증을 알릴 시, 다시 손가락을 특정된 지문 인식 영역에 눌러야만 신분 검증이 완료된다. 알 수 있다시피, 이러한 종래의 방법에서, 적어도 두개의 단계를 통해야만 애플리케이션 프로그램을 시작하고 신분 검증을 완료할 수 있어, 동작이 비교적 번거롭고 시간을 소모하며, 일정 정도에서 사용자의 체험도를 낮춘다. 그러나 본 출원의 실시예에서, 상기 단계를 통해, 손가락이 클릭, 터치 또는 스크린에 접근할 시, 애플리케이션 프로그램을 기동하는 동시에 신분 검증을 완료하여 사용자가 애플리케이션 프로그램에 대해 상응한 동작을 진행하는 권한을 확인하고, 애플리케이션 프로그램에 대한 안전한 액세스를 제공할 수 있다(일례로, 안전 금융 거래).
본 출원의 실시예의 다른 일 측면에 따르면, 지문 감지 시스템(1)을 제공하였고, 도 11에서 도시한 바와 같이, 상기 지문 감지 시스템은, 디스플레이 스크린(11), 지문 수집 모듈(12) 및 지문 인식 모듈(13)을 포함할 수 있다.
디스플레이 스크린(11)은 화면을 디스플레이하는 발광 디스플레이 유닛을 포함한다.
본 출원의 예시적 실시예에서, 발광 디스플레이 유닛은 자체발광 디스플레이 유닛일 수 있고, 예를 들어, 발광 다이오드(Light-Emitting Diode, LED), 유기발광 다이오드(Organic Light-Emitting Diode, OLED) 또는 마이크로 발광 다이오드(Micro-LED) 등일 수 있다. 기타 대체 실시예에서, 발광 디스플레이 유닛은 수동 발광 디스플레이 유닛일 수도 있으며, 예를 들어, 액정 디스플레이 스크린(Liquid Crystal Display, LCD) 등일 수 있다.
지문 수집 모듈(12)은 적어도 상기 디스플레이 스크린 하방의 부분 영역에 설치되어 지문 이미지를 수집한다.
본 출원의 예시적 실시예에서, 휴대식 또는 웨어러블 기기의 공간은 한정적이므로, 통상적으로 디스플레이 영역을 가능한 최대화하기를 희망하며, 따라서, 지문 수집 모듈을 적어도 디스플레이 스크린 하방의 부분 영역에 설치하여 디스플레이 영역에 대한 점용을 감소할 수 있다.
지문 인식 모듈(13)은 상기 현재 프레임의 지문 이미지를 수신하고, 상기 지문 인식 방법을 이용하여 상기 지문 이미지에 대해 지문 인식을 진행한다.
본 출원의 예시적 실시예에서, 디스플레이 스크린(11)은 터치 디스플레이 스크린일 수 있고, 화면 표시를 진행할 수 있을 뿐만 아니라 사용자 손가락의 동작을 검측할 수도 있어(일례로, 터치, 프레스 또는 디스플레이 스크린에 접근), 사용자에게 맨-머신 인터렉션 화면을 제공한다. 예를 들어, 일 실시예에서, 도 12에서 도시한 바와 같이, 지문 감지 시스템은 터치 패널(Touch Panel, TP)을 더 포함할 수 있으며, 상기 터치 패널은 디스플레이 스크린의 표면에 설치될 수 있고, 부분 또는 전체적으로 디스플레이 스크린에 집적되어 터치 디스플레이 스크린을 구성할 수도 있다.
본 출원의 예시적 실시예에서, 지문 감지 시스템(1)은 커버 플레이트를 포함할 수 있고, 디스플레이 스크린의 상방에 설치되어, 사용자 터치 및 디스플레이 화면의 계면으로써 디스플레이 스크린에 대한 보호를 실현한다. 커버 플레이트는 유리 또는 사파이어일 수 있는데, 이에 한정되지 않는다.
본 출원의 지문 수집 모듈(12)의 구성 구조에 관한 첫번째 예시적 실시예에서, 지문 수집 모듈(12)은 광학 시준기 및 광 검출기(Photo Detector)를 포함할 수 있다. 광학 시준기를 통해, 입사각이 사전 설정각보다 작은 광선만 광 검출기에 도착할 수 있다.
본 출원의 지문 수집 모듈(12)의 구성 구조에 관한 두번째 예시적 실시예에서, 지문 수집 모듈은 렌즈 및 이미징 유닛을 포함할 수 있고, 여기서, 이미징 유닛은 렌즈 하방에 설치될 수 있고, 렌즈 이미징 원리를 이용하여 직접 디스플레이 스크린 상의 지문 이미지를 획득한다. 여기서, 렌즈는 볼록 렌즈를 선택할 수 있다. 실제 응용의 수요에 따라, 디스플레이의 하방에 각각 하나 또는 다수의 렌즈 및 이미징 유닛을 설치하여 스크린의 부분 영역, 하프 스크린 또는 풀 스크린에서 지문 수집 및 인식을 실현할 수 있다. 렌즈 및 이미징 유닛은 서로 독립적인 부품 또는 일체로 집적된 부품일 수 있고, 렌즈와 이미징 유닛이 서로 독립될 시, 양자의 개수는 일일이 대응되지 않을 수 있다.
본 출원의 지문 수집 모듈(12)의 구성 구조에 관한 세번째 예시적 실시예에서, 상기 지문 수집 모듈은 디스플레이 스크린으로부터 발사되고 손가락 표면에서 디스플레이 스크린으로 반사되는 광선을 검측하는 것을 통해 지문 이미지를 획득한다. 구체적으로, 지문 수집 모듈은 제1 광전기 센서를 포함할 수 있고, 제1 광전기 센서는 디스플레이 스크린으로부터 발사되고 손가락 표면에서 디스플레이 스크린으로 반사되는 광선을 검측하는 것을 통해 지문 이미지를 획득한다. 도 13에서 도시한 바와 같이, 디스플레이 스크린 중 밝혀진 발광 디스플레이 유닛과 충분히 멀리 떨어진 곳에서, 지문 능선 위치의 굴절률은 지문 곡선 위치의 굴절률보다 크고, 따라서, 지문 곡선 위치에서 전반사가 형성되며, 지문 능선 위치에서는 전반사가 형성되지 않고, 일부분 광선이 손가락 내부로 투과되며, 따라서, 지문 곡선 위치의 반사광의 강도가 지문 능선 위치의 반사광보다 크고, 이러한 디스플레이 스크린으로 반사된 광선의 강약을 검측하는 것을 통해 지문 능선 및 지문 곡선을 확정하여 지문 이미지를 획득할 수 있다. 그러나 이러한 방안에서, 자극광은 내장된 발광 디스플레이 유닛이며, 반사광의 강약을 검측해야 하며, 환경광은 효과에 대해 비교적 큰 영향을 끼치므로, 반사광 강약 차이가 비교적 작을 시, 지문 이미지의 선명도를 감소시킨다.
본 출원의 지문 수집 모듈(12)의 구성 구조에 관한 네번째 예시적 실시예에서, 도 14에서 도시한 바와 같이, 상기 지문 수집 모듈(12)은 손가락으로부터 디스플레이 스크린에 투입되는 광선을 검출하는 것을 통해 지문 이미지를 획득할 수 있으며, 그 중, 굴절각이 제1 임계값보다 큰 광선이 검측될 시, 상기 광선을 지문 능선으로 확정할 수 있고, 그렇지 않을 경우, 상기 광선을 지문 곡선으로 확정하며, 지문 능선 및 지문 곡선에 따라 상기 지문 이미지를 얻을 수 있다. 상기 제1 임계값은 상기 지문 곡선 위치의 굴절각일 수 있다. 바람직하게, 지문 수집 모듈(12)은 굴절각이 제1 임계값보다 큰 광선을 가이드하는 광로 가이드 모듈을 포함할 수 있다. 상기 지문 수집 모듈(12)은 광전기 센서(제2 광전기 센서)를 포함할 수 있으며, 제2 광전기 센서를 이용하여 굴절각이 제1 임계값보다 큰 광선이 검측될 시, 지문 능선으로 확정하고, 그렇지 않을 경우, 지문 곡선으로 확정하여 지문 이미지를 획득할 수 있다. 제2 광전기 센서는 상보형 금속산화 반도체(CMOS) 센서, 박막 트랜지스터(TFT) 센서 또는 기타 맞춤형 센서일 수 있다. 본 실시예에서, 자극광 자체가 환경광이므로, 지문 이미지의 획득은 환경광의 영향을 받지 않으며, 이론적으로, 환경광이 강할 수록 수집 효과가 좋다. 또한, 환경광이 부족할 시, 손가락 주위의 디스플레이 스크린에 내장된 발광 디스플레이 유닛을 밝히거나 또는 외부 광원을 밝히는 것을 통해 광선의 강도를 강조할 수 있다.
상기 본 출원의 예시적 실시예를 통해 알 수 있다시피, 지문 감지 시스템은 디스플레이 스크린 하방에 위치하므로, 디스플레이 스크린의 디스플레이 영역은 전자 기기의 전체 면으로 확장될 수 있다. 또한, 지문 감지 시스템은 디스플레이 하방의 일부 영역 또는 전부 영역에 설치되어 부분 영역, 하프 스크린 또는 풀 스크린의 지문 인식을 실현할 수 있다. 종래의 기술에서, 지문 감지 시스템은 통상적으로 디스플레이 스크린 외의 영역에 설치되며, 손가락과의 접촉면이 비교적 작고, 예를 들면, 애플사의 iphon6은, 인식 대상 및 인식 방식에 매우 큰 제한을 가지며, 큰 패턴(일례로, 장문)의 수집 및 인식에 적합하지 않고, 다수의 인식 대상에 대해 동시에 인식 검증을 진행하기에도 적합하지 않다. 그러나 본 출원 실시예의 기술방안을 사용하면, 디스플레이 스크린 하방의 일부 영역, 하프 스크린 영역 또는 풀 스크린 영역에서 모두 하나 또는 다수의 독립적 또는 전반적인 지문 감지 시스템을 설치할 수 있으므로, 큰 패턴(일례로, 장문)의 수집 및 인식을 실현하여 응용 씬을 확장할 수 있으며; 다수의 인식 대상에 대해 동시에 인식 검증을 진행하여 애플리케이션 프로그램의 안전성을 강조할 수 있으며, 예를 들어, 모 금융 결제류의 애플리케이션 프로그램을 동시에 두 사람의 지문을 검증해야만 시작되어 결제를 완료할 수 있도록 설정하면, 풀 스크린의 지문 인식을 설정하는 것을 통해, 두 사람의 손가락이 동시에 디스플레이 스크린의 임의의 영역을 터치하도록 할 수 있다.
본 출원의 예시적 실시예에서, 본 출원 실시예의 기술방안은 디스플레이 스크린을 구비하는 다양한 전자기기에 적용될 수 있고, 예를 들어, 스마트 폰, 노트북, 랩탑, 디지털 카메라, 게임기, 스마트 밴드, 스마트 워치 등 휴대식 또는 웨어러블 전자기기 및 자동 인출기(Automated Teller Machine, ATM), 정보 관리 시스템, 전자 도어 등 기타 전자 기기에 적용될 수 있다.
본 출원의 예시적 실시예에서, 본 출원 실시예의 기술방안은 지문 외의 기타 생물 특징 인식을 진행할 수 있고, 본 출원의 실시예는 이에 대해 한정하지 않는다.
본 출원의 실시예의 다른 일 측면에 따르면, 전자기기(A)를 제공하며, 도 15에서 도시한 바와 같이, 상기 전자기기는,
프로세서(2); 및
상기 프로세서(2)의 수행 가능한 명령을 저장하는 메모리(3); 를 포함할 수 있고,
상기 프로세서(2)는 상기 수행 가능한 명령을 수행하여 상기 임의의 지문 인식 방법을 수행하도록 설정된다.
본 출원의 예시적 실시예에서, 도 15에서 도시한 바와 같이, 전자기기(A)는 상기 임의의 일항의 상기 지문 감지 시스템(1)을 포함할 수 있다.
본 출원의 실시예의 다른 일 측면에 따르면, 저장 매체를 제공하였고, 상기 저장 매체는 저장된 프로그램을 포함하며, 상기 프로그램은 운행 시, 상기 저장 매체가 위치하는 기기가 전술한 내용 중 임의의 일 항의 상기 지문 인식 방법을 수행하도록 제어한다.
본 출원의 실시예는 적어도 아래와 같은 유익한 효과를 포함한다:
1. 소량 횟수의 지문 수집만을 통해 신분 등록을 완료할 수 있어, 빠르고 편리하다.
2. 모바일폰 스크린의 임의의 위치에서 지문 인식을 진행할 수 있어 유연하고 자유롭다.
3. 응용 디자인에서 지문 인식, 애플리케이션 프로그램 시작, 신분 검증을 원스텝으로 실현할 수 있다.
4. 왜곡 변형된 지문에 대해서도 비교적 양호한 인식 효과를 가지며, 안정적이고 신뢰성 있다.
당업자에게 있어서, 명세서에서 공개한 방법 중의 전부 또는 일부 단계, 시스템, 장치 중의 기능 모듈/유닛은 소프트웨어, 펌웨어, 하드웨어 및 그들의 적절한 조합으로 실시될 수 있음을 이해할 수 있을 것이다. 하드웨어 실시방식에서, 이상의 설명에서 언급된 기능 모듈/유닛 사이의 구분은 물리적 조립체의 구분에 대응되지 않을 수 있으며; 예를 들어, 하나의 물리적 조립체는 다수의 기능을 구비할 수 있거나, 또는 하나의 기능 또는 단계는 다수의 물리적 조립체의 협력을 통해 수행될 수 있다. 일부 조립체 또는 모든 조립체는 프로세서, 예를 들어, 디지털 신호 프로세서 또는 마이크로 프로세서에 의해 수행되는 소프트웨어로 실시되거나, 또는 하드웨어로 실시되거나, 또는 집적회로, 예를 들어, 전문 집적 회로로 실시될 수 있다. 이러한 소프트웨어는 컴퓨터 판독 가능 매체에 분포될 수 있으며, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체(또는 비일시적 매체) 및 통신 매체(또는 일시적 매체)를 포함할 수 있다. 당업자들이 공지하는 바와 같이, 용어 컴퓨터 저장매체는 정보 저장에 적용되는(예를 들어, 컴퓨터 판독 가능 명령, 데이터 구조, 프로그램 모듈 또는 기타 데이터) 임의의 방법 또는 기술 중에서 실시되는 휘발성 및 비휘발성, 이동 및 제거가능 또는 제거 불가능 매체를 포함한다. 컴퓨터 저장 매체는, RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, 디지털 다기능 디스크(DVD) 또는 기타 광 디스크 저장, 카세트, 자기 테이프, 자기 디스크 저장 또는 기타 자기 저장 장치, 또는, 원하는 정보를 저장하며 컴퓨터에 의해 액세스될 수 있는 임의의 기타 매체를 포함하지만 이에 한정되지 않는다. 또한, 당업자에게 있어서 공지된 바와 같이, 통신 매체는 통상적으로 컴퓨터 판독 가능 명령, 데이터 구조, 프로그램 모듈 또는 캐리어 또는 기타 전송 메카니즘과 같은 조절 데이터 신호 중의 기타 데이터를 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.

Claims (30)

  1. 지문 이미지 강조 방법에 있어서,
    현재 프레임의 지문 이미지의 배경 텍스처를 제거하고, 순수 지문 이미지를 획득하는 단계;
    상기 순수 지문 이미지에 대해 제1 사전 처리를 진행하여 제1 사전 처리 이미지를 획득하는 단계;
    상기 제1 사전 처리 이미지의 유효 영역을 획득하는 단계;
    상기 유효 영역에 대해 방향장 추정 및 방향장 교정을 진행하는 단계; 및
    방향장 교정을 거친 상기 유효 영역에 대해 제2 사전 처리를 진행하여 지문 강조 이미지를 획득하는 단계; 를 포함하는 지문 이미지 강조 방법.
  2. 청구항 1에 있어서,
    상기 배경 텍스처는 상기 현재 프레임의 지문 이미지의 전의 N프레임의 지문 이미지의 화소 평균값이고, N은 양의 정수인 지문 이미지 강조 방법.
  3. 청구항 1에 있어서,
    상기 지문 이미지의 배경 텍스처를 제거하고, 순수 지문 이미지를 획득하는 상기 단계는,
    상기 현재 프레임의 지문 이미지에서 상기 배경 텍스처에 대해 화소 대응 차감을 진행하여 상기 순수 지문 이미지를 획득하는 단계를 포함하는 지문 이미지 강조 방법.
  4. 청구항 1에 있어서,
    상기 현재 프레임의 지문 이미지의 배경 텍스처를 제거하기 전, 상기 현재 프레임의 지문 이미지와 상기 배경 텍스처에 대해 부분 컬러 전달을 진행하는 지문 이미지 강조 방법.
  5. 청구항 1에 있어서,
    상기 제1 사전 처리는, 상기 순수 지문 이미지에 대해 콘트라스트 강조 및/또는 노이즈 제거를 진행하는 단계를 포함하는 지문 이미지 강조 방법.
  6. 청구항 1에 있어서,
    상기 제1 사전 처리 이미지의 유효 영역을 획득하는 단계는, 사전 설정된 지문 전경 분할 알고리즘을 사용하는 지문 이미지 강조 방법.
  7. 청구항 1에 있어서,
    상기 제2 사전 처리는,
    상기 유효 영역에 대해 노이즈 제거하는 단계;
    이진화 이미지를 획득하는 단계; 및
    상기 이진화 이미지 중의 지문 능선을 세분화하여 상기 지문 강조 이미지를 획득하는 단계; 를 포함하는 지문 이미지 강조 방법.
  8. 지문 인식 방법에 있어서,
    수집한 현재 프레임의 지문 이미지에 대해 강조 처리를 진행하여 지문 강조 이미지를 획득하는 단계이고, 상기 강조 처리는, 상기 현재 프레임의 지문 이미지의 배경 텍스처 제거를 진행하여 순수 지문 이미지를 획득하는 단계;
    상기 지문 강조 이미지에 대해 특징 추출을 진행하여 특징 데이터를 획득하는 단계; 및
    상기 특징 데이터와 지문 템플릿의 특징 데이터의 비교에 의해 지문 인식을 완료하는 단계; 를 포함하는 지문 인식 방법.
  9. 청구항 8에 있어서,
    상기 강조 처리는,
    상기 순수 지문 이미지에 대해 제1 사전 처리를 진행하여 제1 사전 처리 이미지를 획득하는 단계;
    상기 제1 사전 처리 이미지의 유효 영역을 획득하는 단계;
    상기 유효 영역에 대해 방향장 추정 및 방향장 교정을 진행하는 단계; 및
    방향장 교정을 거친 상기 유효 영역에 대해 제2 사전 처리를 진행하여 지문 강조 이미지를 획득하는 단계; 를 더 포함하는 지문 인식 방법.
  10. 청구항 8에 있어서,
    상기 배경 텍스처는 상기 현재 프레임의 지문 이미지의 전의 N프레임의 지문 이미지의 화소 평균값이고, N은 양의 정수인 지문 인식 방법.
  11. 청구항 8에 있어서,
    상기 지문 이미지의 배경 텍스처를 제거하여 순수 지문 이미지를 획득하는 상기 단계는,
    상기 현재 프레임의 지문 이미지에서 상기 배경 텍스처에 대해 화소 대응 차감을 진행하여 상기 순수 지문 이미지를 획득하는 단계를 포함하는 지문 인식 방법.
  12. 청구항 8에 있어서,
    상기 현재 프레임의 지문 이미지의 배경 텍스처를 제거하기 전, 상기 현재 프레임의 지문 이미지와 상기 배경 텍스처에 대해 부분 컬러 전달을 진행하는 지문 인식 방법.
  13. 청구항 8에 있어서,
    상기 지문 강조 이미지에 대해 특징 추출을 진행하기 전에,
    상기 지문 강조 이미지에 대해 지문 왜곡 검측을 진행하고, 상기 지문 강조 이미지가 정상 지문 이미지인지 또는 왜곡 지문 이미지인지를 확정하는 단계; 및
    상기 왜곡 지문 이미지에 대해 왜곡 교정을 진행하는 단계; 를 더 포함하는 지문 인식 방법.
  14. 청구항 13에 있어서,
    상기 지문 강조 이미지에 대해 지문 왜곡 검측을 진행하는 단계는,
    상기 지문 강조 이미지를 분류기에 입력하여 분류하고, 분류 결과는 정상 지문 이미지 및 왜곡 지문 이미지를 포함하는 단계를 포함하는 지문 인식 방법.
  15. 청구항 13에 있어서,
    상기 왜곡 지문 이미지에 대해 왜곡 교정을 진행하는 단계는,
    상기 왜곡 지문 이미지의 방향장 및 주기도를 추출하는 단계;
    상기 방향장 및 주기도에 따라 데이터 베이스 세트에서 상기 왜곡 지문 이미지와 가장 근접하는 참조 왜곡 지문을 찾는 단계; 및
    상기 참조 왜곡 지문에 따라 상기 왜곡 지문 이미지에 대해 역변환 교정을 진행하는 단계; 를 포함하는 지문 인식 방법.
  16. 청구항 8에 있어서,
    상기 특징 데이터는, 지문 능선의 상세점 특징 및/또는 능선 특징을 포함하는 지문 인식 방법.
  17. 청구항 8에 있어서,
    상기 특징 데이터와 지문 템플릿의 특징 데이터의 비교에 의해 지문 인식을 완료하는 단계는,
    상기 특징 데이터와 상기 지문 템플릿의 특징 데이터의 특징 유사도를 계산하는 단계; 및
    상기 특징 유사도가 특징 유사도 임계값 이상일 경우, 지문 인식을 완료하는 단계; 를 포함하는 지문 인식 방법.
  18. 지문 인식에 기반한 애플리케이션 프로그램 기동 방법에 있어서,
    지문 이미지를 수집하는 단계;
    청구항8 내지 17 중 어느 한 항에 기재된 지문 인식 방법을 이용하여 상기 지문 이미지에 대해 지문 인식을 진행하는 단계; 및
    지문 인식 성공 시, 상기 애플리케이션 프로그램을 기동하는 단계; 를 포함하는 애플리케이션 프로그램 기동 방법.
  19. 청구항 18에 있어서,
    상기 지문 이미지 수집 전, 터치 스크린 상의 손가락의 터치 동작이 지문 이미지 수집 단계의 기동에 관한 사전 설정 조건을 만족하는지 여부를 검측하는 애플리케이션 프로그램 기동 방법.
  20. 청구항 18에 있어서,
    상기 애플리케이션 프로그램을 기동하는 동시에 신분 검증을 완료하는 단계를 더 포함하는 애플리케이션 프로그램 기동 방법.
  21. 지문 감지 시스템에 있어서,
    발광 디스플레이 유닛을 포함하고 화면을 디스플레이하는 디스플레이 스크린;
    적어도 상기 디스플레이 스크린 하방의 부분 영역에 설치되어 지문 이미지를 수집하는 지문 수집 모듈; 및
    상기 지문 이미지를 수신하고, 청구항 8 내지 17 중 어느 한 항에 기재된 지문 인식 방법을 사용하여 상기 지문 이미지에 대해 지문 인식을 진행하는 지문 인식 모듈; 을 포함하는 지문 감지 시스템.
  22. 청구항 21에 있어서,
    상기 지문 수집 모듈은,
    렌즈; 및
    상기 렌즈 하방에 설치되고, 직접 상기 디스플레이 스크린 상의 지문 이미지를 획득하는 이미징 유닛; 을 포함하는 지문 감지 시스템.
  23. 청구항 21에 있어서,
    상기 지문 수집 모듈은 디스플레이 스크린으로부터 발사되고 손가락 표면에서 디스플레이 스크린으로 반사되는 광선을 검측하는 것을 통해 지문 이미지를 획득하는 지문 감지 시스템.
  24. 청구항 21에 있어서,
    상기 지문 수집 모듈은 손가락으로부터 디스플레이 스크린에 투입되는 광선을 검출하는 것을 통해 지문 이미지를 획득하고, 여기서, 굴절각이 제1 임계값보다 큰 광선이 검측될 시, 지문 능선으로 확정하고, 굴절각이 상기 제1 임계값 이하인 광선이 검측될 시, 지문 곡선으로 확정하며, 상기 지문 능선 및 상기 지문 곡선에 의해 상기 지문 이미지를 획득하는 지문 감지 시스템.
  25. 청구항 24에 있어서,
    상기 제1 임계값은 상기 지문 곡선 위치의 굴절각인 지문 감지 시스템.
  26. 청구항 24에 있어서,
    상기 지문 수집 모듈은 굴절각이 상기 제1 임계값보다 큰 광선을 가이드하는 광로 가이드 모듈을 더 포함하는 지문 감지 시스템.
  27. 청구항 24에 있어서,
    상기 지문 수집 모듈은, 굴절각이 상기 제1 임계값보다 큰 광선이 검측될 시, 상기 광선을 지문 능선으로 확정하고, 굴절각이 제1 임계값 이하인 광선이 검측될 시, 상기 광선을 지문 곡선으로 확정하여 지문 이미지를 획득하도록 설치된 광전기 센서를 더 포함하는 지문 감지 시스템.
  28. 전자기기에 있어서,
    프로세서; 및
    상기 프로세서의 수행 가능한 명령을 저장하는 메모리; 를 포함하고,
    상기 프로세서는 상기 수행 가능한 명령을 수행하여 청구항 8 내지 17 중 어느 한 항에 기재된 지문 인식 방법을 수행하도록 설정된 전자기기.
  29. 청구항 28에 있어서,
    청구항 20 내지 27 중 어느 한 항에 기재된 지문 감지 시스템을 더 포함하는 전자기기.
  30. 저장 매체에 있어서,
    상기 저장 매체는 저장된 프로그램을 포함하고, 상기 프로그램이 운행될 시, 상기 저장 매체가 위치하는 기기가 청구항 8 내지 17 중 어느 한 항에 기재된 지문 인식 방법을 수행하도록 제어하는 저장 매체.
KR1020217033357A 2019-03-15 2020-03-10 지문 이미지 강조, 지문 인식, 애플리케이션 프로그램 기동 방법, 지문 감지 시스템, 전자기기 및 저장 매체 KR20210136127A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910198302.7A CN111695386B (zh) 2019-03-15 2019-03-15 一种指纹图像增强、指纹识别和应用程序启动方法
CN201910198302.7 2019-03-15
PCT/CN2020/078648 WO2020187098A1 (zh) 2019-03-15 2020-03-10 一种指纹图像增强、指纹识别和应用程序启动方法

Publications (1)

Publication Number Publication Date
KR20210136127A true KR20210136127A (ko) 2021-11-16

Family

ID=72475347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217033357A KR20210136127A (ko) 2019-03-15 2020-03-10 지문 이미지 강조, 지문 인식, 애플리케이션 프로그램 기동 방법, 지문 감지 시스템, 전자기기 및 저장 매체

Country Status (6)

Country Link
US (1) US11874907B2 (ko)
EP (1) EP3940583A4 (ko)
JP (1) JP7377879B2 (ko)
KR (1) KR20210136127A (ko)
CN (1) CN111695386B (ko)
WO (1) WO2020187098A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668399B (zh) * 2020-12-07 2022-05-17 北京极豪科技有限公司 图像处理方法、指纹信息提取方法、装置、设备及介质
CN114648548A (zh) * 2020-12-17 2022-06-21 虹软科技股份有限公司 图像处理方法、描述子提取方法及其装置、电子设备
TWI785443B (zh) * 2020-12-25 2022-12-01 大陸商北京集創北方科技股份有限公司 大面積屏下光學指紋採集方法、指紋辨識裝置、及資訊處理裝置
CN112884756A (zh) * 2021-03-12 2021-06-01 敦泰电子(深圳)有限公司 一种指纹图像处理方法、指纹芯片及电子设备
CN113408416B (zh) * 2021-06-18 2023-04-07 展讯通信(上海)有限公司 指纹频率估计方法及装置、指纹信息提取方法及装置
CN113570699B (zh) * 2021-06-24 2024-06-14 清华大学 三维指纹重建的方法和装置
CN114356103A (zh) * 2022-01-30 2022-04-15 清华大学 基于指纹图像的三维位姿增量控制方法及装置
CN114368692B (zh) * 2022-03-21 2022-06-14 杭州杰牌传动科技有限公司 智能塔吊物联网协同方法和***
CN114913555A (zh) * 2022-05-30 2022-08-16 深圳芯启航科技有限公司 指纹特征点获取方法、装置、电子设备及存储介质
US11972632B1 (en) * 2023-03-31 2024-04-30 Republic Of Korea (National Service Director Ministry Of The Interior And Safety) Apparatus and method of digital enhancement of fingerprint ridges
CN118212662A (zh) * 2024-05-21 2024-06-18 深圳市魔力信息技术有限公司 指纹图像匹配方法、设备及存储介质

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963656A (en) * 1996-09-30 1999-10-05 International Business Machines Corporation System and method for determining the quality of fingerprint images
US5995642A (en) * 1997-06-30 1999-11-30 Aetex Biometric Corporation Method for automatic fingerprint classification
US7054470B2 (en) * 1999-12-02 2006-05-30 International Business Machines Corporation System and method for distortion characterization in fingerprint and palm-print image sequences and using this distortion as a behavioral biometrics
US6876757B2 (en) * 2001-05-25 2005-04-05 Geometric Informatics, Inc. Fingerprint recognition system
US20040175023A1 (en) * 2001-07-05 2004-09-09 Ola Svedin Method and apparatus for checking a person's identity, where a system of coordinates, constant to the fingerprint, is the reference
JP2003051012A (ja) * 2001-08-03 2003-02-21 Nec Corp ユーザ認証方法及びユーザ認証装置
CN1480898A (zh) 2003-07-21 2004-03-10 上海海运学院 指纹识别***
US7680354B2 (en) * 2006-03-22 2010-03-16 Arcsoft, Inc. Image deblur based on two images
CN100412883C (zh) * 2006-03-23 2008-08-20 北京中控科技发展有限公司 指纹识别方法与***
US20080016371A1 (en) * 2006-07-14 2008-01-17 Arachnoid Biometrics Identification Group Corp. System and Method for Registering a Fingerprint, for Setting a Login Method of an Application, and for Logining in the Application
JP2008276758A (ja) * 2007-03-31 2008-11-13 Univ Waseda 指紋特異点抽出装置及び指紋特異点抽出方法
GB2450479A (en) * 2007-06-22 2008-12-31 Warwick Warp Ltd Fingerprint recognition including preprocessing an image by justification and segmentation before plotting ridge characteristics in feature space
CN101079102A (zh) * 2007-06-28 2007-11-28 中南大学 基于统计方法的指纹识别方法
CN101609499B (zh) 2008-06-20 2011-06-08 南京理工大学 快速指纹识别方法
CN106342325B (zh) 2009-12-23 2013-08-14 凯迈(洛阳)电子有限公司 一种指纹图像的区域分割方法
US20120127179A1 (en) * 2010-11-19 2012-05-24 Nokia Corporation Method, apparatus and computer program product for user interface
CN102270297B (zh) * 2011-07-21 2012-12-19 中国人民解放军国防科学技术大学 一种指纹图像增强方法
CN102609705A (zh) * 2012-01-20 2012-07-25 西安电子科技大学 一种基于扩散方程的低质量指纹图像方向场提取方法
CN102682428B (zh) * 2012-04-18 2014-11-05 浙江大学城市学院 一种基于方向场的指纹图像计算机自动化修补方法
CN102999750B (zh) * 2012-12-31 2015-08-12 清华大学 一种去除背景干扰的现场指纹增强方法
CN103065134B (zh) 2013-01-22 2016-01-13 江苏超创信息软件发展股份有限公司 一种具有提示信息的指纹识别装置和方法
KR101432011B1 (ko) * 2013-03-22 2014-08-21 주식회사 슈프리마 지문 영상 처리 장치 및 방법
CN103996026A (zh) 2014-05-15 2014-08-20 清华大学 指纹特征提取方法、装置及***
CN104156707B (zh) * 2014-08-14 2017-09-22 深圳市汇顶科技股份有限公司 指纹识别方法及其指纹识别装置
CN104765994A (zh) * 2015-04-17 2015-07-08 努比亚技术有限公司 用户身份识别方法及装置
CN105205442B (zh) * 2015-08-07 2019-10-25 北京眼神智能科技有限公司 指纹采集的方法和装置
US10067229B2 (en) * 2015-09-24 2018-09-04 Qualcomm Incorporated Receive-side beam forming for an ultrasonic image sensor
JP2017138858A (ja) * 2016-02-04 2017-08-10 富士通株式会社 生体認証装置、生体認証方法および生体認証プログラム
CN106709450A (zh) * 2016-12-23 2017-05-24 上海斐讯数据通信技术有限公司 一种指纹图像识别方法及***
CN108664177B (zh) * 2017-03-29 2021-11-12 上海耕岩智能科技有限公司 一种基于指纹识别开启应用的方法和装置
JP6948146B2 (ja) 2017-04-18 2021-10-13 サンデン・オートモーティブクライメイトシステム株式会社 車両用空気調和装置
CN107239737A (zh) * 2017-05-03 2017-10-10 广东欧珀移动通信有限公司 一种光学指纹识别方法及相关产品
EP3435280A4 (en) * 2017-06-16 2019-05-01 Shenzhen Goodix Technology Co., Ltd. DIGITAL FOOTPRINT IMAGE PROCESSING METHOD, DIGITAL FOOTPRINT OPTICAL RECOGNITION SYSTEM, AND ELECTRONIC DEVICE

Also Published As

Publication number Publication date
EP3940583A1 (en) 2022-01-19
EP3940583A4 (en) 2022-09-07
CN111695386A (zh) 2020-09-22
CN111695386B (zh) 2024-04-26
US11874907B2 (en) 2024-01-16
JP7377879B2 (ja) 2023-11-10
WO2020187098A1 (zh) 2020-09-24
JP2022524833A (ja) 2022-05-10
US20220084319A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
KR20210136127A (ko) 지문 이미지 강조, 지문 인식, 애플리케이션 프로그램 기동 방법, 지문 감지 시스템, 전자기기 및 저장 매체
US10789465B2 (en) Feature extraction and matching for biometric authentication
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
Tan et al. Efficient and robust segmentation of noisy iris images for non-cooperative iris recognition
CA3044063C (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10558841B2 (en) Method and apparatus for recognizing fingerprint ridge point
TWI687832B (zh) 生物識別系統及用於生物識別之電腦實施方法
Jeong et al. A new iris segmentation method for non-ideal iris images
Min et al. Eyelid and eyelash detection method in the normalized iris image using the parabolic Hough model and Otsu’s thresholding method
CN105844727A (zh) 一种智能动态人脸识别考勤记录管理***
CN108255298B (zh) 一种投影交互***中的红外手势识别方法及设备
CN108564020B (zh) 基于全景3d图像的微手势识别方法
Leo et al. Highly usable and accurate iris segmentation
Galdi Design and development of multi-biometric systems
Chiara Design and Development of multi-biometric systems
Hoffmann et al. Face Detection Using Discrete Gabor Jets and a Probabilistic Model of Colored Image Patches

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal