KR20140050747A - 아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들 - Google Patents

아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들 Download PDF

Info

Publication number
KR20140050747A
KR20140050747A KR1020147007707A KR20147007707A KR20140050747A KR 20140050747 A KR20140050747 A KR 20140050747A KR 1020147007707 A KR1020147007707 A KR 1020147007707A KR 20147007707 A KR20147007707 A KR 20147007707A KR 20140050747 A KR20140050747 A KR 20140050747A
Authority
KR
South Korea
Prior art keywords
image
sensor
illuminator
eye
biometric
Prior art date
Application number
KR1020147007707A
Other languages
English (en)
Other versions
KR102024954B1 (ko
Inventor
키스 제이. 한나
Original Assignee
아이락 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이락 인크. filed Critical 아이락 인크.
Publication of KR20140050747A publication Critical patent/KR20140050747A/ko
Application granted granted Critical
Publication of KR102024954B1 publication Critical patent/KR102024954B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/248Aligning, centring, orientation detection or correction of the image by interactive preprocessing or interactive shape modelling, e.g. feature points assigned by a user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Input (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 눈의 아티팩트 없는 생체 측정 이미지들을 캡처하기 위한 방법들 및 시스템들에 관한 것이다. 상기 눈은 움직이고 있고 부분 반사 안경류가 존재하고 있을 수 있다. 상기 방법은 제1 센서에 의해, 제1 일루미네이터가 눈을 비추는 동안 눈의 제1 이미지를 취득하는 단계를 포함할 수 있다. 상기 제1 이미지는 관심 영역을 포함할 수 있다. 상기 제1 센서는 상기 제1 일루미네이터 및 제2 센서로부터의 고정된 변위에 배치될 수 있다. 상기 제2 센서는 상기 제1 이미지의 취득으로부터 미리 결정된 기간 내에 상기 눈의 제2 이미지를 취득할 수 있다. 상기 제2 이미지는 상기 관심 영역을 포함할 수 있다. 이미지 프로세서는, 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내에서, 상기 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정할 수 있다.

Description

아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들{SYSTEMS AND METHODS FOR CAPTURING ARTIFACT FREE IMAGES}
관련 출원
본 출원은 2011년 8월 22일에 "Capturing Specular Free Images"라는 명칭으로 출원된 미국 가특허 출원 번호 61/525,984의 이득 및 우선권을 주장하고, 이 가특허 출원은 모든 목적을 위해 그대로 참고로 본 명세서에 포함된다.
기술 분야
본 발명은 아이덴티티 검증 기술들(identity verification technologies)에 관한 것이고, 더욱 구체적으로는, 아티팩트 없는 이미지들(artifact free images)을 캡처하기 위한 시스템들 및 방법들에 관한 것이다.
생체 측정 인식 방법들(biometric recognition methods)은 보안, 보호, 금융 거래 검증, 공항, 및 사무실 빌딩들의 분야에서 널리 퍼져 있고 큰 관심사이다. 홍채는 특히 생체 측정 인식을 수행하는 선두적인 방법이지만, 망막 특성과 같은 다른 생체 측정이 이용될 수 있다. 개인의 눈으로부터 생체 측정을 캡처함에 있어서의 도전과제는, 홍채와 같은 관심 대상의 생체 측정 영역인 피처(feature)들이 안경테와 같은 안경류의 부분들 및/또는 안경 렌즈들의 불연속들(discontinuities)에 의해 모호하게 되거나 왜곡될 수 있다는 것이다. 또한, 생체 측정 캡처를 위해 눈을 비추는 것들과 같은 일루미네이터(illuminator)들로부터 유도되는 정반사들(specular reflections)은 챙(visor) 또는 안경 렌즈들로부터 반사되어 캡처된 이미지들을 모호하게 하거나 왜곡시킬 수 있다. 생체 측정 센서에 대해 실장된 그러한 일루미네이터들은 대상의 머리 경사 및 이에 따른 안경의 배향(orientation)으로 인해 가끔 차선의 위치(a sub-optimal position)에 있을 수 있다.
특정 양태들에서, 본 발명은 특히 눈이 생체 측정 취득 장치(biometric acquisition device)에 대하여 움직이고 있을 때, 대상의 눈에서의 관심 영역 내의 아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들에 관한 것이다. 하나 이상의 센서 및/또는 하나 이상의 일루미네이터의 다양한 구성들을 이용함으로써, 아티팩트들에 의해 영향을 받지 않는 눈 영역, 또는 그의 부분들의 이미지들을 취득할 가능성이 향상 또는 최대화될 수 있다. 동시에, 이들 구성들은 생체 측정 취득 장치의 최대 수평 및/또는 수직 치수들을 포함한, 대응하는 생체 측정 취득 장치의 물리적 사이즈 또는 풋프린트를 감소 또는 최소화할 수 있다.
일 양태에서, 본 발명은 부분 반사 안경류(partially-reflective eyewear)의 존재 하에서, 센서와 상대 운동하고 있는 눈의 아티팩트 없는 생체 측정 이미지들을 취득하는 방법에 관한 것이다. 상기 방법은 제1 센서에 의해, 제1 일루미네이터가 눈을 비추는 동안 눈의 제1 이미지를 취득하는 단계를 포함할 수 있다. 상기 제1 이미지는 관심 영역을 포함할 수 있다. 상기 제1 센서는 상기 제1 일루미네이터 및 제2 센서로부터의 고정된 변위에 배치될 수 있다. 상기 제2 센서는 상기 제1 이미지의 취득으로부터 미리 결정된 기간 내에 상기 눈의 제2 이미지를 취득할 수 있다. 상기 제2 이미지는 상기 관심 영역을 포함할 수 있다. 이미지 프로세서는, 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내에서, 상기 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정할 수 있다.
일부 실시예들에서, 상기 제1 센서는 상기 제1 일루미네이터가 비추는 동안 상기 눈의 상기 제1 이미지를 취득한다. 상기 제1 센서는 상기 제2 센서에 대하여 수직으로 변위될 수 있다. 상기 제2 센서는 상기 제1 이미지의 취득과 동시에, 상기 눈의 제2 이미지를 취득할 수 있고, 상기 제2 이미지는 관심 영역을 포함한다. 상기 제1 센서는 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득할 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 미리 정의된 거리에 배치될 수 있다. 제1 센서는 제1 이미지의 취득으로부터 미리 결정된 시간 내에서, 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득할 수 있고, 제2 일루미네이터는 제1 일루미네이터로부터 수직 거리에 배치된다. 제2 센서는 제2 일루미네이터가 비추는 동안 상기 눈의 제4 이미지를 취득할 수 있다.
특정 실시예들에서, 생체 측정 장치 상의 제1 및 제2 센서들의 배열은 제1 및 제2 센서들의 광학 축들이 눈과 센서들 사이의 실질적으로 명목상 거리(substantially a nominal distance) D에서 수렴하도록 될 수 있다. 생체 측정 장치는 Theta = aTan(0.5 * S / D)에 따라, 제1 및 제2 센서들 사이의 중간점과 눈을 연결하는 라인으로부터, 각도 Theta로 제1 및 제2 센서들을 경사지게 할 수 있고, 여기서, S는 상기 제1 및 제2 센서들 사이의 분리 거리이고, D는 상기 눈으로부터 상기 제1 및 제2 센서들 사이의 중간점까지의 거리이다.
일부 실시예들에서, 이미지 프로세서는 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 제1 및 제2 이미지들 중 하나 또는 양자로부터, 관심 영역의 적어도 일부분을 선택할 수 있다. 이미지 프로세서는 생체 측정 검증을 위해, 선택된 관심 영역의 적어도 일부분을 조합할 수 있다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내의 안경류로부터의 정반사를 포함하는지를 결정할 수 있고, 정반사는 제1 일루미네이터로부터 생긴다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 안경류의 비-렌즈 부분으로부터의 차단, 안경류의 렌즈에서의 불연속, 및 렌즈의 가장자리로부터의 왜곡 중 적어도 하나를 포함하는지를 결정할 수 있다.
다른 양태에서, 본 발명은 움직이고 있고 부분 반사 안경류가 존재하는 눈의 아티팩트 없는 생체 측정 이미지들을 취득하는 시스템에 관한 것이다. 상기 시스템은 제1 일루미네이터를 포함할 수 있다. 상기 시스템은 제1 센서와 제2 센서를 포함할 수 있다. 상기 제1 센서는 제1 일루미네이터가 비추는 동안 눈의 제1 이미지를 취득할 수 있다. 상기 제1 이미지는 관심 영역을 포함할 수 있다. 상기 제1 센서는 상기 제1 일루미네이터 및 제2 센서로부터의 고정된 변위에 배치될 수 있다. 상기 제2 센서는 상기 제1 이미지의 취득으로부터 미리 결정된 기간 내에 상기 눈의 제2 이미지를 취득할 수 있고, 상기 제2 이미지는 상기 관심 영역을 포함한다. 이미지 프로세서는 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내에서, 상기 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정할 수 있다.
일부 실시예들에서, 상기 제1 센서는 상기 제2 센서에 대하여 수직으로 변위될 수 있다. 상기 제2 센서는 상기 제1 이미지의 취득과 동시에, 상기 눈의 제2 이미지를 취득할 수 있다. 상기 제1 센서는 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득할 수 있고, 제2 일루미네이터는 제1 일루미네이터로부터 미리 정의된 거리에 배치될 수 있다. 상기 시스템은 제2 일루미네이터를 포함할 수 있다. 상기 제1 센서는 제1 이미지의 취득으로부터 미리 결정된 시간 내에서, 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득할 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 수직 거리에 배치될 수 있다. 제2 센서는 제2 일루미네이터가 비추는 동안 상기 눈의 제4 이미지를 취득한다.
특정 실시예들에서, 상기 제1 및 제2 센서들은 제1 및 제2 센서들의 광학 축들이 눈과 센서들 사이의 실질적으로 명목상 거리 D에서 수렴하도록 배열될 수 있다. 상기 제1 및 제2 센서들은 제1 및 제2 센서들의 광학 축들이 Theta = aTan(0.5 * S / D)에 따라, 제1 및 제2 센서들 사이의 중간점과 눈을 연결하는 라인으로부터, 각도 Theta로 경사지게 하도록 배열될 수 있고, 여기서, S는 상기 제1 및 제2 센서들 사이의 분리 거리이고, D는 상기 눈으로부터 상기 제1 및 제2 센서들 사이의 중간점까지의 거리이다.
일부 실시예들에서, 이미지 프로세서는 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 제1 및 제2 이미지들 중 하나 또는 양자로부터, 관심 영역의 적어도 일부분을 선택한다. 이미지 프로세서는 생체 측정 검증을 위해, 선택된 관심 영역의 적어도 일부분을 조합할 수 있다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내의 안경류로부터의 정반사를 포함하는지를 결정할 수 있고, 정반사는 제1 일루미네이터로부터 생긴다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 안경류의 비-렌즈 부분으로부터의 차단, 안경류의 렌즈에서의 불연속, 및 렌즈의 가장자리로부터의 왜곡 중 적어도 하나를 포함하는지를 결정할 수 있다.
또 다른 양태에서, 본 발명은 움직이고 있고 부분 반사 안경류가 존재하는 눈의 아티팩트 없는 생체 측정 이미지들을 취득하는 방법에 관한 것이다. 상기 방법은 제1 센서에 의해, 상기 눈이 상기 센서에 대해 제1 위치에 있고 제1 일루미네이터가 상기 눈을 비추는 동안 눈의 제1 이미지를 취득하는 단계를 포함할 수 있다. 상기 제1 이미지는 관심 영역을 포함할 수 있다. 상기 제1 센서는 상기 제1 일루미네이터로부터의 고정된 변위에 배치될 수 있다. 상기 제1 센서는 상기 제1 이미지의 취득으로부터 미리 결정된 시간 내에, 상기 눈이 제2 위치에 있고 상기 제1 일루미네이터가 상기 눈을 비추는 동안 상기 눈의 제2 이미지를 취득할 수 있다. 상기 제2 이미지는 상기 관심 영역을 포함할 수 있다. 이미지 프로세서는 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내에서, 상기 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정할 수 있다. 이미지 프로세서는 상기 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 상기 제1 및 제2 이미지들 중 하나 또는 양자로부터, 상기 관심 영역의 적어도 일부분을 선택할 수 있다.
일부 실시예들에서, 상기 제2 센서는 제1 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득한다. 상기 제2 센서는 상기 제1 센서에 대하여 수직으로 변위될 수 있다. 상기 제2 센서는 상기 제3 이미지의 취득으로부터 미리 결정된 시간 내에, 제1 일루미네이터가 비추는 동안 상기 눈의 제4 이미지를 취득할 수 있다. 상기 제1 센서는 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득할 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 미리 정의된 거리에 배치될 수 있다. 상기 제1 센서는 제1 이미지의 취득으로부터 미리 결정된 시간 내에서, 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득할 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 수직 거리에 배치될 수 있다.
특정 실시예들에서, 이미지 프로세서는 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 제1 및 제2 이미지들 중 하나 또는 양자로부터, 관심 영역의 적어도 일부분을 선택할 수 있다. 이미지 프로세서는 생체 측정 검증을 위해, 선택된 관심 영역의 적어도 일부분을 조합할 수 있다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내의 안경류로부터의 정반사를 포함하는지를 결정할 수 있고, 정반사는 제1 일루미네이터로부터 생긴다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 안경류의 비-렌즈 부분으로부터의 차단, 안경류의 렌즈에서의 불연속, 및 렌즈의 가장자리로부터의 왜곡 중 적어도 하나를 포함하는지를 결정할 수 있다.
다음의 도면들은 본 명세서에 설명된 방법들 및 시스템들의 특정 예시적인 실시예들을 도시하며, 유사한 참조 번호들은 유사한 요소들을 가리킨다. 각각의 도시된 실시예는 이러한 방법들 및 시스템들에 대한 예시이고, 한정이 아니다.
도 1a는 서버와 통신하는 클라이언트 머신을 갖는 네트워킹 환경의 실시예를 도시하는 블록도이다.
도 1b 및 도 1c는 본 명세서에 설명된 방법들 및 시스템들을 실시하기 위한 컴퓨팅 머신들의 실시예들을 도시하는 블록도들이다.
도 2는 카메라(또는 뷰포인트)가 2개의 실질적으로 수평의 일루미네이터 사이에 배치되어 있는 시스템의 일 실시예를 도시한다.
도 3a는 안경류를 착용한 사용자의 정면 뷰의 일 실시예를 도시한다.
도 3b는 취득한 이미지에서 홍채를 모호하게 하는 안경류로부터의 정반사들의 일 실시예를 도시한다.
도 4는 실질적으로 상이한 수직 위치들에 있는 2개의 뷰포인트들 및 실질적으로 상이한 수평 및 수직 위치들에 있는 2개의 일루미네이터를 포함하는 시스템의 일 실시예를 도시한다.
도 5는 상부 뷰포인트로부터 취득된 이미지에서 홍채 위의 정반사들의 일 실시예를 도시한다.
도 6은 좌측 상부 일루미네이터가 턴 온 되어 있는 하부 뷰포인트로부터의 뷰의 예시적인 실시예를 도시한다.
도 7은 상부 뷰포인트로부터 취득된 이미지에서 홍채를 모호하게 하는 정반사들의 일 실시예를 도시한다.
도 8은 하부 뷰포인트로부터 취득한 이미지에서 홍채 아래의 정반사들의 일 실시예를 도시한다.
도 9는 하나의 뷰포인트 및 뷰포인트에 대하여 수직으로 배치된 2개의 일루미네이터를 지원하는 시스템의 일 실시예를 도시한다.
도 10은 하나의 일루미네이터 및 일루미네이터에 대하여 공간적으로 배치된 2개의 뷰포인트를 포함하는 시스템의 일 실시예를 도시한다.
도 11은 하나의 일루미네이터 및 일루미네이터에 대하여 공간적으로 배치된 2개의 뷰포인트를 포함하는 시스템의 일 실시예를 도시한다.
도 12는 2개의 일루미네이터 및 제1 일루미네이터에 대하여 공간적으로 배치된 2개의 뷰포인트를 포함하는 시스템의 일 실시예를 도시한다.
도 13은 각각 상이한 수직 및 수평 위치에 있는, 복수의 개별 일루미네이터들 및 2개의 카메라를 포함하는 시스템의 일 실시예를 도시한다.
도 14는 상이한 수직 위치에 있는 2개의 카메라를 지원하는 시스템에서 카메라들의 경사 배향의 일 실시예를 도시한다.
도 15는 상이한 수평 위치들에 있는 2개의 뷰포인트를 지원하는 시스템에서 뷰포인트들의 경사 배향의 일 실시예를 도시한다.
도 16은 더 높은 카메라 위치로부터 이미지가 취득되는 시스템 셋업의 일 실시예를 도시한다.
도 17은 더 낮은 카메라 위치로부터 이미지가 취득되는 시스템 셋업의 일 실시예를 도시한다.
도 18은 이미지 취득 셋업의 측면도의 일 실시예를 도시한다.
도 19는 상부 뷰포인트로부터 및 하부 뷰포인트로부터 캡처된 이미지의 일 실시예를 도시한다.
도 20은 카메라들의 수직 변위를 갖는 시스템을 이용하여 취득된 이미지들의 일 실시예를 도시한다.
도 21은 사용자가 생체 측정 취득 장치로부터 더 멀리 배치된 경우 촬영 조건들의 일 실시예를 도시한다.
도 22는 사용자가 생체 측정 취득 장치에 더 가까이 배치된 경우 촬영 조건들의 일 실시예를 도시한다.
도 23은 카메라 및 일루미네이터를 갖는 시스템의 실시예를 도시하고, 카메라를 향하여 이동하는 사용자의 평면도를 도시한다.
도 24는 카메라 및 일루미네이터를 갖는 시스템의 실시예를 도시하고, 접근하는 사용자의 측면도를 도시한다.
도 25는 복수의 수평 및 수직 뷰포인트들 또는 복수의 사용자 위치들 또는 시선 방향들로부터 이미지들이 캡처될 수 있는 구성을 도시한다.
도 26 및 도 27은 상이한 카메라 위치들, 일루미네이션 조건들, 사용자 위치들 및/또는 시선 위치들로부터 취득한 복수의 이미지들에 대해 수행될 수 있는 프로세싱의 실시예들을 도시한다.
도 28은 아티팩트 없는 이미지들을 캡처하기 위한 방법의 단계들에 대한 일 실시예를 도시한다.
아티팩트 없는 이미지들을 캡처 또는 생성하기 위한 시스템들 및 방법들의 다른 양태들을 다루기 전에, 본 발명의 시스템들 및 방법들에서 이용하는 데 적절한 시스템 컴포넌트들 및 피처들에 대한 설명이 도움이 될 수 있다. 이러한 시스템 컴포넌트들 및 피처들 중 일부는 이미지 취득 및/또는 프로세싱 모듈들과 같은, 생체 측정 장치들 또는 시스템들 내로 포함될 수 있다. 도 1a는 하나 이상의 서버(106A-106N)(일반적으로 본 명세서에서 "서버(들)(106)"로서 지칭됨)와 통신하는 하나 이상의 클라이언트 머신들(102A-102N)(일반적으로 본 명세서에서 "클라이언트 머신(들)(102)"로서 지칭됨)을 포함하는 컴퓨팅 환경(101)의 일 실시예를 도시한다. 클라이언트 머신(들)(102)과 서버(들)(106) 사이에는 네트워크가 설치되어 있다.
일 실시예에서, 컴퓨팅 환경(101)은 서버(들)(106)와 클라이언트 머신(들)(102) 사이에 설치된 장치 또는 기기를 포함할 수 있다. 이러한 기기는 클라이언트/서버 접속들을 관리할 수 있고, 일부 경우들에서는 복수의 백엔드 서버들 사이에서 클라이언트 접속들에 대해 부하 균형을 유지할 수 있다. 클라이언트 머신(들)(102)은 일부 실시예에서 단일 클라이언트 머신(102) 또는 단일 그룹의 클라이언트 머신들(102)을 지칭할 수 있고, 서버(들)(106)는 단일 서버(106) 또는 단일 그룹의 서버들(106)을 지칭할 수 있다. 일 실시예에서, 단일 클라이언트 머신(102)이 2개 이상의 서버(106)와 통신하고, 다른 실시예에서 단일 서버(106)가 2개 이상의 클라이언트 머신(102)과 통신한다. 또 다른 실시예에서, 단일 클라이언트 머신(102)이 단일 서버(106)와 통신한다.
클라이언트 머신(102)은 일부 실시예들에서, 다음의 용어들, 즉, 클라이언트 머신(들)(102); 클라이언트(들); 클라이언트 컴퓨터(들); 클라이언트 장치(들); 클라이언트 컴퓨팅 장치(들); 로컬 머신; 원격 머신; 클라이언트 노드(들); 엔드포인트(들); 엔드포인트 노드(들); 또는 제2 머신 중 어느 하나로 참조될 수 있다. 서버(106)는 일부 실시예들에서, 다음의 용어들, 즉, 서버(들), 로컬 머신, 원격 머신, 서버 팜(들), 호스트 컴퓨팅 장치(들), 또는 제1 머신(들) 중 어느 하나로 참조될 수 있다.
클라이언트 머신(102)은 일부 실시예들에서, 소프트웨어; 프로그램; 실행 가능한 명령어들; 가상 머신; 하이퍼바이저; 웹브라우저; 웹 기반의 클라이언트; 클라이언트-서버 애플리케이션; 씬 클라이언트 컴퓨팅 클라이언트; ActiveX 컨트롤; 자바 애플릿; 소프트 IP 전화기와 같은 VoIP(voice over internet protocol) 통신들에 관련된 소프트웨어; 비디오 및/또는 오디오를 스트리밍하기 위한 애플리케이션; 실시간 데이터 통신들을 용이하게 하기 위한 애플리케이션; HTTP 클라이언트; FTP 클라이언트; 오스카 클라이언트(Oscar client); 텔넷 클라이언트; 또는 임의의 다른 세트의 실행 가능한 명령어들 중 어느 하나일 수 있는 애플리케이션을 실행, 동작 또는 다른 방식으로 제공할 수 있다. 또 다른 실시예들은 서버(106) 또는 다른 원격으로 위치한 머신에서 원격으로 실행되는 애플리케이션에 의해 발생된 애플리케이션 출력을 디스플레이하는 클라이언트 장치(102)를 포함한다. 이들 실시예들에서, 클라이언트 장치(102)는 애플리케이션 윈도우, 브라우저, 또는 다른 출력 윈도우에서 애플리케이션 출력을 디스플레이할 수 있다. 일 실시예에서, 애플리케이션은 데스크톱이고, 다른 실시예들에서, 애플리케이션은 데스크톱을 발생시키는(generate) 애플리케이션이다.
컴퓨팅 환경(101)은 서버들(106A-106N)이 서버 팜(106)으로 함께 논리적으로 그룹화되도록 2개 이상의 서버(106A-106N)를 포함할 수 있다. 서버 팜(106)은 서버 팜(106)에서 지리적으로 분배되어 논리적으로 함께 그룹화되는 서버들(106), 또는 서버 팜(106)에서 서로 근접하게 배치되어 함께 논리적으로 그룹화되는 서버들(106)을 포함할 수 있다. 서버 팜(106) 내에 지리적으로 분배된 서버들(106A-106N)은 일부 실시예들에서, WAN, MAN, 또는 LAN을 이용하여 통신할 수 있고, 상이한 지리적 영역들은 상이한 대륙들(continents); 대륙의 상이한 영역들; 상이한 국가들; 상이한 주들; 상이한 도시들; 상이한 캠퍼스들; 상이한 방들; 또는 앞선 지리적 장소들의 임의의 조합으로서 특징화될 수 있다. 일부 실시예들에서, 서버 팜(106)은 단일 엔티티로서 운영될 수 있고, 다른 실시예들에서, 서버 팜(106)은 복수의 서버 팜들(106)을 포함할 수 있다.
일부 실시예들에서, 서버 팜(106)은 실질적으로 유사한 타입의 오퍼레이팅 시스템 플랫폼(예를 들어, WINDOWS NT(워싱턴주 레드몬드의 Microsoft Corp.에 의해 제조됨), UNIX, LINUX, 또는 SNOW LEOPARD)을 실행하는 서버들(106)을 포함할 수 있다. 다른 실시예들에서, 서버 팜(106)은 제1 타입의 오퍼레이팅 시스템 플랫폼을 실행하는 제1 그룹의 서버들(106), 및 제2 타입의 오퍼레이팅 시스템 플랫폼을 실행하는 제2 그룹의 서버들(106)을 포함할 수 있다. 서버 팜(106)은 다른 실시예들에서, 상이한 타입들의 오퍼레이팅 시스템 플랫폼들을 실행하는 서버들(106)을 포함할 수 있다.
서버(106)는 일부 실시예들에서, 임의의 서버 타입으로 될 수 있다. 다른 실시예들에서, 서버(106)는 다음의 서버 타입들: 파일 서버; 애플리케이션 서버; 웹 서버; 프록시 서버; 어플라이언스(appliance); 네트워크 어플라이언스; 게이트웨이; 애플리케이션 게이트웨이; 게이트웨이 서버; 가상화 서버(virtualization server); 배치 서버(deployment server); SSL VPN 서버; 방화벽; 웹 서버; 애플리케이션 서버 또는 마스터 애플리케이션 서버; 액티브 디렉토리를 실행하는 서버(106); 또는 방화벽 기능, 애플리케이션 기능, 또는 부하 균형 기능을 제공하는 애플리케이션 가속 프로그램(application acceleration program)을 실행하는 서버(106) 중 임의의 것일 수 있다. 일부 실시예들에서, 서버(106)는 원격 인증 다이얼-인 사용자 서비스(remote authentication dial-in user service)를 포함하는 RADIUS 서버일 수 있다. 일부 실시예들은 클라이언트 머신(102)으로부터 요구들을 수신하고, 그 요구들을 제2 서버(106B)에 전달하고, 클라이언트 머신(102)에 의해 발생된 요구에 대해 제2 서버(106B)로부터의 응답으로 응답하는 제1 서버(106A)를 포함한다. 제1 서버(106A)는 클라이언트 머신(102)에 이용 가능한 애플리케이션들의 목록(enumeration)과 또한 애플리케이션들의 목록 내에서 식별된 애플리케이션을 호스팅하는 애플리케이션 서버(106)와 연관된 어드레스 정보를 취득할 수 있다. 제1 서버(106A)는 그 다음에 웹 인터페이스를 이용하여 클라이언트의 요구에 대한 응답을 제공하고, 클라이언트(102)와 직접 통신하여 클라이언트(102)에 식별된 애플리케이션에 대한 액세스를 제공할 수 있다.
클라이언트 머신들(102)은 일부 실시예들에서, 서버(106)에 의해 제공되는 자원들에 대한 액세스를 구하는 클라이언트 노드일 수 있다. 다른 실시예들에서, 서버(106)는 클라이언트들(102) 또는 클라이언트 노드들에 호스팅된 자원들에 대한 액세스를 제공할 수 있다. 서버(106)는 일부 실시예들에서, 그것이 하나 이상의 클라이언트들(102) 또는 서버들(106)과 통신하도록 마스터 노드로서 기능을 한다. 일부 실시예들에서, 마스터 노드는 하나 이상의 클라이언트들(102) 또는 서버들(106)에, 요구된 애플리케이션을 호스팅하는 서버(106)와 연관된 어드레스 정보를 식별 및 제공할 수 있다. 또 다른 실시예들에서, 마스터 노드는 서버 팜(106), 클라이언트(102), 클라이언트 노드들(102)의 클러스터, 또는 어플라이언스일 수 있다.
하나 이상의 클라이언트들(102) 및/또는 하나 이상의 서버들(106)은 컴퓨팅 환경(101) 내의 머신들과 어플라이언스들 사이에 설치된 네트워크(104)를 통해서 데이터를 전송할 수 있다. 네트워크(104)는 하나 이상의 서브 네트워크들을 포함할 수 있고, 클라이언트들(102), 서버들(106), 컴퓨팅 환경(101) 내에 포함된 컴퓨팅 머신들과 어플라이언스들의 임의의 조합 사이에 설치될 수 있다. 일부 실시예들에서, 네트워크(104)는 LAN(local-area network); MAN(metropolitan area network); WAN(wide area network); 클라이언트 머신들(102)과 서버들(106) 사이에 위치한 복수의 서브 네트워크들(104)로 이루어진 프라이머리 네트워크(104); 사설 서브 네트워크(104)를 갖는 프라이머리 공중 네트워크(104); 공중 서브 네트워크(104)를 갖는 프라이머리 사설 네트워크(104); 또는 사설 서브 네트워크(104)를 갖는 프라이머리 사설 네트워크(104)일 수 있다. 또 다른 실시예들은 다음의 네트워크 타입들: 점대점 네트워크; 방송 네트워크; 원격통신 네트워크; 데이터 통신 네트워크; 컴퓨터 네트워크; ATM(Asynchronous Transfer Mode) 네트워크; SONET(Synchronous Optical Network) 네트워크; SDH(Synchronous Digital Hierarchy) 네트워크; 무선 네트워크; 유선 네트워크; 또는 적외선 채널 또는 위성 대역일 수 있는 무선 링크를 포함하는 네트워크(104) 중 임의의 것일 수 있는 네트워크(104)를 포함한다. 네트워크(104)의 네트워크 토폴로지는 상이한 실시예들 내에서 상이할 수 있고, 가능한 네트워크 토폴로지들은 버스 네트워크 토폴로지; 스타 네트워크 토폴로지; 링 네트워크 토폴로지; 리피터 기반의 네트워크 토폴로지; 또는 티어드-스타(tiered-star) 네트워크 토폴로지를 포함한다. 부가적인 실시예들은 모바일 장치들 사이에서 통신하기 위해 프로토콜을 이용하는 모바일 전화 네트워크들의 네트워크(104)를 포함할 수 있고, 프로토콜은 AMPS; TDMA; CDMA; GSM; GPRS UMTS; 3G; 4G; 또는 모바일 장치들 사이에 데이터를 전송할 수 있는 임의의 다른 프로토콜 중 어느 하나일 수 있다.
도 1b에는 컴퓨팅 장치(100)의 실시예가 도시되어 있고, 여기서 도 1a에 도시된 클라이언트 머신(102)과 서버(106)는 본 명세서에 도시되고 설명된 컴퓨팅 장치(100)의 임의의 실시예로서 배치 및/또는 그 위에서 실행될 수 있다. 컴퓨팅 장치(100) 내에는 다음의 컴포넌트들: 중앙 프로세싱 유닛(121); 메인 메모리(122); 저장 메모리(128); 입출력(I/O) 컨트롤러(123); 디스플레이 장치들(124A-124N); 설치 장치(116); 및 네트워크 인터페이스(118)와 통신하는 시스템 버스(150)가 포함되어 있다. 일 실시예에서, 저장 메모리(128)는 오퍼레이팅 시스템, 소프트웨어 루틴, 및 클라이언트 에이전트(120)를 포함한다. I/O 컨트롤러(123)는 일부 실시예들에서, 키보드(126) 및 포인팅 장치(127)에 더 접속된다. 다른 실시예들은 2개 이상의 입출력 장치(130A-130N)에 접속된 I/O 컨트롤러(123)를 포함할 수 있다.
도 1c는 컴퓨팅 장치(100)의 일 실시예를 도시하고, 여기서 도 1a에 도시된 클라이언트 머신(102)과 서버(106)는 본 명세서에 도시되고 설명된 컴퓨팅 장치(100)의 임의의 실시예로서 배치 및/또는 그 위에서 실행될 수 있다. 컴퓨팅 장치(100) 내에는 다음의 컴포넌트들: 브리지(170) 및 제1 I/O 장치(130A)와 통신하는 시스템 버스(150)가 포함되어 있다. 다른 실시예에서, 브리지(170)는 또한 메인 중앙 프로세싱 유닛(121)과 통신하고, 중앙 프로세싱 유닛(121)은 또한 제2 I/O 장치(130B), 메인 메모리(122), 및 캐시 메모리(140)와 통신할 수 있다. 중앙 프로세싱 유닛(121) 내에는 I/O 포트들, 메모리 포트(103) 및 메인 프로세서가 포함되어 있다.
컴퓨팅 머신(100)의 실시예들은 다음의 컴포넌트 구성들: 메인 메모리 유닛(122)으로부터 인출된 명령어들에 응답하고 그것을 처리하는 논리 회로들; 캘리포니아주 산타클라라의 Transmeta Corporation에 의해 제조된 것들, Motorola Corporation에 의해 제조된 것들, Intel Corporation에 의해 제조된 것들과 같은 마이크로프로세서 유닛; International Business Machines에 의해 제조된 것들과 같은 RS/6000 프로세서; Advanced Micro Devices에 의해 제조된 것들과 같은 프로세서; 또는 논리 회로들의 임의의 다른 조합 중 어느 하나를 특징으로 하는 중앙 프로세싱 유닛(121)을 포함할 수 있다. 중앙 프로세싱 유닛(122)의 또 다른 실시예들은 마이크로프로세서, 마이크로컨트롤러, 단일 프로세싱 코어를 갖는 중앙 프로세싱 유닛, 2개의 프로세싱 코어를 갖는 중앙 프로세싱 유닛, 또는 2개 이상의 프로세싱 코어를 갖는 중앙 프로세싱 유닛의 임의의 조합을 포함할 수 있다.
도 1c는 단일 중앙 프로세싱 유닛(121)을 포함하는 컴퓨팅 장치(100)를 도시하지만, 일부 실시예들에서, 컴퓨팅 장치(100)는 하나 이상의 프로세싱 유닛(121)을 포함할 수 있다. 이러한 실시예들에서, 컴퓨팅 장치(100)는 실행될 때, 하나 이상의 프로세싱 유닛(121)에 명령어들을 동시에 실행시키거나 또는 단일 데이터 조각(a single piece of data)에 대해 명령어들을 동시에 실행시키는 펌웨어 또는 다른 실행 가능한 명령어들을 저장 및 실행할 수 있다. 다른 실시예들에서, 컴퓨팅 장치(100)는 실행될 때, 하나 이상의 프로세싱 유닛에 각각 명령어들의 그룹의 일부분을 실행시키는 펌웨어 또는 다른 실행 가능한 명령어들을 저장 및 실행할 수 있다. 예를 들어, 각각의 프로세싱 유닛(121)은 프로그램의 일부분 또는 프로그램 내의 특정 모듈을 실행하도록 지시될 수 있다.
일부 실시예들에서, 프로세싱 유닛(121)은 하나 이상의 프로세싱 코어들을 포함할 수 있다. 예를 들어, 프로세싱 유닛(121)은 2개의 코어, 4개의 코어, 8개의 코어 등을 가질 수 있다. 일 실시예에서, 프로세싱 유닛(121)은 하나 이상의 병렬 프로세싱 코어들을 포함할 수 있다. 프로세싱 유닛(121)의 프로세싱 코어들은 일부 실시예들에서, 글로벌 어드레스 공간으로서 이용 가능한 메모리에 액세스할 수 있거나, 또는 다른 실시예들에서, 컴퓨팅 장치(100) 내의 메모리가 세그먼트되어 프로세싱 유닛(121) 내의 특정 코어에 할당될 수 있다. 일 실시예에서, 컴퓨팅 장치(100) 내의 하나 이상의 프로세싱 코어들 또는 프로세서들은 각각 로컬 메모리에 액세스할 수 있다. 또 다른 실시예들에서, 컴퓨팅 장치(100) 내의 메모리는 하나 이상의 프로세서 또는 프로세싱 코어 사이에 공유될 수 있고, 다른 메모리는 특정 프로세서들 또는 프로세서들의 서브세트들에 의해 액세스될 수 있다. 컴퓨팅 장치(100)가 2개 이상의 프로세싱 유닛을 포함하는 실시예들에서, 복수의 프로세싱 유닛들은 단일 집적 회로(IC)에 포함될 수 있다. 이러한 복수의 프로세서들은 일부 실시예들에서, 요소 인터커넥트 버스(element interconnect bus)라고 칭할 수 있는 내부 고속 버스에 의해 함께 링크될 수 있다.
컴퓨팅 장치(100)가 하나 이상의 프로세싱 유닛(121), 또는 하나 이상의 프로세싱 코어를 포함하는 프로세싱 유닛(121)을 포함하는 실시예들에서, 프로세서들은 복수의 데이터 조각에 대해 동시에 단일 명령어(SIMD)를 실행할 수 있거나, 다른 실시예들에서 복수의 데이터 조각에 대해 동시에 복수의 명령어들(MIMD)을 실행할 수 있다. 일부 실시예들에서, 컴퓨팅 장치(100)는 임의의 수의 SIMD 및 MIMD 프로세서들을 포함할 수 있다.
컴퓨팅 장치(100)는, 일부 실시예들에서, 이미지 프로세서, 그래픽 프로세서, 또는 그래픽 프로세싱 유닛을 포함할 수 있다. 그래픽 프로세싱 유닛은 소프트웨어와 하드웨어의 임의의 조합을 포함할 수 있고, 또한 그래픽 데이터 및 그래픽 명령어들을 입력하여, 입력된 데이터 및 명령어들로부터 그래픽을 렌더링하고, 렌더링된 그래픽을 출력할 수 있다. 일부 실시예들에서, 그래픽 프로세싱 유닛은 프로세싱 유닛(121) 내에 포함될 수 있다. 다른 실시예들에서, 컴퓨팅 장치(100)는 하나 이상의 프로세싱 유닛(121)을 포함할 수 있고, 여기서 적어도 하나의 프로세싱 유닛(121)은 그래픽의 프로세싱 및 렌더링에 전용이다.
컴퓨팅 머신(100)의 일 실시예는 백사이드 버스로도 알려진 보조 버스(secondary bus)를 통해 캐시 메모리(140)와 통신하는 중앙 프로세싱 유닛(121)을 포함하고, 컴퓨팅 머신(100)의 다른 실시예는 시스템 버스(150)를 통해 캐시 메모리와 통신하는 중앙 프로세싱 유닛(121)을 포함한다. 로컬 시스템 버스(150)는 일부 실시예들에서, 2개 이상의 타입의 I/O 장치(130A-130N)와 통신하기 위해 중앙 프로세싱 유닛에 의해 이용될 수도 있다. 일부 실시예들에서, 로컬 시스템 버스(150)는 다음의 타입들의 버스들: VESA VL 버스; ISA 버스; EISA 버스; MCA(MicroChannel Architecture) 버스; PCI 버스; PCI-X 버스; PCI-Express 버스; 또는 NuBus 중 어느 하나일 수 있다. 컴퓨팅 머신(100)의 다른 실시예는 중앙 프로세싱 유닛(121)과 통신하는 비디오 디스플레이(124)인 I/O 장치(130A-130N)를 포함한다. 또 다른 버전들의 컴퓨팅 머신(100)은 다음의 접속들: 하이퍼트랜스포트(HyperTransport), 고속 I/O, 또는 InfiniBand 중 어느 하나를 통해 I/O 장치(130A-130N)에 접속된 프로세서(121)를 포함한다. 컴퓨팅 머신(100)의 다른 실시예들은 로컬 인터커넥트 버스를 이용하는 하나의 I/O 장치(130A) 및 직접 접속을 이용하는 제2 I/O 장치(130B)와 통신하는 프로세서(121)를 포함한다.
컴퓨팅 장치(100)는, 일부 실시예들에서, 메인 메모리 유닛(122) 및 캐시 메모리(140)를 포함한다. 캐시 메모리(140)는 임의의 메모리 타입으로 될 수 있고, 일부 실시예들에서, 다음의 타입들의 메모리: SRAM; BSRAM; 또는 EDRAM 중 어느 하나일 수 있다. 다른 실시예들은 다음의 타입들의 메모리: SRAM(Static random access memory), BSRAM(Burst SRAM 또는 SynchBurst SRAM); DRAM(Dynamic random access memory); FPM DRAM(Fast Page Mode DRAM); EDRAM(Enhanced DRAM), EDO RAM(Extended Data Output RAM); EDO DRAM(Extended Data Output DRAM); BEDO DRAM(Burst Extended Data Output DRAM); EDRAM(Enhanced DRAM); SDRAM(synchronous DRAM); JEDEC SRAM; PC 100 SDRAM; DDR SDRAM(Double Data Rate SDRAM); ESDRAM(Enhanced SDRAM); SLDRAM(SyncLink DRAM); DRDRAM(Direct Rambus DRAM); FRAM(Ferroelectric RAM); 또는 임의의 다른 타입의 메모리 중 어느 하나일 수 있는 메인 메모리 유닛(122) 및 캐시 메모리(140)를 포함한다. 다른 실시예들은 시스템 버스(150); 메모리 포트(103); 또는 프로세서(121)가 메모리(122)에 액세스할 수 있게 하는 임의의 다른 접속, 버스 또는 포트를 통해 메인 메모리(122)에 액세스할 수 있는 중앙 프로세싱 유닛(121)을 포함한다.
컴퓨팅 장치(100)의 일 실시예는 다음의 설치 장치들(116): CD-ROM 드라이브, CD-R/RW 드라이브, DVD-ROM 드라이브, 다양한 포맷들의 테이프 드라이브들, USB 장치, 부팅 가능한(bootable) 매체, 부팅 가능한 CD, KNOPPIX®와 같은 GNU/Linux 분배를 위한 부팅 가능한 CD, 하드 드라이브 또는 애플리케이션들 또는 소프트웨어를 설치하는 데 적절한 임의의 다른 장치 중 어느 하나에 대한 지원을 제공한다. 애플리케이션들은 일부 실시예들에서, 클라이언트 에이전트(120), 또는 클라이언트 에이전트(120)의 임의의 부분을 포함할 수 있다. 컴퓨팅 장치(100)는 또한 하나 이상의 하드 디스크 드라이브들, 또는 독립 디스크들의 하나 이상의 잉여 어레이들(redundant arrays)일 수 있는 저장 장치(128)를 더 포함할 수 있고, 여기서 저장 장치는 오퍼레이팅 시스템, 소프트웨어, 프로그램 애플리케이션들, 또는 클라이언트 에이전트(120)의 적어도 일부분을 저장하도록 구성된다. 컴퓨팅 장치(100)의 다른 실시예는 저장 장치(128)로서 이용되는 설치 장치(116)를 포함한다.
컴퓨팅 장치(100)는 표준 전화선, LAN 또는 WAN 링크(예를 들어, 802.11, T1, T3, 56kb, X.25, SNA, DECNET), 광대역 접속들(예를 들어, ISDN, 프레임 릴레이, ATM, 기가비트 이더넷, 이더넷-오버-소넷(Ethernet-over-SONET)), 무선 접속들, 또는 전술한 것들 중 임의의 것 또는 전부의 일부 조합(이것으로 한정되지 않음)을 포함하는 다양한 접속을 통해 LAN(Local Area Network), WAN(Wide Area Network) 또는 인터넷에 인터페이스하기 위해 네트워크 인터페이스(118)를 더 포함할 수 있다. 접속들은 또한 다양한 통신 프로토콜(예를 들어, TCP/IP, IPX, SPX, NetBIOS, 이더넷, ARCNET, SONET, SDH, FDDI(Fiber Distributed Data Interface), RS232, RS485, IEEE 802.11, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, CDMA, GSM, WiMax 및 직접 비동기 접속들)을 이용하여 구축될 수 있다. 하나의 버전의 컴퓨팅 장치(100)는 SSL(Secure Socket Layer) 또는 TLS(Transport Layer Security), 또는 Citrix Systems, Inc.에 의해 제조된 Citrix 게이트웨이 프로토콜과 같은 임의의 타입 및/또는 형태의 게이트웨이 또는 터널링 프로토콜을 통해 부가적인 컴퓨팅 장치들(100')과 통신할 수 있는 네트워크 인터페이스(118)를 포함한다. 네트워크 인터페이스(118)의 버전들은 빌트인 네트워크 어댑터; 네트워크 인터페이스 카드; PCMCIA 네트워크 카드; 카드 버스 네트워크 어댑터; 무선 네트워크 어댑터; USB 네트워크 어댑터; 모뎀; 또는 본 명세서에 설명된 방법들 및 시스템들을 통신 및 수행할 수 있는 네트워크에 컴퓨팅 장치(100)를 인터페이스하는 데 적절한 임의의 다른 장치 중 어느 하나를 포함할 수 있다.
컴퓨팅 장치(100)의 실시예들은 다음의 I/O 장치들(130A-130N): 키보드(126); 포인팅 장치(127); 마우스; 트랙패드; 광학 펜; 트랙볼; 마이크로폰; 드로잉 태블릿; 비디오 디스플레이; 스피커; 잉크젯 프린터; 레이저 프린터; 및 염료 승화 프린터(dye-sublimation printer); 또는 본 명세서에 설명된 방법들 및 시스템들을 수행할 수 있는 임의의 다른 입출력 장치 중 어느 하나를 포함한다. I/O 컨트롤러(123)는 일부 실시예들에서, 하나 이상의 I/O 장치들을 제어하기 위해 복수의 I/O 장치들(103A-130N)에 접속할 수 있다. I/O 장치들(130A-130N)의 일부 실시예들은 저장 또는 설치 매체(116)를 제공하도록 구성될 수 있고, 다른 실시예들은 Twintech Industry, Inc.에 의해 제조된 장치들의 USB(universal serial bus) 플래시 드라이브 라인과 같은 USB 저장 장치들을 수용하기 위한 USB 인터페이스를 제공할 수 있다. 또 다른 실시예들은 USB 버스; 애플 데스크톱 버스; RS-232 직렬 접속; SCSI 버스; 파이어와이어 버스; 파이어와이어 800 버스; 이더넷 버스; 애플톡(AppleTalk) 버스; 기가비트 이더넷 버스; 비동기 전송 모드 버스; HIPPI 버스; 수퍼 HIPPI 버스; 시리얼플러스(SerialPlus) 버스; SCI/LAMP 버스; 파이버채널(FibreChannel) 버스; 또는 직렬 부착된 소형 컴퓨터 시스템 인터페이스 버스와 같은 외부 통신 버스와 시스템 버스(150) 사이의 브리지일 수 있는 I/O 장치(130)를 포함한다.
일부 실시예들에서, 컴퓨팅 머신(100)은 임의의 오퍼레이팅 시스템을 실행할 수 있고, 다른 실시예들에서 컴퓨팅 머신(100)은 다음의 오퍼레이팅 시스템들: MICROSOFT WINDOWS 오퍼레이팅 시스템들의 버전들; Unix 및 Linux 오퍼레이팅 시스템들의 상이한 릴리즈들; Apple Computer에 의해 제조된 MAC OS의 임의의 버전; International Business Machines에 의해 제조된 OS/2; 구글에 의한 안드로이드; 임의의 임베디드 오퍼레이팅 시스템; 임의의 실시간 오퍼레이팅 시스템; 임의의 오픈 소스 오퍼레이팅 시스템; 임의의 사유 오퍼레이팅 시스템; 모바일 컴퓨팅 장치들을 위한 임의의 오퍼레이팅 시스템들; 또는 임의의 다른 오퍼레이팅 시스템 중 임의의 것을 실행할 수 있다. 또 다른 실시예에서, 컴퓨팅 머신(100)은 복수의 오퍼레이팅 시스템들을 실행할 수 있다. 예를 들어, 컴퓨팅 머신(100)은 제1 오퍼레이팅 시스템을 실행하는 가상 머신을 실행 또는 관리할 수 있는 PARALLELS 또는 다른 가상화 플랫폼을 실행할 수 있고, 컴퓨팅 머신(100)은 제1 오퍼레이팅 시스템과 상이한 제2 오퍼레이팅 시스템을 실행한다.
컴퓨팅 머신(100)은 다음의 컴퓨팅 장치들: 컴퓨팅 워크스테이션; 데스크톱 컴퓨터; 랩톱 또는 노트북 컴퓨터; 서버; 핸드헬드 컴퓨터; 모바일 전화; 휴대용 원격통신 장치; 미디어 재생 장치; 게임 시스템; 모바일 컴퓨팅 장치; 넷북, 태블릿; Apple Computer에 의해 제조된 장치들 중 IPOD 또는 IPAD 계열의 장치; Sony Corporation에 의해 제조된 PLAYSTATION 계열의 장치들 중 어느 하나; Nintendo Co에 의해 제조된 Nintendo 계열의 장치들 중 어느 하나; Microsoft Corporation에 의해 제조된 XBOX 계열의 장치들 중 어느 하나; 또는 통신이 가능하고 본 명세서에 설명된 방법들 및 시스템들을 수행하기 위한 충분한 프로세서 능력 및 메모리 용량을 갖는 임의의 다른 타입 및/또는 형태의 컴퓨팅, 원격 통신, 또는 미디어 장치 중 어느 하나로 구체화될 수 있다. 다른 실시예들에서, 컴퓨팅 머신(100)은 다음의 모바일 장치들: JAVA 가능 셀룰러 전화 또는 PDA(personal digital assistant); 장치와 일관되는 상이한 프로세서들, 오퍼레이팅 시스템들, 및 입력 장치들을 갖는 임의의 컴퓨팅 장치; 또는 본 명세서에 설명된 방법들 및 시스템들을 수행할 수 있는 임의의 다른 모바일 컴퓨팅 장치 중 어느 하나와 같은 모바일 장치일 수 있다. 또 다른 실시예들에서, 컴퓨팅 장치(100)는 다음의 모바일 컴퓨팅 장치들: Research In Motion Limited에 의해 제조된 어느 하나의 계열의 블랙베리(Blackberry), 또는 다른 헨드헬드 장치; Apple Computer에 의해 제조된 iPhone; Palm Pre; 포켓 PC; 포켓 PC 폰; 안드로이드 폰; 또는 임의의 다른 핸드헬드 모바일 장치 중 어느 하나일 수 있다. 본 시스템들 및 방법들에서 이용하는 데 적절할 수 있는 특정 시스템 컴포넌트들 및 피처들이 설명되었고, 추가 양태들이 아래에서 다루어진다.
아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들을 위해 적절할 수 있는 컴퓨팅 장치들 및 환경들의 실시예들에 대해 설명하였고, 본 시스템들 및 방법들에 대한 특정 실시예들이 상세히 설명될 것이다.
생체 측정 장치들은 도 2에 도시된 실시예와 같이, 카메라(또는 뷰포인트) 및 하나 이상의 일루미네이터들을 포함할 수 있다. 카메라 센서가 한 위치에 배치될 수 있는 가능성을 반영하기 위해 용어 "뷰포인트"가 부분적으로 이용되고, 프리즘 및 거울들과 같은 광학적 수단을 이용하여 광학적 뷰포인트를 상이한 위치로 시프트할 수 있다. 뷰포인트는 카메라 또는 센서의 관점에서, 이미지 캡처 영역 또는 체적(image capture region or volume)을 포함할 수 있다. 각각의 뷰포인트는 또한 다른 뷰포인트와 공존하는 또는 다른 뷰포인트에 순차적인 별개의 카메라 또는 센서 위치에 대응할 수 있다. 따라서, N개의 뷰포인트는 최대 N개의 카메라 또는 센서를 배치함으로써 캡처될 수 있다. 도 3a는 안경과 같은 안경류를 착용하고 있는 사용자의 정면 뷰의 일 실시예를 도시한다. 도 3b는 상부 중심에서, 도 1의 구성에 대해, 일루미네이터들이 턴 온 되어 있는 뷰포인트로부터 관측된 뷰의 일 실시예를 도시한다. 사용자의 머리의 피치(수평축에 대한 각도) 및 안경들의 광학적 표면들의 피치에 의존하여, 일루미네이터들로부터의 정반사들은 안경들의 광학적 표면들 중의 표면으로부터 직접 반사되어 이미지로서 캡처된 뷰포인트로 되돌아갈 수 있으므로, 생체 측정 취득 장치에 의해 취득된 이미지 내의 홍채를 모호하게 할 수 있다.
도 4는 예시를 위해 이용될 아티팩트 없는 이미지들을 캡처하기 위한 개시된 방법들 및 시스템들의 하나의 특정 구성을 도시한다. 이러한 구성에서, 제1 뷰포인트는 상부에 있고, 제2 뷰포인트는 하부에 있도록 서로 수직으로 배향된 2개의 뷰포인트가 존재한다. 일부 실시예들에서, 도시된 바와 같이, 각각의 카메라의 좌측 및 우측에 위치한 2개의 개별 일루미네이터 위치들도 존재한다. 정반사들은 일루미네이터로부터의 일루미네이션이 카메라 뷰포인트 내로 직접 안경들의 표면들로부터 직접 반사하도록 안경들이 배향될 때 발생할 수 있다. 안경들의 배향들은 안경 자체의 광학적 표면들의 피치뿐만 아니라, 사용자가 사용자의 머리를 기울이는 방식의 함수일 수 있기 때문에 문제를 해결하기 위해 쉽게 제어되지 않을 수 있다. 그 대신, 생체 측정 취득 장치에 구체화된 시스템의 하나의 구성에서, 각각의 뷰포인트 및/또는 카메라로부터 동시에 이미지를 취득하기 위해 상이한 수직 장소들에서 2개 이상의 뷰포인트를 이용하는 것과 같이 카메라 뷰포인트가 제어될 수 있다. 이러한 식으로, 안경의 주어진 경사 배향에 대하여, 정반사는 각각의 뷰포인트에서 상이한 수직 위치에 나타날 수 있다.
시스템의 다른 구성에서는, 하나 이상의 뷰포인트로부터 이미지들을 동시에 취득하는, 상이한 수직 위치들을 갖는 2개 이상의 개별 일루미네이터를 이용할 수 있다. 일루미네이터들은 주어진 뷰포인트로부터 상이한 수직 위치들에 있기 때문에, 먼저 제1 개별 일루미네이터를 턴 온 하고 제2 개별 일루미네이터를 턴 오프 하고 나서, 제2 개별 일루미네이터를 턴 온 하고 제1 개별 일루미네이터를 턴 오프하여서 이미지를 취득한 경우에 정반사는 상이한 위치에 나타난다. (예를 들어, 2개의 일루미네이터와 달리) 실질적으로 상이한 수직 위치들에서 2개의 뷰포인트를 이용하는 것의 하나의 중요한 이점은, 일루미네이터들이 스위치 또는 제어되는 것을 기다리기보다는, 각각의 뷰포인트로부터의 이미지가 같은 또는 동일한 시간에 취득될 수 있다는 것이다. 이것은 일부 경우에 사용자가 생체 측정 취득 장치의 캡처 체적(capture volume)을 떠나기 전에 일루미네이터들이 제어되는 것을 기다릴 시간이 없을 수 있기 때문에, 생체 측정 장치에 대하여 사용자가 움직일 때에 중요하다. 하나의 예시적인 구성은 양자의 접근법을 이용한다: 적어도 수직 방향에서 상이한 2개의 뷰포인트, 및 적어도 수직 방향에서 또한 상이하게 배치되는 2개의 개별 일루미네이터. 아래에서 설명되는 바와 같이, 이러한 접근법은 또한 정반사들 또는 다른 아티팩트들의 상당한 시프팅이 생체 측정 취득 장치의 최소 사이즈 구성에 의해 실현될 수 있도록, 뷰포인트, 사용자 및 일루미네이터 사이의 각도 차이를 과장하는 이점을 갖는다.
이것은 이제 다양한 시스템 실시예들을 통해 더욱 상세히 설명된다. 도 5는 도 4의 구성에 대해, 좌측 상부 일루미네이터를 턴 온 한 상부 뷰포인트로부터의 중심뷰를 도시한다. 이 경우, 좌측 상부 일루미네이터, 사용자의 안경의 광학적 표면들, 및 상부 뷰포인트 사이의 각도는, 이 경우 정반사가 홍채 위에 있어서 눈 면적이 가려지지 않도록 형성될 수 있다. 그러나, 이것은 안경의 광학적 표면들의 경사 각도뿐만 아니라, 사용자의 머리의 경사 각도의 함수일 수 있다는 것에 주목한다. 또한, 안경의 각 측면에서의 광학적 물질의 피치가 통상적으로 동일할 수 있기 때문에, 정반사의 수직 위치는 안경의 좌측 및 우측 양자로부터 동일하게 떨어져 있을 수 있다는 것에 주목한다. 도 6은 좌측 상부 일루미네이터를 턴 온 한 하부 뷰포인트로부터의 뷰의 예를 도면의 중심에 도시한다. 이 경우, 좌측 상부 일루미네이터, 사용자의 안경류(예를 들어, 안경), 및 하부 뷰포인트 사이의 각도는 정반사가 홍채 상에 있어서 홍채를 가릴 수 있도록 형성될 수 있다. 도 7은 우측 하부 일루미네이터로부터의 정반사들을 포함하는 상부 뷰포인트로부터의 예시적인 뷰를 도면의 중심에 도시한다. 이 경우, 우측 하부 일루미네이터, 사용자의 안경, 및 상부 뷰포인트 사이의 각도는 정반사가 홍채 상에 있어서 취득된 이미지에서 홍채가 왜곡되거나 가려지도록 형성될 수 있다.
도 8은 우측 하부 일루미네이터를 턴 온 한 하부 뷰포인트로부터의 뷰의 예를 도면의 중심에 도시한다. 이 경우, 우측 하부 일루미네이터, 사용자의 안경, 및 하부 뷰포인트 사이의 각도는 정반사가 홍채 영역 아래에서 일어나서 대응하여 캡처된 이미지에서 홍채가 왜곡되지 않거나 가려지지 않도록 형성될 수 있다. 따라서, 도 4에 도시된 것과 유사한 구성들에 대하여, 적어도 2개의 상이한 수직 뷰포인트들로부터의, 및 2개의 상이한 수직 위치에 있는 일루미네이터들의 이용으로부터의, 이미지를 사용함으로써, 캡처된 이미지 내의 정반사의 관측된 수직 변위는 일루미네이터들과 센서를 호스팅하는 생체 측정 장치의 특정 전체 사이즈를 고려하여 증가될 수 있고, 이로써 또한 정반사 및 다른 아티팩트가 없는 눈 영역의 이미지를 캡처할 가능성 또는 기회를 증가시킨다.
도 9는 적어도 하나의 뷰포인트 및 뷰포인트에 대해 수직 거리 V_i1 및 V_i2에 있는 2개의 일루미네이터가 존재하는, 시스템의 다른 구성을 도시한다. 이 경우, 이미지는 먼저 턴 온 또는 오프 되어 있는 적어도 2개의 개별 일루미네이터의 제1 조합에 의해, 그 다음에 턴 온 또는 오프 되어 있는 적어도 2개의 개별 일루미네이터의 상이한 조합에 의해 주어진 뷰포인트로부터 취득될 수 있다. 도 10은 적어도 하나의 일루미네이터 및 일루미네이터에 대해 수직 거리 V_c1 및 V_c2에 있는 2개의 뷰포인트가 존재하고 일루미네이터까지 대략 동일한 수평 거리를 가질 수 있는, 시스템의 다른 구성을 도시한다. 2개의 수직 뷰포인트에 의해, 오직 하나의 일루미네이터가 이용되는 경우에도 이점이 존재할 수 있다는 것에 주목하고; 예를 들어, 도 7은 홍채가 가려지도록, 제1 일루미네이터를 인에이블하고, 제1 뷰포인트로부터 취득한 이미지 내의 홍채 상에 정반사들을 도시한다. 도 5는 턴 온 된 동일한 일루미네이터를 이용하지만, 제2 수직 뷰포인트로부터 취득한 이미지를 이용하여, 홍채가 가려지지 않도록 정반사들이 홍채 위에서 나타날 수 있는 것을 도시한다. 따라서, 수직으로 변위된 적어도 2개의 뷰포인트 및 적어도 하나의 개별 일루미네이터를 갖는 것으로부터 이득이 있을 수 있고, 여기서 뷰포인트들은 제1 일루미네이터에 대하여 실질적으로 상이한 수직 위치들에 배치된다.
도 11은 하나의 일루미네이터 및 일루미네이터에 대해 수직 거리 V_c1 및 V_c2에 및 일루미네이터에 대해 각각 수평 거리 H_c1 및 H_c2에 있는 2개의 뷰포인트가 존재하는, 시스템의 다른 예시적인 구성을 도시한다. 일 실시예에서, 예시를 위해, 2개의 뷰포인트는 뷰포인트들의 수직 및 수평 위치들 양자가 실질적으로 상이하도록 대각선으로 배열된다. 이 경우, 뷰포인트들은 실질적으로 상이한 수직 위치들뿐만 아니라, 제1 일루미네이터에 대해 실질적으로 상이한 수평 위치들에 배치되기 때문에, 카메라들 간의 거리는 장치의 특정 수평 및 수직 치수를 고려하여 증가 또는 최대화될 수 있다. 이것은 2개의 장소들로부터 캡처된 이미지에서 정반사들이 관측된 장소 사이의 관측 거리를 증가시킬 수 있다. 이것은 또한 가려지지 않은 눈 영역의 뷰포인트들 중 적어도 하나로부터 이미지가 캡처될 수 있는 가능성을 향상시킴과 동시에, 장치의 물리적 사이즈 풋프린트를 감소 또는 최소화한다. 특히, 장치의 최대 수평 또는 수직 치수는 감소할 수 있다. 예로서, 하나의 구성에서, 카메라들 사이의 수직 및 수평 거리들은 각각 6cm 및 8cm일 수 있다. 카메라들 사이의 수직 및 수평 거리들은 예를 들어, 1cm 내지 1m의 범위에 있는 다른 값들을 포함할 수 있다.
도 12는 적어도 2개의 일루미네이터 및 제1 일루미네이터에 대해 수직 거리 V_c1 및 V_c2에 및 제1 일루미네이터에 대해 각각 수평 거리 H_c1 및 H_c2에 있는 2개의 뷰포인트가 존재하고 제2 일루미네이터는 제1 일루미네이터로부터 수직 거리 V_i2에 있는, 시스템의 다른 예시적인 구성을 도시한다. 이 경우, 뷰포인트들 사이의 거리는 위에서 논의한 바와 같이 증가 또는 최대화될 수 있다. 또한, 위에서 논의한 바와 유사한 이점들을 가지고, 상이한 위치에 있는 2개의 일루미네이터가 이용될 수 있다.
도 13은 상이한 수직 및 수평 위치들에 위치한 2개의 카메라, 및 각각 상이한 수직 및 수평 위치들에 있는 복수의 개별 일루미네이터가 존재하는, 시스템의 다른 예시적인 구성을 도시한다. 이 경우, 각각의 일루미네이터는 다른 일루미네이터들과 분리하여 또는 결합하여 턴 온 될 수 있어서, 정반사는 눈에 걸쳐서 상이한 위치들에 배치되거나 상이한 위치들로 이동할 수 있으므로, 위치들 중 하나가 관심 영역(예를 들어, 홍채 영역)의 가려지지 않은 이미지를 취득하기 위해 최적일 수 있는 가능성을 최대화 또는 증가시킨다.
도 14는 상이한 수직 장소들에 2개의 뷰포인트가 존재하는 구성에서 뷰포인트들의 예시적인 경사 배향(tilt orientation)을 도시한다. 뷰포인트들은 사용자의 수직 배향에 대해 서로 동일한 높이로 명목상 동작 거리 D에서 수직으로 수렴할 수 있는데, 그것은 사용자의 눈들이 또한 동일한 수직 높이에 있기 때문이다. 이러한 경우가 아니면, 사용자의 눈들은 동시에 두 뷰포인트에서 반드시 가시적이 아닐 수 있다. 경사의 값은, 일부 실시예들에서, 다음의 기하학적 구조에 의해 설명될 수 있고; 뷰포인트들은 Theta_v = aTan(0.5 * (V_c2 - V_c1) / D)에 의해 주어진 각도 Theta_v만큼 각각 실질적으로 수평 축에 대해 경사질 수 있고, 여기서 (V_c2 - V_c1)는 뷰포인트들 사이의 수직 거리이고, D는 뷰포인트들로부터 사용자까지의 명목상 거리이다. 옵션으로서, 앞에서 논의한 바와 같이 뷰포인트들이 명목상 동작 거리에서 수직으로 수렴하는 한, 하나의 카메라는 다른 카메라보다 더 또는 덜 경사질 수 있다. 예를 들어, 동작 범위가 30cm이고 수직 카메라 간격이 6cm인 경우, 각도 Theta_H는 5.7도인 것으로 결정될 수 있다.
유사하게, 도 15는 상이한 수평 장소들에 2개의 뷰포인트가 존재하는 구성에서 뷰포인트들의 예시적인 경사 배향을 도시한다. 경사의 값은, 다음의 기하학적 구조에 의해 주어질 수 있고; 뷰포인트들은 Theta_h = aTan(0.5 * (H_c2 - H_c1) / D)에 의해 주어진 각도 Theta_h만큼 각각 실질적으로 수직 축에 대해 경사질 수 있고, 여기서 (H_c2 - H_c1)는 뷰포인트들 사이의 수평 거리이고, D는 뷰포인트들로부터 사용자까지의 명목상 거리이다. 옵션으로서, 앞에서 논의한 바와 같이 뷰포인트들이 명목상 동작 거리에서 수평으로 수렴하는 한, 하나의 카메라는 다른 카메라보다 더 또는 덜 경사질 수 있다. 도 11, 12 및 13에 도시된 바와 같이, 상이한 수직 및 수평 뷰포인트들이 결합될 수 있다는 것에 주목한다.
개시된 시스템의 하나의 이점은 정반사들로부터 생기는 것들 이외의 아티팩트들로부터 생기는 성능에 대한 악영향들을 감소 또는 제거할 수 있는 것에 관한 것이다. 이러한 아티팩트들은 안경의 렌즈 표면 상의 먼지를 포함할 수 있거나, 또는 안경테 자체에 의한 홍채의 부분들의 가림을 포함할 수 있다. 도 16은 제1 카메라 위치로부터 이미지가 취득되는 조건들을 도시하고, 도 17은 제2의 더 낮은 카메라 위치로부터 이미지가 취득되는 조건들을 도시한다. 도 18은 대응하는 이미지 취득 조건들의 측면도를 도시한다. 사용자는 안경을 착용하고 있고, 홍채에서 안경테까지의 거리는 D2이다. 홍채로부터 각 카메라까지의 거리는 D이다. 거리 D2는, 이 거리가 제로가 아니라는 사실이 상이한 뷰포인트들로부터 캡처된 눈 영역의 이미지가 이 경우 안경테와 홍채 자체인 이미지들 내의 대응하는 피처들의 시차(parallax), 또는 상대 변위(relative displacement)를 일으킬 수 있음을 의미할 수 있기 때문에 중요할 수 있다. 상대 변위의 양은 D2뿐만 아니라 카메라들로부터 홍채까지의 거리 D와 같은 촬영 파라미터들에 의존할 수 있다. 도 19는 도면의 좌측에, 상부 뷰포인트로부터 캡처된 이미지를 예로서 도시한다. 도 19는 도면의 우측에, 하부 뷰포인트로부터 취득된 이미지를 예로서 도시한다. 홍채는 상부 뷰포인트로부터 취득한 이미지에서 안경테에 의해 부분적으로 가리지만 하부 뷰포인트로부터 취득한 이미지에서는 가려지지 않는다는 것에 주목한다. 이것은 카메라들 및 안경테로부터 홍채의 상이한 상대 범위들 또는 거리, 및 2개의 상이한 카메라 위치들에 의해 생성된 2개의 이미지 사이의 시차로 인한 것이다. 동일한 시차는 안경 표면 상의 먼지, 또는 이중 초점 안경 렌즈에서 근거리 및 원거리 광학적 표면 렌즈들(near and far optical surfaces lenses) 사이의 경계로 인한 라인과 같은 홍채에 비해 카메라에 대한 상이한 범위에 배치된 임의의 객체에 의해 관측될 수 있다. 이러한 타입들의 이미지들을 프로세싱하기 위한 방법들이 후술될 것이다.
그러한 아티팩트들(안경테, 렌즈 상의 먼지, 이중 초점 경계)의 장소는 상이한 방향들로부터 복수의 일루미네이터가 장면(scene)을 비추더라도, 센서와 사용자 사이의 범위에서의 상대 운동이 존재하지 않는다면, 하나의 센서 위치로부터 취득한 이미지에서 변화되지 않는다는 것에 주목한다. 이것은, 아티팩트들은 일루미네이터들 자체로 인한 것이고, 다른 객체들로 인한 것이 아니기 때문에, 상이한 장소들로부터 복수의 일루미네이터가 비출 때 장소들을 사실상 변화시키는 렌즈로부터의 정반사로 인한 아티팩트들과 대조적이다.
시차는 카메라들의 수평 및 수직 변위 중 어느 하나 또는 양자에 의해, 또는 본 개시에서 또한 논의되는 바와 같이 사용자의 움직임에 의해 생성될 수 있다. 우리는 도 20에 도시된 바와 같이, 카메라들의 수직 변위에 의한 이점에 주목하였다. 통상적으로, 우리는 사용자들이 수평(측면) 방향에서 시스템 앞에 자연스럽게 그들 자체를 용이하게 정렬하는데, 그것은 그들의 발의 수평 장소인, 실질적으로 오직 1 자유도(degree of freedom)가 존재하기 때문이라는 점에 주목하였다. 그러나, 우리는 생체 측정 취득 시스템에 대한 사용자들의 수직 정렬이 사용자의 머리의 경사, 및 사용자의 코에 있는 안경의 수직 위치 - 이것들 양자는 조정하기 위해 사용자에게 설명하는 것이 매우 어려울 수 있음 - 를 포함한 몇몇 변수들의 함수일 수 있다는 점에 주목하였다. 다른 한편으로, 안경의 수평 위치는 안경의 브리지와 코의 기하학적 구조에 의해 본질적으로 고정되도록 제한될 수 있다. 결과로서, 우리는 안경테의 상하 에지들에 비해, 안경테의 좌우 에지들로부터 적은 가림을 측정하였다. 또한, 이중 초점 렌즈는 통상적으로 홍채에 걸쳐서 수평 선형 아티팩트를 생성할 수 있다. 카메라들을 수평으로 변위시키는 것은 오직 2개의 이미지에서 수평 방향으로 안경테의 실질적으로 수평의 상하 에지들과 이중 초점 렌즈 아티팩트 양자를 이동시키는 역할을 할 수 있고, 두 이미지들에서 홍채 아래의 영역을 여전히 가린 채로 남을 수 있다. 그러나, 카메라들을 수직으로 변위시키는 것은 2개의 이미지에서 수직 방향으로 안경테의 상하 에지들과 이중 초점 렌즈 아티팩트를 이동시키는 역할을 할 수 있고, 이로써 홍채의 영역이 이미지들 중 적어도 하나에서 가려지지 않게 할 수 있다.
다른 양태에서, 단일 카메라 및 단일 일루미네이터가 이용될 수 있다. 이 양태에서, 이미지들은 도 21 및 22에 도시된 바와 같이 사용자가 생체 측정 취득 장치에 접근하고 및/또는 사용자의 머리를 회전할 때 취득될 수 있다. 도 21은 예를 들어, 장치로부터 더 멀리 떨어진 사용자에 의한 촬영 조건들을 도시하고, 도 22는 예를 들어, 정반사 및/또는 아티팩트들이 사용자의 움직임에 대한 관심 있는 홍채 영역에 대해 재배치될 수 있는 장치에 더 가까운 사용자를 도시한다. 도 23은 예를 들어, 장치를 향해 움직이는 사용자의 평면도를 도시한다. 이 경우, 카메라, 일루미네이터 및 안경테 사이의 각도 Theta_D1은 취득된 이미지 시퀀스에서, 제1 위치에 나타날 수 있는 정반사들이 제2 위치로 이동할 수 있도록 사용자 움직임으로 인해 Theta_D2로 변화할 수 있다. 카메라의 심도(depth of field)는 상이한 범위들에서 취득한 이미지들이 초점이 맞지 않게 될 수 있도록 작을 수 있다. 그러나, 이것은 카메라의 초점을 동적으로 조정함으로써 해결될 수 있다.
도 24는 접근하는 사용자의 예시적인 측면도를 갖는 단일 카메라 및 일루미네이터를 갖는 유사한 구성을 도시한다. 이 경우, 사용자의 움직임은 도 23과 결합하여 논의된 것과 유사한, 이미지들의 취득한 시퀀스에서 안경테와 홍채 사이의 시차 변위를 생성할 수 있다.
사용자가 반드시 시스템을 쳐다보지는 않는 다른 시스템들에서, 예를 들어, 이미지들은 예를 들어, 도 25에 도시된 바와 같이, 복수의 수평 및 수직 뷰포인트들, 또는 복수의 사용자 위치들 또는 시선 방향들로부터 캡처될 수 있다.
도 26 및 도 27은 취득한 복수의 이미지들에 대해 수행될 수 있는 프로세싱의 실시예들을 도시한다. 이 이미지들은 본 개시에 설명된 바와 같이, 상이한 카메라 위치들, 일루미네이션 조건들, 사용자 위치들 또는 시선 위치들로부터 취득될 수 있다. 한 가지 주목할 점은, 예를 들어, 어느 일루미네이터가 턴 오프 또는 온 되는지를 조정하기 위하여, 프로세싱 모듈로부터 이미지 취득 컨트롤러 모듈로의 피드백이 존재하지 않는다는 점이다. 그러나, 수정된 접근법에서는, 안경들로부터의 정반사성들 또는 다른 아티팩트들을 회피 또는 제거하기 위하여, 생체 측정 시스템이 하나의 일루미네이터를 온 하여 카메라로부터 이미지를 취득하고, 아티팩트의 존재에 대해 이미지를 분석하고, 필요한 경우 제2 일루미네이터를 턴 온 하여(그리고 제1 일루미네이터를 턴 오프 하여) 다른 이미지를 취득할 수 있다. 그러나, 특정 문맥에서, 장치와 사용자 사이의 상대 이동이 존재할 수 있다. 예를 들어, 사용자는 움직이고 있고 장치는 정지해 있을 수 있다. 따라서, 분석이 수행될 때까지, 사용자의 관심 영역(예를 들어, 홍채 영역)은 시스템의 캡처 체적에서 나왔을 수 있다. 이와 같이, 생체 측정 취득 시스템은 가능한 한 많은 이미지가, 또는 필요에 따라, 미리 결정된 제어 시퀀스를 이용하여, 오픈 루프 방식으로(예를 들어, 아티팩트 검출에 대한 피드백 없이) 가능한 한 빨리 취득되도록 구성될 수 있다. 복수의 일루미네이터 및 단일 카메라를 갖는 구성의 경우에서와 달리, 복수의 카메라를 포함하는 구성들의 경우에는, 상이한 카메라들에 의해 복수의 이미지가 동시에 캡처될 수 있다는 이점이 있으므로, 취득 시간을 감소시킬 수 있다. 더 많은 이미지들이 취득될 수 있더라도, 이것은 더 많은 메모리를 차지할 수 있고, 전체 프로세싱 시간을 증가시킬 수 있으므로, 이미지들은 그러나 시간상으로(in time) 더 가깝게 연속하여 또는 심지어 동시에 취득되고, 따라서 이미지 취득의 기간 동안 생체 측정 취득 장치의 대응하는 캡처 체적에 여전히 사용자가 있을 가능성이 더 클 수 있다.
일 양태에서, 프로세싱 단계들의 실시예가 도 26에 도시되고, 예시적인 프로세싱 모듈의 더욱 상세한 도면이 도 27에 도시된다. 프로세싱은 안경테 또는 이중 초점 렌즈의 사용 또는 존재로부터 생기는 아티팩트들을 검출함으로써 수행될 수 있다. 이러한 아티팩트들은 홍채의 사이즈 또는 치수들에 비교할 만한 길이들을 갖고, 높은 콘트라스트를 갖는 실질적으로 선형 피처들을 생성할 수 있다. 이것은 홍채 구조 자체에서 종종 발견되는 더 작은, 낮은 콘트라스트의 임의로 배향되는 라인 세그먼트들과 대조적이다. 본 명세서에 설명된 시스템들은 특정 사이즈들 및 콘트라스트들의 라인들 또는 피처들을 개선(enhance) 및/또는 특징화하도록 구성될 수 있다. 필터들은 아티팩트들로부터 예상되는 길이 및 콘트라스트에 대해 조정되도록 선택될 수 있다. 각각의 이미지는 이러한 필터들로 프로세싱될 수 있고, 특정 검출 방법들에 의해, 이미지 내의 각각의 특정 픽셀에서 임의의 배향에서 에지의 조정된 모델에 대해 최대 에너지를 제공하는 중간 출력 이미지가 생성될 수 있다. 에지 에너지가 임계값 위에 있는 경우, 예를 들어, 시스템은 이미지 내의 그 장소에 아티팩트가 존재한다고 결정할 수 있다.
예를 들어, 허프 변환(Hough transform)을 이용하여 동공/홍채 및 홍채/공막 경계들을 검출함으로써 눈 발견 프로세스(eye-finding process)가 수행될 수 있다. 이러한 찾아낸 정보는 적어도 2가지 방식 중 하나에서 이용될 수 있다. 제1 방법에서, 각각의 취득한 이미지에 대한 퍼센티지 홍채 가림 메트릭(percentage iris occlusion metric)을 계산하기 위해, 아티팩트들로 가린 것으로 검출된 영역이 홍채인 것으로 검출된 영역과 만나고, 그것들을 리스트에서 순서대로 배열하는 랭킹 프로세스(ranking process)가 수행될 수 있다. 리스트의 상부에 있는 이미지들은 후속 프로세싱을 위해 선택될 수 있는데, 이것은 그것들이 아티팩트들에 의해 가장 적게 손상된 것으로 검출되었을 수 있기 때문이다.
제2 방법에서, 동공/홍채 및 홍채/공막 경계들의 장소들은 취득한 이미지들 및 에지 에너지 이미지들을 함께 등록하는 데 이용될 수 있다. 이러한 정렬된 이미지들은 각각의 이미지 장소에서의 등록된 에지 에너지가 각각의 취득된 이미지에 대해 분석되도록 추가 프로세싱될 수 있고, 에지 에너지들이 임계값 위에 있거나, 이미지 장소에 대응하는 다른 에지 에너지들보다 더 큰 이미지 장소들은 추가 프로세싱으로부터 거절될 수 있다. 나머지 이미지 장소들은 예를 들어, 그 장소에서 아티팩트들로부터의 가장 적은 에지 에너지에 대응하는 장소에서 홍채 픽셀들을 선택함으로써 프로세싱될 수 있다. 관련 양태에서, 정반사들에 대응하는 이미지 픽셀들은 또한 전술한 프로세싱 단계에서 이용될 수 있다. 정반사들은 검출될 수 있고, 이미지는 정반사들이 없거나 실질적으로 없는 것으로 생성되었다. 일부 구현들에서, 상이한 시간에 취득한 이미지들은 앞서 논의한 바와 같이, 사용자의 관심 영역이 여전히 캡처 체적에 있을 가능성을 감소시킬 수 있다. 다른 구현들에서, 생체 측정 셋업이 2개 이상의 일루미네이터를 요구할 수 있고, 이것은 시스템의 사이즈 및 비용을 증가시킬 수 있다.
이제 도 28을 참조하면, 눈의 아티팩트 없는 생체 측정 이미지들을 취득하는 방법의 일 실시예가 도시된다. 눈은 제1 센서(또는 생체 측정 취득 장치)와 상대 이동하고 있을 수 있고, 부분 반사 안경류가 존재하고 있을 수 있다. 제1 센서는 제1 일루미네이터가 눈을 비추는 동안 눈의 제1 이미지를 취득할 수 있다(103). 제1 이미지는 관심 영역을 포함할 수 있다. 제1 센서는 제1 일루미네이터 및 제2 센서로부터의 고정된 변위에 배치될 수 있다. 제2 센서는 제1 이미지의 취득으로부터 미리 결정된 기간 내에, 눈의 제2 이미지를 취득할 수 있다(105). 제2 이미지는 관심 영역을 포함할 수 있다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내에서, 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정할 수 있다(107).
일부 실시예들에서, 생체 측정 취득 시스템은 모바일, 휴대용 및/또는 핸드헬드 장치를 포함할 수 있는 생체 측정 취득 장치를 포함할 수 있다. 장치는 대상의 하나 이상의 생체 측정 이미지들을 일루미네이트 및/또는 캡처하는 데 이용될 수 있다. 장치는 적외선 센서들과 같은 생체 측정 데이터를 취득하기 위한 하나 이상의 센서 또는 카메라를 포함할 수 있다. 장치가 목표로 하는 생체 측정 데이터는 홍채, 또는 망막 정보와 같이 이미지 상에 캡처될 수 있는 다른 정보를 포함할 수 있다. 생체 측정 데이터는 대상의 눈에 지정된 관심 영역, 예를 들어, 눈의 홍채 영역으로부터 취득될 수 있다. 생체 측정 취득 장치는 대상의 눈 및/또는 관심 영역을 검출 및/또는 로케이팅하도록 구성될 수 있다.
생체 측정 데이터의 취득에 대한 참조들은 때때로 눈에 대해 참조되지만, 이것은 예시의 목적을 위한 것일 뿐이고, 임의의 방식으로 한정하는 것으로 의도되지 않는다는 것을 이해한다. 각각의 센서는 예를 들어, 단일 이미지에서, 그것들의 각각의 관심 영역을 포함하는, 한 쌍의 눈으로부터 생체 측정 데이터를 취득할 수 있다. 이와 같이, 2개의 데이터 세트들(예를 들어, 각각의 눈으로부터 하나씩)은 각각의 이미지에서 캡처되어 생체 측정 검증 또는 매칭 목적들을 위해 이용될 수 있고, 이로써 각각의 이미지 캡처에 의한 적어도 하나의 적절한 데이터 세트를 생성할 가능성을 증가시킨다. 또한, 2개의 데이터 세트의 동시 캡처는 별개의 또는 순차적인 이미지 취득에 비해 더욱 효율적일 수 있다. 2개의 데이터 세트의 동시 캡처는 또한, 이들 데이터 세트들이 순차적으로 취득되는 경우에 대상이 취득 중에 캡처 체적을 나갈 수 있는 위험이 증가하는, 대상이 움직일 때에 유용하다. 이와 같이, 눈의 제1, 제2 , 제3 또는 제4 이미지의 취득에 대한 임의의 참조는 한 쌍의 눈의 제1, 제2 , 제3 또는 제4 이미지의 취득을 가리킬 수 있다.
특정 실시예들에서, 생체 측정 취득 장치는 생체 측정 취득을 위해 대상의 눈 영역을 비추는 데 이용될 수 있는 하나 이상의 일루미네이터 또는 광원을 포함할 수 있다. 일루미네이터는 검출 동안 대상의 하나 이상의 피처 및/또는 대상의 눈 또는 관심 영역의 장소의 일루미네이션을 위해 이용될 수 있다. 일루미네이터는 생체 측정 취득 동안 눈을 비출 수 있다. 일루미네이터는 이미지 취득 동안 일루미네이션 레벨들을 증가 및/또는 턴 온 하기 위해 센서와 동기화될 수 있다. 일루미네이터는 적외선 및/또는 가시광을 제공할 수 있고, LED 기반의 광원을 포함할 수 있다. 생체 측정 취득 장치의 사이즈 및/또는 폼 팩터(form factor)는 하나 이상의 센서 및/또는 일루미네이터의 배열에 의해 결정될 수 있다.
이제 (103)을 참조하면, 더욱 상세하게, 제1 센서는 제1 일루미네이터가 눈을 비추는 동안 눈의 제1 이미지를 취득할 수 있다. 제1 이미지는 눈의 홍채 영역일 수 있는 관심 영역을 포함할 수 있다. 제1 센서는 예를 들어, 도 4-8 및 10-16과, 그의 임의의 조합과 관련하여 위에서 논의한 바와 같이, 제1 일루미네이터 및 제2 센서로부터의 고정된 변위에 배치될 수 있다. 생체 측정 취득 장치 상의 제1 센서의 장소는 제1 일루미네이터 및/또는 제2 센서에 대하여 고정될 수 있다. 일부 구현들에서, 생체 측정 취득 장치 상의 제1 센서의 장소는 제1 일루미네이터 및/또는 제2 센서에 대하여, 이미지 취득 시나리오에 기초하여 조정 가능하거나 자동으로 조정될 수 있다. 제1 및 제2 센서는 각각 상이한 뷰포인트를 포함하거나 참조할 수 있다. 일부 실시예들에서, 2개의 뷰포인트가 단일 센서 또는 카메라에 의해, 예를 들어, 프리즘 또는 다른 반사 채널의 이용, 또는 재배치가능한 센서의 이용에 의해 지원된다.
일부 실시예들에서, 제1 일루미네이터는 하나 이상의 광원을 포함할 수 있다. 예를 들어, 복수의 광원은 그룹으로서 동작하도록, 예를 들어, 그룹으로 턴 온 또는 오프 하도록 구성될 수 있다. 도 13과 관련하여 위에서 예가 설명된다. 제1 일루미네이터는 생체 측정 취득을 위해 대상의 1개 또는 2개의 눈을 비추기에 충분한 일루미네이션 레벨을 제공하도록 구성될 수 있다. 제1 일루미네이터는 이미지 취득과 함께 또는 그와 동기되어 플래시(flash) 또는 스트로브(strobe) 할 수 있다.
특정 실시예들에서, 생체 측정 취득 장치는 제1 및 제2 센서들의 광학 축들이 예를 들어, 도 14-15와 관련하여 위에서 논의한 바와 같이, 눈과 센서들 사이의 실질적으로 명목상 거리 D에서 수렴하도록 제1 및 제2 센서들을 배열할 수 있다. 명목상 거리는 하나 또는 두 센서의 초점 길이에 실질적으로 대응할 수 있어서, 눈의 피처들은 하나 또는 두 센서로부터의 명목상 거리에서 실질적으로 초점이 맞는다. 광학 축들은 제1 및 제2 센서들이 제1 및 제2 센서들로부터의 명목상 거리에 위치할 때 대상의 피처들의 동일한 영역을 실질적으로 캡처할 수 있도록 대략 동일한 스폿(spot)에서 수렴할 수 있다. 특정 실시예들에서, 제1 및 제2 센서들은 수렴점 근처에 위치하는 경우에 동시에 관심 영역을 취득할 수 있다. 생체 측정 취득 장치는 Theta = aTan(0.5 * S / D)에 따라, 제1 및 제2 센서들 사이의 중간점과 눈을 연결하는 라인으로부터, 각도 Theta로 제1 및 제2 센서를 경사지게 할 수 있고, 여기서 S는 제1 및 제2 센서들 사이의 분리 거리이고, D는 눈으로부터 제1 및 제2 센서들 사이의 중간점까지의 거리이다. 경사 각도는 눈으로부터의 각 센서의 거리에 의존하여 2개의 센서 사이에 달라질 수 있다. 예를 들어, 제1 센서의 경사 각도(예를 들어, Theta보다 더 큰 경우)는 제2 센서의 경사 각도(예를 들어, Theta보다 더 작은 경우)보다 더 클 수 있다.
일부 실시예들에서, 제1 센서는 제1 일루미네이터가 비추는 동안 눈의 제1 이미지를 취득한다. 제1 센서는 제2 센서에 대해 수직으로 변위될 수 있다. 제1 센서는 제2 센서에 대해 수평으로 변위될 수 있다. 예를 들어, 도 11-13과 관련하여 위에서 논의한 바와 같이, 제1 센서는 제2 센서에 대해 수직으로 및 수평으로 모두 변위될 수 있다.
이제 (105)를 참조하면, 더욱 상세하게, 제2 센서는 제1 이미지의 취득으로부터 미리 결정된 기간 내에, 눈의 제2 이미지를 취득할 수 있다(105). 제2 이미지는 동일한 관심 영역, 예를 들어, 눈의 홍채 영역을 포함할 수 있다. 제2 센서는 제1 일루미네이터가 비추는 동안 눈의 제2 이미지를 취득할 수 있다. 제2 센서는 제1 이미지로부터 단기간 내에, 예를 들어, 200ms, 50ms, 10ms 또는 일부 다른 값 내에 제2 이미지를 취득할 수 있다. 제2 센서는 제1 이미지의 취득과 동시에 눈의 제2 이미지를 취득할 수 있다. 예를 들어, 제2 센서는 제1 이미지 캡처의 트리거링에 응답하여 제2 이미지를 캡처할 수 있다. 제2 이미지를 캡처하는 시간은 제1 이미지의 캡처 시간과 중첩되거나 실질적으로 중첩될 수 있다. 제1 및 제2 센서는 제1 일루미네이터의 플래시 또는 스트로브와 동기되어 제1 및 제2 이미지들을 캡처할 수 있다. 제1 및 제2 이미지들의 동시 캡처는 움직이는 대상(및 그의 관심 영역)이 2개의 이미지의 취득 사이에 생체 측정 취득 장치의 캡처 체적을 나가지 않도록 보장할 수 있다. 생체 측정 취득 장치는 생체 측정 검증을 위해 2개의 이미지의 부분들을 선택 및/또는 조합할 수 있다.
일부 실시예들에서, 제1 센서는 제2 일루미네이터가 비추는 동안 눈의 제3 이미지를 취득한다. 제2 일루미네이터는 예를 들어, 도 2, 3b, 4-9 및 13과, 그의 임의의 조합과 관련하여 위에서 설명한 바와 같이, 제1 일루미네이터로부터 미리 정의된 거리에 배치될 수 있다. 제1 센서는 제1 이미지의 취득으로부터 미리 결정된 시간 내에, 눈의 제3 이미지를 취득할 수 있다. 제1 센서는 제1 일루미네이터가 턴 오프되고 제2 일루미네이터가 턴 온 된 경우 제3 이미지를 취득할 수 있다. 제1 센서는 제1 이미지로부터 단기간 내에, 예를 들어, 200ms, 50ms, 10ms 또는 일부 다른 값 내에 제3 이미지를 취득할 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 수직 거리에 배치될 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 수평 거리에 배치될 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 수직 및/또는 수평 거리에 배치될 수 있다.
일부 실시예들에서, 제2 센서는 제2 일루미네이터가 비추는 동안 눈의 제4 이미지를 취득한다. 제2 센서는 제3 이미지의 취득으로부터 미리 결정된 기간 내에, 제4 이미지를 취득할 수 있다. 제2 센서는 제3 이미지의 취득과 동시에, 예를 들어, 제2 일루미네이터와 동기되어 제4 이미지를 취득할 수 있다. 생체 측정 취득 장치는 배치 프로세싱(batch processing)을 위해 하나 이상의 이미지들(예를 들어, 제1, 제2, 제3 및 제4 이미지들)을 취득 및/또는 저장할 수 있다. 생체 측정 취득 장치는 추후/부가적인 이미지(들)의 취득을 트리거하기 위해, 처음에 취득한 하나 이상의 이미지들의 분석에 기초하여, 오픈 루프 프로세스에서, 즉, 피드백 없이, 하나 이상의 이미지들을 취득 및/또는 저장할 수 있다. 생체 측정 취득 장치는 이들 이미지들 중 하나 이상이 관심 영역 내에서 아티팩트들이 없을 수 있는 가능성을 향상 또는 최대화하기 위해 복수의 이미지들을 취득 및/또는 저장할 수 있다.
이제 (107)을 참조하면, 더욱 상세하게, 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내에서, 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정할 수 있다. 생체 측정 취득 장치는 이미지 프로세서를 포함할 수 있거나, 이미지 프로세서와 통신할 수 있다. 이미지 프로세싱은 도 26-27과 관련하여 위에서 논의한 프로세싱 중 임의의 것을 수행할 수 있다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내에서, 안경류로부터의 정반사를 포함하는지를 결정할 수 있다. 정반사는 제1 일루미네이터로부터 생길 수 있고, 이것은 눈에 착용한 안경류의 렌즈로부터 (예를 들어, 휘광(glare), 광 포화, 왜곡으로서) 반사된다. 안경류 또는 렌즈 표면(들)의 굴곡(curvature)으로 인해, 정반사는 확대될 수 있고, 눈 영역(들)의 취득된 이미지에 걸쳐서뿐만 아니라 렌즈의 상당 부분에 걸쳐서 확장할 수 있다. 일부 실시예들에서, 정반사는 하나의 이미지에서 동일한 센서에 의해 취득될 수 있는, 한쪽 또는 양쪽 눈 영역들에 걸쳐서 확장할 수 있다. 이미지 프로세서는 안경류 및/또는 대응하는 일루미네이터의 존재로부터 생기는 아티팩트로서 식별될 수 있는 정반사의 존재를 결정할 수 있다.
특정 실시예들에서, 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 안경류의 비-렌즈 부분으로부터의 차단, 안경류의 렌즈에서의 불연속(discontinuity), 및 렌즈의 가장자리로부터의 왜곡 중 적어도 하나를 포함하는지를 결정할 수 있다. 안경류의 비-렌즈 부분으로부터의 차단은 안경테, 색조 컬러링(tint coloring), 라벨링, 에칭 등에 의한 (예를 들어, 홍채의) 차단을 포함할 수 있다. 안경류의 렌즈에서의 불연속은 예를 들어, 이중 초점 렌즈의 부분들 사이의 트랜지션(transition), 렌즈 스크래칭, 렌즈 상의 크랙들, 렌즈 상의 파편/먼지 등을 포함할 수 있다. 렌즈의 가장자리로부터의 왜곡은 가장자리에서의 렌즈의 거친 에지들, 렌즈에서의 확연한 굴곡 등을 포함할 수 있다. 이미지 프로세서는 그러한 차단, 불연속 및/또는 왜곡의 존재를 결정할 수 있고, 이것들을 안경류의 이용 또는 존재로부터 생기는 이미지 아티팩트들로서 식별할 수 있다.
일부 실시예들에서, 이미지 프로세서는 그 결정에 기초하여, 생체 측정 검증에 사용하기 위해, 제1 및 제2 이미지들 중 하나 또는 둘다로부터, 관심 영역의 적어도 일부분을 선택할 수 있다. 제1 및 제2 이미지들은 때때로 예시의 목적으로 특정 프로세싱 단계들에서 참조될 수 있지만, 제3, 제4 또는 임의의 다른 이미지들을 포함할 수 있는 이미지들의 임의의 그룹이 선택 및/또는 후속 결합에서 고려될 수 있다. 하나 이상의 이미지들에 걸친 관심 영역의 하나 이상의 부분들의 선택은 하나 이상의 선택 기준에 기초할 수 있다. 예를 들어, 이미지 프로세서는 품질 등록된 이미지(quality enrolled image) 또는 생체 측정 템플릿과 매칭하기 위한 능력을 표시할 수 있는 매치 스코어(match score)에 기초하여 최상의 이미지 또는 적절한 부분을 선택할 수 있다. 이미지 프로세서는 생체 측정 피처들(예를 들어, 안경류의 일부분 이외의 홍채)과 일치하거나 유사하게 나타나는 이미지에서 피처들 또는 특징들에 의해 정의될 수 있는 품질 스코어에 기초하여 최상의 이미지 또는 적절한 부분을 선택할 수 있다.
특정 실시예들에서, 이미지 프로세서는 관심 영역의 경계를 결정하기 위해, 예를 들어, 선택 기준이 적용될 수 있는 생체 측정 피처들의 존재를 식별하기 위해, 에지 검출에 의존할 수 있다. 이미지 프로세서는 에지 검출로부터 경계가 아티팩트들에 의해 가리거나 왜곡되는지를 결정할 수 있다. 이미지 프로세서는 일루미네이션된 먼지의 존재 또는 정반사로 인해 포화된 영역들과 같은, 아티팩트들을 검출하기 위해 세기 임계값(intensity threshold)들을 이용할 수 있다. 이미지 프로세서는 제1 및 제2 이미지들 중 하나가 관심 영역 내에서 아티팩트들을 포함한다고 결정할 수 있고, 생체 측정 검증 목적을 위해 다른 이미지를 선택할 수 있다. 이미지 프로세서는 이미지들 중 하나 이상이 아티팩트들이 없고 생체 측정 검증을 위해 이용 가능하다고 결정할 수 있다. 이미지 프로세서는 이미지들 전부가 관심 영역 내에서 하나 이상의 아티팩트들을 포함한다고 결정할 수 있다. 일부 실시예들에서, 이미지 프로세서는 부분적인 생체 측정 검증을 위해, 검출된 아티팩트를 갖는 다른 부분을 제외하고서 관심 있는 영역의 일부분을 선택할 수 있다.
특정 실시예들에서, 이미지 프로세서는 생체 측정 검증을 위해, 선택된 관심 영역의 하나 이상의 부분들을 결합할 수 있다. 예를 들어, 이미지 프로세서는 생체 측정 검증을 위해 이미지 내로 결합될, 제1 및 제2 이미지들 둘다로부터의 관심 영역의 부분들을 선택할 수 있다. 제1, 제2, 제3 및 제4 이미지들 중 임의의 하나 이상의 이미지들로부터의 부분들이 선택되고, 결합될 수 있다(예를 들어, 함께 패치 또는 스티치되거나, 또는 데이터 구조로 배열될 수 있다). 이미지 프로세서는 생체 측정 검증에서 추후 사용을 위해, 결합 또는 스티칭을 위해 관심 영역의 부분들로부터 생체 측정 정보를 선택 또는 추출할 수 있다.
다른 양태에서, 본 발명은 예를 들어, 도 21-24와 관련하여 전술한 바와 같이, 눈의 아티팩트 없는 생체 측정 이미지들을 취득하는 방법에 관한 것이다. 목표로 하는 눈 또는 눈들은 제1 센서와 상대 이동하고 있을 수 있고, 눈(들)에 착용한 부분 반사 안경류의 존재하에 있을 수 있다. 이 방법은 제1 센서에 의해, 눈이 센서에 대한 제1 위치에 있고 제1 일루미네이터가 눈을 비추는 동안 눈의 제1 이미지를 취득하는 단계를 포함할 수 있다(203). 제1 이미지는 관심 영역을 포함할 수 있다. 제1 센서는 제1 일루미네이터로부터의 고정된 변위에 배치될 수 있다. 제1 센서는 제1 이미지의 취득으로부터 미리 결정된 기간 내에, 눈이 제2 위치에 있고 제1 일루미네이터가 눈을 비추는 동안 눈의 제2 이미지를 취득할 수 있다(205). 제2 이미지는 관심 영역을 포함할 수 있다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내에서, 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정할 수 있다(207). 이미지 프로세서는 그 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 제1 및 제2 이미지들 중 하나 또는 양자로부터, 관심 영역의 적어도 일부분을 선택할 수 있다(209).
이러한 양태에서, 단일 센서 동작이 도 28의 시스템 및/또는 방법의 문맥 내에서 일어날 수 있다. 이와 같이, 방법 단계들 중 일부는 도 28과 관련하여 전술한 또는 도 28로부터 적응된 단계들, 피처들 또는 프로세스들 중 임의의 것을 포함할 수 있다. 단일 센서 동작은 도 2-28에서 설명한 단일 또는 다중 센서 시스템의 임의의 실시예에서 이용할 수 있다. 예를 들어, 2개의 센서 중 하나는 아티팩트 없는 이미지들을 캡처하기 위한 단일 센서 취득 방법을 실시하기 위해 턴 오프 또는 디스에이블 될 수 있다.
(203)을 참조하면, 제1 센서는 눈이 센서에 대한 제1 위치에 있고 제1 일루미네이터가 눈을 비추는 동안 눈의 제1 이미지를 취득할 수 있다(203). 제1 이미지는 관심 영역을 포함할 수 있다. 제1 센서는 제1 일루미네이터로부터의 고정된 변위에 배치될 수 있다. 단계(203)는 (103)과 관련하여 전술한 또는 (103)으로부터 적응된 단계들, 피처들 또는 프로세스들 중 임의의 것을 포함할 수 있다. 제1 센서는 눈이 센서와 상대 이동하고 있는 동안 눈의 제1 이미지를 취득할 수 있다. 제1 센서는 눈이 제1 센서에 대한 제1 배향 또는 시선 방향에 있을 때 눈의 제1 이미지를 취득할 수 있다. 제1 센서는 눈이 제1 센서로부터 제1 거리에 있을 때 눈의 제1 이미지를 취득할 수 있다.
다른 양태에서, 본 시스템들은 센서에 대한 사용자의 움직임이 센서의 광학 축에 평행하지 않게 보장하도록 구성될 수 있다. 이것의 예가 도 24에 도시되어 있다. 이것은 예를 들어, 사용자 또는 장치가 눈으로부터 카메라까지의 선을 따르는 방향 이외의, 눈으로부터 조준 메커니즘까지의 선을 따라 이동하도록 카메라로부터 상이한 장소에 조준 또는 시선 겨냥 메커니즘(sighting or gaze-directing mechanism)을 배치함으로써 실현될 수 있다. 예를 들어, 조준 메커니즘은 센서의 광학 축 및 사용자의 시선 축이 평행하지 않도록, 센서로부터 특정 거리에 배치될 수 있다.
센서에 대한 사용자의 움직임이 센서의 광학 축에 평행할 때, 이러한 움직임은 광학 축을 따라 제로 시차, 및 움직임의 방향이 광학 축에 가까울 때는 오직 작은 시차를 일으킬 수 있고, 이로써 이미지들에서 캡처된 아티팩트들에서의 제한된 변경들 또는 시프트들을 야기하고, 아티팩트들이 없는 적어도 일부 이미지를 취득하기 위한 능력이 감소한다.
센서에 대한 사용자의 움직임이 센서의 광학 축에 평행하지 않을 때, 그러한 움직임은 취득한 이미지 시퀀스에서 광학 축을 따라 그리고 광학 축 근처에서 시차를 증가시킬 수 있고, 이로써 이미지들에서 캡처된 아티팩트들에서의 더 큰 변경 또는 시프트를 허용하고, 아티팩트 없는 이미지들을 복구할 가능성이 증가한다.
일부 실시예들에서, 생체 측정 취득 장치는 대상 또는 대상의 눈(들)의 시선 방향을 향하게 하는 수단을 포함한다. 이러한 시선 지향 수단(gaze direction means)은 센서의 광학 축으로부터 미리 결정된 거리에, 예를 들어, 제1 센서와 제1 일루미네이터의 사이에 또는 일루미네이터와 센서의 광학 축 둘다 위에, 위치할 수 있다. 이 수단은 하나 이상의 센서와 하나 이상의 일루미네이터(예를 들어, 제1 및 제2 일루미네이터들)로부터 미리 결정된 거리에 또는 그 사이에 위치할 수 있다. 이 수단은 광, 스크린, 라벨, 마킹, 디스플레이, 이동부, 또는 그의 임의의 조합 중 임의의 하나 이상을 포함할 수 있는 어텐션 모듈(attention module)과 같은 모듈을 포함할 수 있다. 이러한 수단은 때때로 시선 지향기(gaze director) 또는 조준 메커니즘이라고도 할 수 있다. 조준 메커니즘은 생체 측정 취득 장치 내에 또는 상에 배치된 중공 원뿔대(truncated, hollow cone) 또는 다른 3D 형상을 포함할 수 있고, 중공 원뿔 또는 다른 3D 형상의 축은 사용자를 가리킨다. 원뿔 또는 다른 3D 형상의 멀리 보이는 에지(visible far edge)와 가까이 보이는 에지(visible near edge) 사이의 시차는 원뿔 또는 다른 3D 형상의 축을 따라 바로 보일 때에만 먼 에지와 가까운 에지가 중심이 같게 보이도록 함으로써, 사용자가 눈과 시선 지향기 사이의 선을 정의하는 시선 위치를 바라보는 특정 각도를 제어하기 위한 수단을 제공한다. 특정 배향에서 시선 위치에 위치한 거울은 또한 사용자가 거울 속의 눈을 관측할 수 있을 때, 거울의 각도에 의해 좌우되는, 시선 위치와 시선 방향 둘다를 정의하는 속성을 갖는다. 이러한 거울은 장치 상의 공간을 감소시키기 위하여 센서에 또는 그 근처에서 같은 장소에 배치될 수 있지만, 센서에 대한 사용자의 움직임이 센서의 광학 축에 대해 평행하지 않도록 보장하기 위해 비스듬히 경사질 수 있다.
다양한 실시예들에서, 제1 센서(및/또는 부가적인 센서들) 및 제1 일루미네이터(및/또는 부가적인 일루미네이터들)는 생체 측정 취득 시스템 또는 장치 상의 어딘가에 배치될 수 있다. 제1 센서(및/또는 부가적인 센서들)는 제1 일루미네이터(및/또는 부가적인 일루미네이터들)에 대하여, 위에 및/또는 측면에 배치될 수 있다. 제1 일루미네이터(및/또는 부가적인 일루미네이터들)는 각각 아래에 및/또는 측면에 배치될 수 있다. 그러한 배열은 상부 눈꺼풀의 속눈썹으로부터의 그림자들이 홍채 또는 관심 영역에 실루엣을 나타내거나 그림자를 드리우지 못하게 방지할 수 있다. 이것은 유리할 수 있는데, 그것은 그것들이 서로 가까이 이동함에 따라 센서의 광학 축이 사용자의 움직임에 대해 더 이상 평행하지 않을 수 있고, 이것은 상대 운동의 움직임으로부터 생기는 시차의 크기를 증가시킴으로써, 홍채 텍스처가 이미징 시퀀스에서 적어도 한 포인트에서 안경류 아래로 드러날 수 있는 가능성을 증가시키기 때문이다. 따라서, 생체 측정 취득 시스템의 일부 실시예들은 제1 센서에 대한 대응하는 대상의 움직임의 방향이 제1 센서의 광학 축에 대해 평행하지 않거나 그로부터 벗어나도록 보장할 수 있다.
(205)를 참조하면, 제1 센서는 제1 이미지의 취득으로부터 미리 결정된 기간 내에, 눈이 제2 위치에 있고 제1 일루미네이터가 눈을 비추는 동안 눈의 제2 이미지를 취득할 수 있다. 제2 이미지는 관심 영역을 포함할 수 있다. 제1 센서는 눈이 제1 센서와 상대 운동하고 있는 동안 눈의 제2 이미지를 취득할 수 있다. 제1 센서는 눈이 제1 센서에 대해 제2의 상이한 배향 또는 시선 방향에 있을 때 눈의 제2 이미지를 취득할 수 있다. 제1 센서는 눈이 제1 센서와 더 근접하게 있거나 제1 센서로부터 더 멀리 있을 때 눈의 제2 이미지를 취득할 수 있다.
일부 실시예들에서, 제2 센서는 예를 들어, (105)와 관련하여 위에서 논의한 것과 유사하게, 제1 일루미네이터가 비추는 동안 눈의 제3 이미지를 취득한다. 제2 센서는 제1 센서에 대해 수직으로 변위될 수 있다. 제2 센서는 제3 이미지의 취득으로부터 미리 결정된 시간 내에, 제1 일루미네이터가 비추는 동안 눈의 제4 이미지를 취득할 수 있다. 제1 센서는 예를 들어, (105)와 관련하여 위에서 논의한 것과 유사하게, 제2 일루미네이터가 비추는 동안 눈의 제3 이미지를 취득할 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 미리 정의된 거리에 배치될 수 있다. 제1 센서는 제1 이미지의 취득으로부터 미리 결정된 시간 내에, 제2 일루미네이터가 비추는 동안 눈의 제3 이미지를 취득할 수 있다. 제2 일루미네이터는 제1 일루미네이터로부터 수직 거리에 배치될 수 있다.
(207)을 참조하면, 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내에서, 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정할 수 있다. 단계(207)은 (107)과 관련하여 전술한 단계들, 피처들, 또는 프로세스들 중 임의의 것을 포함할 수 있다.
더욱 상세하게, 단계(209)를 참조하면, 이미지 프로세서는 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 제1 및 제2 이미지들 중 하나 또는 양자로부터, 관심 영역의 적어도 일부분을 선택할 수 있다. 단계(209)는 하나 이상의 이미지들의 프로세싱에 관한, (107) 및 도 26-27과 관련하여 전술한 단계들, 피처들 또는 프로세스들 중 임의의 것을 포함할 수 있다. 예를 들어, 이미지 프로세서는 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 제1 및 제2 이미지들 중 하나 또는 양자로부터, 관심 영역의 적어도 일부분을 선택할 수 있다. 이미지 프로세서는 생체 측정 검증을 위해, 선택된 관심 영역의 적어도 일부분을 조합할 수 있다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 관심 영역 내의 안경류로부터의 정반사를 포함하는지를 결정할 수 있고, 정반사는 제1 일루미네이터로부터 생긴다. 이미지 프로세서는 제1 및 제2 이미지들 중 적어도 하나가 안경류의 비-렌즈 부분으로부터의 차단, 안경류의 렌즈에서의 불연속, 및 렌즈의 가장자리로부터의 왜곡 중 적어도 하나를 포함하는지를 결정할 수 있다.
방법들 및 시스템들의 특정 실시예들이 설명되었지만, 본 발명의 개념을 포함하는 다른 실시예들이 이용될 수 있다는 것이 이 기술분야의 통상의 기술자에게 이제 명백해질 것이다. 전술한 시스템들은 그의 컴포넌트들 각각 또는 그의 컴포넌트들 중 임의의 복수의 컴포넌트들을 제공할 수 있고, 이들 컴포넌트들은 독립형 머신 또는, 일부 실시예들에서, 분산 시스템의 복수의 머신에 제공될 수 있다는 것을 이해해야 한다. 전술한 시스템들 및 방법들은 소프트웨어, 펌웨어, 하드웨어, 또는 그의 임의의 조합을 생산하기 위한 프로그래밍 및/또는 엔지니어링 기법들을 이용하여 방법, 장치 또는 제조 물품으로서 구현될 수 있다. 또한, 전술한 시스템들 및 방법들은 하나 이상의 제조 물품 상에 또는 그 안에 구체화된 하나 이상의 컴퓨터 판독 가능한 프로그램으로서 제공될 수 있다. 본 명세서에서 이용되는 바와 같은 용어 "제조 물품"은 하나 이상의 컴퓨터 판독 가능한 장치, 펌웨어, 프로그램 가능한 로직, 메모리 장치들(예를 들어, EEPROM, ROM, PROM, RAM, SRAM 등), 하드웨어(예를 들어, 집적 회로 칩, FPGA(Field Programmable Gate Array), ASIC(Application Specific Integrated Circuit) 등), 전자 장치들, 컴퓨터 판독 가능한 불휘발성 저장 유닛(예를 들어, CD-ROM, 플로피 디스크, 하드 디스크 드라이브 등)에 구체화되고 그로부터 액세스 가능한 코드 또는 로직을 포함하는 것으로 의도된다. 제조 물품은 네트워크 전송 라인, 무선 전송 매체, 공간을 통해 전파되는 신호들, 라디오파, 적외선 신호들 등을 통해 컴퓨터 판독 가능한 프로그램들에 대한 액세스를 제공하는 파일 서버로부터 액세스 가능할 수 있다. 제조 물품은 플래시 메모리 카드 또는 자기 테이프일 수 있다. 제조 물품은 프로세서에 의해 실행되는 컴퓨터 판독 가능한 매체에 구체화된 소프트웨어 또는 프로그램 가능한 코드뿐만 아니라 하드웨어 로직을 포함한다. 일반적으로, 컴퓨터 판독 가능한 프로그램들은 LISP, PERL, C, C++, C#, PROLOG와 같은 임의의 프로그래밍 언어로, 또는 JAVA와 같은 임의의 바이트 코드 언어로 구현될 수 있다. 소프트웨어 프로그램들은 객체 코드로서 하나 이상의 제조 물품 상에 또는 그 안에 저장될 수 있다.

Claims (36)

  1. 부분 반사 안경류(partially-reflective eyewear)의 존재 하에서, 센서와 상대 운동하고 있는 눈의 아티팩트 없는 생체 측정 이미지들을 취득하는 방법으로서,
    (a) 제1 센서에 의해, 제1 일루미네이터(illuminator)가 눈을 비추는 동안 눈의 제1 이미지를 취득하는 단계 - 상기 제1 이미지는 관심 영역을 포함하고, 상기 제1 센서는 상기 제1 일루미네이터 및 제2 센서로부터의 고정된 변위에 배치됨 - ;
    (b) 상기 제1 이미지의 취득으로부터 미리 결정된 기간 내에 상기 제2 센서에 의해, 상기 눈의 제2 이미지를 취득하는 단계 - 상기 제2 이미지는 상기 관심 영역을 포함함 - ; 및
    (c) 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내에서, 상기 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들(artifacts)을 포함하는지를 결정하는 단계
    를 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  2. 제1항에 있어서, (a) 단계는, 상기 제1 센서에 의해, 상기 제1 일루미네이터가 비추는 동안 상기 눈의 상기 제1 이미지를 취득하는 단계를 포함하고, 상기 제1 센서는 상기 제2 센서에 대하여 수직으로 변위되는(vertically displaced), 아티팩트 없는 생체 측정 이미지의 취득 방법.
  3. 제1항에 있어서, (b) 단계는, 상기 제1 이미지의 취득과 동시에 상기 제2 센서에 의해, 상기 눈의 상기 제2 이미지를 취득하는 단계를 포함하고, 상기 제2 이미지는 상기 관심 영역을 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  4. 제1항에 있어서, 상기 제1 센서에 의해, 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득하는 단계를 더 포함하고, 상기 제2 일루미네이터는 상기 제1 일루미네이터로부터 미리 정의된 거리에 배치되는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  5. 제1항에 있어서, 상기 제1 이미지의 취득으로부터 미리 결정된 시간 내에 상기 제1 센서에 의해, 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득하는 단계를 더 포함하고, 상기 제2 일루미네이터는 상기 제1 일루미네이터로부터 수직으로 떨어져 배치되는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  6. 제5항에 있어서, 상기 제2 센서에 의해, 상기 제2 일루미네이터가 비추는 동안 상기 눈의 제4 이미지를 취득하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  7. 제1항에 있어서, 상기 제1 및 제2 센서들의 광학 축들이 상기 눈과 상기 센서들 사이의 실질적으로 명목상 거리(substantially a nominal distance) D에서 수렴하도록, 상기 제1 및 제2 센서들을 배열하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  8. 제7항에 있어서, Theta = aTan(0.5 * S / D)에 따라, 상기 제1 센서와 제2 센서 사이의 중간점과 상기 눈을 연결하는 라인으로부터, 각도 Theta로 상기 제1 및 제2 센서들을 경사지게 하는 단계를 더 포함하고, 여기서, S는 상기 제1 센서와 제2 센서 사이의 분리 거리이고, D는 상기 눈으로부터 상기 제1 센서와 제2 센서 사이의 중간점까지의 거리인, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  9. 제1항에 있어서, 상기 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 상기 제1 및 제2 이미지들 중 하나 또는 양자로부터, 상기 관심 영역의 적어도 일부분을 선택하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  10. 제9항에 있어서, 생체 측정 검증을 위해, 선택된 상기 관심 영역의 적어도 일부분을 조합하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  11. 제1항에 있어서, (c) 단계는, 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내의 상기 안경류로부터의 정반사(specular reflection)를 포함하는지를 결정하는 단계를 포함하고, 상기 정반사는 상기 제1 일루미네이터로부터 생기는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  12. 제1항에 있어서, (c) 단계는, 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 안경류의 비-렌즈 부분으로부터의 차단, 상기 안경류의 렌즈에서의 불연속(discontinuity), 및 상기 렌즈의 가장자리로부터의 왜곡 중 적어도 하나를 포함하는지를 결정하는 단계를 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  13. 부분 반사 안경류의 존재 하에서, 센서와 상대 운동하고 있는 눈의 아티팩트 없는 생체 측정 이미지들을 취득하는 시스템으로서,
    제1 일루미네이터;
    제1 센서와 제2 센서 - 상기 제1 센서는 제1 일루미네이터가 비추는 동안 눈의 제1 이미지를 취득하고, 상기 제1 이미지는 관심 영역을 포함하고, 상기 제1 센서는 상기 제1 일루미네이터 및 제2 센서로부터의 고정된 변위에 배치되고, 상기 제2 센서는 상기 제1 이미지의 취득으로부터 미리 결정된 기간 내에 상기 눈의 제2 이미지를 취득하고, 상기 제2 이미지는 상기 관심 영역을 포함함 - ; 및
    상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내에서, 상기 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정하는 이미지 프로세서
    를 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  14. 제13항에 있어서, 상기 제1 센서는 상기 제2 센서에 대하여 수직으로 변위되는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  15. 제13항에 있어서, 상기 제2 센서는 상기 제1 이미지의 취득과 동시에 상기 눈의 상기 제2 이미지를 취득하는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  16. 제13항에 있어서, 상기 제1 센서는 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득하고, 상기 제2 일루미네이터는 상기 제1 일루미네이터로부터 미리 정의된 거리에 배치되는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  17. 제13항에 있어서, 제2 일루미네이터를 더 포함하고, 상기 제1 센서는 상기 제1 이미지의 취득으로부터 미리 결정된 시간 내에, 상기 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득하고, 상기 제2 일루미네이터는 상기 제1 일루미네이터로부터 수직으로 떨어져 배치되는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  18. 제17항에 있어서, 상기 제2 센서는 상기 제2 일루미네이터가 비추는 동안 상기 눈의 제4 이미지를 취득하는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  19. 제13항에 있어서, 상기 제1 및 제2 센서들은, 상기 제1 및 제2 센서들의 광학 축들이 상기 눈과 상기 센서들 사이의 실질적으로 명목상 거리 D에서 수렴하도록 배열되는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  20. 제19항에 있어서, 상기 제1 및 제2 센서들은, 상기 제1 및 제2 센서들의 광학 축들이 Theta = aTan(0.5 * S / D)에 따라, 상기 제1 센서와 제2 센서 사이의 중간점과 상기 눈을 연결하는 라인으로부터, 각도 Theta로 경사지도록 배열되고, 여기서, S는 상기 제1 센서와 제2 센서 사이의 분리 거리이고, D는 상기 눈으로부터 상기 제1 센서와 제2 센서 사이의 중간점까지의 거리인, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  21. 제13항에 있어서, 상기 이미지 프로세서는, 상기 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 상기 제1 및 제2 이미지들 중 하나 또는 양자로부터, 상기 관심 영역의 적어도 일부분을 선택하는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  22. 제21항에 있어서, 상기 이미지 프로세서는, 생체 측정 검증을 위해, 선택된 상기 관심 영역의 적어도 일부분을 조합하는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  23. 제13항에 있어서, 상기 이미지 프로세서는, 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내의 상기 안경류로부터의 정반사를 포함하는지를 결정하고, 상기 정반사는 상기 제1 일루미네이터로부터 생기는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  24. 제13항에 있어서, 상기 이미지 프로세서는, 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 안경류의 비-렌즈 부분으로부터의 차단, 상기 안경류의 렌즈에서의 불연속, 및 상기 렌즈의 가장자리로부터의 왜곡 중 적어도 하나를 포함하는지를 결정하는, 아티팩트 없는 생체 측정 이미지의 취득 시스템.
  25. 부분 반사 안경류의 존재 하에서, 센서와 상대 운동하고 있는 눈의 아티팩트 없는 생체 측정 이미지들을 취득하는 방법으로서,
    (a) 제1 센서에 의해, 눈이 상기 센서에 대해 제1 위치에 있고 제1 일루미네이터가 눈을 비추는 동안 눈의 제1 이미지를 취득하는 단계 - 상기 제1 이미지는 관심 영역을 포함하고, 상기 제1 센서는 상기 제1 일루미네이터로부터의 고정된 변위에 배치됨 - ;
    (b) 상기 제1 이미지의 취득으로부터 미리 결정된 시간 내에 상기 제1 센서에 의해, 상기 눈이 제2 위치에 있고 상기 제1 일루미네이터가 상기 눈을 비추는 동안 상기 눈의 제2 이미지를 취득하는 단계 - 상기 제2 이미지는 상기 관심 영역을 포함함 - ;
    (c) 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내에서, 상기 제1 일루미네이터 및 안경류 중 하나 또는 둘다로부터 생기는 아티팩트들을 포함하는지를 결정하는 단계; 및
    (d) 상기 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 상기 제1 및 제2 이미지들 중 하나 또는 양자로부터, 상기 관심 영역의 적어도 일부분을 선택하는 단계
    를 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  26. 제25항에 있어서, 제2 센서에 의해, 상기 제1 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득하는 단계를 더 포함하고, 상기 제2 센서는 상기 제1 센서에 대하여 수직으로 변위되는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  27. 제26항에 있어서, 상기 제3 이미지의 취득으로부터 미리 결정된 시간 내에 상기 제2 센서에 의해, 상기 제1 일루미네이터가 비추는 동안 상기 눈의 제4 이미지를 취득하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  28. 제25항에 있어서, 상기 제1 센서에 의해, 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득하는 단계를 더 포함하고, 상기 제2 일루미네이터는 상기 제1 일루미네이터로부터 미리 정의된 거리에 배치되는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  29. 제25항에 있어서, 상기 제1 이미지의 취득으로부터 미리 결정된 시간 내에 상기 제1 센서에 의해, 제2 일루미네이터가 비추는 동안 상기 눈의 제3 이미지를 취득하는 단계를 더 포함하고, 상기 제2 일루미네이터는 상기 제1 일루미네이터로부터 수직으로 떨어져 배치되는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  30. 제25항에 있어서, 상기 결정에 기초하여, 생체 측정 검증에 이용하기 위해, 상기 제1 및 제2 이미지들 중 하나 또는 양자로부터, 상기 관심 영역의 적어도 일부분을 선택하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  31. 제30항에 있어서, 생체 측정 검증을 위해, 선택된 상기 관심 영역의 적어도 일부분을 조합하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  32. 제25항에 있어서, (c) 단계는, 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 관심 영역 내의 상기 안경류로부터의 정반사를 포함하는지를 결정하는 단계를 포함하고, 상기 정반사는 상기 제1 일루미네이터로부터 생기는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  33. 제25항에 있어서, (c) 단계는, 상기 제1 및 제2 이미지들 중 적어도 하나가 상기 안경류의 비-렌즈 부분으로부터의 차단, 상기 안경류의 렌즈에서의 불연속, 및 상기 렌즈의 가장자리로부터의 왜곡 중 적어도 하나를 포함하는지를 결정하는 단계를 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  34. 제25항에 있어서, 상기 제1 센서에 대한 대응하는 대상의 움직임의 방향이 상기 제1 센서의 광학 축에 평행하지 않도록 보장하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  35. 제25항에 있어서, 상기 제1 센서로부터 미리 결정된 거리에 배치된 모듈에 의해, 상기 제1 센서의 광학 축이 시선 방향에 대하여 실질적으로 평행하지 않도록 상기 눈의 시선 방향을 향하게 하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
  36. 제25항에 있어서, 상기 제1 일루미네이터가 상기 제1 센서 아래에 수직으로 배치되도록 상기 제1 일루미네이터를 배열하는 단계를 더 포함하는, 아티팩트 없는 생체 측정 이미지의 취득 방법.
KR1020147007707A 2011-08-22 2012-08-21 아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들 KR102024954B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161525984P 2011-08-22 2011-08-22
US61/525,984 2011-08-22
PCT/US2012/051747 WO2013028700A2 (en) 2011-08-22 2012-08-21 Systems and methods for capturing artifact free images

Publications (2)

Publication Number Publication Date
KR20140050747A true KR20140050747A (ko) 2014-04-29
KR102024954B1 KR102024954B1 (ko) 2019-09-24

Family

ID=47743796

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147007707A KR102024954B1 (ko) 2011-08-22 2012-08-21 아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들

Country Status (5)

Country Link
US (3) US8965064B2 (ko)
EP (1) EP2748768A4 (ko)
KR (1) KR102024954B1 (ko)
RU (1) RU2623795C2 (ko)
WO (1) WO2013028700A2 (ko)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US8364646B2 (en) 2006-03-03 2013-01-29 Eyelock, Inc. Scalable searching of biometric databases using dynamic selection of data subsets
US8604901B2 (en) 2006-06-27 2013-12-10 Eyelock, Inc. Ensuring the provenance of passengers at a transportation facility
EP2076871A4 (en) 2006-09-22 2015-09-16 Eyelock Inc COMPACT BIOMETRIC DETECTION SYSTEM AND CORRESPONDING METHOD
WO2008042879A1 (en) 2006-10-02 2008-04-10 Global Rainmakers, Inc. Fraud resistant biometric financial transaction system and method
US8953849B2 (en) 2007-04-19 2015-02-10 Eyelock, Inc. Method and system for biometric recognition
WO2008131201A1 (en) 2007-04-19 2008-10-30 Global Rainmakers, Inc. Method and system for biometric recognition
US20120239458A9 (en) * 2007-05-18 2012-09-20 Global Rainmakers, Inc. Measuring Effectiveness of Advertisements and Linking Certain Consumer Activities Including Purchases to Other Activities of the Consumer
US9280706B2 (en) 2011-02-17 2016-03-08 Eyelock Llc Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor
WO2009029757A1 (en) 2007-09-01 2009-03-05 Global Rainmakers, Inc. System and method for iris data acquisition for biometric identification
US9117119B2 (en) 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
US8212870B2 (en) 2007-09-01 2012-07-03 Hanna Keith J Mirror system and method for acquiring biometric data
US9036871B2 (en) 2007-09-01 2015-05-19 Eyelock, Inc. Mobility identity platform
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
WO2009158662A2 (en) 2008-06-26 2009-12-30 Global Rainmakers, Inc. Method of reducing visibility of illimination while acquiring high quality imagery
US20110119141A1 (en) * 2009-11-16 2011-05-19 Hoyos Corporation Siccolla Identity Verification Architecture and Tool
US10043229B2 (en) 2011-01-26 2018-08-07 Eyelock Llc Method for confirming the identity of an individual while shielding that individual's personal data
US9124798B2 (en) 2011-05-17 2015-09-01 Eyelock Inc. Systems and methods for illuminating an iris with visible light for biometric acquisition
KR102043866B1 (ko) 2013-06-18 2019-11-12 델타 아이디 아이엔씨. 홍채 이미지 형성 장치 및 홍채 이미지 형성 장치의 구성 방법
WO2015054686A1 (en) * 2013-10-11 2015-04-16 Lumidigm, Inc. Miniaturized optical biometric sensing
US20160337569A1 (en) * 2014-01-17 2016-11-17 Salil Prabhakar Method and apparatus for strobed illumination in eye based biometric systems
WO2016018487A2 (en) * 2014-05-09 2016-02-04 Eyefluene, Inc. Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US20150320311A1 (en) * 2014-05-12 2015-11-12 Here Global B.V. Method and apparatus for iris recognition using natural light
EP3192009A4 (en) * 2014-09-12 2018-04-25 Eyelock Llc Methods and apparatus for directing the gaze of a user in an iris recognition system
MX2017003776A (es) 2014-09-24 2018-03-23 Princeton Identity Inc Control de la capacidad de un dispositivo de comunicacion inalambrica en un dispositivo movil con una llave biometrica.
KR102287751B1 (ko) * 2014-09-25 2021-08-09 삼성전자 주식회사 전자 장치의 홍채 인식 방법 및 장치
DK3204082T3 (da) * 2014-10-06 2020-07-06 Sanofi Aventis Deutschland Hjælpeanordning til fastgørelse til en injektionsanordning til bestemmelse af den indstillede og/eller administrerede dosis med ocr-billedbehandling, der indbefatter en metode til refleksionsreduktion
EP3204081B1 (en) * 2014-10-06 2020-06-24 Sanofi-Aventis Deutschland GmbH Supplementary device for attachment to an injection device for determining the set and/or administered dose with ocr image processing including a method for glare reduction
WO2016089592A1 (en) * 2014-12-03 2016-06-09 Sri Internaitonal System and method for mobile device biometric add-on
CN104573676B (zh) * 2015-02-02 2018-01-05 深圳眼神智能科技有限公司 防眼镜反光干扰的虹膜识别装置
US10049272B2 (en) * 2015-09-24 2018-08-14 Microsoft Technology Licensing, Llc User authentication using multiple capture techniques
JP2019506694A (ja) 2016-01-12 2019-03-07 プリンストン・アイデンティティー・インコーポレーテッド 生体測定分析のシステムおよび方法
US10366296B2 (en) 2016-03-31 2019-07-30 Princeton Identity, Inc. Biometric enrollment systems and methods
WO2017172695A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Systems and methods of biometric anaysis with adaptive trigger
EP3436855A4 (en) * 2016-06-30 2019-12-11 Hewlett-Packard Development Company, L.P. SMART MIRROR
WO2018098579A1 (en) * 2016-11-30 2018-06-07 Thalmic Labs Inc. Systems, devices, and methods for laser eye tracking in wearable heads-up displays
WO2018187337A1 (en) * 2017-04-04 2018-10-11 Princeton Identity, Inc. Z-dimension user feedback biometric system
CN111033521A (zh) 2017-05-16 2020-04-17 雅腾帝卡(私人)有限公司 用于文化制品的分析的数字数据细节处理
KR102573482B1 (ko) 2017-07-26 2023-08-31 프린스톤 아이덴티티, 인크. 생체 보안 시스템 및 방법
US10742894B2 (en) 2017-08-11 2020-08-11 Ut-Battelle, Llc Optical array for high-quality imaging in harsh environments
US20190369253A1 (en) * 2018-06-04 2019-12-05 North Inc. Edge Detection Circuit and Detection of Features on Illuminated Eye Using the Same
US20210118108A1 (en) * 2018-06-18 2021-04-22 Seeing Machines Limited High frame rate image pre-processing system and method
US10810450B2 (en) * 2018-09-13 2020-10-20 Blackberry Limited Methods and systems for improved biometric identification
US11036043B2 (en) * 2019-01-17 2021-06-15 Advanced New Technologies Co., Ltd. Identity authentication using lens features

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209213A (ja) * 2005-01-25 2006-08-10 Oki Electric Ind Co Ltd 虹彩撮影装置
JP2007504562A (ja) * 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5259040A (en) 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
US5488675A (en) 1994-03-31 1996-01-30 David Sarnoff Research Center, Inc. Stabilizing estimate of location of target region inferred from tracked multiple landmark regions of a video image
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5572596A (en) 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US5805719A (en) 1994-11-28 1998-09-08 Smarttouch Tokenless identification of individuals
US6192142B1 (en) 1994-11-28 2001-02-20 Smarttouch, Inc. Tokenless biometric electronic stored value transactions
US7613659B1 (en) 1994-11-28 2009-11-03 Yt Acquisition Corporation System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse
US5802199A (en) 1994-11-28 1998-09-01 Smarttouch, Llc Use sensitive identification system
US5613012A (en) 1994-11-28 1997-03-18 Smarttouch, Llc. Tokenless identification system for authorization of electronic transactions and electronic transmissions
US5615277A (en) 1994-11-28 1997-03-25 Hoffman; Ned Tokenless security system for authorizing access to a secured computer system
US6366682B1 (en) 1994-11-28 2002-04-02 Indivos Corporation Tokenless electronic transaction system
US5764789A (en) 1994-11-28 1998-06-09 Smarttouch, Llc Tokenless biometric ATM access system
US7248719B2 (en) 1994-11-28 2007-07-24 Indivos Corporation Tokenless electronic transaction system
US5581629A (en) 1995-01-30 1996-12-03 David Sarnoff Research Center, Inc Method for estimating the location of an image target region from tracked multiple image landmark regions
JPH09212644A (ja) 1996-02-07 1997-08-15 Oki Electric Ind Co Ltd 虹彩認識装置および虹彩認識方法
US5737439A (en) 1996-10-29 1998-04-07 Smarttouch, Llc. Anti-fraud biometric scanner that accurately detects blood flow
US6144754A (en) 1997-03-28 2000-11-07 Oki Electric Industry Co., Ltd. Method and apparatus for identifying individuals
US6373968B2 (en) 1997-06-06 2002-04-16 Oki Electric Industry Co., Ltd. System for identifying individuals
US6064752A (en) 1997-11-04 2000-05-16 Sensar, Inc. Method and apparatus for positioning subjects before a single camera
US6069967A (en) 1997-11-04 2000-05-30 Sensar, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses
US6021210A (en) 1997-12-01 2000-02-01 Sensar, Inc. Image subtraction to remove ambient illumination
US6055322A (en) * 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
US6028949A (en) 1997-12-02 2000-02-22 Mckendall; Raymond A. Method of verifying the presence of an eye in a close-up image
US5953440A (en) 1997-12-02 1999-09-14 Sensar, Inc. Method of measuring the focus of close-up images of eyes
US6088470A (en) * 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
US6980670B1 (en) 1998-02-09 2005-12-27 Indivos Corporation Biometric tokenless electronic rewards system and method
US6850631B1 (en) 1998-02-20 2005-02-01 Oki Electric Industry Co., Ltd. Photographing device, iris input device and iris image input method
US5978494A (en) 1998-03-04 1999-11-02 Sensar, Inc. Method of selecting the best enroll image for personal identification
JP3271750B2 (ja) 1998-03-05 2002-04-08 沖電気工業株式会社 アイリス識別コード抽出方法及び装置、アイリス認識方法及び装置、データ暗号化装置
JP3315648B2 (ja) 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
US6381347B1 (en) 1998-11-12 2002-04-30 Secugen High contrast, low distortion optical acquistion system for image capturing
US6424727B1 (en) 1998-11-25 2002-07-23 Iridian Technologies, Inc. System and method of animal identification and animal transaction authorization using iris patterns
US6377699B1 (en) 1998-11-25 2002-04-23 Iridian Technologies, Inc. Iris imaging telephone security module and method
US6289113B1 (en) 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
US6532298B1 (en) 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
KR100320465B1 (ko) 1999-01-11 2002-01-16 구자홍 홍채 인식 시스템
KR100320188B1 (ko) 1999-03-23 2002-01-10 구자홍 홍채인식 시스템의 위조 판별방법
US6247813B1 (en) 1999-04-09 2001-06-19 Iritech, Inc. Iris identification system and method of identifying a person through iris recognition
US6700998B1 (en) 1999-04-23 2004-03-02 Oki Electric Industry Co, Ltd. Iris registration unit
KR100649303B1 (ko) 2000-11-16 2006-11-24 엘지전자 주식회사 양쪽 눈의 홍채 이미지 집사 장치
FR2819327B1 (fr) 2001-01-10 2003-04-18 Sagem Dispositif d'identification optique
US7095901B2 (en) 2001-03-15 2006-08-22 Lg Electronics, Inc. Apparatus and method for adjusting focus position in iris recognition system
US8284025B2 (en) 2001-07-10 2012-10-09 Xatra Fund Mx, Llc Method and system for auditory recognition biometrics on a FOB
KR100854890B1 (ko) 2001-12-28 2008-08-28 엘지전자 주식회사 홍채 인식 시스템의 다중 조명을 이용한 홍채 등록 및인식방법
CN100350420C (zh) 2002-01-16 2007-11-21 虹膜技术公司 利用立体人脸识别的虹膜识别***和方法
US7715595B2 (en) 2002-01-16 2010-05-11 Iritech, Inc. System and method for iris identification using stereoscopic face recognition
JP4154917B2 (ja) * 2002-04-15 2008-09-24 沖電気工業株式会社 虹彩撮影装置
JP4062031B2 (ja) 2002-09-25 2008-03-19 セイコーエプソン株式会社 ガンマ補正方法、ガンマ補正装置及び画像読み取りシステム
US7385626B2 (en) 2002-10-21 2008-06-10 Sarnoff Corporation Method and system for performing surveillance
FR2851673B1 (fr) 2003-02-20 2005-10-14 Sagem Procede d'identification de personnes et systeme pour la mise en oeuvre du procede
KR100587422B1 (ko) * 2003-07-18 2006-06-09 학교법인연세대학교 전방향 인식가능한 홍채인식방법 및 장치
FR2860629B1 (fr) 2003-10-01 2005-12-02 Sagem Dispositif de positionnement d'un utilisateur par reperage sur les deux yeux
FR2864290B1 (fr) 2003-12-18 2006-05-26 Sagem Procede et dispositif de reconnaissance d'iris
US7542590B1 (en) 2004-05-07 2009-06-02 Yt Acquisition Corporation System and method for upgrading biometric data
FR2870948B1 (fr) 2004-05-25 2006-09-01 Sagem Dispositif de positionnement d'un utilisateur par affichage de son image en miroir, dispositif de capture d'images et procede de positionnement correspondants
FR2871910B1 (fr) 2004-06-22 2006-09-22 Sagem Procede de codage de donnees biometriques, procede de controle d'identite et dispositifs pour la mise en oeuvre des procedes
US7639840B2 (en) 2004-07-28 2009-12-29 Sarnoff Corporation Method and apparatus for improved video surveillance through classification of detected objects
US7558406B1 (en) 2004-08-03 2009-07-07 Yt Acquisition Corporation System and method for employing user information
US8190907B2 (en) 2004-08-11 2012-05-29 Sony Computer Entertainment Inc. Process and apparatus for automatically identifying user of consumer electronics
US8402040B2 (en) 2004-08-20 2013-03-19 Morphotrust Usa, Inc. Method and system to authenticate an object
US7616788B2 (en) 2004-11-12 2009-11-10 Cogent Systems, Inc. System and method for fast biometric pattern matching
KR100629550B1 (ko) 2004-11-22 2006-09-27 아이리텍 잉크 다중스케일 가변영역분할 홍채인식 방법 및 시스템
US7418115B2 (en) * 2004-12-07 2008-08-26 Aoptix Technologies, Inc. Iris imaging using reflection from the eye
US7869627B2 (en) 2004-12-07 2011-01-11 Aoptix Technologies, Inc. Post processing of iris images to increase image quality
WO2006063076A2 (en) 2004-12-07 2006-06-15 Aoptix Technologies Iris imaging using reflection from the eye
US7697786B2 (en) 2005-03-14 2010-04-13 Sarnoff Corporation Method and apparatus for detecting edges of an object
FR2884947B1 (fr) 2005-04-25 2007-10-12 Sagem Procede d'acquisition de la forme de l'iris d'un oeil
RU2315352C2 (ru) * 2005-11-02 2008-01-20 Самсунг Электроникс Ко., Лтд. Способ и система для автоматического обнаружения трехмерных образов
FR2896604B1 (fr) 2006-01-23 2008-12-26 Sagem Defense Securite Procedes de determination d'un identifiant et de verification biometrique et systemes associes
US20070211922A1 (en) 2006-03-10 2007-09-13 Crowley Christopher W Integrated verification and screening system
FR2899357B1 (fr) 2006-03-29 2008-06-20 Sagem Defense Securite Traitement de donnees biometriques dans un referentiel multi dimensionnel.
FR2900482B1 (fr) 2006-04-28 2008-06-20 Sagem Defense Securite Procede d'identification d'une personne par analyse des cara cteristiques de ses cils
FR2901898B1 (fr) 2006-06-06 2008-10-17 Sagem Defense Securite Procede d'identification et dispositif d'acquisition pour la mise en oeuvre dudit procede
FR2903513B1 (fr) 2006-07-10 2008-12-05 Sagem Defense Securite Procede d'identification d'un individu utilisant une fonctio n de transformation et dispositif d'identification associe
US7574021B2 (en) 2006-09-18 2009-08-11 Sarnoff Corporation Iris recognition for a secure facility
JP4650386B2 (ja) 2006-09-29 2011-03-16 沖電気工業株式会社 個人認証システム及び個人認証方法
US8092021B1 (en) 2007-01-26 2012-01-10 Aoptix Technologies, Inc. On-axis illumination for iris imaging
WO2008092156A1 (en) 2007-01-26 2008-07-31 Aoptix Technologies, Inc. Combined iris imager and wavefront sensor
FR2912532B1 (fr) 2007-02-14 2009-04-03 Sagem Defense Securite Dispositif de capture biometrique securise
US20090074256A1 (en) 2007-03-05 2009-03-19 Solidus Networks, Inc. Apparatus and methods for testing biometric equipment
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
RU2382408C2 (ru) * 2007-09-13 2010-02-20 Институт прикладной физики РАН Способ и система для идентификации человека по изображению лица
FR2924247B1 (fr) 2007-11-22 2009-11-13 Sagem Securite Procede d'identification d'une personne par son iris.
FR2925732B1 (fr) 2007-12-21 2010-02-12 Sagem Securite Generation et utilisation d'une cle biometrique
US8243133B1 (en) 2008-06-28 2012-08-14 Aoptix Technologies, Inc. Scale-invariant, resolution-invariant iris imaging using reflection from the eye
US8132912B1 (en) 2008-06-29 2012-03-13 Aoptix Technologies, Inc. Iris imaging system using circular deformable mirror mounted by its circumference
FR2935508B1 (fr) 2008-09-01 2010-09-17 Sagem Securite Procede de determination d'une pseudo-identite a partir de caracteristiques de minuties et dispositif associe.
KR101030613B1 (ko) 2008-10-08 2011-04-20 아이리텍 잉크 아이이미지에서 관심영역정보 및 인식적 정보획득방법
US20100278394A1 (en) 2008-10-29 2010-11-04 Raguin Daniel H Apparatus for Iris Capture
US8317325B2 (en) 2008-10-31 2012-11-27 Cross Match Technologies, Inc. Apparatus and method for two eye imaging for iris identification
MY165946A (en) 2009-01-07 2018-05-18 Magnetic Autocontrol Gmbh Apparatus for a checkpoint
EP2472299A3 (en) * 2009-01-29 2015-09-09 Nikon Corporation Imaging Optical System, Microscope Apparatus Including The Imaging Optical System, and Stereoscopic Microscope Apparatus
JP5427494B2 (ja) * 2009-07-03 2014-02-26 株式会社ニデック 眼底撮影装置
US9357920B2 (en) * 2009-09-04 2016-06-07 University Of Virginia Patent Foundation Hand-held portable fundus camera for screening photography
US9213895B2 (en) 2010-01-27 2015-12-15 Iris Id Iris scanning apparatus employing wide-angle camera, for identifying subject, and method thereof
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007504562A (ja) * 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
JP2006209213A (ja) * 2005-01-25 2006-08-10 Oki Electric Ind Co Ltd 虹彩撮影装置

Also Published As

Publication number Publication date
US20130051631A1 (en) 2013-02-28
US8965064B2 (en) 2015-02-24
EP2748768A2 (en) 2014-07-02
US9311536B2 (en) 2016-04-12
US9122925B2 (en) 2015-09-01
EP2748768A4 (en) 2016-05-11
WO2013028700A2 (en) 2013-02-28
RU2623795C2 (ru) 2017-06-29
WO2013028700A3 (en) 2013-05-10
US20160026864A1 (en) 2016-01-28
RU2014110930A (ru) 2015-09-27
KR102024954B1 (ko) 2019-09-24
US20150161443A1 (en) 2015-06-11

Similar Documents

Publication Publication Date Title
KR102024954B1 (ko) 아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들
US9124798B2 (en) Systems and methods for illuminating an iris with visible light for biometric acquisition
CN109716268B (zh) 眼部和头部跟踪
ES2742416T3 (es) Dispositivo y método de imagen corneal
US20190102956A1 (en) Information processing apparatus, information processing method, and program
US20170085790A1 (en) High-resolution imaging of regions of interest
US20160147297A1 (en) Presentation of data on an at least partially transparent display based on user focus
US10360450B2 (en) Image capturing and positioning method, image capturing and positioning device
CN107438779B (zh) 用于高质量可见光图像采集和红外iris图像采集的镜头***
US10163009B2 (en) Apparatus and method for recognizing iris
KR20140050603A (ko) 이동 식별 플랫폼
CN103688218B (zh) 获取生物统计特征的设备和方法
US20180032814A1 (en) Methods and apparatus for directing the gaze of a user in an iris recognition system
CA3032005A1 (en) Systems and methods of illumination control for biometric capture and liveness detection
EP3051386A1 (en) Eye tracking system and method
US20230377302A1 (en) Flexible illumination for imaging systems
CN116529787A (zh) 多波长生物识别成像***
CN116583885A (zh) 生物识别认证***中的姿态优化
WO2017112662A1 (en) Reflected optic camera module for iris recognition in a computing device
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
US20230377370A1 (en) Multi-camera biometric imaging system
US20230319428A1 (en) Camera comprising lens array
WO2023167789A1 (en) Wide angle eye tracking

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant