KR20140050603A - Mobile identity platform - Google Patents

Mobile identity platform Download PDF

Info

Publication number
KR20140050603A
KR20140050603A KR1020137029383A KR20137029383A KR20140050603A KR 20140050603 A KR20140050603 A KR 20140050603A KR 1020137029383 A KR1020137029383 A KR 1020137029383A KR 20137029383 A KR20137029383 A KR 20137029383A KR 20140050603 A KR20140050603 A KR 20140050603A
Authority
KR
South Korea
Prior art keywords
image
iris
sensor
subject
infrared
Prior art date
Application number
KR1020137029383A
Other languages
Korean (ko)
Inventor
키스 제이. 한나
게리 앨런 그린
데이비드 제임스 히르보넨
헥터 티. 호요스
조지 허버트 니덤 리들
Original Assignee
아이락 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/398,562 external-priority patent/US9280706B2/en
Application filed by 아이락 인크. filed Critical 아이락 인크.
Publication of KR20140050603A publication Critical patent/KR20140050603A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 개시는, 이미지 획득을 위해 피사체에서 시각 우성의 영향을 다루고 피사체의 홍채의 배치를 안내하도록 되어 있는 홍채 이미지 획득을 위한 소형, 이동 장치에 관한 것이다. 이 장치는 피사체로부터 홍채 이미지 획득을 위한 센서를 포함할 수 있다. 소형 미러가 피사체의 우성 눈을 향해 배치되고, 이미지 획득하기에 적절한 거리에 장치가 배치될 경우에 단일 홍채의 이미지를 피사체에 제공하도록 크기조정될 수 있다. 미러는 피사체가 홍채 이미지 획득을 위해 홍채를 배치하는 것을 지원할 수 있다. 미러는 홍채 이미지 획득 중에 센서와 홍채 사이에 배치되어, 홍채에서 반사된 광의 일부를 센서에 전달할 수 있다.The present disclosure relates to a compact, mobile device for iris image acquisition that is adapted to address the impact of visual dominance in a subject for image acquisition and to guide the placement of the iris of the subject. The device may include a sensor for obtaining an iris image from a subject. A small mirror may be placed toward the subject's dominant eye and resized to provide the subject with an image of a single iris when the device is placed at a suitable distance for image acquisition. The mirror may assist the subject in placing the iris for iris image acquisition. The mirror may be disposed between the sensor and the iris during iris image acquisition to transmit a portion of the light reflected from the iris to the sensor.

Figure P1020137029383
Figure P1020137029383

Description

이동 식별 플랫폼{MOBILE IDENTITY PLATFORM}Mobile Identification Platform {MOBILE IDENTITY PLATFORM}

본원은, 2011년 4월 6일자로 출원된 "Mobile Identity Platform"이라는 제목의 미국 특허 가출원 제61/472,270호의 우선권 및 그 이익을 주장하고, 2011년 4월 6일자로 출원된 "Efficient Method and System for the Acquisition of Face and Iris Imagery"라는 제목의 미국 특허 가출원 제61/472,279호의 우선권 및 그 이익을 주장하고, 2012년 2월 16일자로 출원된 "Efficient Method and System for the Acquisition of Scene Imagery and Iris Imagery using a Single Sensor"라는 제목의 미국 특허 출원 제13/398,562호의 우선권 및 그 이익을 주장하며 - 이 출원 자체는 2011년 2월 17일자로 출원된 "Method and System for Iris Recognition and Face Acquisition"이라는 제목의 미국 특허 가출원 제61/443,757호의 우선권 및 그 이익을 주장함 -, 이들 출원은 모든 목적을 위해 그 전체가 본 명세서에 참고로 포함된다.This application claims the priority and benefit of US Patent Provisional Application No. 61 / 472,270, entitled "Mobile Identity Platform," filed April 6, 2011, and filed "Efficient Method and System, filed April 6, 2011." "Efficient Method and System for the Acquisition of Scene Imagery and Iris," claiming priority and benefit of US Provisional Application No. 61 / 472,279 entitled "for the Acquisition of Face and Iris Imagery," filed February 16, 2012 Claiming priority and benefit of US patent application Ser. No. 13 / 398,562 entitled "Imagery using a Single Sensor"-the application itself is entitled "Method and System for Iris Recognition and Face Acquisition," filed Feb. 17, 2011 Claiming priority and benefit of U.S. Provisional Application No. 61 / 443,757, entitled "These applications are hereby incorporated by reference in their entirety for all purposes.

발명의 분야Field of invention

본 발명은 이미지 처리 및 식별자 검증 기술들에 관한 것으로서, 구체적으로는 생체 획득 및 처리를 위한 이동 플랫폼과 관련된 시스템들 및 방법들에 관한 것이다.TECHNICAL FIELD The present invention relates to image processing and identifier verification techniques, and more particularly to systems and methods related to a mobile platform for biometric acquisition and processing.

생체 매칭을 위해 홍채 이미지들을 획득하기 위한 통상적인 시스템들은 소형화를 위해서는 최적이 아니다. 많은 상이한 폼 팩터(form factor)의 생체 인식 시스템들이 존재한다. 홍채 생체 인식을 위해, 그러한 장치들은 통상적으로 핸드헬드, 데스크탑 또는 고정 설비이다. 핸드헬드 홍채 생체 인식 장치들의 문제점들 중 하나는 이들이 큰 부피를 가지며, 이들이 단지 운영자가 특수 목적의 부피 큰 장비로서 휴대하도록 설계되었다는 점이다. 데스크탑 장치들은 이전 및 도난되기 쉬우며, 고정 설비들은 생체 인증이 수행될 수 있는 곳의 이동성을 제한한다.Conventional systems for acquiring iris images for biometric matching are not optimal for miniaturization. There are many different form factors of biometric systems. For iris biometrics, such devices are typically handheld, desktop, or fixed fixtures. One of the problems with handheld iris biometric devices is that they have a large volume, and they are designed only for operators to carry as special purpose bulky equipment. Desktop devices are prone to migration and theft, and fixed facilities limit the mobility where biometric authentication can be performed.

게다가, 생체 인식 시스템들은 통상적으로 해당 생체의 타입의 특정 제약들을 고려함으로써 최적의 이미지들을 획득하도록 설계된다. 다른 데이터(예로서, 얼굴 또는 배경 이미지)가 획득되어야 하는 경우, 통상적으로 상이한 센서들이 사용되는데, 이는 상이한 이미지 타입들에 대한 요구사항들이 매우 상이하기 때문이다. 그러나, 그러한 접근법은 전체 솔루션에 비용을 추가하며, 또한 시스템의 크기 또는 풋프린트(footprint)를 증가시킬 수 있다. 게다가, 이미지 획득 및 처리에 필요한 컴포넌트들(예를 들어, 조명기, 센서, 포지셔닝 시스템, 이미지 저장 장치 등)의 수는 이동성을 갖고 소형인 통합 장치의 설계의 복잡성을 유발한다. 더욱이, 효율적인 처리를 위해 소형 장치에서 고품질의 생체 이미지들을 획득하기 위한 능력은 더 많은 과제를 제공한다.In addition, biometric systems are typically designed to obtain optimal images by taking into account certain constraints of the type of biome in question. If other data (eg a face or background image) is to be obtained, different sensors are typically used because the requirements for different image types are very different. However, such an approach adds cost to the overall solution and can also increase the size or footprint of the system. In addition, the number of components required for image acquisition and processing (e.g., illuminators, sensors, positioning systems, image storage devices, etc.) introduces complexity in the design of integrated and compact mobile devices. Moreover, the ability to obtain high quality biometric images in a compact device for efficient processing presents more challenges.

내장형 홍채 이미지 획득 장치의 설계의 특정 양태들은 성능을 최적화할 수 있다. 이들은 카메라 시야 내에 사용자를 배치하기 위한 수단; 조명이 최적으로 사용자를 향하는 것을 보증하기 위한 수단; 동일 센서를 이용하여 고품질 및 가시 및 적외선 이미지들 양자의 획득을 가능하게 하기 위한 수단; 내장형 장치를 픽업할 필요 없이 장치가 사용자의 얼굴을 향하게 하기 위한 수단; 사용자가 장치를 소지할 때 고품질 이미지를 획득할 가능성을 최대화하는 컴포넌트들의 최적 구성; 작은 내장형 장치에서 제한되는 메모리 요구들을 줄이기 위해 연속적으로 더 높은 품질의 홍채 이미지들을 획득하는 동시에, 응용의 정확성 요구들이 허가할 때 더 낮은 품질의 이미지들이 매칭되는 것을 보증하기 위한 수단; 획득된 계속적으로 더 높은 품질의 이미지들을 사용하여 장치 상의 이미지들의 제한된 수들에 대한 매칭을 수행하기 위한 수단; 계속적으로 더 높은 품질의 획득된 이미지들을 사용하여 장치 상의 이미지들의 제한된 수들에 대한 계속 매칭을 수행하는 동시에 결과들을 암호화하기 위한 수단; 및 접속 전체의 대역폭을 줄이기 위해 암호화되거나 암호화되지 않은 감소된 수의 이미지들을 네트워크 또는 다른 접속을 통해 전송하기 위해 계속적으로 더 높은 품질의 획득된 이미지들을 사용하기 위한 수단을 포함할 수 있다.Certain aspects of the design of the embedded iris image acquisition device can optimize performance. These include means for placing a user within the camera's field of view; Means for ensuring that the illumination is directed towards the user optimally; Means for enabling acquisition of both high quality and visible and infrared images using the same sensor; Means for directing the device to the user's face without having to pick up the embedded device; Optimal configuration of components to maximize the likelihood of obtaining a high quality image when the user carries the device; Means for continuously obtaining higher quality iris images to reduce limited memory requirements in a small embedded device while ensuring that lower quality images match when the accuracy requirements of the application permit; Means for performing matching to a limited number of images on the device using the acquired continuously higher quality images; Means for continuously encrypting results on a limited number of images on the device using continuously higher quality acquired images; And means for continuously using higher quality acquired images to transmit a reduced number of images, encrypted or unencrypted, over a network or other connection to reduce the bandwidth of the entire connection.

일 양태에서, 본 시스템들 및 방법들은 홍채 이미지 획득을 위한 소형 이동 장치와 관련된다. 장치는 이미지 획득을 위해 피사체(subject)에서의 시각 우성(ocular dominance)의 효과들을 고려하여, 피사체의 홍채의 배치를 안내하도록 구성될 수 있다. 장치는 피사체로부터 홍채 이미지를 획득하기 위한 센서를 포함할 수 있다. 소형 미러가 피사체의 우성 눈에 대해 배향될 수 있다. 미러는 장치가 이미지 획득을 위해 적절한 거리에 배치될 때 단일 홍채의 이미지를 피사체에 제공하도록 크기가 조절될 수 있다. 미러는 홍채 이미지 획득을 위해 피사체가 홍채를 배치하는 것을 도울 수 있다. 미러는 홍채 이미지 획득 중에 센서와 홍채 사이에 배치될 수 있다. 미러는 홍채로에서 반사된 광의 일부를 센서로 전송할 수 있다.In one aspect, the present systems and methods relate to a small mobile device for iris image acquisition. The device may be configured to guide the placement of the subject's iris, taking into account the effects of ocular dominance in the subject for image acquisition. The device may include a sensor for obtaining an iris image from the subject. A small mirror can be oriented with respect to the dominant eye of the subject. The mirror may be sized to provide an image of a single iris to the subject when the device is placed at a suitable distance for image acquisition. The mirror may help the subject place the iris for iris image acquisition. The mirror may be placed between the sensor and the iris during iris image acquisition. The mirror may transmit some of the light reflected from the iris path to the sensor.

일부 실시예들에서, 장치는 컴퓨팅 장치에 접속하기 위한 커넥터를 포함한다. 커넥터는 장치를 동작시킬 때의 피사체의 손의 파지(grasp) 아래의 장치의 하단으로부터 연장할 수 있다. 소정 실시예들에서, 장치는 장치를 컴퓨팅 장치에 접속하기 위한 분절형 커넥터(articulated connector)를 포함한다. 분절형 커넥터는 홍채 이미지 획득을 위해 장치의 위치를 조정 가능하게 유지할 수 있다. 일부 실시예들에서, 장치는 장치의 디스플레이 스크린과 통합된 적외선 조명기를 포함한다. 소정 실시예들에서, 장치는 이미지 획득을 위한 적절한 거리에 배치될 때 제2 홍채의 이미지를 피사체에 제공하기 위한 제2 미러를 포함한다. 소정 실시예들에서, 장치는 피사체의 엄지 또는 손가락이 장치를 유지하면서 이미지 획득을 개시하기 위한 접촉 영역 또는 버튼을 포함한다.In some embodiments, the device includes a connector for connecting to the computing device. The connector may extend from the bottom of the device under the grasp of the subject's hand when operating the device. In certain embodiments, an apparatus includes an articulated connector for connecting the apparatus to a computing device. The segmented connector can keep the device positionable for iris image acquisition. In some embodiments, the device includes an infrared illuminator integrated with the display screen of the device. In certain embodiments, the apparatus includes a second mirror for providing an image of the second iris to the subject when placed at a suitable distance for image acquisition. In certain embodiments, the device includes a contact area or button for initiating image acquisition while the subject's thumb or finger holds the device.

일부 실시예들에서, 미러는 장치의 본체의 한 단부 근처에 배치되며, 피사체는 장치를 조작시키는 동안 다른 단부의 적어도 일부분을 붙잡는다. 미러는 피사체의 우성 눈에 대해 미러를 기울이기 위한 조정가능 또는 회전가능 받침대를 포함할 수 있다. 일부 실시예들에서, 장치는 피사체의 특징(feature)을 조명하기 위한 적외선 조명 및 가시 조명 중 적어도 하나를 제공할 수 있는 적어도 하나의 조명기를 포함한다. 조명기는 주로 홍채 상에 조명을 포커싱하도록 배향될 수 있다. 소정 실시예들에서, 센서는 홍채의 적외선 이미지 및 피사체의 특징의 비적외선 이미지를 획득하는 데 이용된다. 장치는 센서를 향하는 광을 필터링하기 위한 필터 어레이를 포함할 수 있다. 필터 어레이는 복수의 적외선 차단 영역 및 복수의 적외선 통과 영역을 포함할 수 있다.In some embodiments, the mirror is disposed near one end of the body of the device and the subject holds at least a portion of the other end while manipulating the device. The mirror may include an adjustable or rotatable pedestal for tilting the mirror with respect to the dominant eye of the subject. In some embodiments, the apparatus includes at least one illuminator that can provide at least one of infrared illumination and visible illumination for illuminating a feature of the subject. The illuminator can be oriented primarily to focus the light on the iris. In certain embodiments, the sensor is used to acquire an infrared image of the iris and a non-infrared image of the features of the subject. The apparatus may include a filter array for filtering light directed towards the sensor. The filter array may include a plurality of infrared blocking regions and a plurality of infrared passing regions.

센서는 일정 기간 내에 복수의 이미지를 획득할 수 있다. 장치는 복수의 이미지로부터 홍채 이미지를 선택하기 위한 이미지 처리 모듈을 포함할 수 있다. 선택된 홍채 이미지는 복수의 이미지 내의 나머지 이미지들 중 적어도 일부보다 생체 매칭에 대해 더 양호한 품질을 가질 수 있다. 이미지 처리 모듈은 선택된 홍채 이미지를 버퍼 내에 저장하는 동안 추가적인 이미지들을 획득 또는 처리할 수 있다. 일부 실시예들에서, 이미지 처리 모듈은 버퍼 내에 저장되어 있는 사전에 선택된 이미지에 선택된 홍채 이미지를 덮어쓴다(overwrite). 이미지 처리 모듈은 선택된 홍채 이미지에 대해 생체 매칭을 수행할 수 있다. 이미지 처리 모듈은 선택된 홍채 이미지를 물리 또는 무선 접속을 통해 컴퓨터로 전송할 수 있다. 소정 실시예들에서, 장치는 피사체의 얼굴의 일부의 이미지를 갖는 디스플레이를 포함한다. 디스플레이는 센서의 물리적 위치를 향해 피사체의 눈의 이미지를 이동시켜 피사체의 시선을 센서를 향해 안내할 수 있다.The sensor may acquire a plurality of images within a period of time. The apparatus may include an image processing module for selecting an iris image from the plurality of images. The selected iris image may have a better quality for biometric matching than at least some of the remaining images in the plurality of images. The image processing module may acquire or process additional images while storing the selected iris image in the buffer. In some embodiments, the image processing module overwrites the selected iris image with a preselected image stored in the buffer. The image processing module may perform biometric matching on the selected iris image. The image processing module may transmit the selected iris image to the computer via a physical or wireless connection. In certain embodiments, the device includes a display having an image of a portion of the subject's face. The display may direct the eye of the subject toward the sensor by moving an image of the eye of the subject toward the physical position of the sensor.

다른 양태에서, 본 시스템들 및 방법들은 홍채 이미지 획득을 위한 소형 이동 장치와 관련된다. 장치는 피사체에서의 시각 우성의 효과를 고려하고, 이미지 획득을 위해 피사체의 홍채의 배치를 안내하도록 구성될 수 있다. 장치는 센서를 포함할 수 있다. 장치는 피사체의 얼굴의 일부의 이미지를 디스플레이하기 위한 디스플레이를 포함할 수 있다. 디스플레이는 센서의 물리 위치를 향해 피사체의 눈의 이미지를 이동 또는 시프트시켜 피사체의 시선이 센서를 향하게 할 수 있다. 센서는 피사체의 시선이 센서로 또는 그 근처로 향할 때 생체 매칭을 위해 피사체의 홍채의 이미지를 획득할 수 있다.In another aspect, the present systems and methods relate to a small mobile device for iris image acquisition. The device may be configured to take into account the effects of visual dominance in the subject and to guide the placement of the subject's iris for image acquisition. The device may comprise a sensor. The device may include a display for displaying an image of a portion of the face of the subject. The display may move or shift an image of the subject's eye toward the physical position of the sensor so that the subject's gaze is directed toward the sensor. The sensor may acquire an image of the iris of the subject for biometric matching when the subject's gaze is directed at or near the sensor.

또 다른 양태에서, 본 시스템들 및 방법들은 홍채 이미지 획득을 위한 소형 이동 장치와 관련된다. 장치는 일정 기간 동안 피사체의 복수의 이미지를 획득하기 위한 센서를 포함할 수 있다. 장치는 추가 처리를 위해 복수의 획득된 이미지로부터 피사체의 홍채의 이미지를 선택하기 위한 이미지 처리 모듈을 포함할 수 있다. 선택된 이미지는 복수의 획득된 이미지 내의 나머지 이미지들 중 적어도 일부보다 양호한 품질의 생체 매칭을 가질 수 있다.In another aspect, the present systems and methods relate to a small mobile device for iris image acquisition. The device may include a sensor for obtaining a plurality of images of the subject for a period of time. The apparatus may include an image processing module for selecting an image of the iris of the subject from the plurality of acquired images for further processing. The selected image may have a better quality biometric matching than at least some of the remaining images in the plurality of acquired images.

일부 실시예들에서, 이미지 처리 모듈은 미리 결정된 이미지 품질 임계값에 적어도 부분적으로 기초하여 홍채 이미지를 선택한다. 이미지 처리 모듈은 선택된 홍채 이미지를 버퍼 내에 저장하는 동안 추가적인 이미지들을 획득 또는 처리할 수 있다. 이미지 처리 모듈은 버퍼 내에 저장되어 있는 사전에 선택된 이미지에 선택된 홍채 이미지를 덮어쓸 수 있다. 이미지 처리 모듈은 선택된 홍채 이미지에 대해 생체 매칭을 수행할 수 있다. 소정 실시예들에서, 이미지 처리 모듈은 선택된 홍채 이미지를 암호화한다. 이미지 처리 모듈은 선택된 홍채 이미지를 물리 또는 무선 접속을 통해 컴퓨터로 전송할 수 있다.In some embodiments, the image processing module selects the iris image based at least in part on the predetermined image quality threshold. The image processing module may acquire or process additional images while storing the selected iris image in the buffer. The image processing module may overwrite the selected iris image with a preselected image stored in the buffer. The image processing module may perform biometric matching on the selected iris image. In certain embodiments, the image processing module encrypts the selected iris image. The image processing module may transmit the selected iris image to the computer via a physical or wireless connection.

또 다른 양태에서, 본 시스템들 및 방법들은 홍채 이미지를 획득하기 위한 소형 장치와 관련된다. 장치는 피사체의 홍채의 적외선 이미지 및 피사체의 특징의 비적외선 이미지를 획득하기 위한 센서를 포함할 수 있다. 장치는 센서를 향하는 광을 선택적으로 필터링하기 위한 필터 어레이를 포함할 수 있다. 필터 어레이는 비적외선 이미지에 대한 비적외선 데이터를 샘플링하기 위한 복수의 적외선 차단 영역을 포함할 수 있다. 필터 어레이는 적외선 이미지에 대한 적외선 데이터를 샘플링하기 위한 복수의 적외선 통과 영역을 포함할 수 있다. 복수의 적외선 통과 영역은 실질적으로 적외선 통과 영역들에 대한 대응하는 나이키스트(Nyquist) 한계에서 또는 그 아래에서 적외선 데이터를 샘플링할 수 있다. 일부 실시예들에서, 복수의 적외선 통과 영역은 필터링되는 광을 디포커싱함으로써 실질적으로 적외선 통과 영역들에 대한 대응하는 나이키스트 한계에서 또는 그 아래에서 적외선 데이터를 샘플링할 수 있다.In another aspect, the present systems and methods relate to a compact apparatus for obtaining an iris image. The device may comprise a sensor for obtaining an infrared image of the iris of the subject and a non-infrared image of the features of the subject. The apparatus may include a filter array for selectively filtering light directed towards the sensor. The filter array may include a plurality of infrared blocking regions for sampling non-infrared data for non-infrared images. The filter array may include a plurality of infrared light pass regions for sampling infrared data for the infrared image. The plurality of infrared passing regions may sample infrared data at or below substantially the corresponding Nyquist limit for the infrared passing regions. In some embodiments, the plurality of infrared light passing regions can sample infrared data at or below the corresponding Nyquist limit for the infrared light passing regions by defocusing the filtered light.

일부 실시예들에서, 복수의 적외선 절단 영역은 실질적으로 적외선 차단 영역들에 대한 대응하는 나이키스트 한계에서 또는 그 아래에서 가시 데이터를 샘플링할 수 있다. 장치는 필터 어레이를 통과하는 적외선 광에 노출되는 센서의 픽셀들을 결정하기 위한 룩업 테이블 또는 계산기를 포함할 수 있다. 소정 실시예들에서, 장치는 적외선 이미지를 생성하기 위해 샘플링된 적외선 데이터를 보간하기 위한 보간기를 포함할 수 있다. 장치는 비적외선 이미지를 생성하기 위해 샘플링된 비적외선 데이터를 보간하기 위한 보간기를 포함할 수 있다.In some embodiments, the plurality of infrared cutting regions can sample the visible data at or below the corresponding Nyquist limit for the infrared blocking regions. The apparatus may include a lookup table or calculator to determine the pixels of the sensor that are exposed to infrared light passing through the filter array. In certain embodiments, the apparatus can include an interpolator for interpolating the sampled infrared data to produce an infrared image. The apparatus may include an interpolator for interpolating the sampled non-infrared data to produce a non-infrared image.

아래의 도면들은 본 명세서에서 설명되는 방법들 및 시스템들의 특정 예시적인 실시예들을 도시하며, 도면들에서 동일한 참조 번호들은 동일한 요소들을 지시한다. 각각의 도시된 실시예들은 이러한 방법들 및 시스템들을 한정하는 것이 아니라 예시한다.
도 1a는 서버와 통신하는 클라이언트 기계와의 네트워킹된 환경의 일 실시예를 나타내는 블록도이다.
도 1b 및 1c는 본 명세서에서 설명되는 방법들 및 시스템들을 실시하기 위한 컴퓨팅 기계들의 실시예들을 나타내는 블록도들이다.
도 2는 이미지의 일부에 대응하는 이미지 강도 프로필의 일 실시예를 도시한다.
도 3a는 비-체계적 잡음에 대한 하나의 실시예의 이미지 강도 프로필을 도시한다.
도 3b는 체계적 잡음에 대한 하나의 실시예의 이미지 강도 프로필을 도시한다.
도 4는 체계적 잡음에 대한 하나의 실시예의 이미지 강도 프로필을 도시한다.
도 5는 산발적 잡음에 대한 하나의 실시예의 이미지 강도 프로필을 도시한다.
도 6은 잡음 감소가 행해진 이미지의 일부에 대응하는 이미지 강도 프로필의 일 실시예를 도시한다.
도 7은 홍채 텍스처를 포함하는 얼굴의 뷰의 이미지에 대한 일 실시예의 도면이다.
도 8은 홍채 텍스처를 나타내는 이미지 강도 프로필에 대한 하나의 실시예를 도시한다.
도 9는 잡음 감소 후의 홍채 텍스처를 나타내는 이미지 강도 프로필에 대한 하나의 실시예를 도시한다.
도 10은 홍채 텍스처 및 잡음을 나타내는 이미지 강도 프로필에 대한 하나의 실시예를 도시한다.
도 11은 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 하나의 실시예를 도시한다.
도 12는 획득된 이미지들에 대한 잡음의 영향을 나타내는 차트를 도시한다.
도 13은 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 14는 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 일 실시예를 도시한다.
도 15는 이중 대역 통과 필터에 기초하는 응답 프로필을 도시한다.
도 16은 인터리브된 필터들의 구성에 대한 일 실시예를 도시한다.
도 17은 눈 표면으로부터 반사된 아티팩트들을 갖는 이미지에 대한 하나의 실시예를 도시한다.
도 18은 홍채 텍스처 및 눈 표면으로부터 반사된 아티팩트들을 갖는 이미지에 대한 하나의 실시예를 도시한다.
도 19는 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 20은 아티팩트들이 제거된 홍채 텍스처를 나타내는 이미지에 대한 하나의 실시예를 도시한다.
도 21은 얼굴 및 홍채 이미지의 획득을 위한 하나의 시나리오를 도시한다.
도 22는 홍채 텍스처 및 눈 표면으로부터 반사된 아티팩트들을 갖는 이미지에 대한 또 다른 실시예를 도시한다.
도 23은 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 24는 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 25는 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 하나의 실시예를 도시한다.
도 26은 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 방법에 대한 하나의 실시예를 도시한다.
도 27은 얼굴 이미지 및 홍채 이미지의 획득에 대한 시각 우성(ocular dominance)의 영향을 도시한다.
도 28은 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 29 및 30은 얼굴 이미지 및 홍채 이미지의 획득에 대한 시각 우성의 영향을 도시한다.
도 31은 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 32는 센서 및 미러 구성의 실시예들을 도시한다.
도 33은 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 34는 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 35는 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 36은 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 37은 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 38은 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 방법에 대한 하나의 실시예를 나타내는 흐름도이다.
도 39는 본 시스템들 중 일부의 케이싱을 컴퓨팅 장치에 접속하기 위한 분절 암의 일 실시예를 도시한다.
도 40-42는 좌안 또는 우안에서 시각 우성을 갖는 사용에 대한 센터링 메커니즘으로서 미러를 사용하는 시스템의 실시예들을 도시한다.
도 43은 시각 우성이 가정되지 않은 경우에 사용자에 대한 센터링 메커니즘으로 미러를 사용하는 시스템의 일 실시예를 도시한다.
도 44는 홍채 이미지의 획득을 위한 방법의 일 실시예를 도시한다.
도 45-48은 센서의 포커스 포인트/패턴 사이의 관계, 이동 피사체와 센서 사이의 거리, 및 경시적으로 획득된 이미지들의 실시예들을 도시한다.
도 49는 경시적으로 저장 및/또는 선택된 홍채 이미지들의 품질을 개선하여 저장 및/또는 처리되는 이미지들의 수를 줄일 수 있는 그래픽 표현이다.
도 50은 사용자를 배치하고, 획득된 홍채 이미지의 단축(foreshortening)을 최소화하기 위한 시스템의 일 실시예를 도시한다.
도 51은 사용자를 배치하고, 획득된 홍채 이미지의 단축을 최소화하기 위한 시스템의 일 실시예를 평면도로 도시한다.
도 52는 사용자를 배치하고, 획득된 홍채 이미지의 단축을 최소화하기 위한 시스템의 일 실시예를 측면도로 도시한다.
도 53은 우안 우성 사용자를 배치하고, 획득된 홍채 이미지의 단축을 최소화하기 위한 시스템의 일 실시예를 평면도로 도시한다.
도 54는 좌안 우성 사용자를 배치하고, 획득된 홍채 이미지의 단축을 최소화하기 위한 시스템의 일 실시예를 평면도로 도시한다.
도 55는 사용자가 우안 우성인지 또는 좌안 우성인지에 따라 미러를 조정하는 메커니즘의 일 실시예를 도시한다.
도 56은 사용자의 우성 눈을 배치하고, 획득된 홍채 이미지의 단축을 최소화하기 위한 시스템의 일 실시예를 도시한다.
도 57은 사용자의 양 눈을 배치하고, 획득된 홍채 이미지의 단축을 최소화하기 위한 시스템의 일 실시예를 도시한다.
도 58은 좁은 빔의 적외선 광으로 홍채를 조명하는 시스템의 일 실시예를 도시한다.
도 59는 좁은 빔의 적외선 광으로 홍채를 조명하는 시스템의 다른 실시예를 도시한다.
도 60은 좁은 빔의 적외선 광으로 홍채를 조명하는 시스템의 또 다른 실시예를 도시한다.
도 61은 사용자의 눈들을 배치하고 조명하는 시스템의 일 실시예를 도시한다.
도 62a 및 62b는 생체 획득을 위해 사용자의 눈들을 배치하고 조명하는 통합 소형 시스템의 실시예들을 도시한다.
도 63은 생체 획득을 위한 핸드헬드 시스템의 일 실시예를 도시한다.
도 64는 생체 획득을 위한 핸드헬드 시스템의 다른 실시예를 도시한다.
도 65는 생체 획득을 위한 핸드헬드 시스템의 일 실시예를 도시한다.
도 66은 단일 센서 및 필터 어레이를 이용하여 적외선 및 비적외선 이미지들을 생성하는 시스템의 일 실시예를 도시한다.
도 67은 필터 어레이의 적외선 통과 및 적외선 차단 컴포넌트들로부터의 데이터를 식별 및 처리하기 위한 시스템의 일 실시예를 도시한다.
도 68은 필터 어레이를 이용하여 샘플링된 홍채 이미지의 앨리어싱(aliasing)을 방지하기 위한 방법의 일 실시예를 도시한다.
도 69는 필터 어레이의 IR 차단 영역들로부터 샘플링된 데이터의 앨리어싱을 방지하기 위한 방법의 일 실시예를 도시한다.
도 70은 저장 및/또는 추가 처리를 위해 양질의 이미지들을 선택하기 위한 시스템의 일 실시예를 도시한다.
도 71은 저장 및/또는 추가 처리를 위해 양질의 이미지들을 선택하기 위한 시스템의 다른 실시예를 도시한다.
도 72는 저장 및/또는 추가 처리를 위해 양질의 이미지들을 선택하기 위한 시스템의 또 다른 실시예를 도시한다.
The figures below show specific example embodiments of the methods and systems described herein, wherein like reference numerals designate like elements. Each illustrated embodiment illustrates, but not limiting, these methods and systems.
1A is a block diagram illustrating one embodiment of a networked environment with a client machine in communication with a server.
1B and 1C are block diagrams illustrating embodiments of computing machines for implementing the methods and systems described herein.
2 illustrates one embodiment of an image intensity profile corresponding to a portion of an image.
3A shows an image intensity profile of one embodiment for non-systematic noise.
3B shows an image intensity profile of one embodiment for systematic noise.
4 shows an image intensity profile of one embodiment for systematic noise.
5 shows an image intensity profile of one embodiment for sporadic noise.
6 illustrates one embodiment of an image intensity profile corresponding to a portion of an image where noise reduction has been performed.
7 is a diagram of one embodiment for an image of a view of a face that includes an iris texture.
8 illustrates one embodiment for an image intensity profile representing an iris texture.
9 illustrates one embodiment for an image intensity profile that represents the iris texture after noise reduction.
10 illustrates one embodiment for an image intensity profile representing iris texture and noise.
11 illustrates one embodiment for a system for obtaining scene images and iris images using a single sensor.
12 shows a chart showing the effect of noise on the acquired images.
FIG. 13 shows another embodiment for a system for obtaining a scene image and an iris image using a single sensor.
14 illustrates one embodiment for a system for obtaining a face image and an iris image using a single sensor.
15 shows a response profile based on a dual band pass filter.
16 illustrates one embodiment for the configuration of interleaved filters.
17 shows one embodiment for an image with artifacts reflected from the eye surface.
18 shows one embodiment for an image having iris textures and artifacts reflected from the eye surface.
19 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor.
20 illustrates one embodiment for an image representing an iris texture with artifacts removed.
21 illustrates one scenario for the acquisition of face and iris images.
22 shows another embodiment for an image having iris textures and artifacts reflected from the eye surface.
FIG. 23 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor.
24 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor.
25 illustrates one embodiment for a system for obtaining a face image and an iris image using a single sensor and a mirror.
FIG. 26 illustrates one embodiment of a method for obtaining a face image and an iris image using a single sensor and a mirror.
27 illustrates the effect of ocular dominance on the acquisition of face images and iris images.
28 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor and a mirror.
29 and 30 illustrate the effect of visual dominance on the acquisition of face images and iris images.
31 shows another embodiment for a system for obtaining a face image and an iris image using a single sensor and a mirror.
32 illustrates embodiments of sensor and mirror configurations.
33 illustrates another embodiment of a system for obtaining a face image and an iris image using a single sensor and a mirror.
34 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor and a mirror.
35 illustrates another embodiment of a system for obtaining a face image and an iris image using a single sensor.
36 shows another embodiment for a system for obtaining a face image and an iris image using a single sensor.
37 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor.
38 is a flow diagram illustrating one embodiment of a method for obtaining a scene image and an iris image using a single sensor.
39 illustrates one embodiment of a segment arm for connecting a casing of some of the systems to a computing device.
40-42 illustrate embodiments of a system using a mirror as a centering mechanism for use with visual dominance in the left or right eye.
FIG. 43 illustrates one embodiment of a system using a mirror as a centering mechanism for a user when visual dominance is not assumed.
44 illustrates one embodiment of a method for acquisition of an iris image.
45-48 illustrate embodiments of a relationship between a focus point / pattern of a sensor, a distance between a moving subject and a sensor, and images acquired over time.
FIG. 49 is a graphical representation that may reduce the number of images stored and / or processed by improving the quality of stored and / or selected iris images over time.
50 illustrates one embodiment of a system for placing a user and minimizing foreshortening of the obtained iris image.
51 illustrates in plan view one embodiment of a system for locating a user and minimizing shortening of the acquired iris image.
FIG. 52 illustrates a side view of an embodiment of a system for locating a user and minimizing shortening of an acquired iris image. FIG.
FIG. 53 illustrates, in plan view, one embodiment of a system for placing a right eye dominant user and minimizing shortening of the acquired iris image.
FIG. 54 illustrates, in plan view, one embodiment of a system for placing a left eye dominant user and minimizing shortening of the acquired iris image.
55 illustrates one embodiment of a mechanism to adjust the mirror according to whether the user is right eye right or left eye right.
56 illustrates one embodiment of a system for placing a dominant eye of a user and minimizing shortening of the acquired iris image.
57 illustrates one embodiment of a system for placing both eyes of a user and minimizing shortening of the acquired iris image.
58 shows one embodiment of a system for illuminating the iris with a narrow beam of infrared light.
59 shows another embodiment of a system for illuminating the iris with a narrow beam of infrared light.
60 shows another embodiment of a system for illuminating the iris with a narrow beam of infrared light.
61 shows one embodiment of a system for placing and illuminating the eyes of a user.
62A and 62B illustrate embodiments of an integrated compact system for placing and illuminating the eyes of a user for biometric acquisition.
63 illustrates one embodiment of a handheld system for biometric acquisition.
64 illustrates another embodiment of a handheld system for biometric acquisition.
65 illustrates one embodiment of a handheld system for biometric acquisition.
66 illustrates one embodiment of a system for generating infrared and non-infrared images using a single sensor and filter array.
FIG. 67 illustrates one embodiment of a system for identifying and processing data from infrared pass and infrared cut off components of a filter array.
FIG. 68 illustrates one embodiment of a method for preventing aliasing of a sampled iris image using a filter array.
FIG. 69 illustrates one embodiment of a method for preventing aliasing of sampled data from IR blocking regions of a filter array. FIG.
70 illustrates one embodiment of a system for selecting quality images for storage and / or further processing.
71 illustrates another embodiment of a system for selecting quality images for storage and / or further processing.
72 illustrates another embodiment of a system for selecting quality images for storage and / or further processing.

이동 식별 플랫폼의 다른 양태들을 다루기 전에, 본 시스템들 및 방법들에서 사용하기에 적합한 시스템 컴포넌트들 및 특징들에 대한 설명이 도움이 될 수 있다. 도 1a는 하나 이상의 서버(106A-106N)(본 명세서에서 일반적으로 "서버(들)(106)"로 지칭됨)와 통신하는 하나 이상의 클라이언트 기계(102A-102N)(본 명세서에서 일반적으로 "클라이언트 기계(들)(102)"로 지칭됨)를 포함하는 컴퓨팅 환경(101)에 대한 하나의 실시예를 도시한다. 클라이언트 기계(들)(102)와 서버(들)(106) 사이에는 네트워크가 설치된다.Before addressing other aspects of the mobile identification platform, a description of system components and features suitable for use in the present systems and methods may be helpful. 1A illustrates one or more client machines 102A-102N (generally referred to herein as " clients ") in communication with one or more servers 106A-106N (generally referred to herein as " server (s) 106 "). One embodiment for a computing environment 101 that includes a machine (s) 102 ". A network is installed between the client machine (s) 102 and the server (s) 106.

하나의 실시예에서, 컴퓨팅 환경(101)은 서버(들)(106)와 클라이언트 기계(들)(102) 사이에 설치된 어플라이언스를 포함할 수 있다. 이 어플라이언스는 클라이언트/서버 접속들을 관리할 수 있으며, 어떤 경우에는, 복수의 백엔드 서버들 사이에서 클라이언트 접속들의 부하 균형을 유지할 수 있다. 클라이언트 기계(들)(102)는 일부 실시예들에서 단일 클라이언트 기계(102) 또는 클라이언트 기계들(102)의 단일 그룹으로 지칭될 수 있고, 서버(들)(106)는 단일 서버(106) 또는 서버들(106)의 단일 그룹으로 지칭될 수 있다. 하나의 실시예에서, 단일 클라이언트 기계(102)는 둘 이상의 서버(106)와 통신하고, 또 다른 실시예에서, 단일 서버(106)는 둘 이상의 클라이언트 기계(102)와 통신한다. 또 다른 실시예에서, 단일 클라이언트 기계(102)는 단일 서버(106)와 통신한다.In one embodiment, computing environment 101 may include an appliance installed between server (s) 106 and client machine (s) 102. The appliance can manage client / server connections, and in some cases, can load balance client connections among multiple back-end servers. The client machine (s) 102 may in some embodiments be referred to as a single client machine 102 or a single group of client machines 102, and the server (s) 106 may be a single server 106 or It may be referred to as a single group of servers 106. In one embodiment, a single client machine 102 communicates with two or more servers 106, and in another embodiment, a single server 106 communicates with two or more client machines 102. In yet another embodiment, the single client machine 102 communicates with a single server 106.

클라이언트 기계(102)는 일부 실시예들에서 클라이언트 기계(들)(102); 클라이언트(들); 클라이언트 컴퓨터(들); 클라이언트 장치(들); 클라이언트 컴퓨팅 장치(들); 로컬 기계; 원격 기계; 클라이언트 노드(들); 엔드포인트(들); 엔드포인트 노드(들); 또는 제2 기계 중 어느 하나로 지칭될 수 있다. 서버(106)는 일부 실시예들에서, 서버(들); 로컬 기계; 원격 기계; 서버 팜(farm)(들); 호스트 컴퓨팅 장치(들); 또는 제1 기계(들) 중 어느 하나로 지칭될 수 있다.Client machine 102 may, in some embodiments, be client machine (s) 102; Client (s); Client computer (s); Client device (s); Client computing device (s); Local machine; Remote machine; Client node (s); Endpoint (s); Endpoint node (s); Or any second machine. Server 106 may, in some embodiments, include server (s); Local machine; Remote machine; Server farm (s); Host computing device (s); Or one of the first machine (s).

클라이언트 기계(102)는 일부 실시예들에서 소프트웨어; 프로그램; 실행가능 명령어들; 가상 기계; 하이퍼바이저; 웹 브라우저; 웹 기반 클라이언트; 클라이언트-서버 애플리케이션; 씬(thin)-클라이언트 컴퓨팅 클라이언트; ActiveX 컨트롤; 자바 애플릿; 소프트 IP 전화와 같은 VoIP(voice over internet protocol) 통신과 관련된 소프트웨어; 비디오 및/또는 오디오를 스트리밍하기 위한 애플리케이션; 실시간 데이터 통신을 용이하게 하기 위한 애플리케이션; HTTP 클라이언트; FTP 클라이언트; 오스카 클라이언트; 텔넷 클라이언트; 또는 임의의 다른 세트의 실행가능 명령어들 중 어느 하나일 수 있는 애플리케이션을 실행하거나, 동작시키거나 제공할 수 있다. 또 다른 실시예들은 서버(106) 또는 다른 원격 배치된 기계 상에서 원격 실행되는 애플리케이션에 의해 생성되는 애플리케이션 출력을 표시하는 클라이언트 장치(102)를 포함한다. 이러한 실시예들에서, 클라이언트 장치(102)는 애플리케이션 윈도, 브라우저 또는 다른 출력 윈도 내에 애플리케이션 출력을 표시할 수 있다. 하나의 실시예에서, 애플리케이션은 데스크톱인 반면, 다른 실시예들에서, 애플리케이션은 데스크톱을 생성하는 애플리케이션이다.The client machine 102 may, in some embodiments, be software; program; Executable instructions; Virtual machine; Hypervisor; A web browser; Web-based client; Client-server applications; Thin-client computing clients; ActiveX control; Java applet; Software related to voice over internet protocol (VoIP) communications, such as soft IP phones; An application for streaming video and / or audio; An application for facilitating real time data communication; HTTP client; FTP client; Oscar client; Telnet client; Or execute, run, or provide an application, which may be any of any other set of executable instructions. Still other embodiments include a client device 102 that displays application output generated by an application running remotely on a server 106 or other remotely deployed machine. In such embodiments, client device 102 may display the application output in an application window, browser, or other output window. In one embodiment, the application is a desktop, while in other embodiments, the application is an application that creates a desktop.

컴퓨팅 환경(101)은 둘 이상의 서버(106A-106N)를 포함하여, 서버들(106A-106N)은 논리적으로 함께 서버 팜(106) 내에 그룹화될 수 있다. 서버 팜(106)은 지리적으로 분산되고 논리적으로 함께 서버 팜(106) 내에 그룹화된 서버들(106), 또는 서로 근접 배치되고 논리적으로 함께 서버 팜(106) 내에 그룹화된 서버들(106)을 포함할 수 있다. 서버 팜(106) 내의 지리적으로 분산된 서버들(106A-106N)은 일부 실시예들에서 WAN, MAN 또는 LAN을 이용하여 통신할 수 있으며, 상이한 지리 영역들은 상이한 대륙들; 대륙의 상이한 지역들; 상이한 국가들; 상이한 주들; 상이한 도시들; 상이한 캠퍼스들; 상이한 방들; 또는 전술한 지리적 위치들의 임의의 조합으로서 특성화될 수 있다. 일부 실시예들에서, 서버 팜(106)은 단일 엔티티로서 관리될 수 있는 반면, 다른 실시예들에서, 서버 팜(106)은 다수의 서버 팜(106)을 포함할 수 있다.Computing environment 101 includes two or more servers 106A- 106N so that servers 106A- 106N can be grouped together in server farm 106 together. Server farm 106 includes servers 106 that are geographically distributed and logically grouped together in server farm 106, or servers 106 that are placed in close proximity to one another and logically grouped together in server farm 106. can do. Geographically dispersed servers 106A- 106N within server farm 106 may communicate using WAN, MAN, or LAN in some embodiments, with different geographic areas being different continents; Different regions of the continent; Different countries; Different states; Different cities; Different campuses; Different rooms; Or as any combination of the geographic locations described above. In some embodiments, server farm 106 may be managed as a single entity, while in other embodiments, server farm 106 may include multiple server farms 106.

일부 실시예들에서, 서버 팜(106)은 실질적으로 유사한 타입의 운영 체제 플랫폼(예로서, 워싱턴 레드먼드의 마이크로소프트사에 의해 제작된 WINDOWS NT, UNIX, LINUX 또는 SNOW LEOPARD)을 실행하는 서버들(106)을 포함할 수 있다. 다른 실시예들에서, 서버 팜(106)은 제1 타입의 운영 체제 플랫폼을 실행하는 서버들(106)의 제1 그룹, 및 제2 타입의 운영 체제 플랫폼을 실행하는 서버들(106)의 제2 그룹을 포함할 수 있다. 서버 팜(106)은 다른 실시예들에서 상이한 타입의 운영 체제 플랫폼들을 실행하는 서버들(106)을 포함할 수 있다.In some embodiments, server farm 106 is a server running a substantially similar type of operating system platform (e.g., WINDOWS NT, UNIX, LINUX, or SNOW LEOPARD manufactured by Microsoft, Washington, Redmond). 106). In other embodiments, server farm 106 may include a first group of servers 106 running a first type of operating system platform, and a server farm 106 running on a second type of operating system platform. It can include two groups. Server farm 106 may include servers 106 running different types of operating system platforms in other embodiments.

서버(106)는 일부 실시예들에서 임의의 서버 타입일 수 있다. 다른 실시예들에서, 서버(106)는 다음의 서버 타입들: 파일 서버; 애플리케이션 서버; 웹 서버; 프록시 서버; 어플라이언스; 네트워크 어플라이언스, 게이트웨이; 애플리케이션 게이트웨이; 게이트웨이 서버; 가상화 서버; 전개 서버; SSL VPN 서버; 방화벽; 웹 서버; 애플리케이션 서버 또는 마스터 애플리케이션 서버; 활성 디렉토리를 실행하는 서버(106); 또는 방화벽 기능, 애플리케이션 기능 또는 부하 균형유지 기능을 제공하는 애플리케이션 가속화 프로그램을 실행하는 서버(106) 중 임의의 서버일 수 있다. 일부 실시예들에서, 서버(106)는 원격 인증 다이얼-인 사용자 서비스를 포함하는 RADIUS 서버일 수 있다. 일부 실시예들은 클라이언트 기계(102)로부터 요청들을 수신하고, 요청을 제2 서버(106B)로 전송하고, 클라이언트 기계(102)에 의해 생성된 요청에 대해 제2 서버(106B)로부터의 응답으로 응답하는 제1 서버(106A)를 포함한다. 제1 서버(106A)는 클라이언트 기계(102)가 이용가능한 애플리케이션들의 목록은 물론, 애플리케이션들의 목록 내에서 식별된 애플리케이션을 호스트하는 애플리케이션 서버(106)와 관련된 어드레스 정보를 획득할 수 있다. 게다가, 제1 서버(106A)는 웹 인터페이스를 이용하여 클라이언트의 요청에 대한 응답을 제공할 수 있고, 클라이언트(102)와 직접 통신하여, 클라이언트(102)에게 식별된 애플리케이션에 대한 액세스를 제공할 수 있다.Server 106 may be any server type in some embodiments. In other embodiments, server 106 may comprise the following server types: file server; Application server; A web server; Proxy server; Appliances; Network appliances, gateways; An application gateway; Gateway server; Virtualization server; A deployment server; SSL VPN server; firewall; A web server; An application server or master application server; A server 106 executing an active directory; Or any server 106 running an application acceleration program that provides firewall functionality, application functionality or load balancing functionality. In some embodiments, server 106 may be a RADIUS server that includes a remote authentication dial-in user service. Some embodiments receive requests from the client machine 102, send the request to the second server 106B, and respond with a response from the second server 106B to the request generated by the client machine 102. A first server 106A. The first server 106A can obtain a list of applications available to the client machine 102 as well as address information associated with the application server 106 hosting the application identified in the list of applications. In addition, the first server 106A may use the web interface to provide a response to the client's request and communicate directly with the client 102 to provide the client 102 with access to the identified application. have.

클라이언트 기계들(102)은 일부 실시예들에서, 서버(106)에 의해 제공되는 자원들에 대한 액세스를 추구하는 클라이언트 노드일 수 있다. 다른 실시예들에서, 서버(106)는, 클라이언트들(102) 또는 클라이언트 노드들에게, 호스트된 자원들에 대한 액세스를 제공할 수 있다. 서버(106)는 일부 실시예들에서 마스터 노드로서 기능하여, 하나 이상의 클라이언트(102) 또는 서버(106)와 통신한다. 일부 실시예들에서, 마스터 노드는 요청된 애플리케이션을 호스트하는 서버(106)와 관련된 어드레스 정보를 식별하여 하나 이상의 클라이언트(102) 또는 서버(106)에게 제공할 수 있다. 또 다른 실시예들에서, 마스터 노드는 서버 팜(106), 클라이언트(102), 클라이언트 노드들(102)의 클러스터, 또는 어플라이언스일 수 있다.Client machines 102 may, in some embodiments, be a client node seeking access to the resources provided by server 106. In other embodiments, server 106 may provide access to hosted resources to clients 102 or client nodes. Server 106 acts as a master node in some embodiments, in communication with one or more clients 102 or server 106. In some embodiments, the master node may identify and provide address information related to the server 106 hosting the requested application to one or more clients 102 or server 106. In yet other embodiments, the master node may be a server farm 106, a client 102, a cluster of client nodes 102, or an appliance.

하나 이상의 클라이언트(102) 및/또는 하나 이상의 서버(106)는 컴퓨팅 환경(101) 내의 기계들과 어플라이언스들 사이에 설치된 네트워크(104)를 통해 데이터를 전송할 수 있다. 네트워크(104)는 하나 이상의 서브네트워크를 포함할 수 있으며, 컴퓨팅 환경(101) 내에 포함된 클라이언트들(102), 서버들(106), 컴퓨팅 기계들 및 어플라이언스들의 임의의 조합 사이에 설치될 수 있다. 일부 실시예들에서, 네트워크(104)는 근거리 네트워크(LAN); 도시 영역 네트워크(MAN); 광역 네트워크(WAN); 클라이언트 기계들(102)과 서버들(106) 사이에 위치하는 다수의 서브네트워크(104)를 포함하는 주요 네트워크(104); 비공개 서브네트워크(104)를 갖는 주요 공개 네트워크(104); 공개 서브네트워크(104)를 갖는 주요 비공개 네트워크(104); 또는 비공개 서브네트워크(104)를 갖는 주요 비공개 네트워크(104)일 수 있다. 또 다른 실시예들은 다음 네트워크 타입: 점대점 네트워크; 방송 네트워크; 전기 통신 네트워크; 데이터 통신 네트워크; 컴퓨터 네트워크; ATM(Asynchronous Transfer Mode) 네트워크; SONET(Synchronous Optical Network) 네트워크; SDH(Synchronous Digital Hierarchy) 네트워크; 무선 네트워크; 유선 네트워크; 또는 무선 링크를 포함하는 네트워크(104)들 중 어느 하나의 타입일 수 있는 네트워크(104)를 포함하며, 무선 링크는 적외선 채널 또는 위성 대역일 수 있다. 네트워크(104)의 네트워크 토폴로지는 상이한 실시예들에서 상이할 수 있으며, 가능한 네트워크 토폴로지들은 버스 네트워크 토폴로지; 스타 네트워크 토폴로지; 링 네트워크 토폴로지; 중계기 기반 네트워크 토폴로지; 또는 티어드-스타(tiered-star) 네트워크 토폴로지를 포함한다. 추가적인 실시예들은 이동 장치들 사이에서 통신하기 위해 프로토콜을 사용하는 이동 전화 네트워크들의 네트워크(104)를 포함할 수 있으며, 프로토콜은 AMPS; TDMA; CDMA; GSM; GPRS; UMTS; 3G; 4G; 또는 이동 장치들 사이에서 데이터를 전송할 수 있는 임의의 다른 프로토콜 중 어느 하나일 수 있다.One or more clients 102 and / or one or more servers 106 may transmit data over a network 104 installed between machines and appliances in computing environment 101. The network 104 may include one or more subnetwork and may be installed between any combination of clients 102, servers 106, computing machines and appliances included within the computing environment 101. . In some embodiments, network 104 includes a local area network (LAN); Urban area network (MAN); Wide area network (WAN); Main network 104 including a plurality of subnetworks 104 located between client machines 102 and servers 106; Main public network 104 having a private subnetwork 104; Main private network 104 having a public subnet 104; Or primary private network 104 with private subnetwork 104. Still other embodiments include the following network types: point-to-point network; Broadcast network; Telecommunication networks; Data communication network; Computer network; Asynchronous Transfer Mode (ATM) network; Synchronous Optical Network (SONET) network; Synchronous Digital Hierarchy (SDH) network; Wireless network; Wired network; Or network 104, which may be of any type of networks 104 including a wireless link, which may be an infrared channel or satellite band. The network topology of the network 104 may differ in different embodiments, and possible network topologies include a bus network topology; Star network topology; Ring network topology; Repeater-based network topology; Or tiered-star network topology. Additional embodiments may include a network 104 of mobile telephone networks that use a protocol to communicate between mobile devices, the protocol comprising AMPS; TDMA; CDMA; GSM; GPRS; UMTS; 3G; 4G; Or any other protocol capable of transferring data between mobile devices.

도 1b에는 컴퓨팅 장치(100)에 대한 일 실시예에가 도시되어 있으며, 도 1a에 도시된 클라이언트 기계(102) 및 서버(106)는 본 명세서에서 도시되고 설명되는 컴퓨팅 장치(100)의 임의의 실시예로서 전개 및/또는 실행될 수 있다. 컴퓨팅 장치(100) 내에는 다음 컴포넌트들: 중앙 처리 유닛(121); 메인 메모리(122); 저장 메모리(128); 입출력(I/O) 제어기(123); 디스플레이 장치들(124A-124N); 설치 장치(116); 및 네트워크 인터페이스(118)와 통신하는 시스템 버스(150)가 포함된다. 하나의 실시예에서, 저장 메모리(128)는 운영 체제, 소프트웨어 루틴들 및 클라이언트 에이전트(120)를 포함한다. I/O 제어기(123)는 일부 실시예들에서 키보드(126) 및 포인팅 장치(127)에 더 접속된다. 다른 실시예들은 둘 이상의 입/출력 장치(130A-130N)에 접속된 I/O 제어기(123)를 포함할 수 있다.1B is shown an embodiment of the computing device 100, and the client machine 102 and server 106 shown in FIG. 1A may be any of the computing device 100 shown and described herein. As an embodiment it may be deployed and / or executed. Within computing device 100, the following components: central processing unit 121; Main memory 122; Storage memory 128; Input / output (I / O) controller 123; Display devices 124A-124N; Installation device 116; And a system bus 150 in communication with the network interface 118. In one embodiment, storage memory 128 includes an operating system, software routines, and client agent 120. I / O controller 123 is further connected to keyboard 126 and pointing device 127 in some embodiments. Other embodiments may include an I / O controller 123 connected to two or more input / output devices 130A-130N.

도 1c는 컴퓨팅 장치(100)에 대한 하나의 실시예를 도시하며, 도 1a에 도시된 클라이언트 기계(102) 및 서버(106)는 본 명세서에서 도시되고 설명되는 컴퓨팅 장치(100)의 임의의 실시예로서 전개 및/또는 실행될 수 있다. 컴퓨팅 장치(100) 내에는 다음 컴포넌트들: 브리지(170) 및 제1 I/O 장치(130A)와 통신하는 시스템 버스(150)가 포함된다. 또 다른 실시예에서, 브리지(170)는 메인 중앙 처리 유닛(121)과 더 통신하며, 중앙 처리 유닛(121)은 제2 I/O 장치(130B), 메인 메모리(122), 및 캐시 메모리(140)와 더 통신할 수 있다. 중앙 처리 유닛(121) 내에는 I/O 포트들, 메모리 포트(103), 및 메인 프로세서가 포함된다.1C illustrates one embodiment for computing device 100, wherein client machine 102 and server 106 shown in FIG. 1A are any implementation of computing device 100 shown and described herein. As an example it may be deployed and / or executed. Computing device 100 includes a system bus 150 in communication with the following components: bridge 170 and first I / O device 130A. In another embodiment, the bridge 170 is further in communication with the main central processing unit 121, wherein the central processing unit 121 is the second I / O device 130B, the main memory 122, and the cache memory ( 140 may be further communicated with. The central processing unit 121 includes I / O ports, a memory port 103, and a main processor.

컴퓨팅 기계(100)의 실시예들은 다음 컴포넌트 구성들: 메인 메모리 유닛(122)에서 인출된 명령어들에 응답하여 이들을 처리하는 논리 회로들; 인텔사에 의해 제작된 것들; 모토롤라사에 의해 제작된 것들; 캘리포니아, 산타클라라의 트랜스메타사에 의해 제작된 것들과 같은 마이크로프로세서 유닛; IBM사에 의해 제작된 것들과 같은 RS/6000 프로세서; 어드밴스트 마이크로 디바이스즈 사에 의해 제작된 것들과 같은 프로세서; 또는 논리 회로들의 임의의 다른 조합 중 어느 하나에 의해 특성화되는 중앙 처리 유닛(121)을 포함할 수 있다. 중앙 처리 유닛(122)의 또 다른 실시예들은 마이크로프로세서, 마이크로컨트롤러, 단일 처리 코어를 구비한 중앙 처리 유닛, 2개의 처리 코어를 구비한 중앙 처리 유닛, 또는 둘 이상의 처리 코어를 구비한 중앙 처리 유닛의 임의의 조합을 포함할 수 있다.Embodiments of the computing machine 100 include the following component configurations: logic circuits that process these in response to instructions fetched from the main memory unit 122; Those produced by Intel Corporation; Those produced by Motorola; Microprocessor units such as those manufactured by Transmeta of Santa Clara, California; RS / 6000 processors, such as those manufactured by IBM; Processors such as those manufactured by Advanced Micro Devices; Or a central processing unit 121 characterized by any other combination of logic circuits. Still other embodiments of the central processing unit 122 include a microprocessor, a microcontroller, a central processing unit with a single processing core, a central processing unit with two processing cores, or a central processing unit with two or more processing cores. And any combination of

도 1c는 단일 중앙 처리 유닛(121)을 포함하는 컴퓨팅 장치(100)를 도시하지만, 일부 실시예들에서, 컴퓨팅 장치(100)는 하나 이상의 처리 유닛(121)을 포함할 수 있다. 이러한 실시예들에서, 컴퓨팅 장치(100)는 펌웨어 또는 다른 실행가능 명령어들을 저장하고 실행할 수 있으며, 이들은 실행될 때 하나 이상의 처리 유닛(121)에게 동시에 명령어들을 실행하도록 지시하거나 단일 피스의 데이터에 대해 명령어들을 동시에 실행하도록 지시한다. 다른 실시예들에서, 컴퓨팅 장치(100)는 펌웨어 또는 다른 실행가능 명령어들을 저장하고 실행할 수 있으며, 이들은 실행될 때 하나 이상의 처리 유닛에게 명령어들의 그룹의 섹션을 각각 실행하도록 지시한다. 예를 들어, 각각의 처리 유닛(121)은 프로그램의 일부 또는 프로그램 내의 특정한 모듈을 실행하도록 지시받을 수 있다.1C shows a computing device 100 that includes a single central processing unit 121, in some embodiments, the computing device 100 may include one or more processing units 121. In such embodiments, computing device 100 may store and execute firmware or other executable instructions, which, when executed, instruct one or more processing units 121 to execute instructions concurrently or instructions for a single piece of data. Instructs them to run simultaneously. In other embodiments, computing device 100 may store and execute firmware or other executable instructions that, when executed, instruct one or more processing units to each execute a section of a group of instructions. For example, each processing unit 121 may be instructed to execute a portion of a program or a specific module within the program.

일부 실시예들에서, 처리 유닛(121)은 하나 이상의 처리 코어를 포함할 수 있다. 예를 들어, 처리 유닛(121)은 2개의 코어, 4개의 코어, 8개의 코어 등을 구비할 수 있다. 하나의 실시예에서, 처리 유닛(121)은 하나 이상의 병렬 처리 코어를 포함할 수 있다. 처리 유닛(121)의 처리 코어들은 일부 실시예들에서 이용가능 메모리를 전역 어드레스 공간으로서 액세스할 수 있거나, 다른 실시예들에서 컴퓨팅 장치(100) 내의 메모리는 세그먼트화되고, 처리 유닛(121) 내의 특정한 코어에 할당될 수 있다. 하나의 실시예에서, 컴퓨팅 장치(100) 내의 하나 이상의 처리 코어 또는 프로세서는 각각 로컬 메모리에 액세스할 수 있다. 또 다른 실시예에서, 컴퓨팅 장치(100) 내의 메모리는 하나 이상의 프로세서 또는 처리 코어 사이에서 공유될 수 있는 반면, 다른 메모리는 특정한 프로세서들 또는 프로세서들의 서브세트들에 의해 액세스될 수 있다. 컴퓨팅 장치(100)가 둘 이상의 처리 유닛을 포함하는 실시예들에서는, 다수의 처리 유닛이 단일 집적 회로(IC) 내에 포함될 수 있다. 이러한 다수의 프로세서는 일부 실시예들에서 요소 상호접속 버스로 지칭될 수 있는 내부 고속 버스에 의해 함께 링크될 수 있다.In some embodiments, processing unit 121 may include one or more processing cores. For example, the processing unit 121 may have two cores, four cores, eight cores, or the like. In one embodiment, the processing unit 121 may include one or more parallel processing cores. The processing cores of the processing unit 121 may access the available memory as a global address space in some embodiments, or in other embodiments the memory within the computing device 100 may be segmented, and within the processing unit 121. Can be assigned to a specific core. In one embodiment, one or more processing cores or processors in computing device 100 may each access local memory. In another embodiment, memory in computing device 100 may be shared between one or more processors or processing cores, while other memory may be accessed by specific processors or subsets of processors. In embodiments where computing device 100 includes two or more processing units, multiple processing units may be included within a single integrated circuit (IC). Such multiple processors may be linked together by an internal high speed bus, which in some embodiments may be referred to as an element interconnect bus.

컴퓨팅 장치(100)가 하나 이상의 처리 유닛(121), 또는 하나 이상의 처리 코어를 포함하는 처리 유닛(121)을 포함하는 실시예들에서, 프로세서들은 다수의 피스의 데이터에 대해 동시에 단일 명령어를 실행할 수 있거나(SIMD), 다른 실시예들에서, 다수의 피스의 데이터에 대해 동시에 다수의 명령어를 실행할 수 있다(MIMD). 일부 실시예들에서, 컴퓨팅 장치(100)는 임의 수의 SIMD 및 MIMD 프로세서를 포함할 수 있다.In embodiments where computing device 100 includes one or more processing units 121, or processing units 121 that include one or more processing cores, processors may execute a single instruction simultaneously on multiple pieces of data. Or (SIMD), or in other embodiments, can execute multiple instructions simultaneously on multiple pieces of data (MIMD). In some embodiments, computing device 100 may include any number of SIMD and MIMD processors.

컴퓨팅 장치(100)는 일부 실시예들에서 이미지 프로세서, 그래픽 프로세서 또는 그래픽 처리 유닛을 포함할 수 있다. 그래픽 처리 유닛은 소프트웨어와 하드웨어의 임의의 조합을 포함할 수 있으며, 그래픽 데이터 및 그래픽 명령어들을 더 입력하고, 입력된 데이터 및 명령어들로부터 그래픽을 렌더링하고, 렌더링된 그래픽을 출력할 수 있다. 일부 실시예들에서, 그래픽 처리 유닛은 처리 유닛(121) 내에 포함될 수 있다. 다른 실시예들에서, 컴퓨팅 장치(100)는 하나 이상의 처리 유닛(121)을 포함할 수 있으며, 적어도 하나의 처리 유닛(121)이 그래픽을 처리하고 렌더링하는데 전용화된다.Computing device 100 may include an image processor, graphics processor or graphics processing unit in some embodiments. The graphics processing unit may comprise any combination of software and hardware, and may further enter graphics data and graphics instructions, render graphics from the input data and instructions, and output the rendered graphics. In some embodiments, the graphics processing unit may be included within the processing unit 121. In other embodiments, computing device 100 may include one or more processing units 121, wherein at least one processing unit 121 is dedicated to processing and rendering graphics.

컴퓨팅 기계(100)에 대한 하나의 실시예는 백사이드 버스로도 알려진 보조 버스를 통해 캐시 메모리(140)와 통신하는 중앙 처리 유닛(121)을 포함하는 반면, 컴퓨팅 기계(100)에 대한 또 다른 실시예는 시스템 버스(150)를 통해 캐시 메모리와 통신하는 중앙 처리 유닛(121)을 포함한다. 로컬 시스템 버스(150)는 일부 실시예들에서 중앙 처리 유닛에 의해 사용되어, 둘 이상의 타입의 I/O 장치(130A-130N)와 통신할 수 있다. 일부 실시예들에서, 로컬 시스템 버스(150)는 아래의 타입의 버스: VESA VL 버스; ISA 버스; EISA 버스; 마이크로 채널 아키텍처(MCA) 버스; PCI 버스; PCI-X 버스; PCI-익스플레스 버스; 또는 NuBus 중 어느 하나일 수 있다. 컴퓨팅 기계(100)의 다른 실시예들은 중앙 처리 유닛(121)과 통신하는 비디오 디스플레이(124)인 I/O 장치(130A-130N)를 포함한다. 컴퓨팅 기계(100)의 또 다른 버전들은 다음의 접속들: HyperTransport, 고속 I/O, 또는 InfiniBand 중 어느 하나를 통해 I/O 장치(130A-130N)에 접속되는 프로세서(121)를 포함한다. 컴퓨팅 기계(100)의 추가 실시예들은 로컬 상호접속 버스를 이용하여 하나의 I/O 버스(130A)와 통신하고 직접 접속을 이용하여 제2 I/O 버스(130B)와 통신하는 프로세서(121)를 포함한다.One embodiment of the computing machine 100 includes a central processing unit 121 that communicates with the cache memory 140 via an auxiliary bus, also known as a backside bus, while another implementation of the computing machine 100. An example includes a central processing unit 121 in communication with a cache memory via a system bus 150. The local system bus 150 may be used by the central processing unit in some embodiments to communicate with two or more types of I / O devices 130A- 130N. In some embodiments, local system bus 150 may include a bus of the following type: a VESA VL bus; ISA bus; An EISA bus; A micro channel architecture (MCA) bus; PCI bus; PCI-X bus; PCI-express bus; Or NuBus. Other embodiments of computing machine 100 include I / O devices 130A-130N, which are video displays 124 in communication with central processing unit 121. Still other versions of computing machine 100 include a processor 121 that is connected to I / O devices 130A- 130N via one of the following connections: HyperTransport, High Speed I / O, or InfiniBand. Further embodiments of the computing machine 100 may communicate with one I / O bus 130A using a local interconnect bus and the processor 121 using a direct connection to communicate with a second I / O bus 130B. It includes.

컴퓨팅 장치(100)는 일부 실시예들에서 메인 메모리 유닛(122) 및 캐시 메모리(140)를 포함한다. 캐시 메모리(140)는 임의의 메모리 타입일 수 있으며, 일부 실시예들에서, 다음 메모리 타입들: SRAM; BSRAM; 또는 EDRAM 중 어느 하나일 수 있다. 다른 실시예들은 다음 메모리 타입들: 정적 랜덤 액세스 메모리(SRAM), 버스트 SRAM 또는 SynchBurst SRAM(BSRAM); 동적 랜덤 액세스 메모리(DRAM); 고속 페이지 모드 DRAM(FPM DRAM); 고급 DRAM(EDRAM), 확장 데이터 출력 RAM(EDO RAM); 확장 데이터 출력 DRAM(EDO DRAM); 버스트 확장 데이터 출력 DRAM(BEDO DRAM); 고급 DRAM(EDRAM); 동기 DRAM(SDRAM); JEDEC SRAM; PC100 SDRAM; 더블 데이터 레이트 SDRAM(DDR SDRAM); 고급 SDRAM(ESDRAM); SyncLink DRAM(SLDRAM); 직접 램버스 DRAM(DRDRAM); 강유전체 RAM(FRAM); 또는 임의의 다른 메모리 타입 중 어느 하나일 수 있는 캐시 메모리(140) 및 메인 메모리 유닛(122)을 포함한다. 추가적인 실시예들은 시스템 버스(150); 메모리 포트(103); 또는 프로세서(121)로 하여금 메모리(122)에 액세스할 수 있게 하는 임의의 다른 접속, 버스 또는 포트를 통해 메인 메모리(122)에 액세스할 수 있는 중앙 처리 유닛(121)을 포함한다.Computing device 100 includes main memory unit 122 and cache memory 140 in some embodiments. Cache memory 140 may be any memory type, and in some embodiments, may include the following memory types: SRAM; BSRAM; Or EDRAM. Other embodiments include the following memory types: static random access memory (SRAM), burst SRAM or SynchBurst SRAM (BSRAM); Dynamic random access memory (DRAM); High speed page mode DRAM (FPM DRAM); Advanced DRAM (EDRAM), Extended Data Output RAM (EDO RAM); Extended data output DRAM (EDO DRAM); Burst extended data output DRAM (BEDO DRAM); Advanced DRAM (EDRAM); Synchronous DRAM (SDRAM); JEDEC SRAM; PC100 SDRAM; Double data rate SDRAM (DDR SDRAM); Advanced SDRAM (ESDRAM); SyncLink DRAM (SLDRAM); Direct Rambus DRAM (DRDRAM); Ferroelectric RAM (FRAM); Or a cache memory 140 and a main memory unit 122, which may be any of any other memory type. Further embodiments include a system bus 150; Memory port 103; Or a central processing unit 121 that can access the main memory 122 via any other connection, bus or port that allows the processor 121 to access the memory 122.

컴퓨팅 장치(100)에 대한 하나의 실시예는 다음의 설치 장치들(116): CD-ROM 드라이브, CD-R/RW 드라이브, DVD-ROM 드라이브, 다양한 포맷의 테이프 드라이브들, USB 장치, 부팅가능한 매체, 부팅가능한 CD, KNOPPIX®와 같은 GNU/리눅스 배포를 위한 부팅가능한 CD, 하드 드라이브 또는 애플리케이션들 또는 소프트웨어를 설치하는 데 적합한 임의의 다른 장치 중 어느 하나에 대한 지원을 제공한다. 애플리케이션들은 일부 실시예들에서 클라이언트 에이전트(120) 또는 클라이언트 에이전트(120)의 임의 부분을 포함할 수 있다. 컴퓨팅 장치(100)는, 하나 이상의 하드 디스크 드라이브 또는 독립 디스크들의 하나 이상의 중복 어레이 중 어느 하나일 수 있는 저장 장치(128)를 더 포함할 수 있으며, 저장 장치는 운영 체제, 소프트웨어, 프로그램들, 애플리케이션들, 또는 클라이언트 에이전트(120)의 적어도 일부를 저장하도록 구성된다. 컴퓨팅 장치(100)에 대한 추가 실시예는 저장 장치(128)로서 사용되는 설치 장치(116)를 포함한다.One embodiment of the computing device 100 is the following installation devices 116: CD-ROM drive, CD-R / RW drive, DVD-ROM drive, tape drives in various formats, USB device, bootable Support for media, bootable CDs, bootable CDs for GNU / Linux distributions such as KNOPPIX®, hard drives or any other device suitable for installing applications or software. The applications may include the client agent 120 or any portion of the client agent 120 in some embodiments. The computing device 100 may further include a storage device 128, which may be any one or more hard disk drives or one or more redundant arrays of independent disks, the storage device comprising an operating system, software, programs, applications. , Or at least a portion of the client agent 120. Additional embodiments of computing device 100 include installation device 116 used as storage device 128.

컴퓨팅 장치(100)는, 표준 전화 라인, LAN 또는 WAN 링크(예로서, 802.11, T1, T3, 56kb, X.25, SNA, DECNET), 광대역 접속(예로서, ISDN, 프레임 릴레이, ATM, 기가비트 이더넷, 이더넷-오버-SONET), 무선 접속, 또는 전술한 것들 중 임의의 것 또는 모두의 일부 조합을 포함하지만 이에 한정되지 않는 다양한 접속을 통해 LAN, WAN 또는 인터넷에 인터페이스하기 위한 네트워크 인터페이스(118)를 더 포함할 수 있다. 접속들은 또한 다양한 통신 프로토콜(예로서, TCP/IP, IPX, SPX, NetBIOS, 이더넷, ARCNET, SONET, SDH, 광섬유 분산 데이터 인터페이스(FDDI), RS232, RS485, IEEE 802.11, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, CDMA, GSM, WiMax 및 직접 비동기 접속)을 이용하여 구축될 수 있다. 컴퓨팅 장치(100)에 대한 하나의 버전은 보안 소켓 계층(SSL) 또는 전송 계층 보안(TLS), 또는 시트릭스 시스템즈사에 의해 제작된 시트릭스(Citrix) 게이트웨이 프로토콜과 같은 임의의 타입 및/또는 형태의 게이트웨이 또는 터널링 프로토콜을 통해 추가적인 컴퓨팅 장치들(100')과 통신할 수 있는 네트워크 인터페이스(118)를 포함한다. 네트워크 인터페이스(118)의 버전들은: 내장된 네트워크 어댑터; 네트워크 인터페이스 카드; PCMCIA 네트워크 카드; 카드 버스 네트워크 어댑터; 무선 네트워크 어댑터; USB 네트워크 어댑터; 모뎀; 또는 본 명세서에서 설명되는 방법들 및 시스템들에서 통신하고 수행할 수 있는 네트워크에 컴퓨팅 장치(100)를 인터페이스하는 데 적합한 임의의 다른 장치 중 어느 하나를 포함할 수 있다.Computing device 100 may be a standard telephone line, LAN or WAN link (e.g., 802.11, T1, T3, 56kb, X.25, SNA, DECNET), broadband connection (e.g., ISDN, frame relay, ATM, Gigabit). Network interface 118 for interfacing to a LAN, WAN, or Internet via various connections, including but not limited to Ethernet, Ethernet-over-SONET), wireless connections, or some combination of any or all of the foregoing. It may further include. Connections also include various communication protocols (eg TCP / IP, IPX, SPX, NetBIOS, Ethernet, ARCNET, SONET, SDH, Fiber Distributed Data Interface (FDDI), RS232, RS485, IEEE 802.11, IEEE 802.11a, IEEE 802.11b). , IEEE 802.11g, CDMA, GSM, WiMax, and direct asynchronous access). One version of computing device 100 may be any type and / or type of gateway, such as Secure Sockets Layer (SSL) or Transport Layer Security (TLS), or the Citrix Gateway Protocol manufactured by Citrix Systems. Or a network interface 118 that can communicate with additional computing devices 100 'via a tunneling protocol. Versions of the network interface 118 include: an embedded network adapter; Network interface card; PCMCIA network card; Card bus network adapter; Wireless network adapters; USB network adapter; modem; Or any other device suitable for interfacing the computing device 100 to a network capable of communicating and performing in the methods and systems described herein.

컴퓨팅 장치(100)의 실시예들은 다음의 I/O 장치들(130A-130N): 키보드(126); 포인팅 장치(127); 마우스; 트랙 패드; 광 펜; 트랙볼; 마이크; 드로잉 태블릿; 비디오 디스플레이; 스피커; 잉크젯 프린터; 레이저 프린터; 및 염료-승화 프린터; 또는 본 명세서에서 설명되는 방법들 및 시스템들을 수행할 수 있는 임의의 다른 입/출력 장치 중 어느 하나를 포함한다. I/O 제어기(123)는 일부 실시예들에서 다수의 I/O 장치(130A-130N)에 접속하여 하나 이상의 I/O 장치를 제어할 수 있다. I/O 장치들(130A-130N)의 일부 실시예들은 저장 또는 설치 매체(116)를 제공하도록 구성될 수 있는 반면, 다른 실시예들은 트윈테크 인더스트리사에 의해 제작된 장치들의 USB 플래시 드라이브 라인과 같은 USB 저장 장치들을 수용하기 위한 유니버설 직렬 버스(USB) 인터페이스를 제공할 수 있다. 또 다른 실시예들은 시스템 버스(150)와 외부 통신 버스: 이를테면, USB 버스; 애플 데스크톱 버스; RS-232 직렬 접속; SCSI 버스; FireWire 버스; FireWire 800 버스; 이더넷 버스; AppleTalk 버스; 기가비트 이더넷 버스; 비동기 전송 모드 버스; HIPPI 버스; 수퍼 HIPPI 버스; SerialPlus 버스; SCI/LAMP 버스; FibreChannel 버스; 또는 직렬 부착 소형 컴퓨터 시스템 인터페이스 버스 사이의 브리지일 수 있는 I/O 장치(130)를 포함한다.Embodiments of computing device 100 include the following I / O devices 130A-130N: keyboard 126; Pointing device 127; mouse; Track pads; Optical pens; Trackball; MIC; Drawing tablet; Video display; speaker; Inkjet printers; Laser printers; And dye-sublimation printers; Or any other input / output device capable of performing the methods and systems described herein. I / O controller 123 may, in some embodiments, connect to multiple I / O devices 130A-130N to control one or more I / O devices. Some embodiments of I / O devices 130A-130N may be configured to provide a storage or installation medium 116, while other embodiments may include a USB flash drive line of devices manufactured by TwinTech Industries, Inc. It can provide a universal serial bus (USB) interface to accommodate the same USB storage devices. Still other embodiments include a system bus 150 and an external communication bus, such as a USB bus; Apple Desktop Bus; RS-232 serial connection; SCSI bus; FireWire bus; FireWire 800 bus; An Ethernet bus; AppleTalk bus; Gigabit Ethernet Bus; Asynchronous transmission mode bus; HIPPI bus; Super HIPPI bus; SerialPlus bus; SCI / LAMP bus; FibreChannel bus; Or I / O device 130, which may be a bridge between serially attached small computer system interface buses.

일부 실시예들에서, 컴퓨팅 기계(100)는 임의의 운영 체제를 실행할 수 있는 반면, 다른 실시예들에서, 컴퓨팅 기계(100)는 다음의 운영 체제들: 마이크로소프트 윈도 운영 체제들의 버전들; 유닉스 및 리눅스 운영 체제들의 상이한 릴리스들; 애플 컴퓨터사에 의해 제작된 MAC OS의 임의 버전; IBM사에 의해 제작된 OS/2; 구글사의 안드로이드; 임의의 내장된 운영 체제; 임의의 실시간 운영 체제; 임의의 오픈 소스 운영 체제; 임의의 독점 운영 체제; 이동 컴퓨팅 장치용의 임의의 운영 체제들; 또는 임의의 다른 운영 체제 중 어느 하나를 실행할 수 있다. 또 다른 실시예에서, 컴퓨팅 기계(100)는 다수의 운영 체제를 실행할 수 있다. 예를 들어, 컴퓨팅 기계(100)는 제1 운영 체제를 실행하는 가상 기계를 실행 또는 관리할 수 있는 PARALLELS 또는 또 다른 가상화 플랫폼을 실행할 수 있으며, 컴퓨팅 기계(100)는 제1 운영 체제와 다른 제2 운영 체제를 실행한다.In some embodiments, computing machine 100 may run any operating system, while in other embodiments, computing machine 100 may include the following operating systems: versions of Microsoft Windows operating systems; Different releases of Unix and Linux operating systems; Any version of the MAC OS produced by Apple Computer; OS / 2 manufactured by IBM Corporation; Google's Android; Any embedded operating system; Any real time operating system; Any open source operating system; Any proprietary operating system; Any operating systems for mobile computing devices; Or any other operating system. In yet another embodiment, computing machine 100 may execute multiple operating systems. For example, the computing machine 100 may run PARALLELS or another virtualization platform capable of running or managing a virtual machine running a first operating system, and the computing machine 100 may be configured differently from the first operating system. 2 Run the operating system.

컴퓨팅 기계(100)는 다음의 컴퓨팅 장치들: 컴퓨팅 워크스테이션; 데스크톱 컴퓨터; 랩톱 또는 노트북 컴퓨터; 서버; 핸드헬드 컴퓨터; 이동 전화; 휴대용 전기통신 장치; 미디어 재생 장치; 게임 시스템; 이동 컴퓨팅 장치; 넷북, 태블릿; 애플 컴퓨터사에 의해 제작된 장치들의 IPOD 또는 IPAD 패밀리의 장치; 소니사에 의해 제작된 장치들의 PLAYSTATION 패밀리 중 어느 하나; 닌텐도사에 의해 제작된 장치들의 닌텐도 패밀리 중 어느 하나; 마이크로소프트사에 의해 제작된 장치들의 XBOX 패밀리 중 어느 하나; 또는 통신할 수 있고, 본 명세서에서 설명되는 방법들 및 시스템들을 수행하기에 충분한 프로세서 능력 및 메모리 용량을 갖는 임의의 다른 타입 및/또는 형태의 컴퓨팅, 전기 통신 또는 미디어 장치 중 어느 하나 내에 구현될 수 있다. 다른 실시예들에서, 컴퓨팅 기계(100)는 다음의 이동 장치들: JAVA-인에이블드 셀룰러 전화 또는 개인용 디지털 보조(PDA); 장치와 양립하는 상이한 프로세서들, 운영 체제들 및 입력 장치들을 갖는 임의의 컴퓨팅 장치; 또는 본 명세서에서 설명되는 방법들 및 시스템들을 수행할 수 있는 임의의 다른 이동 컴퓨팅 장치 중 어느 하나와 같은 이동 장치일 수 있다. 또 다른 실시예들에서, 컴퓨팅 장치(100)는 다음의 이동 컴퓨팅 장치들: 리서치 인 모션 리미티드에 의해 제작된 블랙베리의 임의의 하나의 시리즈 또는 다른 핸드헬드 장치; 애플 컴퓨터사에 의해 제작된 아이폰; Palm Pre; 포켓 PC; 포켓 PC 전화; 안드로이드 전화; 또는 임의의 다른 핸드헬드 이동 장치 중 어느 하나일 수 있다. 본 시스템들 및 방법들에서 사용하는 데 적합할 수 있는 특정 시스템 컴포넌트들 및 특징들이 설명되었으며, 추가적인 양태들이 아래에서 다루어진다.Computing machine 100 includes the following computing devices: a computing workstation; Desktop computer; A laptop or notebook computer; server; Handheld computers; Mobile phone; Portable telecommunication devices; A media playback device; Game system; Mobile computing devices; Netbooks, tablets; Devices of the IPOD or IPAD family of devices manufactured by Apple Computer; Any one of the PLAYSTATION family of devices manufactured by Sony; Any one of the Nintendo family of devices made by Nintendo; Any one of the XBOX family of devices manufactured by Microsoft; Or be capable of communicating and being implemented within any other type and / or form of computing, telecommunications, or media device having sufficient processor power and memory capacity to perform the methods and systems described herein. have. In other embodiments, computing machine 100 may include the following mobile devices: a JAVA-enabled cellular telephone or a personal digital assistant (PDA); Any computing device having different processors, operating systems, and input devices compatible with the device; Or a mobile device such as any of the other mobile computing devices capable of performing the methods and systems described herein. In still other embodiments, computing device 100 may comprise any of the following mobile computing devices: any one series of BlackBerry or other handheld device manufactured by Research In Motion Limited; An iPhone made by Apple Computer; Palm Pre; Pocket PC; Pocket pc phone; Android phone; Or any other handheld mobile device. Specific system components and features that may be suitable for use in the present systems and methods have been described, and additional aspects are discussed below.

도 2는 통상적인 이미지 센서에 의해 획득된 통상적인 장면 또는 물체(예를 들어, 집)의 예시적인 이미지를 도시한다. 이미지 센서는 예를 들어 CCD(charge-coupled device) 또는 CMOS(complementary metal-oxide-semiconductor) 활성 픽셀 센서를 포함할 수 있지만, 이에 한정되지 않는다. 이미지에 대응하는 그래프 또는 강도 프로필은, 라인 P2에 의해 지시되는 단면 영역에 대해, 수직축 상의 픽셀들의 강도 값(I) 및 대응하는 공간 위치(X)를 나타낸다. 강도 프로필 내의 밝은 포인트 및 어두운 포인트는 도시된 바와 같은 이미지 내의 밝은 포인트 및 어두운 포인트에 대응한다. 통상적으로, 균일하게 조명된 영역들(예를 들어, 집의 문에 대응하는 영역들) 내에서도 강도의 변동에 의해 표현되는, 신호 내의 실질적 잡음이 존재할 수 있다. 잡음은 여러 소스, 예를 들어 증폭기 잡음과 샷-잡음, 이방성(체계적) 잡음, 및 산발적 잡음으로부터 도출될 수 있다. 샷 잡음은 유한 기간 내에 특정한 픽셀-웰 내에 유한 수의 광자들이 수집되는 양자 효과와 관련된다. 픽셀 크기가 작을수록, 샷 잡음이 더 많이 발생할 수 있다. 이것은 입사 조명의 측정치를 추론할 광자가 더 적을 수 있기 때문이다. 픽셀 치수들이 작아질수록, 주어진 이미지 해상도에 대한 관련 광학 기구의 초점 길이도 선형으로 감소할 수 있다. 이것은 렌즈/센서 컴포넌트 조합의 두께를 감소시킬 수 있다. 그러나, 센서 해상도에 대한 요구사항들이 증가함에 따라, 그리고 센서들 및 이들과 관련된 광학 기구들에 대한 공간 제약들이 더 엄격해짐에 따라, 센서 및 이미지 픽셀 크기들은 요구사항들 및 제약들을 수용하도록 적절히 감소되어야 한다. 픽셀 크기의 감소의 결과는 센서의 잡음의 실질적 증가이다. 이러한 타입의 잡음은 물론, 증폭기 잡음도 도 3a에 도시된 바와 같이 시간 가변적이고 비체계적인 것으로서 특성화될 수 있다.2 illustrates an example image of a typical scene or object (eg, a house) obtained by a conventional image sensor. The image sensor may include, but is not limited to, for example, a charge-coupled device (CCD) or a complementary metal-oxide-semiconductor (CMOS) active pixel sensor. The graph or intensity profile corresponding to the image represents the intensity value I of the pixels on the vertical axis and the corresponding spatial position X, relative to the cross-sectional area indicated by line P2. The light and dark points in the intensity profile correspond to the light and dark points in the image as shown. Typically, there may be substantial noise in the signal, represented by variations in intensity, even within uniformly illuminated areas (eg, areas corresponding to the door of the house). Noise can be derived from several sources, such as amplifier noise and shot-noise, anisotropic (systematic) noise, and sporadic noise. Shot noise is associated with a quantum effect in which a finite number of photons are collected within a particular pixel-well within a finite period of time. The smaller the pixel size, the more shot noise may occur. This is because there may be fewer photons to infer the measurement of the incident illumination. As pixel dimensions become smaller, the focal length of the relevant optics for a given image resolution may also decrease linearly. This can reduce the thickness of the lens / sensor component combination. However, as requirements for sensor resolution increase, and as space constraints on sensors and their associated optics become more stringent, sensor and image pixel sizes decrease appropriately to accommodate the requirements and constraints. Should be. The result of the reduction in pixel size is a substantial increase in the noise of the sensor. This type of noise, as well as amplifier noise, can be characterized as time varying and unsystematic as shown in FIG. 3A.

또 다른 타입의 잡음은 이방성 또는 체계적/주기적 잡음이다. 주기적 잡음은 예를 들어 이미지 센서의 판독 경로에서 증폭기 이득들에 있어서의 차이들에 의해 유발될 수 있다. 예를 들어, 상이한 로우들 및 컬럼들은 약간 상이한 이득들을 갖는 상이한 증폭기들을 통과할 수 있다. 이러한 타입의 체계적 잡음은 도 3b에 도시되어 있으며, 이 도면에서는 균일하게 편평해야 하는 강도 프로필이 하나의 차원에서(예를 들어, 이미지를 가로질러) 사실상 주기적으로 변동하고 있다. 도 4는 이미지 내에 도입된 산발적 잡음의 일례를 도시하며, 이는 다수의 이미지에 걸쳐 명백할 수 있다. 예를 들어, 센서 노드들의 어레이 내의 가끔의 픽셀들(occasional pixels)은 저하된 감도를 가질 수 있거나, 기능하지 않거나, 제한된 또는 과도한 이득을 가져, 도시된 바와 같이 픽셀들이 더 밝거나 더 어두울 수 있다.Another type of noise is anisotropic or systematic / periodic noise. Periodic noise can be caused, for example, by differences in amplifier gains in the read path of the image sensor. For example, different rows and columns may pass through different amplifiers with slightly different gains. This type of systematic noise is shown in FIG. 3B, where the intensity profile, which must be uniformly flat, is in fact periodically fluctuating in one dimension (eg across the image). 4 shows an example of sporadic noise introduced into an image, which may be evident over multiple images. For example, occasional pixels in an array of sensor nodes may have degraded sensitivity, or may not function, or have limited or excessive gain, such that the pixels may be brighter or darker as shown. .

잡음으로부터 발생하는 문제들은 통상적으로 이미지 처리 모듈(220)에서 잡음 감소를 수행함으로써 해결된다. 이미지 처리 모듈(220)은 도 5에 도시된 바와 같이 임의의 타입의 공간적 중앙값 필터링 또는 영역-선택적 평균화를 이용할 수 있다. 잡음 감소를 수행하기 위한 많은 방법이 존재하며, 단지 설명을 위해 중앙값 필터링 및 영역-선택적 평균화를 식별한다. 도 6은 잡음 감소로부터 발생할 수 있는 강도 프로필을 도시한다. 잡음 감소가 잡음을 본질적으로 제거했을 수 있지만, 이미지 처리 모듈(220)은 장면 내의 실제 물체들 및 에지들에 대응하는 특징들(예를 들어, 밝은 포인트 및 어두운 포인트)을 유지하였다. 사용자의 관점에서, 이미지 품질은 통상적으로 도 1에서 용납할 수 없는(예를 들어, 잡음이 많은) 반면, 도 6에서는 품질이 더 양호한 것으로 간주된다.Problems resulting from noise are typically solved by performing noise reduction in image processing module 220. Image processing module 220 may use any type of spatial median filtering or region-selective averaging as shown in FIG. 5. There are many ways to perform noise reduction and only identify median filtering and region-selective averaging for illustrative purposes. 6 shows an intensity profile that may arise from noise reduction. Although noise reduction may have essentially removed the noise, the image processing module 220 retained features (eg, bright and dark points) corresponding to real objects and edges in the scene. From the user's point of view, image quality is typically unacceptable (eg, noisy) in FIG. 1, while in FIG. 6 the quality is considered to be better.

도 7은 홍채(I1) 및 얼굴(F1)의 이미지를 도시한다. 이미지는 예를 들어 NIST(National Institute of Standards and Technology) 표준들에 설명된 사양들에 따른 최적의 홍채 이미지 획득 시스템을 이용하여 획득될 수 있다. 이러한 사양들은 ANSI/INCITS 379-2004, 홍채 이미지 교환 포맷(Iris Image Interchange Format)에 설명된 것을 포함할 수 있다. 도 7을 참조하면, 홍채의 텍스처는 I1에 의해 지시되는 원형 영역 내의 라인들에 의해 표현된다. 도 8은 홍채의 텍스처의 강도 프로필에 대한 하나의 표현을 도시한다. 일부 실시예들에서는, 도 8(홍채 텍스처 패턴의 강도 프로필)과 도 2(잡음 신호의 강도 프로필) 간의 유사성이 아주 분명할 수 있다. 그러한 유사성의 이유는 각각의 신호/패턴의 소스가 랜덤 프로세스에 의해 특성화된다는 것이다. 홍채의 경우, 페이퍼 티어(paper tear)는 그것이 발생할 때마다 상이한 프로세스와 아주 유사한, 출현(birth) 전의 홍채 조직의 티어링(tearing)에 의해 신호가 생성된다. 센서 잡음의 경우, 샷 잡음 및 다른 잡음들은 랜덤한 시간-가변적인 물리적 프로세스들에 의해 생성된다.7 shows an image of iris I1 and face F1. The image may be obtained using an optimal iris image acquisition system, for example according to the specifications described in the National Institute of Standards and Technology (NIST) standards. Such specifications may include those described in ANSI / INCITS 379-2004, Iris Image Interchange Format. Referring to FIG. 7, the texture of the iris is represented by lines in the circular region indicated by I1. 8 shows one representation of the intensity profile of the texture of the iris. In some embodiments, the similarity between FIG. 8 (intensity profile of the iris texture pattern) and FIG. 2 (intensity profile of the noise signal) may be quite apparent. The reason for such similarity is that the source of each signal / pattern is characterized by a random process. In the case of the iris, the paper tear is signaled by the tearing of the iris tissue before birth, very similar to a different process each time it occurs. In the case of sensor noise, shot noise and other noises are generated by random time-varying physical processes.

홍채 신호 "텍스처"의 주파수 특성들은 NIST 표준들 [ANSI/INCITS 379-2004, 홍채 이미지 교환 포맷(Iris Image Interchange Format)]에서 어느 정도 특성화되었으며, 상이한 홍채 직경 범위들에 대해 예를 들어 밀리미터(mm)당 라인/쌍들에 대응하는 최소 해상도 값들이 지정될 수 있다. 홍채 직경은 특정한 광학적 구성에 의존할 수 있다. 예를 들어, 100-149개 픽셀 사이의 홍채 직경에 대해, 정의된 픽셀 해상도는 밀리미터당 최소 2.0 라인-쌍의 60% 변조에서의 광학적 해상도를 갖는, 밀리미터당 최소 8.3 픽셀일 수 있다. 150-199개 픽셀 사이의 홍채 직경에 대해, 정의된 픽셀 해상도는 밀리미터당 최소 3.0 라인-쌍의 60% 변조에서의 광학적 해상도를 갖는, 밀리미터당 최소 12.5 픽셀일 수 있다. 200개 이상의 픽셀을 갖는 홍채 직경에 대해, 정의된 픽셀 해상도는 밀리미터당 최소 4.0 라인-쌍의 60% 변조에서의 광학적 해상도를 갖는, 밀리미터당 최소 16.7 픽셀일 수 있다. 특정 실시예들에서, 다른 직경에 대해서는, 정의된 픽셀 해상도 및/또는 광학적 해상도 조합들이 적합할 수 있다.The frequency characteristics of the iris signal "texture" have been characterized to some extent in the NIST standards [ANSI / INCITS 379-2004, Iris Image Interchange Format], for example millimeters (mm) for different iris diameter ranges. Minimum resolution values corresponding to lines / pairs may be specified. The iris diameter may depend on the particular optical configuration. For example, for an iris diameter between 100-149 pixels, the defined pixel resolution can be at least 8.3 pixels per millimeter, with optical resolution at 60% modulation of at least 2.0 line-pairs per millimeter. For an iris diameter between 150-199 pixels, the defined pixel resolution can be at least 12.5 pixels per millimeter, with optical resolution at 60% modulation of at least 3.0 line-pairs per millimeter. For an iris diameter with 200 or more pixels, the defined pixel resolution can be at least 16.7 pixels per millimeter, with optical resolution at 60% modulation of at least 4.0 line-pairs per millimeter. In certain embodiments, for other diameters, defined pixel resolution and / or optical resolution combinations may be suitable.

도 9는 전술한 잡음 감소 처리의 일부가 수행된 후의 홍채 텍스처의 강도 프로필을 도시한다. 이 예시적인 경우에, 홍채 텍스처는 잡음 감소에 의해 본질적으로 제거된다. 이것은 영역에 고유한 평균화와 같은 잡음 감소 알고리즘들이 홍채 텍스처와 잡음 사이를 구별하지 못할 수 있기 때문이다. 따라서, 대부분의 이미지 캡처링 장치들에서 표준이거나 통상적인 잡음 감소는 홍채 인식을 수행하도록 적응될 때 제한일 수 있다.9 shows the intensity profile of the iris texture after some of the noise reduction processing described above has been performed. In this example case, the iris texture is essentially removed by noise reduction. This is because noise reduction algorithms such as region-specific averaging may not distinguish between iris texture and noise. Thus, in most image capturing devices, the standard or conventional noise reduction may be a limitation when adapted to perform iris recognition.

본 시스템들 및 방법들은 홍채 인식과 관련된 특정한 특성들을 인식함으로써 이러한 문제를 해결할 수 있다. 도 10은, 하나의 실시예에서, 점선으로 표시된 센서 잡음의 강도 프로필과 함께, (예를 들어, NIST 표준들 [ANSI/INCITS 379-2004, 홍채 이미지 교환 포맷(Iris Image Interchange Format)]에서와 같이) 최적으로 획득된 홍채 텍스처의 강도 프로필을 도시한다. 특정 홍채 인식 프로세스들은 정합된 신호와 탐침 신호 사이의 통계적 독립성의 결여를 식별하는 단계를 수반한다. 한 가지 의의는 랜덤 프로세스에 의해 달성될 가능성이 없는 결과를 산출하는 비교에 의해 통상적으로 매치가 선언된다는 것일 수 있다. 따라서, 원래의 홍채 신호에 상당한 랜덤 및 시간 가변 잡음을 더하는 것은 1) 거짓 매치들이 논-랜덤 매칭(non-random matching)으로부터 발생하므로 거짓 매치 레이트를 크게 증가시키지 않을 수 있고, 2) 홍채 신호의 텍스처가 일반적으로 또는 본질적으로 센서 잡음의 텍스처를 초과하는 경우(예를 들어, 이미지들 자체가 관찰자에게 잡음이 많은 것으로 보이는 경우)에 개인에 대한 거짓 거절 레이트에 대해 제한된 영향을 미칠 수 있으며, 3) 홍채 신호의 텍스처가 센서 잡음의 규모에 비해 유사하거나 더 작은 규모를 갖는 경우에 (제한된 다른 결과들과 함께) 사용자에 대한 거짓 거절 레이트를 증가시킬 수 있다.The present systems and methods can solve this problem by recognizing certain characteristics related to iris recognition. FIG. 10 illustrates, in one embodiment, with the intensity profile of the sensor noise indicated by a dotted line (eg, in NIST standards [ANSI / INCITS 379-2004, Iris Image Interchange Format]). As such, the intensity profile of the optimally obtained iris texture is shown. Certain iris recognition processes involve identifying a lack of statistical independence between the matched signal and the probe signal. One significance may be that a match is typically declared by a comparison yielding results that are not likely to be achieved by a random process. Thus, adding significant random and time varying noise to the original iris signal may not 1) increase the false match rate significantly because false matches arise from non-random matching, and 2) There may be a limited impact on the false rejection rate for an individual if the texture is in general or in essence exceeding the texture of the sensor noise (eg, the images themselves appear noisy to the observer), 3 ) If the texture of the iris signal has a similar or smaller scale than the scale of the sensor noise, it can increase the false rejection rate for the user (along with other limited results).

그러나, 예를 들어 도 3에 도시된 바와 같이 원래의 홍채 신호에 체계적 잡음을 더하는 것은 거짓 매치를 트리거할 수 있는데, 그 이유는 2개의 데이터 세트 사이의 비교가 랜덤 프로세스에 의해 달성되지 못했다는 결과를 산출할 수 있기 때문이다. 따라서, 방법들 및 시스템들의 특정 실시예들은 (예를 들어, 잡음 감소를 통해) 감소된 잡음 레벨들을 갖는 이미지들에 비해 홍채 식별의 성능을 향상시키기 위해, 캡처된 홍채 이미지 내의 잡음(예를 들어, 심지어 상당한 레벨의 잡음)의 존재를 (예를 들어, 반직관적으로) 선호할 수 있다. 일부 실시예들에서, 본 시스템들은 이미지가 홍채 인식을 위해 의도된 때 이미지에 적용되는 비체계적 잡음 감소의 레벨을 줄이거나 없앨 수 있다. 결과적인 이미지들은 (예를 들어, 잡음 감소가 적용된) 처리된 이미지에 비해 아마도 관찰자에게 극히 잡음이 많은 것으로 보일 수 있다. 그러나, 잡음이 많은 이미지가 홍채 인식을 위해 대신 사용되는 경우에 홍채 인식의 성능은 크게 향상될 수 있다. 일부 특정한 하드웨어 구현들에서, 잡음 감소 알고리즘들은 인에이블되고 하드-코딩되며, 턴오프되지 않을 수 있다. 본 방법들 및 시스템들의 일부 실시예들은 본 명세서의 다른 곳에서 설명되는 바와 같이 홍채 텍스처에 대해 예상되는 주파수 대역들에서의 잡음 감소를 피하기 위해 잡음 감소 알고리즘들에 대한 제어를 허용한다.However, adding systematic noise to the original iris signal, for example, as shown in FIG. 3, can trigger a false match because the comparison between the two data sets was not achieved by a random process. This can be calculated. Thus, certain embodiments of the methods and systems provide noise (eg, in the captured iris image) to improve the performance of iris identification compared to images with reduced noise levels (eg, through noise reduction). May even prefer the presence (eg, counterintuitive) of even a significant level of noise. In some embodiments, the present systems can reduce or eliminate the level of unsystematic noise reduction applied to an image when the image is intended for iris recognition. The resulting images may seem extremely noisy to the observer compared to the processed image (eg, with noise reduction applied). However, the performance of iris recognition can be greatly improved if noisy images are used instead for iris recognition. In some specific hardware implementations, noise reduction algorithms may be enabled, hard-coded, and not turned off. Some embodiments of the present methods and systems allow control over noise reduction algorithms to avoid noise reduction in the frequency bands expected for the iris texture as described elsewhere herein.

도 11은 메인 프로세서가 이미지 신호 프로세서, 예를 들어 저레벨 이미지 신호 프로세서를 제어할 수 있는 접근법에 대한 예시적인 구현을 도시한다. 홍채 인식이 수행되는 모드에서, 전술한 바와 같은 잡음 감소 프로세스를 변경하기 위해 신호가 이미지 신호 프로세서로 전송될 수 있다. 체계적 잡음의 규모에 따라, 그러한 잡음은 (예를 들어, 센서의 에지에 있는 픽셀들이 커버되고, 센서 교정을 위해 사용될 수 있는 동적 로우 교정을 이용하여) 제거될 수 있거나, 잡음의 규모가 홍채 텍스처의 신호 규모보다 상당히 더 작은 경우에 그대로 둘 수 있다. 예를 들어, 도 12는 다수의 시나리오를 요약한 테이블을 나타내며, 어떻게 상이한 타입의 잡음이 상이한 이미지 획득 모드들에서 홍채 인식의 성능 및/또는 가시 이미지의 품질에 영향을 미칠 수 있는지를 설명한다.11 illustrates an example implementation of an approach in which the main processor may control an image signal processor, eg, a low level image signal processor. In the mode in which iris recognition is performed, a signal may be sent to the image signal processor to alter the noise reduction process as described above. Depending on the magnitude of the systematic noise, such noise can be removed (e.g., using dynamic low correction, which is covered by pixels at the edge of the sensor and can be used for sensor calibration), or the magnitude of the noise can be reduced to an iris texture. It can be left as is if it is significantly smaller than the signal magnitude of. For example, FIG. 12 shows a table summarizing a number of scenarios and describes how different types of noise can affect the performance of iris recognition and / or the quality of a visible image in different image acquisition modes.

동일 센서 상에서의 최적의 표준 장면 이미지 및 홍채 이미지의 획득과 관련된 또 다른 과제는 표준 이미지 및 홍채 이미지를 위해 필요한 조명의 파장과 관련된다. 홍채 이미지는 통상적으로 적외선 조명을 필요로 하는 반면, 표준 이미지는 통상적으로 가시 조명을 필요로 한다. 때때로 상반되는 제약들이 존재한다. 본 시스템들의 일부 실시예들은 적외선 및 가시 광에 대해 상이한 응답들을 갖는 필터들을 인터리빙함으로써 이를 해결하도록 구성될 수 있다. 이러한 시스템들은 이미지를 캡처할 때 이미지 센서에 대한 그러한 필터들의 복수의 상이한 구성 중 하나를 이용할 수 있다. 인터리빙된 필터를 생성하도록 통합 또는 변경될 수 있는 필터에 대한 하나의 예는 베이어(Bayer) RGB(적, 녹, 청) 필터 패턴을 갖는 필터이다(예를 들어, 미국 특허 제3,971,065호 참조). (주로, 상당히, 또는 단지) 적외선을 통과시키는 필터들이 (주로, 상당히, 또는 단지) 컬러 또는 가시 광을 통과시키는 다른 필터들과 인터리빙될 수 있다. 선택된 필터링을 제공하는 필터들의 일부 실시예들은 미국 특허 공개 20070145273 및 미국 특허 공개 20070024931에 설명되어 있다. 본 시스템 및 방법들의 일부 실시예들은 R, G, (G+I), B 인터리빙된 어레이를 대신 사용한다. 이러한 시스템들 중 일부는 사람의 시각 시스템이 통상적으로 가장 민감한 G(녹색) 신호의 완전한(또는 실질적으로 완전한) 해상도를 유지하는 능력을 갖는다.Another challenge associated with obtaining an optimal standard scene image and iris image on the same sensor is related to the wavelength of illumination required for the standard image and the iris image. Iris images typically require infrared illumination, while standard images typically require visible illumination. Sometimes contradictory restrictions exist. Some embodiments of the present systems can be configured to solve this by interleaving filters with different responses to infrared and visible light. Such systems may use one of a plurality of different configurations of such filters for the image sensor when capturing an image. One example of a filter that can be integrated or altered to produce an interleaved filter is a filter with a Bayer RGB (red, green, blue) filter pattern (see, eg, US Pat. No. 3,971,065). Filters that pass (mainly, significantly, or only) infrared light can be interleaved with other filters that pass (mainly, significantly, or only) color or visible light. Some embodiments of filters providing selected filtering are described in US Patent Publication 20070145273 and US Patent Publication 20070024931. Some embodiments of the present systems and methods use R, G, (G + I), B interleaved arrays instead. Some of these systems have the ability of a human visual system to maintain the full (or substantially complete) resolution of the most sensitive G (green) signal.

홍채 인식 모드에서, G(녹색) 응답의 규모는 통상적으로 입사 적외선 조명으로 인한 적외선 응답의 규모보다 훨씬 작다. 일부 실시예들에서는, 인접 (G+I) 신호로부터 (G) 신호를 감산함으로써 홍채 인식 모드에서의 적외선 신호 응답(I)의 추정치가 복구될 수 있다. 표준 이미지 획득 모드에서는, R, G, (G+I), B 신호를 처리하여, G+I가 복구된 픽셀에서의 G의 추정치(G')를 복구할 수 있다. 예를 들어 R, G, T, B 픽셀 어레이가 사용될 때 - 여기서, T는 완전히 투명함 -, 그러한 추정치들을 생성하기 위해 다양한 방법들이 이용될 수 있다. 그러한 구현에서의 T 픽셀은 함께 누적 또는 중첩된 R, G, B 및 I 신호들의 신호들을 포함할 수 있다. 이것은 문제가 될 수 있다. T 픽셀 필터가 참으로 투명한 경우, 효과적인 성능을 위해, R, G, B, I 응답들의 합은 여전히 픽셀의 동적 범위 내에 있어야 한다. 전체 이미지 전반에 걸쳐 주어진 적분 시간 및 픽셀 영역에 대해, 이것은, T 픽셀(R+G+B+I)의 포화가 발생할 수 있으므로 R, G, B 픽셀들의 동적 범위가 충분히 이용될 수 없다는 것을 의미한다. 다른 R, G, B 픽셀들에 비해 T 픽셀에 대해 상이한 픽셀 영역들 및 이득을 설정하는 것이 가능할 수 있지만, 구현 비용이 많이 들 수 있다. 본 시스템들 내에 통합될 수 있는 하나의 개선은 투명 필터 대신에 중립 밀도 필터를 사용하는 것이다. 중립 밀도 필터는 해당 픽셀에서의 모든 파장들(R, G, B, I)의 조명의 규모를 감소시킬 수 있으며, R, G, B 픽셀들에서 충분한 또는 광범위한 픽셀 용량들이 이용되는 것을 가능하게 하여 잡음을 감소시킬 수 있다. 일례로서 0.5 내지 0.6의 값을 갖는 중립 밀도 필터가 선택될 수 있다. 통상적으로 녹색 신호는 함께 결합된 R, G 및 B를 포함하는 휘도 신호의 약 60%에 기여할 수 있다.In iris recognition mode, the magnitude of the G (green) response is typically much smaller than the magnitude of the infrared response due to incident infrared illumination. In some embodiments, the estimate of the infrared signal response I in the iris recognition mode can be recovered by subtracting the (G) signal from the adjacent (G + I) signal. In the standard image acquisition mode, the R, G, (G + I), and B signals can be processed to recover the estimate G 'of the G in the pixel where G + I is recovered. For example, when R, G, T, B pixel arrays are used, where T is completely transparent, various methods may be used to generate such estimates. The T pixel in such an implementation may include signals of R, G, B and I signals accumulated or superimposed together. This can be a problem. If the T pixel filter is truly transparent, for effective performance, the sum of the R, G, B, and I responses must still be within the dynamic range of the pixel. For a given integration time and pixel region throughout the entire image, this means that the saturation of the T pixels (R + G + B + I) may occur so that the dynamic range of R, G, and B pixels is not fully available. do. It may be possible to set different pixel areas and gain for a T pixel relative to other R, G, B pixels, but it may be expensive to implement. One improvement that can be incorporated into the present systems is the use of neutral density filters instead of transparent filters. Neutral density filter can reduce the scale of illumination of all wavelengths (R, G, B, I) at that pixel, allowing sufficient or extensive pixel capacities to be used at R, G, B pixels Noise can be reduced. As an example a neutral density filter having a value of 0.5 to 0.6 can be selected. Typically the green signal can contribute about 60% of the luminance signal comprising R, G and B coupled together.

T 필터가 참으로(truly) 투명한 경우, R, G, B 픽셀들의 신호 대 잡음비의 대가로, T 픽셀의 범위를 수용하고, 이를 선형 범위 내로 유지하기 위해, 센서의 전체 동적 범위는 통상적으로 감소되는 것이 필요할 것이다. 본 시스템들의 일부 실시예들에서 R, G, G+I, B 필터 어레이를 통합함으로써 그리고 적색 및 청색 신호들이 G+I 픽셀 내에 존재하지 않으므로, 센서의 전체 동적 범위는 R, G, T, B 어레이의 동적 범위에 비해 증가될 수 있으며, 따라서 신호 대 잡음비가 증가할 수 있다.If the T filter is truly transparent, the overall dynamic range of the sensor is typically reduced to accommodate the range of T pixels and keep them within a linear range at the expense of the signal-to-noise ratio of the R, G, and B pixels. It will be necessary. In some embodiments of the present systems, by integrating the R, G, G + I, B filter arrays and because the red and blue signals are not present in the G + I pixel, the overall dynamic range of the sensor is R, G, T, B This can be increased relative to the dynamic range of the array, thus increasing the signal-to-noise ratio.

조명의 파장과 관련하여, 동일 센서 상에서 최적의 표준 장면 이미지 및 홍채 이미지를 획득하기 위한 본 방법들 및 시스템들의 일부 실시예들에 통합되는 또 다른 접근법은 표준 이미지 센서 또는 렌즈 위에 적외선 차단 필터를 다중화 또는 배치하는 단계를 수반한다. 하나의 실시예에서, 예를 들어 도 14에 도시된 바와 같이, 센서의 일부(예를 들어, 센서 또는 센서 노드들의 20%)는 주로 홍채 인식을 위해 지정될 수 있는 반면, 나머지(예를 들어, 80%) 부분은 표준 이미지 획득을 위해 사용될 수 있다. 이 예에서와 같이, 센서의 하위 부분(예를 들어, 80%)은 표준 IR 차단 필터에 의해 커버될 수 있다. 센서의 나머지 20%는 커버되지 않고 유지될 수 있다. 홍채 인식 모드에서, 커버된 영역은 무시될 수 있다. 예를 들어, 이미지 캡처링 장치 상에서 실행되는 홍채 인식 애플리케이션은 사용자로 하여금 커버되지 않은 20% 영역의 감지 영역 내에 그의 눈을 위치시키도록 안내할 수 있다. 피드백 메커니즘들은 사용자로 하여금 적절한 캡처 영역 내에 사용자의 홍채를 위치시키기 위해 이미지 캡처링 장치를 이동시키도록 안내할 수 있다. 예를 들어, 얼굴은 영상기의 나머지 80%에서 보일 것이므로, 이것은, 옵션으로서 눈 영역 대신에 나타나는 아이콘들로, 사용자 안내 피드백을 위해 사용될 수 있다. 일부 실시예들에서, 이미지 센서는 커버되지 않은 영역을 이용하여 사용자의 홍채의 이미지를 캡처하기 위해 그의 배향을 조정할 수 있다.Regarding the wavelength of illumination, another approach incorporated into some embodiments of the present methods and systems for obtaining an optimal standard scene image and iris image on the same sensor is to multiplex an infrared cut filter over a standard image sensor or lens. Or deploying. In one embodiment, as shown, for example, in FIG. 14, some of the sensors (eg, 20% of the sensors or sensor nodes) may be designated primarily for iris recognition, while others (eg, , 80%) can be used for standard image acquisition. As in this example, the lower portion of the sensor (eg 80%) may be covered by a standard IR cut filter. The remaining 20% of the sensor can remain uncovered. In the iris recognition mode, the covered area can be ignored. For example, an iris recognition application running on an image capturing device can guide a user to place his eye within a sensing area of an uncovered 20% area. Feedback mechanisms can guide the user to move the image capturing device to position the user's iris within the appropriate capture area. For example, since the face will be visible in the remaining 80% of the imager, this may optionally be used for user guide feedback, with icons appearing instead of the eye area. In some embodiments, the image sensor can adjust its orientation to capture an image of the user's iris using the uncovered area.

본 시스템들 및 방법들의 일부 실시예들 내에 통합되는 또 다른 접근법은 컬러 영상기 또는 센서의 전체 또는 상당한 부분에 걸쳐 이중 대역 통과 필터를 사용한다. 그러한 필터는 850 nm 또는 940 nm 근처의 대역들과 같은 선택된 대역들 내의 R, G, B 신호들 및 적외선 신호들 둘 다를 통과시킬 수 있으며, 도 15에 도시된 바와 같은 주파수 응답을 산출할 수 있다. 또 다른 실시예에서, 이미지 획득 시스템은 장치가 표준 이미지 캡처 모드에 있을 때 이미지 센서의 적어도 일부 위의 장소 내에 자동 또는 수동으로 배치되거나 슬라이딩될 수 있는 IR 차단 필터를 사용할 수 있다. 예를 들어, IR 차단 필터는 홍채 이미지를 캡처하기 위해 사용자의 눈과 나란히 정렬되도록 이미지 센서의 일부를 커버할 수 있다. 이미지 센서의 다른 부분들은 예를 들어 사용자의 얼굴의 부분들을 캡처할 수 있다. IR 차단 필터는 센서의 한 단부에 배치될 수 있으며, 따라서 센서 및 그에 따라 캡처된 이미지가 3개 이상의 영역(예로서, 비(non)-IR-차단, IR-차단 및 비-IR-차단)이 아니라 2개의 별개의 영역(IR-차단 및 비-IR-차단)을 갖게 할 수 있다. 이는 장면(예로서, 얼굴)의 더 크고 더 연속적인 비-홍채 부분이 획득되게 하며, 이는 결국 예를 들어 얼굴 식별에 사용될 수 있다. 일부 실시예들에서는, (예를 들어, 옵션으로서) 장치가 홍채 이미지 캡처 모드에 있을 때 이미지 센서 위에 가시광 필터 또는 IR 통과 필터가 배치될 수 있다.Another approach incorporated within some embodiments of the present systems and methods uses a dual band pass filter over all or a substantial portion of a color imager or sensor. Such a filter can pass both R, G, B signals and infrared signals in selected bands, such as bands near 850 nm or 940 nm, and can yield a frequency response as shown in FIG. 15. . In another embodiment, the image acquisition system may use an IR blocking filter that can be automatically or manually placed or slid into place over at least a portion of the image sensor when the device is in a standard image capture mode. For example, the IR blocking filter may cover a portion of the image sensor to be aligned with the user's eye to capture the iris image. Other portions of the image sensor may capture portions of the user's face, for example. The IR cutoff filter may be placed at one end of the sensor, so that the sensor and thus the captured image are in three or more regions (eg, non-IR-blocking, IR-blocking and non-IR-blocking). Rather, it can have two distinct regions (IR-blocking and non-IR-blocking). This allows a larger and more continuous non-iris part of the scene (eg face) to be obtained, which in turn can be used for face identification for example. In some embodiments, a visible light filter or an IR pass filter may be disposed above the image sensor when the device is in an iris image capture mode (eg, as an option).

일부 실시예들에서, 이미지 획득 시스템은 예를 들어 도 16에 도시된 바와 같이 센서에 걸쳐 적외선 차단 및 적외선 통과 필터들을 인터리빙할 수 있다. 인터리빙된 필터는 체커 박스 배열, 다양한 폭의 줄무늬들 또는 다른 교대 및/또는 반복 가능 패턴들의 사용과 같은 다양한 다른 방식으로 구성될 수 있다. 홍채 인식 모드에서, IR 통과 필터 대역들 아래의 센서 픽셀들/노드들로부터의 응답이 홍채 인식에 사용되는 반면, IR 차단 필터 대역들 아래의 센서 픽셀들/노드들로부터의 응답은 표준 이미지 획득 모드에서 사용된다. 일부 실시예들에서, 표준 및 홍채 이미지들 양자는 단일 이미지 캡처를 이용하여, 예컨대 인터리빙 패턴에 대응하는 IR 및 비-IR 이미지 컴포넌트들을 분리함으로써 획득될 수 있다.In some embodiments, the image acquisition system may interleave infrared cutoff and infrared pass filters across the sensor as shown, for example, in FIG. 16. Interleaved filters may be configured in a variety of other ways, such as checker box arrangement, stripes of varying widths or the use of other alternating and / or repeatable patterns. In iris recognition mode, the response from sensor pixels / nodes below the IR pass filter bands is used for iris recognition, while the response from sensor pixels / nodes below the IR blocking filter bands is in standard image acquisition mode. Used in In some embodiments, both standard and iris images can be obtained using a single image capture, such as by separating the IR and non-IR image components corresponding to an interleaving pattern.

일부 실시예들에서, 이미지 센서에 의해 획득되는 이미지는 주변 조명에 의해 영향을 받거나 변형될 수 있다. 예를 들어, 일부 실시예들에서, 적외선 필터링 및/또는 조명이 최적이 아닌 경우, 장면의 이미지들은 홍채 이미지의 획득 동안 눈의 표면(예로서, 각막)으로부터 반사될 수 있다. 이것의 일례가 도 17에 도시되어 있다. (예를 들어, 눈의 각막 상에서의) 이미지의 반사는 일례로서 사용자 주위의 집들을 포함하는 장면의 반사일 수 있다. 그러한 반사들은 아티팩트들로서 지칭될 수 있다. 위에서는 체계적 잡음이 어떻게 홍채 인식의 성능에 악영향을 미칠 수 있는지에 대해 설명하였다. 아티팩트들은 유사한 방법들: 적어도 2개의 이미지, 즉 도 18에 도시된 바와 같이, 제어된 적외선 조명이 턴온된 상태에서의 하나의 이미지 및 도 17에 도시된 바와 같이 제어된 적외선 조명이 턴오프된 상태에서의 적어도 제2 이미지를 획득하는 방법을 이용하여 극복될 수 있다. 이미지 처리 모듈은 이러한 적어도 2개의 이미지를 처리하여, 아티팩트들을 줄이거나 제거할 수 있다. 예를 들어, 일부 실시예들에서, 이미지 처리 모듈은 도 19의 처리도에 도시된 바와 같이 이미지들을 정렬한 후에 이미지들을 서로 감산할 수 있다. 아티팩트 생성 조명은 2개의 이미지 사이에서 본질적으로 변경되지 않는 반면, 홍채 텍스처는 적외선 조명에 의해 조명되므로, 차이를 취함으로써 아티팩트가 제거될 수 있는 반면, 홍채 텍스처는 유지된다. 나머지 홍채 텍스처는 도 20에서 홍채 내의 라인들에 의해 도시된다. 시스템은 예를 들어 센서의 비선형 동작 범위에 있거나 그에 가까운(예를 들어, 포화되거나 어두운) 픽셀들을 식별함으로써 센서의 비선형성을 더 극복할 수 있다. 이미지 처리 모듈은 식별된 픽셀들을 후속 홍채 인식 처리로부터 배제할 수 있다. 그러한 영역들에서의 이미지 감산 처리는 비선형일 수 있으므로, 아티팩트들은 감산 접근법을 이용하여 계속 유지될 수 있다.In some embodiments, the image obtained by the image sensor can be affected or deformed by ambient light. For example, in some embodiments, if infrared filtering and / or illumination is not optimal, images of the scene may be reflected from the surface of the eye (eg, the cornea) during acquisition of the iris image. An example of this is shown in FIG. The reflection of the image (eg, on the cornea of the eye) may be, for example, a reflection of a scene including houses around the user. Such reflections may be referred to as artifacts. Above, we explain how systematic noise can adversely affect the performance of iris recognition. The artifacts are similar methods: at least two images, one image with the controlled infrared illumination turned on as shown in FIG. 18 and a controlled infrared illumination turned off as shown in FIG. 17. It can be overcome using a method of obtaining at least a second image in. The image processing module may process these at least two images to reduce or eliminate artifacts. For example, in some embodiments, the image processing module may subtract images from each other after aligning the images as shown in the processing diagram of FIG. 19. Artifact generation illumination is essentially unchanged between the two images, while the iris texture is illuminated by infrared illumination, so that artifacts can be eliminated by making a difference, while the iris texture is maintained. The remaining iris texture is shown by the lines in the iris in FIG. 20. The system can further overcome the nonlinearity of the sensor by, for example, identifying pixels that are in or near (eg, saturated or dark) the nonlinear operating range of the sensor. The image processing module may exclude the identified pixels from subsequent iris recognition processing. Image subtraction processing in such areas can be nonlinear, so artifacts can be maintained using a subtraction approach.

본 방법들의 다른 실시예는 사용자, 이미지 캡처링 장치, 및 변형 또는 아티팩트들의 소스의 위치에 대한 특정한 기하학적 제약들을 이용함으로써 이미지들의 변형을 관리한다. 이미지 처리 모듈은 사용자가 홍채 인식 모드 동안 사용자의 얼굴의 정면에 이미지 캡처링 장치를 유지할 때 이미지 캡처링 장치가 예를 들어 도 21에 도시된 바와 같이 획득된 홍채 이미지의 한 섹터 내에서 변형을 야기하는 주변 조명의 소스들을 줄이거나, 심지어 차단할 수 있다는 것을 인식하도록 구성될 수 있다. 도 22에 도시된 바와 같이, 이미지 처리 모듈은 홍채 인식을 주로 또는 단지 이 섹터로 제한하여, 이미지 변형과 관련된 이슈들을 피할 수 있다. 일부 실시예들에서, 이미지의 이 섹터에 기초하는 홍채 인식은 생체 매치를 결정함에 있어서 다른 섹터들보다 높게 가중될 수 있다.Another embodiment of the methods manages the deformation of the images by using specific geometrical constraints on the location of the user, the image capturing device, and the source of the deformation or artifacts. The image processing module causes the image capturing device to deform within a sector of the acquired iris image, for example, as shown in FIG. 21 when the user holds the image capturing device in front of the user's face during iris recognition mode. It may be configured to recognize that it can reduce or even block the sources of ambient light. As shown in FIG. 22, the image processing module can limit iris recognition mainly or only to this sector, thereby avoiding issues related to image deformation. In some embodiments, iris recognition based on this sector of the image may be weighted higher than other sectors in determining the biometric match.

일부 실시예들에서, 적외선 조명은 이미지 캡처 동안 쉽게 이용되지 못하거나 보증되지 못한다. 이미지 획득 시스템(200)은 적외선 조명을 제어 및/또는 제공하도록 구성될 수 있다. 이미지 획득 시스템은 도 23에 도시된 바와 같이 장치가 홍채 인식 모드에 있을 때 적외선 소스(예로서, LED들)로 조명함으로써 전력 사용을 감소시킬 수 있다.In some embodiments, infrared illumination is not readily available or warranted during image capture. Image acquisition system 200 may be configured to control and / or provide infrared illumination. The image acquisition system may reduce power usage by illuminating with an infrared source (eg, LEDs) when the device is in iris recognition mode as shown in FIG. 23.

도 24는 본 명세서에서 설명되는 시스템들 및 방법들의 일부 특징들을 이용하는 이미지 획득 시스템(200)에 대한 하나의 실시예를 도시한다. 이미지 획득 시스템(200)은 이동 및/또는 소형 장치와 같은 장치 내에 구현될 수 있다. 장치는 센서를 갖는 스크린을 포함할 수 있다. 적외선 LED들은 조명을 제공할 수 있다. 사용자는 터치 스크린 또는 다른 입력 장치(예를 들어, 키보드, 버튼 또는 음성 명령 인식)를 이용하여, 홍채 인식 모드와 표준 사진 촬영 모드 사이에서 스위칭할 수 있다. 장치는 애플리케이션을 포함할 수 있으며, 사용자는 이를 통해 이미지 캡처링 모드를 활성화할 수 있다. 애플리케이션은 사용자의 홍채를 자동으로 찾거나, 사용자로 하여금 사용자의 홍채를 적절한 캡처 영역 내로 이동시키도록 안내하기 위한 피드백 또는 안내 메커니즘을 더 제공할 수 있다. 일부 실시예들에서는, 홍채 이미지 캡처 모드에 있을 때 옵션인 IR 차단 필터가 수동으로 또는 자동으로 활성화되거나 이미지 센서 위로 이동될 수 있다. 다른 필터들(예를 들어, IR 통과 필터)이 적절한 모드(들)에서 통합 및/또는 활성화될 수 있다. 특정 실시예들에서, 이미지 획득 시스템(200)의 소정의 특징들이 이동 또는 기존 장치를 위한 애드-온 액세서리 또는 슬리브 내에 포함될 수 있다. 일례로서, 그러한 특징들은 적외선 조명기, 하나 이상의 필터, 및/또는 이동 또는 기존 장치에 대한 인터페이스(예로서, 무선 또는 물리)를 포함할 수 있다.FIG. 24 illustrates one embodiment of an image acquisition system 200 utilizing some features of the systems and methods described herein. Image acquisition system 200 may be implemented in a device, such as a mobile and / or small device. The device may include a screen with a sensor. Infrared LEDs can provide illumination. The user may switch between an iris recognition mode and a standard picture capture mode using a touch screen or other input device (eg, keyboard, button or voice command recognition). The device may include an application, through which the user may activate the image capturing mode. The application may further find the user's iris or provide further feedback or guidance mechanisms to guide the user to move the user's iris into the appropriate capture area. In some embodiments, an optional IR blocking filter may be manually or automatically activated or moved over the image sensor when in iris image capture mode. Other filters (eg, IR pass filter) may be integrated and / or activated in the appropriate mode (s). In certain embodiments, certain features of image acquisition system 200 may be included in an add-on accessory or sleeve for a mobile or existing device. As an example, such features may include an infrared illuminator, one or more filters, and / or an interface (eg, wireless or physical) to a mobile or existing device.

일부 실시예들에서, 이미지 획득 시스템(200)은 적외선 조명을 이용한 사용자 눈의 조명을 위해 이미지 획득 시스템(200)의 스크린 내에 내장된 적외선 조명기들을 포함할 수 있다. 스크린들 및 디스플레이들은 통상적으로 LCD 행렬 아래에 백색 LED 조명을 사용한다. 가시광 LED들의 소정 부분을 근적외선 조명기들로 대체하거나 이들을 추가함으로써, 디스플레이 자체에 의해 IR 조명의 소스가 제공될 수 있다. 그러한 실시예에서, 이미지 획득 시스템(200)은 적외선 조명을 제공하기 위해 이미지 획득 시스템(200) 상에 추가적인 고정물 또는 영역을 필요로 하지 않을 수 있어, 따라서 공간이 절약될 수 있다.In some embodiments, image acquisition system 200 may include infrared illuminators embedded within the screen of image acquisition system 200 for illumination of a user's eye using infrared illumination. Screens and displays typically use white LED illumination below the LCD matrix. By replacing or adding some of the visible light LEDs to near infrared illuminators, the source of IR illumination can be provided by the display itself. In such embodiments, the image acquisition system 200 may not require additional fixtures or areas on the image acquisition system 200 to provide infrared illumination, thus saving space.

특정 실시예들에서, 이미지 획득 시스템(200)은 예를 들어 두 가지 조명 강도를 갖는 가시 조명기를 포함할 수 있다. 가시 조명기는 홍채 이미지 획득 모드 동안 낮은 전력에서 턴온될 수 있다. 저전력 조명은 사용자를 산만하게 하거나 불편하게 하지 않기 위해 선택될 수 있다. 일부 실시예들에서, 저전력 모드에서의 휘도 레벨은 가시 조명기의 최대 휘도보다 적어도 2배 어두울 수 있다. 후자 휘도 레벨은 예를 들어 더 넓은 장면을 조명하는 데 사용될 수 있다. 저전력 가시 조명기는 사용자가 어두운 곳에 있는지의 여부에 관계없이 홍채를 수축시키고 홍채 영역을 증가시키는 데 사용될 수 있다. 그러나, 가시 조명기는 눈에 가까울 수 있으므로, 전술한 필터들 중 일부는 여전히 상당한 가시광을 센서 내로 전달할 수 있다. 따라서, 일부 실시예들에서, 가시광은 근적외선 조명기가 턴온된 동안 홍채의 이미지들이 획득되기 전에 턴오프된다. 대안 실시예에서, 스크린 자체는 가시 조명의 소스로서 사용될 수 있다.In certain embodiments, image acquisition system 200 may include, for example, a visible illuminator having two illumination intensities. The visible illuminator can be turned on at low power during the iris image acquisition mode. Low power lighting can be selected to not distract or distract the user. In some embodiments, the luminance level in the low power mode can be at least twice as dark as the maximum luminance of the visible illuminator. The latter luminance level can be used, for example, to illuminate a wider scene. Low power visible illuminators can be used to constrict the iris and increase the iris area whether the user is in the dark or not. However, since visible illuminators can be close to the eye, some of the filters described above can still deliver significant visible light into the sensor. Thus, in some embodiments, visible light is turned off before images of the iris are acquired while the near infrared illuminator is turned on. In an alternative embodiment, the screen itself may be used as the source of visible light.

일부 실시예들에서, 이미지 획득 시스템(200)에서 단일 센서를 사용하는 것의 한 가지 장점은 시스템에 의해 점유되는 공간이 이중 센서의 사용에 비해 최소화될 수 있다는 것이다. 그러나, 어느 경우에나, 중요한 고려 대상은 단일 센서 또는 이중 센서 장치를 효과적으로 사용하기 위한 사용자 및/또는 운영자의 능력이다.In some embodiments, one advantage of using a single sensor in image acquisition system 200 is that the space occupied by the system can be minimized compared to the use of dual sensors. In either case, however, an important consideration is the ability of the user and / or operator to effectively use a single sensor or dual sensor device.

일부 실시예들에서, 사용자로 하여금 사용자의 홍채를 이미지 센서의 적절한 캡처 구역과 나란히 정렬하도록 안내하는 것을 돕기 위해, 미러형(mirrored) 표면이 이용될 수 있다. 미러형 표면은 도 25에 도시된 바와 같이 사용자의 위치를 사용자에게 피드백할 수 있으며, 이 경우에 사용자는 그의 정면에 장치를 유지하고, 사용자의 얼굴 중 일부의 가상 이미지는 사용자로부터 장치까지의 거리의 2배에서 관찰된다. 그러나, 사람 시각 시스템의 속성, 시각 우성(ocular dominance) 및 홍채 인식 시스템의 요구사항들로 인해, 미러의 최적 크기는 예상될 수 있는 바와 같이 미러까지의 사용자의 거리와 선형으로 스케일링되지 않을 수 있다. 실제로, 일부 조건들 하에서, 홍채 인식 성능을 시도하고 개선하기 위한 미러의 크기의 증가는 성능을 저하시키거나 정렬에 있어서 어려움을 유발할 수 있다.In some embodiments, a mirrored surface may be used to help guide the user to align the user's iris with the proper capture area of the image sensor. The mirrored surface can feed back the user's location to the user as shown in FIG. 25, in which case the user holds the device in front of him, and a virtual image of some of the user's face is the distance from the user to the device. It is observed at twice. However, due to the nature of the human vision system, the ocular dominance and the requirements of the iris recognition system, the optimal size of the mirror may not be scaled linearly with the user's distance to the mirror as can be expected. . Indeed, under some conditions, increasing the size of the mirror to try and improve iris recognition performance can degrade performance or cause difficulty in alignment.

시각 우성은 하나의 눈 또는 다른 눈으로부터의 시각적 입력을 선호하는 경향이다. 이것은 대부분의 사람들에게서 발생하며, 사람들 중 2/3는 우안 우성을 갖고, 사람들 중 1/3은 좌안 우성을 갖는다. 복구되는 홍채 이미지의 크기를 최대화하는 한편 사용자를 안내하는 데 사용되는 미러의 크기를 최소화하기 위해, 본 시스템들 및 방법들은 시각 우성을 다루고 시각 우성의 속성들과 홍채 인식의 제약들을 조합한다.Visual dominance tends to favor visual input from one eye or the other. This occurs in most people, with two thirds of them having right eye dominance and one third of people having left eye dominance. In order to maximize the size of the iris image to be recovered while minimizing the size of the mirror used to guide the user, the present systems and methods address visual dominance and combine the attributes of visual dominance with the constraints of iris recognition.

도 26은 양 눈이 시야를 편안히 점유하게 하는 크기의 미러의 반사 시야를 도시한다. 일부 실시예들에서, 미러의 폭은 이미지 획득 장치(200)의 관찰 거리에서 반사 시야가 눈 간격의 반사보다 적어도 약 50% 더 넓을 수 있게 한다. 설명을 위해, 사용자는 미러의 중앙에 도시된다. 그러나, 도 27은 실제로 시각 우성으로 인해 사용자가 통상적으로 미러의 일측에 위치하여 그의 우성 시각이 미러의 중앙에 더 가깝다는 것을 보여준다. 미러의 시야의 폭이 사용자들의 통상의 눈 간격(6.5-7cm)의 시야의 50%보다 큰 경우, 눈들은 시야 내에 계속 있을 수 있다. 따라서, 양 눈은 시각 우성을 갖는 사람들을 위한 이미지 획득 시스템(200)에 의해 획득될 수 있는데, 이는 양 눈이 그러한 경우에 이미지 센서의 시야 내에 계속 있을 수 있기 때문이다. 그러나, 캡처된 이미지 내의 홍채 직경은 비교적 작을 수 있는데, 이는 센서의 렌즈가 통상적으로 넓은 시야를 커버하도록 선택되기 때문이다.FIG. 26 shows a reflective field of view of a mirror sized to allow both eyes to comfortably occupy the field of view. In some embodiments, the width of the mirror allows the reflected field of view at the viewing distance of the image acquisition device 200 to be at least about 50% wider than the reflection of the eye gap. For illustration purposes, the user is shown in the center of the mirror. However, FIG. 27 actually shows that due to the visual dominance the user is typically located on one side of the mirror so that his dominant vision is closer to the center of the mirror. If the width of the mirror's field of view is greater than 50% of the field of view of the user's normal eye interval (6.5-7 cm), the eyes may remain within the field of view. Thus, both eyes may be acquired by the image acquisition system 200 for people with visual dominance, since both eyes may remain in the field of view of the image sensor in that case. However, the iris diameter in the captured image can be relatively small because the lens of the sensor is typically chosen to cover a wide field of view.

도 28은 시각 우성을 고려하지 않고 더 작은 미러를 이용하여 양 눈의 이미지들을 획득하기 위한 구성을 도시한다. 미러의 시야는 더 작으며, 따라서 임의의 이미지 획득 시스템(200) 상에서 그의 영역을 최소화한다. 양 눈은 사용자가 미러의 중앙에 배치되는 경우에 포착될 수 있다. 그러나, 전술한 바와 같이, 시각 우성으로 인해, 사용자는 통상적으로 도 29 및 30에 도시된 바와 같이 이 최적 위치의 우측 또는 좌측에 배치된다. 이러한 시나리오에서, 눈들 중 하나는 카메라의 시야 밖에 위치할 수 있다. 따라서, 이러한 구성은 적당히 큰 미러를 갖지만, 렌즈가 (중앙 위치에 있을 때) 양 눈을 포착하도록 구성될 수 있는 경우에도, 시각 우성으로 인해, 이미지 획득 시스템(200)은 실제로는 한 눈만 확실하게 포착할 수 있다.28 shows a configuration for acquiring images of both eyes using a smaller mirror without considering visual dominance. The field of view of the mirror is smaller, thus minimizing its area on any image acquisition system 200. Both eyes can be captured when the user is placed in the center of the mirror. However, as mentioned above, due to visual dominance, the user is typically placed on the right or left side of this optimal position as shown in FIGS. 29 and 30. In such a scenario, one of the eyes may be located outside the field of view of the camera. Thus, although this configuration has a reasonably large mirror, even if the lens can be configured to capture both eyes (when in the center position), due to the visual dominance, the image acquisition system 200 will in fact ensure only one eye. Can be captured.

도 31은 도 30에 비해 더 높은 해상도의 홍채 이미지를 획득하지만(즉, 홍채 인식 성능을 개선), 우성 시각만이 사용자에 의해 관찰되도록 더 작은 미러를 사용하는 설계를 도시한다. 우성 시각만이 시야 내에 있도록 미러의 크기를 제한함으로써, 사용자의 시각 시스템이 좌측 또는 우측 눈을 선택하는 경향이 시야 내에서의 가변적인 또는 예측 불가한 응답(예를 들어, 좌측 또는 우측으로 시프트된 눈들)과는 대조적으로, 이진 응답(예를 들어, 좌측 또는 우측 눈)이 되도록 강제된다. 일부 실시예들에서, 이미지 획득 시스템(200)은 약 9"(9인치)의 동작 거리에서 약 14mm의 직경을 갖는 미러를 동작시키거나 포함할 수 있어, 미러의 반사 시야는 약 2개의 통상적인 홍채 직경(2 x 10.5mm)에 대응한다. 도 32는 미러의 유효 시야의 크기 및 하나 또는 두 눈 캡처에 대한 그의 관계 및 또한 획득된 홍채 이미지의 크기를 요약하고 도시한다.FIG. 31 shows a design using a smaller mirror so that a higher resolution iris image is obtained (ie, improving iris recognition performance) compared to FIG. 30, but only dominant vision is observed by the user. By limiting the size of the mirror so that only the dominant vision is within the field of view, the user's visual system tends to select the left or right eye with a variable or unpredictable response (e.g., shifted left or right) within the field of view. In contrast to eyes), it is forced to be a binary response (eg, left or right eye). In some embodiments, image acquisition system 200 may operate or include a mirror having a diameter of about 14 mm at an operating distance of about 9 "(9 inches), such that the reflective field of view of the mirror is about two conventional Corresponding to the iris diameter (2 x 10.5 mm) Figure 32 summarizes and shows the size of the effective field of view of the mirror and its relationship to one or two eye capture and also the size of the obtained iris image.

도 33은 IR 차단 필터를 센서 일부 위에 배치한 이미지 획득 시스템(200)에 대한 하나의 실시예를 도시한다. 얼굴 또는 다른 이미지가 센서의 일부에 의해 획득될 수 있고, 홍채 인식을 위한 이미지는 IR 차단 필터에 의해 커버된 부분에 의해 획득된다. 시각 우성은 사람 눈들의 수평 구성으로 인해 수평 방향에서의 불확실성을 제공하는 경향이 있으며, 따라서 이미지 획득 시스템(200)은 센서 위에 수평으로 성형된 필터 영역을 갖도록 적절히 구성될 수 있다. 도 34는 사용자가 센서/렌즈 어셈블리를 비스듬히 관찰하고, 눈들이 센서의 중앙에 있는 것이 아니라 센서의 상부에 가깝도록 미러가 경사진 또 다른 실시예를 도시한다. 이러한 구성은 센서의 하나의 단부에 IR 차단 필터를 배치하는 것을 가능하게 하여, 센서가 도 33에 도시된 경우인 3개의 영역(비-IR-차단, IR-차단 및 비-IR-차단)이 아니라 2개의 별개의 영역(IR-차단 및 비-IR-차단)을 갖게 할 수 있다. 이것은 장면의 더 크고 더 연속적인 비-홍채 부분이 획득될 수 있게 한다.33 illustrates one embodiment of an image acquisition system 200 with an IR cut filter disposed over a portion of the sensor. A face or other image can be obtained by part of the sensor, and the image for iris recognition is obtained by the part covered by the IR blocking filter. The visual dominance tends to provide uncertainty in the horizontal direction due to the horizontal configuration of the human eyes, so the image acquisition system 200 can be suitably configured to have a horizontally shaped filter area over the sensor. FIG. 34 illustrates another embodiment where the user observes the sensor / lens assembly at an angle and the mirror is inclined such that the eyes are close to the top of the sensor rather than at the center of the sensor. This configuration makes it possible to place an IR blocking filter at one end of the sensor, so that the three regions (non-IR-blocking, IR-blocking and non-IR-blocking), which is the case where the sensor is shown in FIG. As well as having two distinct regions (IR-blocking and non-IR-blocking). This allows a larger and more continuous non-iris part of the scene to be obtained.

도 35는 운영자가 사용자의 홍채 이미지를 획득하기 위해 이미지 획득 장치(200)를 유지하고 있을 수 있는 이미지 획득 시스템(200)의 또 다른 실시예를 도시한다. 이 실시예에서는, 운영자가 사용자의 눈과 일렬로 세워지기 위해 볼 수 있는 투시(see-through) 안내 채널이 존재한다. 추가로 또는 대안으로서, 이격된 안내 마커들이 이미지 획득 장치(200)의 상부에 배치될 수 있어, 운영자는 예를 들어 2개의 마커를 이용하여 사용자의 눈을 일렬로 세운다. 도 36은 안내 채널에 대한 하나의 실시예의 확대도를 도시한다. 이 실시예에서는, 도시된 바와 같이, 안내 채널의 내측 부분 상에, 안내 채널의 앞뒤에 원형 링들이 인쇄될 수 있다. 사용자가 정렬될 때, 이 링들은 운영자에게 동심원으로 보일 수 있다. 그렇지 않은 경우, 이들은 동심원이 아닐 것이다(사용자의 눈이 오정렬). 도 36은 또한 장치 상의 가시 조명기(LED)는 물론, 홍채 인식을 목적으로 사용될 수 있는 적외선 조명기들을 도시한다. 도 37은 이미지 획득 시스템의 또 다른 실시예를 도시한다. 이 실시예에서, LED들은 제어기들에 의해 제어되는데, 제어기들은 프로세서에 접속되고, 프로세서는 또한 홍채 인식에 사용되는 센서에 접속된다.35 illustrates another embodiment of an image acquisition system 200 in which an operator may be holding the image acquisition device 200 to acquire an iris image of a user. In this embodiment, there is a see-through guidance channel that the operator can see to line up with the eyes of the user. Additionally or alternatively, spaced guiding markers may be placed on top of the image acquisition device 200, such that the operator lines up the user's eyes, for example using two markers. 36 shows an enlarged view of one embodiment for a guide channel. In this embodiment, as shown, circular rings may be printed on the inner portion of the guide channel before and after the guide channel. When the user is aligned, these rings may appear concentric to the operator. Otherwise they will not be concentric (users' eyes misaligned). 36 also shows visible illuminators (LEDs) on the device, as well as infrared illuminators that can be used for iris recognition purposes. 37 illustrates another embodiment of an image acquisition system. In this embodiment, the LEDs are controlled by controllers, which are connected to the processor, which is also connected to the sensor used for iris recognition.

도 38에는 단일 이미지 센서를 이용하여 홍채 및 장면의 이미지들을 캡처하기 위한 방법에 대한 하나의 실시예가 도시된다. 이미지 센서는 적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처한다(382). 이미지 처리 모듈은 일정 레벨의 잡음 감소를 적어도 하나의 이미지의 제1 부분에 적용하여 장면의 이미지를 생성한다(384). 이미지 처리 모듈은 감소된 레벨의 잡음 감소를 적어도 하나의 이미지의 제2 부분에 적용하여, 생체 식별에 사용할 홍채의 이미지를 생성한다(단계 386).38 shows one embodiment of a method for capturing images of an iris and a scene using a single image sensor. The image sensor captures 382 a view of the scene and a view of the iris within the at least one image. The image processing module generates 384 an image of the scene by applying a level of noise reduction to the first portion of the at least one image. The image processing module applies the reduced level of noise reduction to the second portion of the at least one image to generate an image of the iris for use in biometric identification (step 386).

도 38을 더 참조하면, 더 상세하게는, 이미지 획득 시스템(200)의 이미지 센서(202)가 적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처한다(382). 이미지 센서는 하나의 이미지 내에서 장면의 뷰를 캡처하고 또 다른 이미지 내에서 홍채의 뷰를 캡처할 수 있다. 일부 실시예들에서, 이미지 센서는 단일 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처할 수 있다. 예를 들어, 장면의 뷰는 홍채의 적어도 일부를 포함할 수 있다. 이미지 센서는 복수의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처할 수 있다. 이미지 센서는 일부 이미지들 내에서 장면의 뷰를 캡처하고 다른 이미지들 내에서 홍채의 뷰를 캡처할 수 있다. 이미지 센서는 일부 이미지들 내에서 장면의 뷰 및 홍채의 뷰를 캡처할 수 있다. 이미지 센서는 소정 기간에 걸쳐 둘 이상의 이미지를 캡처할 수 있다. 이미지 센서는 예를 들어 추후 비교 또는 처리를 위해 둘 이상의 이미지를 서로의 짧은 시간 프레임 내에 캡처할 수 있다. 이미지 센서는 상이한 조건들 하에, 예를 들어 적외선 조명이 있거나 없는 조건에서 또는 본 명세서에서 논의되는 임의의 타입의 필터를 사용하거나 사용하지 않는 조건 하에 둘 이상의 이미지를 캡처할 수 있다.With further reference to FIG. 38, more specifically, the image sensor 202 of the image acquisition system 200 captures a view of the scene and a view of the iris within at least one image (382). The image sensor can capture a view of the scene within one image and a view of the iris within another image. In some embodiments, the image sensor can capture a view of the scene and a view of the iris within a single image. For example, the view of the scene may include at least a portion of the iris. The image sensor may capture a view of the scene and a view of the iris within the plurality of images. The image sensor can capture a view of the scene within some images and a view of the iris within other images. The image sensor may capture a view of the scene and a view of the iris within some images. The image sensor may capture two or more images over a period of time. The image sensor may capture two or more images within a short time frame of each other, for example for later comparison or processing. The image sensor may capture two or more images under different conditions, for example with or without infrared illumination, or with or without any type of filter discussed herein.

일부 실시예들에서, 이미지 획득 시스템(200)은 홍채 캡처링 모드 및 픽처(예로서, 비-홍채) 캡처링 모드를 포함할 수 있다. 이미지 센서는 픽처 캡처링 모드에서 장면의 뷰의 이미지를 캡처할 수 있다. 이미지 센서는 홍채 캡처링 모드에서 홍채의 뷰의 이미지를 캡처할 수 있다. 특정 실시예들에서, 이미지 획득 시스템(200)은 또 다른 모드에서 홍채 및 비-홍채 이미지의 동시 캡처를 수행할 수 있다. 사용자는 예를 들어 이미지 획득 장치(200)에서 실행되는 애플리케이션을 통해 이미지 획득을 위한 모드를 선택할 수 있다. 일부 실시예들에서, 이미지 획득 시스템은 장면의 뷰 및 홍채의 뷰를 단일 이미지 내에서 분리가능한 컴포넌트들로서 캡처할 수 있다. 이미지 획득 시스템은 인터리빙된 필터, IR 차단 필터, IR 통과 필터 및 본 명세서에서 설명된 다른 타입의 필터들의 임의의 실시예 및/또는 조합을 이용하여 장면의 뷰 및/또는 홍채의 뷰를 캡처할 수 있다.In some embodiments, image acquisition system 200 may include an iris capturing mode and a picture (eg, non-iris) capturing mode. The image sensor may capture an image of a view of the scene in picture capturing mode. The image sensor may capture an image of a view of the iris in iris capturing mode. In certain embodiments, image acquisition system 200 may perform simultaneous capture of iris and non-iris images in another mode. The user may select a mode for image acquisition through, for example, an application executed in the image acquisition apparatus 200. In some embodiments, the image acquisition system can capture the view of the scene and the view of the iris as separable components within a single image. The image acquisition system may capture a view of the scene and / or a view of the iris using any embodiment and / or combination of interleaved filters, IR blocking filters, IR pass filters, and other types of filters described herein. have.

일부 실시예들에서, 이미지 센서는 이미지 센서의 복수의 센서 노드를 포함한다. 이미지 센서는 주로 생체 식별에 적합한 홍채의 이미지를 캡처하도록 적응되는 센서 노드들의 제1 서브세트를 활성화시킬 수 있다. 이미지 센서는 주로 비-홍채 이미지를 캡처하도록 적응되는 센서 노드들의 제2 서브세트를 활성화시킬 수 있다. (예를 들어 G+I를 통과시키는) IR 통과 (G+I) 필터 또는 다른 필터가 주로 홍채의 이미지를 캡처하도록 적응되는 센서 노드 위에 적용될 수 있다. IR 차단, 가시광 통과, 특정 대역 통과 또는 컬러 필터가 주로 비-홍채 이미지를 캡처하도록 적응되는 센서 노드 위에 적용될 수 있다.In some embodiments, the image sensor includes a plurality of sensor nodes of the image sensor. The image sensor may activate a first subset of sensor nodes that are adapted to capture an image of the iris primarily suitable for biometric identification. The image sensor may activate a second subset of sensor nodes that are primarily adapted to capture non-iris images. An IR pass (G + I) filter or other filter (eg, passing G + I) may be applied over the sensor node which is primarily adapted to capture an image of the iris. IR blocking, visible light pass, specific band pass or color filters may be applied over sensor nodes that are primarily adapted to capture non-iris images.

일부 실시예들에서, 이미지 센서는 적외선 조명을 이용하여 홍채를 조명하는 동안 홍채의 적어도 하나의 이미지를 캡처한다. 이미지 센서는 적외선 조명 없이 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 이미지 센서는 가시광 조명기의 턴오프시 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 이미지 센서는 이미지 획득 시스템(200)의 스크린으로부터의 조명을 이용하여 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 이미지 센서는, 안내를 위한 이미지 획득 시스템(200)의 미러를 이용하여 홍채가 센서의 일부와 정렬될 때, 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 이미지 센서는, 운영자에 의해 투시 안내 채널 및/또는 마커들을 이용하여 홍채가 센서의 일부와 정렬될 때, 홍채의 적어도 하나의 이미지를 캡처할 수 있다.In some embodiments, the image sensor captures at least one image of the iris while illuminating the iris using infrared illumination. The image sensor may capture at least one image of the iris without infrared illumination. The image sensor may capture at least one image of the iris upon turning off the visible light illuminator. The image sensor may capture at least one image of the iris using illumination from the screen of the image acquisition system 200. The image sensor may capture at least one image of the iris when the iris is aligned with a portion of the sensor using a mirror of the image acquisition system 200 for guidance. The image sensor may capture at least one image of the iris when the iris is aligned with a portion of the sensor using a see-through channel and / or markers by the operator.

384를 더 참조하면, 이미지 처리 모듈은 일정 레벨의 잡음 감소를 적어도 하나의 이미지의 제1 부분에 적용하여 장면의 이미지를 생성할 수 있다. 이미지 획득 시스템(200)은 이미지 센서에 의해 캡처된 이미지에 대해 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 이미지 획득 시스템(200), 예를 들어, 저장 장치 또는 버퍼에 저장된 이미지에 대해 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 이미지들의 일부 픽셀들, 예를 들어 3x3 픽셀 윈도에 걸쳐 평균 또는 중앙 함수 또는 필터를 적용하는 것을 포함하는 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 캡처된 이미지로부터의 시간 가변 및 시간 불변 잡음 중 하나 또는 양자의 감소를 포함하는 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 이미지 처리 및/또는 잡음 감소를 수행하는 동안 알려진 결함 픽셀을 처리하거나 배제할 수 있다. 이미지 획득 시스템(200)은 하나 이상의 이미지 신호 프로세서(206) 및/또는 다른 프로세서(208)를 포함할 수 있는 이미지 처리 모듈을 이용하여 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 체계적 잡음의 존재를 식별, 처리 및/또는 보상함으로써 잡음 감소를 적용할 수 있다.Referring further to 384, the image processing module may apply a level of noise reduction to the first portion of the at least one image to generate an image of the scene. The image acquisition system 200 may apply noise reduction on the image captured by the image sensor. The image acquisition system 200 may apply noise reduction to images stored in the image acquisition system 200, for example, a storage device or a buffer. Image acquisition system 200 may apply noise reduction, including applying an average or median function or filter over some pixels of the images, eg, a 3x3 pixel window. Image acquisition system 200 may apply noise reduction, including reduction of one or both of time varying and time invariant noise from the captured image. Image acquisition system 200 may process or exclude known defect pixels while performing image processing and / or noise reduction. Image acquisition system 200 may apply noise reduction using an image processing module, which may include one or more image signal processors 206 and / or other processors 208. Image acquisition system 200 may apply noise reduction by identifying, processing, and / or compensating for the presence of systematic noise.

일부 실시예들에서, 이미지 처리 모듈은 비-홍채 캡처 모드에서 캡처된 이미지에 대해 잡음 감소를 적용할 수 있다. 이미지 처리 모듈은 홍채 생체 인식을 위한 것이 아닌 이미지의 부분, 예를 들어 IR 차단 필터에 대응하는 부분에 대해 일정 레벨의 잡음 감소를 적용할 수 있다. 이미지 처리 모듈은 일반 또는 비-홍채 이미지에 대해 잡음 감소 또는 필터링을 적용할 수 있다. 이미지 처리 모듈은 잡음 감소 전의 이미지보다 (예를 들어, 사람에게) 더 양호하게 인식될 수 있는 일반 장면의 이미지를 생성할 수 있다.In some embodiments, the image processing module can apply noise reduction on the image captured in the non-iris capture mode. The image processing module may apply a level of noise reduction to portions of the image that are not for iris biometrics, for example portions corresponding to IR cutoff filters. The image processing module may apply noise reduction or filtering on normal or non-iris images. The image processing module may generate an image of the general scene that may be perceived better (eg, to a human) than the image before the noise reduction.

386을 더 참조하면, 이미지 처리 모듈은 적어도 하나의 이미지의 제2 부분에 대해 감소된 레벨의 잡음 감소를 적용하여, 생체 식별에 사용할 홍채의 이미지를 생성할 수 있다. 일부 실시예들에서, 이미지 처리 모듈은 홍채 생체 식별에 사용할 이미지에 대한 잡음 감소를 디스에이블할 수 있다. 이미지 처리 모듈은 잡음 레벨이 캡처된 홍채 텍스처를 압도하지 않는 것으로 결정할 수 있다. 이미지 처리 모듈은 이미지 센서에 의해 캡처된 원시 또는 미처리 이미지에 기초하여 홍채 생체 식별을 수행할 수 있다. 이미지 처리 모듈은, 일부 처리, 예를 들어 아티팩트들, 산발적 잡음 및/또는 체계적 잡음의 제거 후에 이미지 센서에 의해 캡처된 이미지에 기초하여 홍채 생체 식별을 수행할 수 있다.With further reference to 386, the image processing module may apply a reduced level of noise reduction to the second portion of the at least one image to generate an image of the iris for use in biometric identification. In some embodiments, the image processing module may disable noise reduction for the image to be used for iris biometric identification. The image processing module may determine that the noise level does not overpower the captured iris texture. The image processing module may perform iris biometric identification based on raw or raw images captured by the image sensor. The image processing module may perform iris biometric identification based on the image captured by the image sensor after some processing, eg, removal of artifacts, sporadic noise, and / or systematic noise.

일부 실시예들에서, 이미지 처리 모듈은 홍채 생체 식별에 사용할 이미지에 대해 감소된 일정 레벨의 잡음 감소를 적용할 수 있다. 이미지 처리 모듈은 홍채 캡처링 모드에 있는 동안 캡처된 이미지에 대해 감소된 일정 레빌의 잡음 감소를 적용할 수 있다. 이미지 처리 모듈은 체계적 및/또는 산발적 잡음에 대한 잡음 감소를 수행할 수 있다. 이미지 처리 모듈은 비체계적 잡음에 대한 잡음 감소를 디스에이블할 수 있다. 이미지 처리 모듈은 홍채 생체 식별을 위해 추출된 이미지의 부분, 예를 들어 IR 통과 필터에 대응하는 부분에 대해 감소된 일정 레벨의 잡음 감소를 적용할 수 있다. 이미지 처리 모듈은 홍채 생체 식별을 위해 추출된 이미지의 부분, 예를 들어 IR 통과 필터에 대응하는 부분에 대해 체계적 잡음의 감소를 적용할 수 있다.In some embodiments, the image processing module may apply a reduced level of noise reduction for the image to be used for iris biometric identification. The image processing module may apply a reduced constant level of noise reduction on the captured image while in iris capturing mode. The image processing module may perform noise reduction on systematic and / or sporadic noise. The image processing module may disable noise reduction for unsystematic noise. The image processing module may apply a reduced level of noise reduction for portions of the extracted image, for example portions corresponding to IR pass filters, for iris biometric identification. The image processing module may apply a reduction of systematic noise to the portion of the extracted image, for example the portion corresponding to the IR pass filter, for iris biometric identification.

일부 실시예들에서, 이미지 처리 모듈(220)은 홍채의 하나의 이미지로부터의 잡음과 홍채의 또 다른 이미지로부터의 잡음을 감산한다. 그러한 감산은 체계적 잡음 및/또는 산발적 잡음을 감소시킬 수 있다. 이미지 처리 모듈(220)은 2개의 이미지를 함께 나란히 정렬하여 감산을 수행할 수 있다. 이미지 처리 모듈(220)은 공통 기준 포인트들(예로서, 형상들의 에지)을 이용하여 2개의 이미지를 정렬할 수 있다. 이미지 처리 모듈(220)은 패턴 인식/매칭, 상관 및/또는 다른 알고리즘들을 이용하여 2개의 이미지를 정렬할 수 있다. 이미지 처리 모듈(220)은 2개의 이미지의 중첩 부분에 대응하는 잡음을 감산할 수 있다. 이미지 처리 모듈(220)은 하나의 이미지 내의 주변 잡음을 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시킬 수 있다. 주변 잡음은 주변 광 또는 조명으로부터의 신호들을 포함할 수 있다. 주변 잡음은 주위의 조명 소스들로부터의 아티팩트들 또는 눈의 표면으로부터의 주위 물체들의 반사들을 포함할 수 있다. 일부 실시예들에서, 이미지 처리 모듈(220)은 적외선 조명의 존재시에 캡처된 하나의 이미지로부터의 주변 잡음을 적외선 조명의 부재시에 캡처된 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시킬 수 있다.In some embodiments, image processing module 220 subtracts noise from one image of the iris with noise from another image of the iris. Such subtraction can reduce systematic noise and / or sporadic noise. The image processing module 220 may perform subtraction by aligning the two images side by side. The image processing module 220 may align the two images using common reference points (eg, edges of the shapes). Image processing module 220 may align the two images using pattern recognition / matching, correlation, and / or other algorithms. The image processing module 220 may subtract the noise corresponding to the overlapping portion of the two images. The image processing module 220 may reduce ambient noise in one image using ambient noise from another image. Ambient noise can include signals from ambient light or lighting. Ambient noise can include artifacts from ambient lighting sources or reflections of surrounding objects from the surface of the eye. In some embodiments, image processing module 220 may reduce ambient noise from one image captured in the presence of infrared illumination using ambient noise from another image captured in the absence of infrared illumination. .

특정 실시예들에서, 이미지 처리 모듈(220)은 센서 노드 어레이 상에 이미징된 하나 이상의 (G+I) 픽셀로부터 적외선 컴포넌트들을 복구할 수 있다. 이미지 처리 모듈(220)은 이웃 픽셀에서의 G 강도 값을 이용하여 (G+I)로부터 G 컴포넌트를 감산할 수 있다. 일부 실시예들에서, 이미지 처리 모듈(220)은 추정된 G 강도 값을 이용하여 G 컴포넌트를 감산할 수 있다. 이미지 처리 모듈(220)은 이미지의 비-홍채(예로서, 일반 장면) 부분의 처리에 있어서 추정된 G 강도 값을 이용할 수 있다. 일부 실시예들에서, 이미지 처리 모듈(220)은 적어도 하나의 이미지의 일부에 대해 이득 또는 휘도 제어 또는 조정을 수행하여, 생체 식별에 사용할 홍채의 이미지를 생성할 수 있다. 일부 실시예들에서는, 적외선 조명의 양이 불충분하거나 차선(sub-optimal)일 수 있어, 이득 또는 휘도 제어 또는 조정은 홍채 이미지 품질을 개선할 수 있다. 특정 실시예들에서, 이득 또는 휘도 제어 또는 조정은 적외선 조명기들의 추가, 적외선 조명을 제공하기 위한 전력의 인출, 및/또는 적외선 조명의 제어에(예를 들어, 상이한 조건들하에) 보다 바람직할 수 있다. 적외선 신호들은 (예를 들어, RGB(G+I) 어레이에서) 센서 노드들/픽셀들의 일부에 의해 캡처되므로, 이득 또는 휘도 제어 또는 조정을 통한 보상이 적절할 수 있다.In certain embodiments, image processing module 220 may recover infrared components from one or more (G + I) pixels imaged on the sensor node array. The image processing module 220 may subtract the G component from (G + I) using the G intensity value in the neighboring pixel. In some embodiments, image processing module 220 may subtract the G component using the estimated G intensity value. The image processing module 220 may use the estimated G intensity value in the processing of the non-iris (eg, general scene) portion of the image. In some embodiments, image processing module 220 may perform gain or brightness control or adjustment on a portion of the at least one image to generate an image of the iris for use in biometric identification. In some embodiments, the amount of infrared illumination may be insufficient or sub-optimal, such that gain or brightness control or adjustment may improve iris image quality. In certain embodiments, gain or brightness control or adjustment may be more desirable for the addition of infrared illuminators, drawing of power to provide infrared illumination, and / or controlling infrared illumination (eg, under different conditions). have. Since infrared signals are captured by some of the sensor nodes / pixels (eg, in an RGB (G + I) array), compensation through gain or brightness control or adjustment may be appropriate.

일부 양태들에서, 본 시스템들 및 방법들은 소형 이동 생체 인식 시스템에 관련된다. 소형 이동 생체 인식 시스템은 주로 개인의 신분을 판정하거나 확인하기 위해 이미지를 획득할 수 있다. 이동 생체 인식 시스템은 홍채를 이용하는 생체 인식을 이용할 수 있다. 이동 생체 인식 시스템은 사람에 의한 후속 생체 인식 또는 관찰을 위해 얼굴들의 사진들을 캡처할 수 있다.In some aspects, the present systems and methods relate to a small mobile biometric system. The small mobile biometric system may acquire an image primarily to determine or verify the identity of an individual. The mobile biometric system may use biometrics using the iris. The mobile biometric system can capture pictures of faces for subsequent biometric recognition or observation by a person.

일부 실시예들에서, 생체 인식 장치는 사용자가 운영자의 도움 없이 장치를 사용할 수 있을 뿐만 아니라, 사용자가 장치를 휴대할 수 있도록 설계된다. 이러한 방식으로, 도난당할 위치에 장비가 있지 않으며, 또한 한 위치에 장비가 유지될 필요도 없다. 지문 생체 인식을 위한 소형 이동 장치들이 존재하며, 따라서 지문 판독기가 USB 키 장치 상에 내장된다. 사용자가 그의 손가락을 장치 위에 놓고, 지문이 판독된다. 그러나, 본 발명자들은 이러한 접근법이 홍채 또는 얼굴 생체 인식에 대해서는 적합하지 않다는 것을 발견하였다. 예를 들어, 이동 지문 판독기 장치가 컴퓨터의 USB(또는 다른) 소켓 내에 끼워지는 경우, 사용자는 그의 손가락을 쉽게 비틀어서 지문 판독기 장치의 판독기를 스와이핑(swiping)할 수 있지만, 그의 눈과 몸을 홍채 또는 얼굴 생체 획득 장치를 향해 배향시키는 것은 훨씬 더 어렵고 매우 불편하다. 본 발명자들은 사용자가 매우 쉽고 효과적일 뿐 아니라 휴대가 간단한 플랫폼에서도 홍채 및/또는 얼굴을 획득할 수 있게 하는 이동 생체 인식 장치를 개발하였다.In some embodiments, the biometric device is designed to not only allow the user to use the device without the assistance of an operator, but also to allow the user to carry the device. In this way, there is no equipment at the location to be stolen, and there is no need to maintain the equipment at one location. Small mobile devices exist for fingerprint biometrics, so a fingerprint reader is embedded on the USB key device. The user places his finger on the device and the fingerprint is read. However, the inventors have found that this approach is not suitable for iris or face biometrics. For example, if the mobile fingerprint reader device is plugged into a USB (or other) socket of a computer, the user can easily twist his finger to swipe the reader of the fingerprint reader device, but the eyes and body Orienting towards an iris or face biometric device is much more difficult and very inconvenient. The inventors have developed a mobile biometric device that enables the user to acquire the iris and / or face on a platform that is very easy and effective as well as portable.

본 발명의 제1 양태는 사용자를 향해 장치를 쉽게 배향시키기 위한 수단이다. 이를 위해 크레이들(cradle) 및 다른 기계적 배향 어셈블리를 포함하는 방법들이 존재한다. 그러나, 이들은 부피가 크고, 사용자가 소지하기 어렵다. 본 발명자들은 장치가 컴퓨터의 USB 또는 다른 소켓 내에 단단히 끼워져 있는 동안에도 장치의 배향을 조정한 후에 유지할 수 있는 방법을 개발하였다. 이를 수행하기 위해 본 발명자들이 사용하는 하나의 바람직한 수단은 장치를 2개의 부분으로 분절하는 것이다. 도 39에 도시된 바와 같이, 제1 부분은 적어도 USB(또는 다른) 플러그를 포함하고, 제2 부분은 적어도 시각 컴포넌트를 포함한다. 이러한 2개의 부분은 2개의 부분 사이의 배향의 변화를 허용하는 어셈블리에 의해 접속되지만, 사용자에 의해 적절한 위치로 조종되면 배향은 일정하게 유지된다. 이러한 어셈블리를 달성하는 하나의 바람직한 방법은 단단한 와이어 어셈블리이며, 와이어는 굽을 수 있고, 이어서 도 39에서 도시된 바와 같이 특정 위치에 유지된다. 볼 및 소켓 조인트와 같은 다른 메커니즘들도 사용될 수 있다. 본 발명의 제2의 옵션 양태는 장치의 두 부분 사이에 신축 가능한 케이블을 가짐으로써 장치가 사용자를 향해 수동으로 당겨지거나, 예를 들어 랩탑의 스크린 상에 클립핑(clipping)될 수 있게 하는 것이다.A first aspect of the invention is a means for easily orienting the device towards a user. To this end, methods exist that include cradles and other mechanically oriented assemblies. However, they are bulky and difficult for the user to carry. The inventors have developed a method that can be maintained after adjusting the orientation of the device while the device is securely plugged into the USB or other socket of the computer. One preferred means we use to do this is to split the device into two parts. As shown in FIG. 39, the first portion includes at least a USB (or other) plug and the second portion includes at least a visual component. These two parts are connected by an assembly that allows for a change in orientation between the two parts, but the orientation remains constant when manipulated to the proper position by the user. One preferred method of achieving such an assembly is a rigid wire assembly in which the wire can be bent and then held in a specific position as shown in FIG. 39. Other mechanisms such as ball and socket joints can also be used. A second optional aspect of the present invention is to have a flexible cable between two parts of the device so that the device can be pulled manually towards the user or clipped on the screen of a laptop, for example.

본 발명의 추가 양태는 사용자 경험을 개선하는 동시에 성능을 향상시키는 것과 관련된다. 구체적으로, 많은 생체 홍채 장치는 사용자를 그 장치들을 향해 안내하기 위해 그 장치들 상에 미러를 갖는다. 본 발명자들은 그러한 센터링 메커니즘들이 대략 눈들 사이의 거리의 크기(약 5-7cm, "Variation and extrema of human interpupillary distance", Neil A Dodgson, Proc. SPIE Vol. 5291, Stereoscopic Displays and Virtual Reality Systems XI, 19-22 January 2004, San Jose, CA, ISSN 0277-786X, pp 36-46)를 갖고, 장치까지의 거리가 적어도 50cm인 경우에, 사용자가 통상적으로 그 자신을 장치의 정면에 센터링할 수 있다는 것을 발견하였다. 그러나, 본 발명자들은 장치의 크기가 눈 간격보다 작아질 때 그리고 장치까지의 거리가 50cm 이하로 감소할 때, (운영자가 아니라) 사용자에 의해 장치가 사용되는 경우, 시간 우성으로부터 발생하는 효과가 매우 일반화된다는 것을 발견하였다. 인구의 대략 2/3는 우안에서 시각 우성(또는 눈 사용 경향(eyedness))을 가지며, 나머지 1/3은 좌안에서 시각 우성을 갖는다(Chaurasia BD, Mathur BB (1976). "Eyedness". Acta Anat (Basel) 96 (2): 301-5). 방금 설명된 조건들에서, 사용자는 당연히 장치를 얼굴의 중앙이 아니라 그의 시각 우성에 따라 한 눈 또는 다른 눈을 향하게 하기 시작한다. 따라서, 미러로부터의 피드백은 사용자로 하여금 센터링하라고 하지만, 시각 우성에 의한 자연스러운 사람 반응은 시각 우성으로 인해 정확히 반대로 이루어지므로, 사용자 경험은 매우 혼란스러울 수 있다.A further aspect of the present invention relates to improving performance while improving user experience. Specifically, many biometric iris devices have mirrors on the devices to guide the user towards them. We believe that such centering mechanisms are approximately the size of the distance between the eyes (about 5-7 cm, "Variation and extrema of human interpupillary distance", Neil A Dodgson, Proc. SPIE Vol. 5291, Stereoscopic Displays and Virtual Reality Systems XI, 19 -22 January 2004, San Jose, CA, ISSN 0277-786X, pp 36-46), and if the distance to the device is at least 50 cm, the user can typically center himself in front of the device. Found. However, the inventors have found that the effect arising from time dominance when the device is used by the user (not the operator) when the size of the device becomes smaller than the eye gap and the distance to the device decreases below 50 cm is very significant. It was found to be generalized. Approximately two thirds of the population has visual dominance (or eye use) in the right eye, and the other third has visual dominance in the left eye (Chaurasia BD, Mathur BB (1976). "Eyedness". (Basel) 96 (2): 301-5). In the conditions just described, the user naturally starts pointing the device at one or the other eye according to his visual dominance, not at the center of the face. Thus, feedback from the mirror tells the user to center, but since the natural human response by visual dominance is exactly the opposite due to visual dominance, the user experience can be very confusing.

본 발명자들은 본 발명에서 시각 우성을 극복하기 보다는 이를 이용한다. 본 발명자들은 이를 두 부분에서 행하는데, 첫째, 본 발명자들은 피드백을 위해 사용자가 사용할 수 있는 미러와 같은 센터링 장치를 계속 사용한다(원뿔 내에 상이한 컬러의 원들을 갖는 반전 원뿔과 같은 다른 센터링 메커니즘들도 사용될 수 있다). 미러의 경우, 본 발명자들은 2개의 눈이 시야 내에 나타내어 사용자를 혼란케 하는 것이 불가능하도록 미러의 크기를 실제로 줄인다. 핸드헬드 장치의 경우, 암의 길이는 사용자로부터의 장치의 거리를 제한한다. 이러한 파라미터들과 관련하여, 본 발명자들은 장치에 따라 직경 0.5cm-5cm의 미러링 표면이 이러한 목적을 달성한다는 것을 발견하였다. 본 발명의 이 양태의 제2 컴포넌트는 사용자가 장치를 한 눈에 센터링된 상태로 유지하는 경우에도 장치가 다른 눈의 정면에 있지 않은 경우에도 다른 눈의 이미지를 캡처하는 것을 보증하도록 렌즈 및 이미지를 선택하는 것이다. 따라서, 사용자는 장치가 한 눈으로부터만 데이터를 획득하고 있다고 생각하지만, 실제로는 다른 눈으로부터도 데이터가 획득된다. 단일의 획득된 이미지로부터 2개의 눈을 검출하기 위한 많은 수단이 존재한다. 예를 들어, 각막으로부터 반사된 조명기의 경면 반사들이 이미지 내에서 검출되고, 눈들의 위치들을 마킹하는 데 사용될 수 있다.We use this rather than overcome visual dominance in the present invention. We do this in two parts, firstly, we continue to use a centering device, such as a mirror, that can be used by the user for feedback (also other centering mechanisms, such as inverted cones with circles of different colors in the cone). Can be used). In the case of a mirror, we actually reduce the size of the mirror so that it is impossible for two eyes to appear in the field of view to confuse the user. In the case of a handheld device, the length of the arm limits the distance of the device from the user. In connection with these parameters, the inventors have found that depending on the device, a mirroring surface of 0.5 cm-5 cm in diameter achieves this object. The second component of this aspect of the invention provides a lens and image to ensure that the user captures an image of another eye even when the user keeps the device centered in one eye, even when the device is not in front of the other eye. To choose. Thus, the user thinks that the device is only acquiring data from one eye, but in reality the data is also acquired from the other eye. There are many means for detecting two eyes from a single acquired image. For example, specular reflections of the illuminator reflected from the cornea can be detected in the image and used to mark the positions of the eyes.

도 40은 좌안에 시각 우성을 갖는 사용자에 대한 센터링 메커니즘으로서 미러를 사용하는 접근법의 기하 구조를 나타낸다. 도 41은 우안에 시각 우성을 갖는 사용자에 대한 동일 기하 구조를 나타낸다. 도 42는 사용자가 우안 또는 좌안 우성을 갖는지에 관계없이 양 눈이 카메라의 시야 내에 나타나는 것을 보증하는 데 필요한 최소 시야를 나타낸다. 이러한 최소 시야를 결정하는 방정식은 FOV_min = 2 * aTan(es/d)이며, 여기서 도 42에 도시된 바와 같이 es는 눈 간격이고, d는 카메라로부터의 거리이다. 이와 달리, 도 43에 도시된 바와 같이, 시각 우성이 가정되지 않고, 장치가 사용자의 눈들 사이에 배치되는 경우, FOV_min = 2 * aTan((es/2)/d)이다. 따라서, 본 발명은 시각 우성을 고려하지 않는 접근법들보다 큰 시야를 필요로 하지만, 장치는 사용자에게 혼란 없이 훨씬 더 사용하기 쉽고 더 직관적이다. 본 발명에서는 2개의 눈으로부터 데이터가 캡처되는 것으로 가정하므로, 분석을 위해 더 많은 홍채 데이터가 이용 가능하므로 인식 시간이 감소할 수 있고, 정확도가 향상될 수 있다.40 illustrates the geometry of an approach using a mirror as a centering mechanism for a user with visual dominance in the left eye. Fig. 41 shows the same geometry for a user with visual dominance in the right eye. 42 shows the minimum field of view required to ensure that both eyes appear within the field of view of the camera, regardless of whether the user has right or left eye dominance. The equation for determining this minimum field of view is FOV_min = 2 * aTan (es / d), where es is the eye interval and d is the distance from the camera, as shown in FIG. In contrast, as shown in FIG. 43, when no visual dominance is assumed and the device is placed between the eyes of the user, FOV_min = 2 * aTan ((es / 2) / d). Thus, although the present invention requires a larger field of view than approaches that do not account for visual dominance, the device is much more user friendly and more intuitive without confusion to the user. Since the present invention assumes that data is captured from two eyes, more iris data is available for analysis, so recognition time can be reduced and accuracy can be improved.

본 시스템들 및 방법들은 많은 실시예가 가능하지만, 소수의 예시적인 실시예들만이 본 명세서에서 설명된다. 먼저, 본 발명에 따른 프로세스 흐름도를 나타내는 도 44를 참조하면, 프로세서는 특정 피사체에 대한 획득을 시작해야 하는지를 결정하는 모듈(1100)로부터 시작된다. 이 모듈(1100)은 구체적인 응용에 따라 여러 컴포넌트를 포함할 수 있다. 예를 들어, 모듈은 모션 검출기 모듈, 또는 이전의 피사체가 시스템과의 트랜잭션을 성공적으로 수행했다는 트리거로 구성될 수 있다.While the present systems and methods are capable of many embodiments, only a few illustrative embodiments are described herein. First, referring to FIG. 44, which shows a process flow diagram in accordance with the present invention, the processor begins with a module 1100 that determines whether to begin acquisition for a particular subject. This module 1100 may include several components depending on the specific application. For example, the module may be comprised of a motion detector module, or a trigger that a previous subject successfully performed a transaction with the system.

획득의 개시시에, 이전 피사체로부터의 연속적으로 더 양호한 이미지들의 로컬 리스트가 다음 피사체를 준비하기 위해 삭제된다(1101). 이어서, 카메라 시스템을 이용하여 이미지가 획득된다(1102). 이미지들을 일정한 레이트로 동기적으로 또는 컴퓨터 제어 트리거 신호에 의한 요청시에 비동기적으로 캡처할 수 있는 카메라 시스템이 사용된다. 후술하는 바와 같이, 카메라는 이전의 처리의 결과에 따라 가변 획득 레이트로 동작할 수 있다.At the start of the acquisition, a local list of successively better images from the previous subject is deleted (1101) to prepare the next subject. An image is then acquired 1102 using the camera system. Camera systems are used that can capture images synchronously at a constant rate or asynchronously upon request by a computer controlled trigger signal. As described below, the camera can operate at a variable acquisition rate depending on the results of previous processing.

충분한 컴퓨팅 능력이 이용 가능하지만, 반드시 이미지 획득과 동시일 필요가 없을 때 각각의 획득된 이미지의 품질을 순차적으로 측정하기 위해, 예를 들어 다음 서브모듈들: 얼굴 검출기, 눈 검출기, 포커스 측정, 홍채 영역 검출기 중 하나 이상을 포함하는 품질 메트릭 모듈이 사용된다(1103). 후술하는 바와 같이, 이러한 모듈들 중 하나 또는 모두는 이전 처리의 결과에 따라 특정 순간에 수행될 수 있다. 본 명세서에서 그 전체가 참고로 포함되는 Martin 등의 US 2008/0075335에서의 품질 분석 및 선택 시스템은 최상의 또는 적은 제한된 수의 최고 품질의 획득된 이미지만이 메모리에 저장되는 본 발명의 추가적인 특징과 더불어 본 발명의 목적들을 위한 하나의 적절한 품질 메트릭 시스템(1103)이다.In order to measure the quality of each acquired image sequentially when sufficient computing power is available but not necessarily concurrent with image acquisition, for example the following submodules: face detector, eye detector, focus measurement, iris A quality metric module that includes one or more of the area detectors is used (1103). As discussed below, one or both of these modules may be performed at a particular instant depending on the results of the previous processing. The quality analysis and selection system in US 2008/0075335 by Martin et al., Which is hereby incorporated by reference in its entirety, is accompanied by additional features of the invention in which only the best or small limited number of the highest quality acquired images are stored in memory. One suitable quality metric system 1103 for the purposes of the present invention.

획득 중지 모듈(1104)은 획득 중지 루틴을 수행한다. 이 모듈(1104)은 예를 들어 어떠한 데이터 획득도 없이 피사체가 사라지는 경우에 불필요하게 전체 프로세스가 수행되지 않는 것을 보증한다. 획득 중지 모듈은 현재 시간과 획득 프로세스가 시작된 시간 사이의 차이를 임계치와 비교하는 타임아웃 카운터로 구성될 수 있다. 1110에서 저장된 최고 품질 이미지보다 양호한(1103) 이미지가 계산되는 경우, 특정 피사체에 대한 프로세스가 종료될 수 있거나(1109), 최종 이미지가 저장될 수 있다(1107).The acquisition stop module 1104 performs an acquisition stop routine. This module 1104 ensures that the entire process is not unnecessarily carried out, for example, if the subject disappears without any data acquisition. The acquisition stop module may be configured with a timeout counter that compares the difference between the current time and the time the acquisition process started to a threshold. If a better image (1103) than the highest quality image stored at 1110 is calculated, the process for the particular subject may be terminated (1109), or the final image may be stored (1107).

이어서, 비교기 모듈(1105)은 품질 메트릭 모듈의 결과들을 저장 모듈(1110) 내의 로컬 리스트에 저장된 결과들과 비교한다. 프로세스의 첫 번째 반복에서는, 저장 모듈(1110) 내의 로컬 리스트에 데이터가 존재하지 않을 것이다. 그러나, 여러 번의 반복 후에, 로컬 리스트(1110) 내에는 소정의 데이터가 존재할 수 있다. 품질 메트릭 모듈(1103)의 결과들이 로컬 리스트(1110) 상의 임의의 결과보다 양호한 경우, 이미지 데이터가 로컬 리스트에 저장되고, 저장은 이미지 데이터를 로컬 리스트(1110)에 추가하는 것을 포함할 수 있거나, 더 낮은 품질 메트릭 1103 값을 갖는 로컬 리스트 상의 이미지 데이터를 대체하는 것(1107)을 포함할 수 있다.The comparator module 1105 then compares the results of the quality metric module with the results stored in the local list in the storage module 1110. In the first iteration of the process, there will be no data in the local list in the storage module 1110. However, after several iterations, there may be some data in the local list 1110. If the results of the quality metric module 1103 are better than any of the results on the local list 1110, the image data is stored in the local list, and the storing may include adding the image data to the local list 1110, or Replacing 1107 the image data on the local list with the lower quality metric 1103 value.

단계 1108은 파선들로 도시된 박스에 의해 지시되는 바와 같이 옵션이다. 단계 1108이 존재하지 않는 소정 실시예들에서는, 추가적인 이미지가 포커스 값의 변경 없이, 오히려 고정 포커스에서 자동 획득되며, 시간 연속 이미지들에서 캡처 볼륨 내의 이동 피사체의 정확한 위치에 의존하는 이미지의 품질이 획득된다. 소정의 다른 실시예들에서, 모듈(1108)이 존재할 때, 카메라 획득 시스템의 포커스 설정은 다음 이미지의 획득 전에 독립적으로 변경된다. 포커스 설정을 변경하기 위한 여러 방법이 후술하는 바와 같이 이용될 수 있다.Step 1108 is optional as indicated by the box shown with dashed lines. In certain embodiments where step 1108 does not exist, an additional image is automatically acquired at fixed focus, rather than changing the focus value, and in time successive images the quality of the image depending on the exact position of the moving subject in the capture volume is obtained. do. In certain other embodiments, when module 1108 is present, the focus setting of the camera acquisition system is changed independently before acquisition of the next image. Various methods for changing the focus setting can be used as described below.

포커스가 변경된 후, 프로세스의 다음 반복에서 이미지가 다시 한 번 획득된다(1102). 프로세스는 전술한 타임아웃 조건이 발생하거나(1109) 품질 메트릭(1103)이 값을 초과할 때까지 계속된다. 일부 실시예들에서는, 생체 매치가 발견되거나, 정확한 매치 또는 식별의 확률이 충족될 때까지, 이미지들이 획득되고 선택된다. 소정 실시예들에서는, 예를 들어 소정의 품질 임계치를 초과하는 사전 결정된 수의 이미지가 선택될 때까지 이미지들이 획득되고 선택된다.After the focus is changed, the image is acquired once again (1102) in the next iteration of the process. The process continues until the aforementioned timeout condition occurs (1109) or the quality metric 1103 exceeds a value. In some embodiments, images are acquired and selected until a biometric match is found or a probability of an exact match or identification is met. In certain embodiments, images are acquired and selected, for example, until a predetermined number of images is selected that exceeds a predetermined quality threshold.

이제, 도 45를 참조하면, 위의 도면은 시간 T0 내지 T6의 기간 동안 제한되지 않은 피사체의 배치를 나타내고, 예를 들어 피사체가 머리를 돌리거나 눈을 깜박일 수 있는 것을 나타낸다. 도 45의 하부의 짙은 실선은 카메라 획득 시스템으로부터의 피사체의 거리의 배치를 나타낸다. 피사체는 그의 완화된 배치 또는 정확히 정지 상태로 유지하기 위한 능력의 부재로 인해 무작위 방식으로 카메라 센서로부터 더 가까이 이어서 더 멀리 이동하고 있다는 점에 유의한다. 점선은 상이한 순간들에서의 포커스 설정 위치의 배치를 나타낸다. 이 예에서, 포커스 설정은 경시적으로 톱니 파형을 따르도록 설정되었다. 점선 상의 작은 수직 바들은 센서의 피사계 심도를 나타낸다. 피사체의 심도가 작은 수직 바 내의 임의의 포인트와 교차하는 경우, 피사체는 포커스 내에 있다. 상부의 "상태" 행은 이미지 획득 시스템에 대한 피사체의 상태를 설명한다. 예를 들어, T=T0에서, 피사체의 머리가 회전되고, 얼굴이 보이지 않는다. T=T2에서, 피사체의 심도는 그 시간의 특정 포커스 설정의 피사계 심도와 교차하지만, 피사체의 눈꺼풀은 그 시점에 닫힌다. 한편, T=T3에서, 피사체의 눈이 존재하고, 눈은 적어도 부분적으로 열리며, 따라서 결과적인 품질 메트릭은 최적 값보다는 낮지만 유한 값을 갖는데, 이는 이미지가 약간 포커스를 벗어나기 때문이다. 따라서, T=T3에서의 이미지는 로컬 리스트 상에 배치된다. T=T5에서, 피사체의 눈이 존재하고, 눈은 적어도 부분적으로 열리며, 따라서 결과적인 품질 메트릭은 유한 값을 갖고, 피사체의 심도는 그 시간의 특정 포커스 설정의 피사계 심도와 교차하며, 따라서 품질 메트릭은 로컬 리스트 상에 이미 존재하는 이미지의 값보다 높은 값을 갖고, 따라서 이미지 T=T5에서의 이미지는 본 발명의 특정 실시예에 따라 로컬 리스트 상에 배치되거나 로컬 리스트 상의 기존 이미지를 대체한다.Referring now to FIG. 45, the above figure shows the arrangement of subjects that are not limited during the periods of time T0 to T6, for example, that the subject may turn his head or blink his eyes. The dark solid line in the lower part of FIG. 45 indicates the arrangement of the distance of the subject from the camera acquisition system. Note that the subject is moving closer and further away from the camera sensor in a random manner due to its relaxed placement or lack of ability to keep it exactly stationary. The dotted line indicates the placement of the focus setting position at different moments. In this example, the focus setting was set to follow the sawtooth waveform over time. Small vertical bars on the dotted line indicate the depth of field of the sensor. If the subject's depth intersects any point in the small vertical bar, the subject is in focus. The upper "state" row describes the state of the subject for the image acquisition system. For example, at T = T0, the subject's head is rotated and no face is visible. At T = T2, the subject's depth intersects the depth of field of the particular focus setting at that time, but the eyelid of the subject is closed at that point in time. On the other hand, at T = T3, the subject's eyes are present and the eyes are at least partially open, so the resulting quality metric has a finite value, although lower than the optimal value, since the image is slightly out of focus. Thus, the image at T = T3 is placed on the local list. At T = T5, the subject's eyes are present, the eyes are at least partially open, so the resulting quality metric has a finite value, and the depth of the subject intersects the depth of field of the particular focus setting at that time, thus the quality The metric has a value higher than the value of an image already present on the local list, so that the image at image T = T5 is placed on the local list or replaces an existing image on the local list according to a particular embodiment of the invention.

도 46은 상이한 포커스 설정 루틴을 갖는 본 발명의 다른 실시예를 나타낸다. 피사체의 배치는 이전의 예와 같지만, 카메라 획득 모듈은 소정 조건들에서 짧은 기간 동안 고속 데이터 획득을 수행하는 능력을 갖는다. 고속 데이터 획득은 항상 수행되지는 않는데, 그 이유는 이것이 대역폭 및 처리 속도의 제한에 의해 방해되기 때문이다. 도 46에 도시된 실시예에서, 일정 기간 동안(이 예에서는 T=T3부터 T=T6까지) 단기 고속 데이터 획득을 수행하기 위한 선택된 조건들은 얼굴, 눈, 열려 있지만 흐릿한 홍채의 검출이다. 성공적인 획득을 위한 기준들 대부분이 충족된 경우, 유효 홍채 데이터를 획득할 수 있기 전에 변경되는 것이 필요한 매우 적은 수의 추가적인 조건만이 존재한다. 따라서, 다른 순간들에서보다 유효 홍채 데이터가 곧 나타날 수 있는 가능성이 더 높다. 따라서, 데이터 획득의 레이트가 증가되어, 그렇지 않은 경우에 캡처되었을 것보다 많은 홍채 데이터를 캡처할 준비가 된다.46 shows another embodiment of the present invention having a different focus setting routine. The placement of the subject is the same as in the previous example, but the camera acquisition module has the ability to perform high speed data acquisition for a short period of time under certain conditions. High speed data acquisition is not always performed because it is hampered by bandwidth and processing speed limitations. In the embodiment shown in Figure 46, the selected conditions for performing short-term high speed data acquisition for a period of time (in this example T = T3 to T = T6) are the detection of the face, eyes, and open but fuzzy iris. If most of the criteria for successful acquisition are met, there are only a very small number of additional conditions that need to be changed before valid iris data can be obtained. Therefore, it is more likely that valid iris data may soon appear than at other moments. Thus, the rate of data acquisition is increased, ready to capture more iris data than would otherwise have been captured.

이제, 도 46을 참조하면, T=T5 주위의 두꺼운 수직 라인들은 이전 실시예에서의 단지 하나의 이미지가 아니라 고속 획득 모드 동안 이 기간에 4개의 이미지가 획득된 것을 나타낸다.Referring now to FIG. 46, the thick vertical lines around T = T5 indicate that four images were acquired in this period during the fast acquisition mode, not just one image in the previous embodiment.

도 47을 참조하면, 피사체는 무작위 운동 외에도 대체로 카메라를 향해 움직이고 있다. 이 예에서, 포커스 설정은 이전 설정들의 평균 포커스로부터 계산된 자동 포커스 값은 물론, 제1 실시예에서 설명된 바와 같은 톱니 파형의 조합이다. 이 예에서는, T=T3, T=T5 및 T=T6에서 유효 홍채 이미지들이 로컬 리스트에 저장된다.Referring to FIG. 47, in addition to the random movement, the subject is generally moving toward the camera. In this example, the focus setting is a combination of the saw tooth waveform as described in the first embodiment, as well as the auto focus value calculated from the average focus of the previous settings. In this example, valid iris images at T = T3, T = T5 and T = T6 are stored in the local list.

도 49는 짧은 기간에 걸쳐 로컬 리스트 상에 이미지들이 배치될 때 이미지들의 품질 메트릭 값을 Y축 상에 나타낸 그래프이다. 통상적으로, 이미지는 리스트 상에 빠르게 배치되지만, 이어서 더 많은 데이터가 리스트 상에 배치됨에 따라, 새로운 이미지가 리스트 상의 기존 품질 메트릭들을 초과하기가 더 어렵고, 따라서 더 오래 걸린다. 품질 메트릭의 일례는 Q = F (A+델타)이며, 여기서 F는 포커스 척도로서, 높은 F 값은 더 포커싱된 이미지를 나타내고, A는 홍채의 추정 면적이다. 홍채를 세그먼트화하고, 영역을 추출하고, 포커스를 정량화하기 위한 다양한 공지된 대안 방법들이 이용될 수 있다.FIG. 49 is a graph showing the quality metric value of images on the Y axis when images are placed on a local list over a short period of time. Typically, the image is placed quickly on the list, but as more data is then placed on the list, it is more difficult for the new image to exceed existing quality metrics on the list, and therefore takes longer. One example of a quality metric is Q = F (A + delta), where F is a focus measure, where a high F value represents a more focused image and A is the estimated area of the iris. Various known alternative methods for segmenting the iris, extracting the area, and quantifying the focus can be used.

이 방법은 많은 점에서 매우 효과적이다. 본 발명의 제1 장점은 피사체의 배치가 성공적인 데이터 획득을 즉시 가능하게 하는 경우에(예를 들어, 눈들이 열리고, 이들의 얼굴이 시스템을 향하는 경우) 시스템은 홍채 이미지를 매우 빠르게 획득한다는 점이다. 눈의 존재를 검출하기 위한 많은 방법이 존재한다. 예를 들어, 미국 특허 제3,069,654호에 개시된 Hough 변환은 홍채/공막 경계 및 동공/홍채 경계로 인한 눈의 원형 세그먼트들을 찾도록 구성될 수 있다.This method is very effective in many ways. The first advantage of the present invention is that the system acquires the iris image very quickly if the placement of the subject immediately enables successful data acquisition (eg, when the eyes are open and their faces are facing the system). . There are many ways to detect the presence of the eye. For example, the Hough transform disclosed in US Pat. No. 3,069,654 may be configured to find circular segments of the eye due to the iris / scleral border and pupil / iris border.

그러나, 피사체가 자꾸 움직이거나 정지 상태를 유지할 수 없거나, 예를 들어 가방 또는 어린이들에 의해 혼란되는 경우, 획득 시스템은 약간 더 오래 걸릴 수 있지만 여전히 이미지를 획득할 것이다. 그러나, 순종하는 피사체에 대한 획득 시간은, 덜 순종하는 피사체의 경우에 데이터를 획득하는 데 있어서의 시스템의 지연들 만큼 불리해지지 않을 것이다. 이것은 피사체 처리량이 고려될 때 중요하다. 이것은 많은 수의 이미지를 획득하고 저장한 후에 이미지들에 대한 처리를 수행하여 이미지를 선택할 수 있는 시스템들과 대조된다.However, if the subject is unable to move or remain stationary or confused by a bag or children, for example, the acquisition system may take slightly longer but will still acquire an image. However, the acquisition time for obedient subjects will not be as disadvantageous as the system delays in acquiring data in the case of less obedient subjects. This is important when the subject throughput is taken into account. This is in contrast to systems that can select an image by performing processing on the images after obtaining and storing a large number of images.

본 발명의 제2 장점은 연속적으로 더 양호한 홍채 이미지를 획득하는 능력이다. 현재 기술에서, 통상적으로 이미지 획득 시스템들은 일반적으로 임계치를 초과하는, 매칭에 적합한 품질을 갖는 것으로 간주되는 하나의 홍채 이미지를 출력하였다. 그러한 이미지가 발견되지 않는 경우, 홍채 데이터는 캡처되지 못한다. 현재 기술의 문제는 피사체가 다른 곳으로 사라지거나 시스템의 사용을 어렵게 함에 따라 더 양호한 데이터를 획득할 다른 기회가 존재하지 않는 일부 응용들이 존재한다는 것이다. 그러나, 얄궂게도, 그들이 제공한 홍채 이미지는 가까운 특정 응용을 위한 많은 정보를 가졌을 수 있다. 예를 들어, 이미지 획득 시스템이 단지 100개의 피사체를 갖는 집안으로의 압장을 획득하는 데 사용되는 경우, 획득 프로세스에서 더 일찍 획득된 홍채 이미지의 일부로 충분할 수 있다.A second advantage of the present invention is the ability to continuously obtain better iris images. In the current art, image acquisition systems typically output one iris image that is considered to have a quality suitable for matching, which generally exceeds a threshold. If no such image is found, iris data is not captured. The problem with current technology is that there are some applications where there is no other opportunity to obtain better data as the subject disappears elsewhere or makes the system difficult to use. Ironically, however, the iris images they provided may have a lot of information for the particular application at hand. For example, if the image acquisition system is used to acquire a compression into a house with only 100 subjects, part of the iris image acquired earlier in the acquisition process may be sufficient.

본 발명의 제3 장점은 내장형 장치가 사용될 때 특히 중요한 효율적인 메모리 사용이다. 로컬 리스트는 이전의 이미지보다 연속적으로 더 양호한 품질을 갖는 홍채 이미지만을 포함하며, 처음 획득된 이미지는 포함하지 않는다. 게다가, 응용에 따라, 로컬 리스트는 더 양호한 품질의 이미지가 검출될 때마다 대체되는 단일 이미지를 포함할 수 있다. 처리가 완료된 후, 로컬 리스트 내에 남는 최종 이미지는 최상의 품질로 획득된 이미지이다.A third advantage of the present invention is the efficient memory usage which is particularly important when embedded devices are used. The local list contains only iris images that have a continuously better quality than the previous image, and do not include the first acquired image. In addition, depending on the application, the local list may include a single image that is replaced each time a better quality image is detected. After processing is complete, the final image remaining in the local list is the image obtained with the best quality.

일 실시예에서, 본 발명은 포커스 범위 내의 연속적으로 상이한 포인트들에 포커싱되도록 렌즈를 제어하는 포커스 제어기 컴포넌트를 이용하여 인-포커스 이미지들을 획득하며, 그러한 스캔 제어는 이미지가 포커스 내에 또는 포커스 밖에 있는지에 대한 측정으로부터의 어떠한 입력도 없이 수행되고, 이미지의 측정들 또는 피사체에 대한 다른 거리 메트릭들에 기초한다. 포커스 스캔 속도 및 이것이 프레임 레이트, 노출 시간과 어떻게 관련되는지와 관련하여, 이러한 관계들 및 관련 알고리즘들은 이 분야의 기술자들에게 공지되어 있다.In one embodiment, the present invention obtains in-focus images using a focus controller component that controls the lens to focus on successively different points within the focus range, and such scan control determines whether the image is in or out of focus. It is performed without any input from the measurement for and is based on measurements of the image or other distance metrics for the subject. With regards to the focus scan rate and how it relates to frame rate, exposure time, these relationships and associated algorithms are known to those skilled in the art.

피사체가 정지 상태를 유지하려고 시도하는 경우에도 잔여 움직임이 존재할 것이다. 일부 실시예들에서, 시스템은 피사체의 움직임의 정도를 고려하여 상이한 포커스들에서 이미지 캡처의 레이트를 증감할 수 있다.There will be residual movement even if the subject attempts to remain stationary. In some embodiments, the system may increase or decrease the rate of image capture at different focuses in view of the degree of movement of the subject.

시스템은 일부 예들에서는 최초 이미지 획득시에 양호한 이미지를 획득할 수 있지만, 다른 예들에서는 10개 또는 20개의 이미지 획득 또는 그 이상을 기다려야 할 수 있다는 사실을 고려하기 위하여 가변 수의 이미지를 획득한다. 시스템이 단순히 이미지 획득의 수를 10 또는 20으로 고정한 경우, 본 발명은 장치를 사용하는 데 걸리는 평균 시간을 매우 느리게 하여, 장치를 이용한 사람들의 처리량을 줄이는데, 그 이유는 획득되는 이미지 획득들의 수가 홍채의 품질에 기초하여 적응가능한 대신에 최악의 경우로 설정되기 때문이다. 이것은 포커스를 순간적으로 정확한 포커스 거리에 설정할 수 있을 만큼 충분히 양호하지 않을 수 있는데, 그 이유는 예를 들어 이미지가 포커스 내에 있는 경우에도 피사체가 눈을 깜박이거나 외면할 수 있기 때문이다.The system acquires a variable number of images to account for the fact that in some examples a good image may be obtained upon initial image acquisition, but in other examples it may be necessary to wait for 10 or 20 image acquisitions or more. If the system simply fixed the number of image acquisitions to 10 or 20, the invention very slows down the average time it takes to use the device, reducing the throughput of people using the device, because the number of image acquisitions obtained is iris This is because the worst case is set instead of adaptive based on the quality of the? This may not be good enough to instantaneously set the focus to the correct focal length because the subject may blink or turn away even if the image is in focus, for example.

10개 또는 20개 또는 그 이상의 이미지가 획득되는 경우, 이들을 저장하는 것은 내장형 장치에서 값질 수 있는 많은 메모리를 차지할 수 있다. 본 발명의 시스템은 홍채 이미지 품질이 이전에 저장된 최상의 홍채 이미지보다 양호한지를 계속 체크하며, 그러한 경우에만 홍채 이미지를 저장한다. 대안으로서, 시스템은 지금까지 획득된 최상의 홍채 이미지에 더 양호한 이미지를 덮어써서 대체할 수 있다. 이러한 방식으로, 시스템은 항상 최상의 가능한 홍채 이미지를 저장하며, 값진 메모리를 사용할 필요가 없다. 피사체가 외면하고, 시스템이 피사체의 홍채 데이터를 다시 획득할 기회를 잃는 경우, 높은 품질을 갖지는 않더라도 최상의 가능한 이미지가 저장되고, 그러한 이미지는 그러한 상황들에서 생체 식별을 위한 충분한 품질을 가질 수 있다.If ten or twenty or more images are acquired, storing them can take up a lot of memory that can be valuable in an embedded device. The system of the present invention continues to check whether the iris image quality is better than the previously stored best iris image, and only if so stores the iris image. As an alternative, the system can replace the better image by overwriting the best iris image obtained so far. In this way, the system always stores the best possible iris image and does not need to use valuable memory. If the subject turns away and the system loses the opportunity to reacquire the subject's iris data again, the best possible image is stored even if it does not have a high quality, and such an image may have sufficient quality for biometric identification in such situations. .

카메라가 향하는 영역 외에도, 캡처 볼륨을 스위핑하도록 포커스 제어 시스템을 제어할 수도 있다. 안정 시간을 필요로 하는 자동 포커스, 및 결국에 컴포넌트들을 손상시킬 수 있고 응답하는 데 시간이 걸릴 수 있는 많은 불연속 중지/시작 단계와 달리, 순간적으로 생체 이미지를 획득하기 위해 포커스 볼륨을 빠르게 스위핑하면 된다.In addition to the area facing the camera, the focus control system may be controlled to sweep the capture volume. Unlike autofocus, which requires settling time, and many discontinuous stop / start phases that can eventually damage components and take time to respond, you can quickly sweep the focus volume to acquire a biometric image in an instant. .

소정 실시예들에서, 생체 또는 이미지 획득 시스템은 휴대형, 이동, 소형, 경량 및/또는 컴퓨터 또는 다른 컴퓨팅 장치에 부착 가능할 수 있는 내장형 장치와 같은 장치를 포함할 수 있다. 장치는 생체 획득 및/또는 처리와 같은 내장된 응용들에서 성능을 개선하는 다양한 설계 양태들을 포함할 수 있다. 이러한 설계 양태들 중 일부는 또한 장치를 휴대, 이동, 소형, 경량 및/또는 컴퓨팅 장치에 접속하기에 적합하게 만들 수 있다.In certain embodiments, a biometric or image acquisition system can include a device, such as a built-in device that can be portable, mobile, compact, lightweight, and / or attachable to a computer or other computing device. The apparatus may include various design aspects that improve performance in embedded applications such as biometric acquisition and / or processing. Some of these design aspects may also make the device suitable for connection to a portable, mobile, compact, lightweight, and / or computing device.

예를 들어, 제1 양태는 간단한 그리고/또는 빠른 배치 시스템 및/또는 사용자의 눈과 센서의 정렬을 가능하게 하는 배치 시스템을 포함할 수 있다. 조명기가 사용자의 홍채의 양호하게 조명된 이미지들의 획득을 가능하게 할 수 있다. 배치 시스템 및/또는 조명기는 사용자의 홍채의 포어쇼트닝되지 않은(non-foreshortened) 그리고/또는 폐색되지 않은(non-occluded) 이미지들의 획득을 가능하게 함으로써 성능을 개선할 수 있다. 다른 양태는 단일 소형 센서를 이용하여 가시 조명하에서 장면의 고품질 이미지들은 물론, 적외선 조명하에서 홍채들의 고품질 이미지들을 획득할 수 있는 수단을 포함할 수 있다. 또 다른 양태는 메모리 및 전력과 같은 제한된 가용 자원들의 사용을 개선하기 위해 내장형 이미지 획득 또는 처리 장치 내에서의 처리를 최적화하는 것은 물론, 장치와 외부 장치들 사이의 인터페이스를 최적화하는 것과 관련될 수 있다. 이러한 양태들은 아래에서 그리고 본 명세서의 다른 곳에서 상세히 설명된다.For example, the first aspect may include a simple and / or quick placement system and / or a placement system that enables alignment of the sensor with the eye of the user. The illuminator may enable acquisition of well illuminated images of the user's iris. The placement system and / or illuminator may improve performance by enabling acquisition of non-foreshortened and / or non-occluded images of the user's iris. Another aspect may include means for obtaining high quality images of the iris under visible illumination, as well as high quality images of irises under infrared illumination using a single miniature sensor. Another aspect may relate to optimizing the processing within the embedded image acquisition or processing device to improve the use of limited available resources such as memory and power, as well as optimizing the interface between the device and external devices. . These aspects are described in detail below and elsewhere herein.

일부 실시예들에서, 생체 또는 이미지 획득 시스템은 사용자의 눈과 카메라의 간단하고 빠른 정렬을 가능하게 하는 배치 시스템을 포함하며, 시스템으로 하여금 양호하게 조명된, 포어쇼트닝되지 않은 그리고/또는 폐색되지 않은 사용자 홍채 이미지들을 획득하는 것을 가능하게 하도록 적응되는 하나 이상의 조명기를 포함할 수 있다. 일부 상황들에서, 포어쇼트닝은 이미지 획득 센서 내로 직접 향하는 것으로부터 크게 벗어나거나 센서를 향해 최적으로 배향되지 않은 홍채의 이미지의 획득을 기술할 수 있다. 예를 들어, 포어쇼트닝은 홍채 영역의 이미지가 형태상 원형이 아니라 타원형일 경우에 발생했을 수 있다. 소정 상황들에서, 폐색은 물체의 다른 물체에 의한 차단 또는 방해를 지칭할 수 있다. 예를 들어, 홍채는 획득된 이미지에서 눈꺼풀 또는 속눈썹에 의해 폐색될 수 있다. 이미지는 이미지가 캡처될 때 센서 및/또는 조명기를 부분적으로 커버한 손가락에 의해 폐색될 수 있다.In some embodiments, the biometric or image acquisition system includes a placement system that allows for simple and quick alignment of the camera with the user's eyes and allows the system to be well illuminated, unshortened and / or occluded. It may include one or more illuminators that are adapted to enable obtaining user iris images. In some situations, foreshortening may describe the acquisition of an image of the iris that is largely out of direct heading into the image acquisition sensor or that is not optimally oriented towards the sensor. For example, foreshortening may have occurred when the image of the iris area is elliptical rather than circular in shape. In certain situations, occlusion may refer to blocking or obstruction by another object of the object. For example, the iris may be occluded by the eyelids or eyelashes in the acquired image. The image may be occluded by a finger partially covering the sensor and / or illuminator when the image is captured.

도 50은 센서의 시야에 대해 사용자를 안내 또는 배치하기 위한 시스템의 일 실시예를 나타낸다. 시스템은 이미지 획득을 위한 센서의 적어도 일부에 근접하게, 그 위에 또는 그의 정면에 배치된 하나 이상의 미러를 포함할 수 있다. 센서에 또는 그 근처에의 미러의 배치는 사용자가 센서를 또는 그 근처를 보는 동안 미러를 보게 할 수 있다. 사용자는 미러로부터의 반사를 이용하여, 사용자의 홍채 또는 이미지 획득 장치의 나머지에 대한 배치를 안내할 수 있다. 사용자는 미러를 이용하여, 미러로부터 반사된 홍채를 사용자에 대한 피드백 또는 안내로서 센터링 또는 배치할 수 있다. 일부 실시예들에서, 미러는 이미지 획득을 위해 미러에서의 홍채의 반사의 최적 배치를 식별하기 위한 마킹들을 포함할 수 있다.50 illustrates one embodiment of a system for guiding or positioning a user relative to the field of view of a sensor. The system can include one or more mirrors disposed in proximity to, or in front of, at least a portion of the sensor for image acquisition. The placement of the mirror at or near the sensor may cause the user to see the mirror while looking at or near the sensor. The user can use the reflection from the mirror to guide the placement of the user's iris or the rest of the image acquisition device. The user may use the mirror to center or position the iris reflected from the mirror as feedback or guidance to the user. In some embodiments, the mirror may include markings for identifying the optimal placement of the reflection of the iris in the mirror for image acquisition.

일부 실시예들에서, 미러 및 센서가 같이 위치할 때(co-located), 예를 들어 센서가 미러 뒤에 위치할 때, 사용자는 아마도 그의 홍채가 센서를 향하고 있다는 것을 인식하지 못하고 미러와 센서를 동시에 볼 수 있다. 따라서, 그러한 조건들에서 획득된 홍채의 이미지들은 포어쇼트닝될 가능성이 적다. 일부 실시예들에서, 미러는 미러 내로 지향되는 광의 일부를 미러 뒤의 센서로 전달할 수 있다. 미러는 홍채로부터 반사된 광의 일부를 센서로 전달할 수 있다. 일부 실시예들에서, 미러는 반투명할 수 있다. 소정 실시예들에서, 미러는 단방향 미러 또는 콜드 미러(예를 들어, 적외선 광을 통과시키고 가시광을 반사함)일 수 있다.In some embodiments, when the mirror and sensor are co-located, for example when the sensor is located behind the mirror, the user may not be aware that his iris is pointing towards the sensor and at the same time can see. Thus, images of the iris obtained under such conditions are less likely to be foreshortened. In some embodiments, the mirror can deliver a portion of the light directed into the mirror to the sensor behind the mirror. The mirror may transmit some of the light reflected from the iris to the sensor. In some embodiments, the mirror can be translucent. In certain embodiments, the mirror may be a unidirectional mirror or a cold mirror (eg, passing infrared light and reflecting visible light).

예를 들어 적어도 도 25-34와 관련하여 전술한 바와 같이, 사용자의 시각 우성을 고려하기 위해 안내 또는 배치 미러에 대한 적절한 또는 최적의 크기가 결정될 수 있다. 설명된 바와 같이, 작은 소형 미러는 직관에 반하여 더 큰 미러보다 더 최적인 배치 메커니즘을 제공할 수 있다. 일부 실시예들에서, 미러는 이미지 획득을 위해 사용자에 대해 적절한 또는 최적의 거리, 높이 및/또는 배향으로 배치될 때 사용자의 단일 홍채 또는 눈을 사용자에게로 반사하도록 크기가 조절된다. 미러는 적절한 또는 최적의 거리, 높이 및/또는 배향으로 배치될 때 동시에 제2 홍채 또는 눈이 사용자에게로 반사되는 것을 방지하도록 크기가 조절될 수 있다. 일부 실시예들에서, 미러는 센서, 이미지 획득 장치 및/또는 센서의 시야의 크기와 관련하여 크기가 조절된다.For example, as described above in relation to at least 25-34, an appropriate or optimal size for the guide or placement mirror may be determined to account for the visual dominance of the user. As described, small compact mirrors can provide a more optimal placement mechanism than larger mirrors against intuition. In some embodiments, the mirror is sized to reflect the user's single iris or eye to the user when placed at an appropriate or optimal distance, height, and / or orientation relative to the user for image acquisition. The mirror may be sized to prevent the second iris or eye from being reflected back to the user at the same time when placed at the proper or optimal distance, height and / or orientation. In some embodiments, the mirror is sized in relation to the size of the sensor, image acquisition device, and / or sensor's field of view.

도 51은 2개의 미러가 약간 상이한 배향들 및/또는 위치들에 배치된 이미지 획득 장치의 일 실시예를 나타낸다. 일부 실시예들에서, 미러들은 장치에 대해 공칭의 또는 적절한 동작 거리, 배향 및/또는 높이에 있을 때 사용자가 각각의 미러에서 그의 좌안 및 우안을 각각 볼 수 있도록 배열될 수 있다. 미러들의 구성은 사용자가 예를 들어 장치의 센서로부터 깊이 또는 거리에 있어서 자신을 배치하기 위한 메커니즘으로서 작용할 수 있다. 미러들은 사용자의 좌안 및 우안 모두가 센서의 시야 내에 있도록 사용자의 배향을 예를 들어 측방으로 그리고/또는 수직으로 배치 또는 안내하는 것을 돕기 위한 메커니즘으로도 작용할 수 있다.51 shows one embodiment of an image acquisition device in which two mirrors are disposed in slightly different orientations and / or positions. In some embodiments, the mirrors may be arranged such that the user can see his left and right eyes, respectively, in each mirror when at nominal or proper operating distance, orientation, and / or height relative to the device. The configuration of the mirrors can serve as a mechanism for the user to position himself, for example, in depth or distance from the sensor of the device. The mirrors can also act as a mechanism to help arrange or guide the user's orientation, for example laterally and / or vertically, so that both the left and right eyes of the user are within the field of view of the sensor.

도 51을 다시 참조하면, 2개의 미러의 배열의 평면도가 도시되어 있다. 하나의 미러는 카메라의 광축에 대해 양의 각도로 배치될 수 있고, 제2 미러는 광축에 대해 실질적으로 동일하지만 음의 각도로 배향될 수 있다. 일 구성에서, 미러들의 각도는 세타 = aTan((D_Eye_Separation/2)/D_user)에 의해 선택되며, 여기서 D_user는 장치로부터의 사용자의 눈들의 공칭 또는 최적 거리이다. D_Eye_Separation은 사용자(예를 들어, 인간 사용자)의 통상적인 또는 명목상의 미간 거리일 수 있다. 예를 들어, 소정의 응용들에서 D_user에 대한 값은 15cm일 수 있고, D_Eye_Separation에 대한 값은 6cm일 수 있다. 다른 구성에서, 미러들의 각도는 장치 뒤의 눈 이미지들의 가상 위치 사이의 각도에 의해 선택될 수 있으며, 따라서 세타 = aTan((D_Eye_Separation/2)/(D_user*2))이다.Referring again to FIG. 51, a plan view of an arrangement of two mirrors is shown. One mirror may be disposed at a positive angle with respect to the optical axis of the camera, and the second mirror may be oriented substantially the same but negative angle with respect to the optical axis. In one configuration, the angle of the mirrors is selected by theta = aTan ((D_Eye_Separation / 2) / D_user), where D_user is the nominal or optimal distance of the eyes of the user from the device. D_Eye_Separation may be a typical or nominal head distance of a user (eg, a human user). For example, in some applications the value for D_user may be 15 cm and the value for D_Eye_Separation may be 6 cm. In another configuration, the angle of the mirrors can be selected by the angle between the virtual positions of the eye images behind the device, thus theta = aTan ((D_Eye_Separation / 2) / (D_user * 2)).

도 52는 장치의 측면도에서의 미러들의 구성을 나타낸다. 하부 미러는 미러의 광축에 수직인 수평축에 대해 경사지거나 배향될 수 있으며, 따라서 미러는 눈으로부터 장치의 공칭 또는 최적 동작 거리에 배치될 때 사용자의 눈을 향한다. 이러한 수평 액세스에 대한 각도는 알파 = aTan(D_mirror_Separation/D_user)로서 기술될 수 있다. 수직으로 적층된 배열로 도시되지만, 2개의 미러는 서로 근접하도록 또는 임의의 방향에서 서로 바로 옆에 배치될 수 있다. 센서는 하나 또는 양 미러 또는 그의 일부 뒤에 배열될 수 있다. 일부 실시예들에서, 2개의 미러는 양 눈의 이미지를 반사하기 위해 곡선, 오목 또는 적절한 형상의 미러에 의해 대체될 수 있다. 일부 실시예들에서, 센서는 미러(들)에 근접하도록, 예를 들어 2개의 미러 사이에 배치될 수 있다. 하나 이상의 센서, 예를 들어 각각의 홍채의 이미지를 획득하기 위한 센서가 장치 내에 통합될 수 있다. 소정 실시예들에서, 하나 또는 양 미러 뒤에 센서(들)를 배치하는 것은 장치의 구성을 더 소형화할 수 있다.52 shows the configuration of the mirrors in the side view of the device. The lower mirror may be inclined or oriented with respect to the horizontal axis perpendicular to the optical axis of the mirror, so that the mirror faces the user's eye when placed at the nominal or optimal working distance of the device from the eye. The angle for this horizontal access can be described as alpha = aTan (D_mirror_Separation / D_user). Although shown in a vertically stacked arrangement, the two mirrors may be placed next to each other in proximity or in any direction. The sensor may be arranged behind one or both mirrors or portions thereof. In some embodiments, the two mirrors may be replaced by curved, concave or appropriately shaped mirrors to reflect the image of both eyes. In some embodiments, the sensor can be disposed, for example between two mirrors, in proximity to the mirror (s). One or more sensors, for example a sensor for obtaining an image of each iris, may be integrated into the device. In certain embodiments, placing the sensor (s) behind one or both mirrors can further downsize the configuration of the device.

배치 미러(들)에 더하여 또는 그에 대한 대안으로서, 눈 파인더 모듈이 장치에 접속되거나 통합되어, 피사체의 눈들이 예상 영역들에 존재하는지를 검출하고 사용자를 적절히 안내할 수 있다. 예를 들어, 장치는 사용자의 눈(들)이 부정확하게 배치된 경우에 라우드스피커를 이용하여 청각적으로, 또는 LED 또는 스크린을 이용하여 시각적으로 사용자에게 경고할 수 있다.In addition to or as an alternative to the placement mirror (s), an eye finder module can be connected or integrated into the device to detect if the eyes of the subject are in expected areas and to guide the user appropriately. For example, the device may alert the user visually using a loudspeaker or visually using an LED or screen when the user's eye (s) are incorrectly placed.

도 53은 하나의 미러를 이용하여 센서의 시야 내에 피사체의 양 눈을 센터링하기 위한 스킴의 일 실시예를 나타낸다. 하나의 작은 안내용 미러만을 이용하면, 사용자는 장치를 단일 우성 눈을 향하게 할 수 있다. 미러는 우성 우안을 갖는 사용자에 대해 카메라 센서가 장치에 대한 최적 또는 공칭 거리(예로서, D_user), 높이 및/또는 배향에서 양 눈의 이미지를 획득하게 정렬될 수 있도록 (예를 들어, 수평축을 따라) 배향되거나 경사질 수 있다.53 illustrates one embodiment of a scheme for centering both eyes of a subject within the field of view of a sensor using one mirror. Using only one small guiding mirror, the user can point the device at a single dominant eye. The mirror may be aligned (eg, horizontal axis) so that for a user with a dominant right eye the camera sensor can be aligned to obtain an image of both eyes at an optimal or nominal distance to the device (eg D_user), height and / or orientation. Can be oriented or tilted.

도 54는 하나의 미러를 이용하여 센서의 시야 내에 피사체의 양 눈을 센터링하기 위한 스킴의 다른 실시예를 나타낸다. 미러는 우성 좌안을 갖는 사용자에 대해 센서가 센서, 미러 및/또는 장치로부터의 공칭 또는 최적 사용자 거리에서 양 홍채의 이미지들을 획득하게 정렬될 수 있도록 배향될 수 있다.54 illustrates another embodiment of a scheme for centering both eyes of a subject in the field of view of a sensor using one mirror. The mirror may be oriented such that for a user with a dominant left eye the sensor may be aligned to obtain images of both irises at nominal or optimal user distance from the sensor, mirror and / or device.

도 55는 미러 장착 또는 경사 메커니즘(mirror mount or tilt mechanism)의 일 실시예를 도시한다. 미러는 경사진 받침대(tilted mount)에 장착될 수 있으므로, 미러는 예를 들어, 이미지 획득 장치의 케이스에 장착될 때 이미지 획득 장치의 케이스에 대하여 경사진다. 다양한 실시예에서, 미러는 사용자 또는 대상의 우성 눈(dominant eye)을 향하여 경사지거나 배향(orient)될 수 있다. 특정 실시예들에서, 미러는 사용자가 우안 우성(right-eye dominant)인지 좌안 우성(left-eye dominant)인지에 따라 적어도 2개의 위치에 있도록 조정될 수 있다. 예를 들어, 미러는 받침대 상에서 회전할 수 있거나, 받침대가 예를 들어, 대상의 우성 눈을 향해 미러와 회전할 수 있다. 받침대의 에지 상의 마킹들은 받침대의 구성 또는 위치를 표시할 수 있는데, 예를 들어, 우안 또는 좌안 우성 시스템들에 대해 "R" 또는 "L"을 표시할 수 있다. 다른 실시예들에서, 미러는 사용자의 우성 눈을 향하여 수동으로 또는 기계적으로 경사지거나 스위칭될 수 있다. 미러는 예를 들어, 피벗에 대해 경사질 수 있다. 조정 가능한 미러 배향의 이점은, 단일 장치 또는 미러가 어느 한 눈의 우성에 대해 쉽게 재구성될 수 있다는 것이다. 단일 장치가 제조될 수 있고, 미러 받침대 또는 미러 위치는 사용자에 의해 또는 공장에서 신속하게 및/또는 쉽게 재구성될 수 있다.FIG. 55 illustrates one embodiment of a mirror mount or tilt mechanism. Since the mirror can be mounted to a tilted mount, the mirror is tilted with respect to the case of the image acquisition device, for example when mounted to the case of the image acquisition device. In various embodiments, the mirror may be tilted or oriented toward the dominant eye of the user or subject. In certain embodiments, the mirror may be adjusted to be in at least two positions depending on whether the user is right-eye dominant or left-eye dominant. For example, the mirror may rotate on the pedestal, or the pedestal may, for example, rotate with the mirror toward the dominant eye of the subject. Markings on the edge of the pedestal may indicate the configuration or location of the pedestal, eg, may indicate "R" or "L" for right or left eye dominant systems. In other embodiments, the mirror may be tilted or switched manually or mechanically towards the user's dominant eye. The mirror can be tilted relative to the pivot, for example. The advantage of adjustable mirror orientation is that a single device or mirror can be easily reconfigured for the dominance of either eye. A single device can be manufactured and the mirror pedestal or mirror position can be quickly and / or easily reconfigured by the user or at the factory.

도 56은 센서의 방향을 향해 사용자의 홍채를 안내(guide)하기 위한 포지셔닝 메커니즘의 다른 실시예를 도시한다. 위에서 논의한 미러(들)의 역할은 센서, 프로세서 및/또는 스크린에 의해 시뮬레이션될 수 있다. 일부 실시예들에서, 대형 스크린의 경우에서와 같이, 스크린의 중심은 센서에 가깝게 배치되지 않을 수 있다. 따라서, 사용자가 이미지 획득 중에 (그 자신과 같이) 스크린의 중심 근처를 보는 경우, 센서는 홍채 인식을 위한 차선(sub-optimal)인 홍채의 포어쇼트닝 뷰(foreshortened view)를 획득할 수 있다. 홍채의 뷰가 포어쇼트닝될 때, 홍채 이미지는 실질적으로 원형인 모양보다는 타원형 모양으로 나타날 수 있고, 이로써 홍채 인식 알고리즘들을 혼동시키거나 홍채 인식 알고리즘들에 대한 어려움들을 유발한다. 예를 들어, 도 56에서, 좌측에 도시된 시나리오는 큰 눈 이미지 대 카메라/센서 거리(large eye-image to camera/sensor distance)를 포함하고, 이것은 상당한 포어쇼트닝(foreshortening)을 야기할 수 있다.56 shows another embodiment of a positioning mechanism for guiding a user's iris toward the direction of the sensor. The role of mirror (s) discussed above can be simulated by sensors, processors and / or screens. In some embodiments, as in the case of a large screen, the center of the screen may not be located close to the sensor. Thus, if the user sees near the center of the screen (as he himself) during image acquisition, the sensor may obtain a foreshortened view of the iris that is sub-optimal for iris recognition. When the view of the iris is foreshortened, the iris image may appear elliptical rather than substantially circular, thereby confusing the iris recognition algorithms or causing difficulties for iris recognition algorithms. For example, in FIG. 56, the scenario shown on the left includes a large eye-image to camera / sensor distance, which can cause significant foreshortening.

그러한 센서/스크린 구성에 의해 생기는 다른 과제는, 스크린 상의 사용자의 눈의 위치가 수평 및/또는 수직 위치(들)뿐만 아니라 센서에 대한 사용자의 거리의 함수일 수 있기 때문에, 사용자 정렬이 더욱 복잡할 수 있다는 것이다. 일부 실시예들에서, 이러한 이슈들은 스크린의 좌표 시스템을 전자적으로 시프트 또는 이동시켜서, 대상으로부터 장치의 공칭/최적 동작 거리에서, 카메라에 의해 획득된 대상의 이미지를 대상의 좌안이 카메라 근처에, 또는 가능한 한 카메라에 가깝게 배치되도록 전자적으로 시프트 함으로써, 처리될 수 있다. 시프트 정도는 사전 결정(예를 들어, 사전 캘리브레이션)될 수 있고, 특정 장치에 대해 (예를 들어, 고정 포커스, 줌 및/또는 카메라/센서 위치로) 고정될 수 있다. 스크린 상의 센서 바로 아래의 영역은 사용자가 그 영역에 또는 그 영역 근처에 사용자의 눈을 향하게 하도록 안내 또는 명령하기 위해 상이한 컬러 또는 마킹으로 강조될 수 있다. 눈 이미 대 카메라 거리는 단축 또는 최소화될 수 있기 때문에, 홍채의 포어쇼트닝은 감소 또는 최소화될 수 있다. 정렬의 복잡성은, 안내를 위한 스크린을 사용하는 사용자에 의해 또한 감소된다.Another challenge arising from such sensor / screen configuration is that user alignment can be more complicated because the position of the user's eye on the screen can be a function of the user's distance to the sensor as well as the horizontal and / or vertical position (s). Is there. In some embodiments, these issues electronically shift or shift the screen's coordinate system, such that at the nominal / optimal operating distance of the device from the subject, the subject's left eye is near the camera, or By shifting electronically to be as close to the camera as possible, it can be processed. The degree of shift can be predetermined (eg, pre-calibrated) and can be fixed (eg, to a fixed focus, zoom and / or camera / sensor position) for a particular device. The area directly below the sensor on the screen may be highlighted with a different color or marking to guide or instruct the user to direct the user's eye to or near the area. Since the eye image to camera distance can be shortened or minimized, the foreshortening of the iris can be reduced or minimized. The complexity of the alignment is also reduced by the user using the screen for guidance.

다시 도 56을 참고하면, 장치는 이미지 획득을 위해 센서의 방향을 향해 각각의 눈을 향하도록 스크린 이미지를 전자적으로 시프트 또는 이동시킬 수 있다. 예를 들어, 중심 시나리오가 좌측 홍채의 이미지의 획득을 위해 적절하거나 최적일 수 있다. 우측의 시나리오는 전자 시프팅을 이용하여 우측 홍채 이미지 획득을 위해 센서를 향해 우안을 향하게 한다. 일부 실시예들에서, 좌측 및 우측 홍채 이미지들의 획득은 장치에서 실행되는 애플리케이션 소프트웨어의 2가지 모드를 이용하여 수행될 수 있다. 애플리케이션 소프트웨어는 센서를 향해 정확한 피처들을 배치 및 시프트하기 위하여 모양 또는 피처 인식을 수행할 수 있다. 장치 상의 프로세서가 애플리케이션 소프트웨어를 실행하고 및/또는 스크린 상에 렌더링하기 위한 이미지들을 처리할 수 있다.Referring again to FIG. 56, the device may electronically shift or shift the screen image to face each eye toward the direction of the sensor for image acquisition. For example, the central scenario may be appropriate or optimal for the acquisition of an image of the left iris. The scenario on the right uses electronic shifting to point the right eye towards the sensor for right iris image acquisition. In some embodiments, acquisition of the left and right iris images may be performed using two modes of application software running on the device. The application software may perform shape or feature recognition to locate and shift the correct features towards the sensor. A processor on the device may execute application software and / or process images for rendering on the screen.

이제 도 57을 참조하면, 생체 캡처(biometric capture)를 위해 사용자를 배치하기 위한 메커니즘들의 실시예들이 도시된다. 중간에 도시된 구현은 센서의 방향으로 대상의 양쪽 눈을 시프트할 수 있다. 이 구현은 예를 들어, 두 눈 동시 이미지 캡처를 위해 최적화될 수 있다. 전자 정렬 시스템은 사용자 얼굴의 디스플레이된 이미지를 시프트 또는 이동시켜서, 두 눈의 이미지가 센서 근처 또는 아래에 배치되게 할 수 있다. 도 57의 우측에 도시된 구현은 좌안 및 우안의 별개의 전자 정렬을 수행할 수 있다. 전자 정렬 시스템은 획득한 이미지의 상이한 부분들에 본원에서 논의된 방법들을 동시에 (예를 들어, 좌안 및 우안의 분리된 이미지들에 별개로) 적용할 수 있다. 이 경우, 두 눈 이미지들은 센서 근처에 함께 매우 가깝게 배치될 수 있으므로, 두 이미지의 포어쇼트닝을 동시에 감소시킬 수 있다. 획득한 이미지의 별개의 부분들은 상이하게, 예를 들어, 상이한 방향으로 시프트될 수 있다. 일 실시예에서, 대상의 얼굴 이미지는 예를 들어, 수직축에 대해, 2개의 부분으로 분할될 수 있다. 이러한 이미지 분할의 위치는 스크린에 대한 카메라의 위치에 의존할 수 있다. 예를 들어, 센서가 스크린의 중간을 통하는 축 상에 있는 경우, 분할은 스크린 상의 이미지의 중간을 따라서 수행될 수 있다.Referring now to FIG. 57, embodiments of mechanisms for placing a user for biometric capture are shown. The implementation shown in the middle can shift both eyes of the object in the direction of the sensor. This implementation can be optimized, for example, for binocular simultaneous image capture. The electronic alignment system can shift or shift the displayed image of the user's face, such that an image of both eyes is placed near or below the sensor. The implementation shown on the right of FIG. 57 may perform separate electronic alignment of the left and right eyes. The electronic alignment system can apply the methods discussed herein to different portions of the acquired image simultaneously (eg, separate to separate images of the left and right eyes). In this case, the two eye images can be placed very close together near the sensor, thus reducing the foreshortening of both images simultaneously. Separate portions of the acquired image may be shifted differently, for example in different directions. In one embodiment, the subject's face image may be divided into two parts, for example with respect to the vertical axis. The location of this image segmentation may depend on the camera's position relative to the screen. For example, if the sensor is on an axis through the middle of the screen, segmentation may be performed along the middle of the image on the screen.

위에서 논의한 포지셔닝 메커니즘들은, 사용자가 장치를 쉽게 대면(face) 또는 배향할 수 있다고 가정할 수 있다. 그러나, 일부 아이덴티티 검증 애플리케이션들에서, 사용자가 자기 자신을 검증하기 위해, 예를 들어, 정기적으로, 이미지 획득 장치를 픽업(pick up)하는 것은 거슬리거나 바람직하지 않을 수 있다. 지문 생체인식 센서와 같은, 다른 아이덴티티 검증 애플리케이션들에서, 지문이 센서에 제공되도록 손목 및/또는 손가락을 연결(articulate)하는 것이 가능하다. 그러나, 홍채 센서에 의하면, 사용자의 눈이 센서를 향해 똑바로 대면하는 것이 중요할 수 있다. 홍채 센서를 통합한 내장 장치는 센서가 홍채를 향해 배향될 수 있게 할 수 있다. 그러한 내장 장치는 콤팩트하게 형성되고 충분히 유선형으로 되어 사용자의 주머니에 편안하게 넣고 및/또는 지니고 다닐 수 있다. 앞서 논의한 바와 같이, 도 39는 그러한 내장 장치에 부착 또는 통합될 수 있는 포지셔닝 메커니즘의 일 실시예를 도시한다.The positioning mechanisms discussed above can assume that a user can easily face or orient the device. However, in some identity verification applications, it may be annoying or undesirable for a user to pick up an image acquisition device, for example, on a regular basis to verify himself. In other identity verification applications, such as a fingerprint biometric sensor, it is possible to articulate a wrist and / or finger such that a fingerprint is provided to the sensor. However, with the iris sensor, it may be important for the user's eyes to face straight toward the sensor. An embedded device incorporating an iris sensor may allow the sensor to be oriented towards the iris. Such embedded devices can be compactly shaped and sufficiently streamlined to comfortably carry and / or carry in a user's pocket. As discussed above, FIG. 39 illustrates one embodiment of a positioning mechanism that may be attached or integrated into such an embedded device.

일부 실시예에서, 포지셔닝 메커니즘은 (예를 들어, USB 잭을 통해) 호스트 컴퓨터 또는 다른 컴퓨팅 장치에 접속 또는 플러깅할 수 있는 부분을 포함할 수 있다. 포지셔닝 메커니즘은 제1 부분에 의해 실질적으로 방해가 되지 않는, 사용자에 의해 연결될 수 있는 제2 부분을 포함할 수 있다. 예를 들어, 가요성 및/또는 접이식일 수 있는 케이블이 두 부분을 접속할 수 있다. 일부 실시예에서, 제2 부분은 제1 부분에 대해 연결될 수 있다. 예를 들어, 두 부분은 특정 모양으로 구부러지거나 휘어질 수 있는, 연결식 암 또는 스티프 와이어(articulated arm or stiff wire)로 연결될 수 있다. 예를 들어, 제2 부분은 호스트 컴퓨터에서 멀리, 사용자를 향해 배치될 수 있다. 이러한 식으로, 사용자는 사용자의 생체 데이터가 획득되도록, 핸즈프리(hands-free) 방식으로 내장 장치를 향해 이동하거나 낮출 수 있다. 연결식 암 또는 받침대는 예를 들어, 이동성을 위한 모양으로 펴지거나 휘어질 수 있다. 연결식 암 또는 받침대는 예를 들어, 불편함을 피하기 위해, 사용자의 주머니에 맞도록 모양이 개조(reshape)될 수 있다. 다른 포지셔닝 메커니즘들은 데스크 또는 플랫폼에 놓일 수 있는 크래들, 또는 컴퓨팅 장치의 스크린에 부착하거나 걸리는 크래들을 포함할 수 있다.In some embodiments, the positioning mechanism may include a portion that can connect or plug into a host computer or other computing device (eg, via a USB jack). The positioning mechanism can include a second portion that can be connected by the user, which is not substantially disturbed by the first portion. For example, cables that may be flexible and / or foldable may connect the two parts. In some embodiments, the second portion can be connected relative to the first portion. For example, the two parts may be connected by an articulated arm or stiff wire, which may be bent or curved in a particular shape. For example, the second portion can be placed away from the host computer, towards the user. In this way, the user can move or lower toward the embedded device in a hands-free manner so that the biometric data of the user is obtained. The articulated arm or pedestal can be extended or flexed, for example, in shape for mobility. The articulated arm or pedestal can be reshaped to fit the user's pocket, for example, to avoid discomfort. Other positioning mechanisms can include a cradle that can be placed on a desk or platform, or a cradle that attaches to or hangs on the screen of a computing device.

일부 실시예에서, 이미지 획득 장치는 홍채가 이미지 획득을 위해 센서와 정렬될 때 홍채를 적절하게 비추는 메커니즘을 포함할 수 있다. 일부 실시예에서, 이것은 적외선 LED와 같은 좁은 빔 조명기(narrow-beam illuminator)를 포함한다. 일부 실시예에서, 조명기는 앞서 설명한 포지셔닝 메커니즘들 중 임의의 것을 이용하여 정렬될 때 사용자의 홍채를 가리키도록 배치된다. 조명기의 빔은 홍채 영역만을 커버하도록 충분히 좁은 모양으로 형성될 수 있다. 그러한 구현은 더욱 에너지 효율적일 수 있고, 예를 들어, 적외선 및 홍채 검출을 이용하여 사용자의 배치를 안내하는 데 도움이 될 수 있다. 도 58은 조명기를 배치하기 위한 구성의 일 실시예를 도시한다. 예를 들어, 눈의 축에 대한 적외선 LED의 각도는 theta = aTan(D_offset / D_user)로서 표현될 수 있고, 여기서 D_offset은 카메라와 IR LED 사이의 거리이고, D_user는 장치와 사용자 사이의 공칭/최적 거리이다.In some embodiments, the image acquisition device may include a mechanism to properly illuminate the iris when the iris is aligned with the sensor for image acquisition. In some embodiments, this includes a narrow-beam illuminator such as an infrared LED. In some embodiments, the illuminator is positioned to point to the iris of the user when aligned using any of the positioning mechanisms described above. The beam of the illuminator may be formed in a shape narrow enough to cover only the iris area. Such an implementation may be more energy efficient and may help guide the placement of the user, for example using infrared and iris detection. 58 shows one embodiment of a configuration for placing an illuminator. For example, the angle of the infrared LED with respect to the axis of the eye can be expressed as theta = aTan (D_offset / D_user), where D_offset is the distance between the camera and the IR LED, and D_user is the nominal / optimal between the device and the user. Distance.

도 59는 조명기의 광학 축이 장치의 내부 회로 보드 또는 케이스의 표면에 직교하도록 구성되는 다른 실시예를 도시한다. 그러한 구성은 LED들이 표준 부품 장착 기술들을 이용하여 장착될 수 있기 때문에 제조가능성을 용이하게 할 수 있다. 이 실시예에서, 포지셔닝 미러가 경사질 수 있으므로, 미러의 광학 축 및 적외선 조명의 광학 축은 예를 들어, 사용자의 홍채에서 공칭/최적 사용자 위치에 수렴한다(converge). 일부 다른 실시예들뿐만 아니라, 어느 한 실시예에서, 속눈썹 그림자가 배치를 방해하지 않거나 취득한 이미지 내로 도입되지 않도록, 적외선 LED들의 위치는 대상의 머리 앞에 대하여 카메라/센서의 레벨과 동일한 레벨에, 또는 그 아래에 있는 것이 바람직할 수 있다.FIG. 59 shows another embodiment in which the optical axis of the illuminator is configured to be orthogonal to the surface of the inner circuit board or case of the device. Such a configuration can facilitate manufacturability because the LEDs can be mounted using standard component mounting techniques. In this embodiment, since the positioning mirror can be tilted, the optical axis of the mirror and the optical axis of the infrared illumination converge, for example, at the nominal / optimal user position in the iris of the user. In some embodiments, as well as in some other embodiments, the position of the infrared LEDs is at the same level as the level of the camera / sensor relative to the subject's head, so that eyelash shadows do not interfere with placement or are introduced into the acquired image, or It may be desirable to be below it.

도 60은, 광학 축이 카메라의 광학 축에 평행하게 장착되어 있는 IR 조명기로부터의 조명이 미러들에서 반사되어 사용자의 위치를 향해 비스듬히 향하는 또 다른 실시예를 도시한다. 조명기는 장치의 내부 회로 보드의 표면에 직교하도록 구성될 수 있다. 일부 실시예에서, D_offset은 더 많은 광이 홍채에서 센서로 반사될 수 있도록 감소 또는 최소화될 수 있다.FIG. 60 shows yet another embodiment where illumination from an IR illuminator with an optical axis mounted parallel to the optical axis of the camera is reflected off the mirrors and directed obliquely towards the user's position. The illuminator may be configured to be orthogonal to the surface of the internal circuit board of the device. In some embodiments, D_offset may be reduced or minimized so that more light can be reflected from the iris to the sensor.

도 61은 이미지 획득 장치의 다른 실시예를 도시한다. 장치는 사용자를 배치하기 위해 스크린 상에 디스플레이된 이미지들을 이용하는, 앞서 설명한 미러 시뮬레이션 메커니즘을 이용할 수 있다. 홍채의 이미지는 카메라에 가능한 한 가깝게 전자적으로 시프트될 수 있다. 하나 이상의 조명기들이 스크린의 하나 이상의 에지 근처에 배치될 수 있다. 하나의 조명기의 광학 축은 장치에 대한 사용자의 공칭/최적 위치에서 홍채를 가리킬 수 있다.61 shows another embodiment of an image acquisition device. The apparatus may use the mirror simulation mechanism described above, which uses the images displayed on the screen to place the user. The image of the iris can be shifted electronically as close as possible to the camera. One or more illuminators may be placed near one or more edges of the screen. The optical axis of one illuminator can point to the iris at the user's nominal / optimal position relative to the device.

도 62a 및 62b는 이미지 획득 장치의 실시예들을 도시한다. 이 실시예들은 조명을 제공하는 스크린을 이용함으로써 잘 조명된 홍채 이미지(well-illuminated iris imagery)의 획득을 가능하게 할 수 있다. 스크린은 옵션으로 가시적 조명뿐만 아니라 적외선 조명을 확산할 수 있다. 스크린은 액정 디스플레이(Liquid Crystal Display; LCD)를 포함할 수 있다. LCD 스크린들은 각각의 스크린의 내부에 장착된 및/또는 스크린을 둘러싸는 LED들의 줄들을 갖는 것에 의해 구성된다. 확산기들은 스크린 상에 각각의 개별 픽셀을 형성하는 편광 물질, 액정 패널 및 컬러 필터들을 통해서, 사용자에게 위쪽으로 조명을 투사할 수 있다. 그러한 조명은 디스플레이 스크린들에 대해 표준일 수 있는, 가시광선 LED들에 의해 제공될 수 있다. 이미지 획득 장치의 일부 실시예는 예를 들어, 스크린의 에지들에 부가적인 적외선 LED들을 포함할 수 있다. 일부 실시예에서, 적외선 LED들은 스크린 내에 포함될 수 있다. 이러한 적외선 조명은 사용자를 향해 확산되고 투사될 수 있다. 컬러 필터들은 통상적으로 적외선 조명에 대해 투명하고, 적외선 조명은 생체 캡처를 위해 홍채를 조명하기 위해 방해받지 않고, 또는 실질적으로 방해받지 않고 통과할 수 있다.62A and 62B show embodiments of the image capturing apparatus. These embodiments may enable the acquisition of well-illuminated iris imagery by using a screen that provides illumination. The screen can optionally diffuse infrared light as well as visible light. The screen may comprise a Liquid Crystal Display (LCD). LCD screens are constructed by having rows of LEDs mounted inside and / or surrounding the screen. The diffusers can project illumination upwards to the user through polarizing material, liquid crystal panels and color filters that form each individual pixel on the screen. Such illumination may be provided by visible light LEDs, which may be standard for display screens. Some embodiments of the image acquisition device may include, for example, additional infrared LEDs at the edges of the screen. In some embodiments, infrared LEDs may be included in the screen. Such infrared illumination can be diffused and projected towards the user. Color filters are typically transparent to infrared illumination, and the infrared illumination can pass through unimpeded or substantially unobstructed to illuminate the iris for biometric capture.

일부 실시예에서, 적외선 LED들은 예를 들어, 도 62b에 도시된 바와 같이, 스크린의 영역 내에 그룹화 또는 집중될 수 있다. 첫째, (예를 들어, 더 작은 영역 내에 그룹화 및/또는 배치된) 적외선 LED들을 부가하는 비용이 감소할 수 있고, 둘째, 스크린의 더 작은 영역이 적외선 조명기들에 의해 조명될 수 있다. 이것은 조명의 영역이 증가함에 따라, 각막에서 정반사되는 영역도 증가할 수 있어, 홍채 자체의 이미지를 가릴 수 있기 때문에 중요하다. 적외선 LED들의 영역을 제한함으로써, 각막으로부터의 정반사성이 감소할 수 있으므로, 생체 획득 성능이 증가한다. 또한, 홍채 인식을 위한 표준 ISO 사양에 기재된 바와 같이, 임의의 각막 정반사성의 크기는 그것이 홍채 이미지의 동공 내에 포함되도록 최소화되는 것이 바람직하다. 적외선 LED들의 위치 및 영역을 제한하는 것은 이것을 실현하는 데 도움이 될 수 있다.In some embodiments, infrared LEDs may be grouped or concentrated within an area of the screen, for example, as shown in FIG. 62B. First, the cost of adding infrared LEDs (eg, grouped and / or arranged within a smaller area) can be reduced, and second, a smaller area of the screen can be illuminated by infrared illuminators. This is important because as the area of illumination increases, the area of specular reflection in the cornea can also increase, obscuring the image of the iris itself. By limiting the area of the infrared LEDs, specular reflection from the cornea can be reduced, thereby increasing the bioacquisition performance. Further, as described in the standard ISO specification for iris recognition, it is desirable that the size of any corneal specular reflectivity be minimized so that it is included in the pupil of the iris image. Limiting the location and area of the infrared LEDs can help to realize this.

일부 실시예에서, 적외선 LED들은 가장 기본적인 적외선 디스플레이가 생성되도록 장치에 의해 독립적으로 제어될 수 있다. 이 경우, 적외선의 기본적인 모양들이 스크린으로부터 투사되어, 각막에서 반사되고 카메라 이미저 또는 센서에 의해 수집될 수 있다. 이 모양들은 장치를 통한 컴퓨터 제어에 의해 변화되고, 검출되어서, 장치의 앞에서 사용자의 라이브니스(liveness)를 결정하기 위한 수단으로서 이용될 수 있다. 이것은 획득된 생체들이 예를 들어, 기록된 눈의 이미지 대신에 실제 살아있는 사람(actual live person)으로부터 획득되었는지를 결정하는 방식으로서의 역할을 한다.In some embodiments, the infrared LEDs can be independently controlled by the device to produce the most basic infrared display. In this case, the basic shapes of infrared light can be projected from the screen, reflected off the cornea and collected by a camera imager or sensor. These shapes can be changed and detected by computer control through the device and used as a means to determine the liveness of the user in front of the device. This serves as a way of determining whether the acquired living bodies are obtained from an actual live person instead of, for example, an image of the recorded eye.

일부 실시예에서, 센서로부터의 이미지는 턴온되고 나서 턴오프되는 적외선 모양들에 의해 둘다 수집된다. 두 세트의 이미지는 그 다음에 저장될 수 있고 (예를 들어, 스크린 및/또는 주변 광으로부터의) 오염 및 예측불가능한 가시적 조명의 효과들을 감소시키기 위해 감산(subtract)될 수 있다. 예를 들어, 그러한 방법들의 실시예들은 적어도 도 13-23 및 37-38과 함께 위에서 논의된다. 사용자는 적외선 조명을 볼 수 없기 때문에, 조명기들로부터 투사된 적외선 조명은 매우 밝을 수 있고, 사용자를 짜증스럽게 하지 않고 정기적으로 턴 온 및 오프될 수 있다. 이러한 접근법은 홍채 인식 또는 얼굴 인식이 장치의 스크린으로부터의 제어되는 조명(controlled illumination)을 통해 수집된 이미지에서 수행될 수 있게 한다. 스크린에 IR 조명기들을 통합함으로써, 장치는 훨씬 더 콤팩트할 수 있다.In some embodiments, images from the sensor are both collected by infrared shapes that are turned on and then turned off. The two sets of images can then be stored and subtracted to reduce the effects of contamination and unpredictable visible lighting (eg, from the screen and / or ambient light). For example, embodiments of such methods are discussed above in conjunction with at least FIGS. 13-23 and 37-38. Since the user cannot see the infrared light, the infrared light projected from the illuminators can be very bright and can be turned on and off regularly without annoying the user. This approach allows iris recognition or facial recognition to be performed on the image collected through controlled illumination from the screen of the device. By incorporating IR illuminators into the screen, the device can be much more compact.

특정 실시예에서, 이미지 획득 장치는 센서와 사용자의 눈의 간단하고 빠른 정렬을 제공하면서 채광이 좋고 가리지 않은 획득된 홍채 이미지를 실현하는 포지셔닝 시스템을 통합한다. 생체 피처들은 사용자가 장치의 LED들 위에 손가락을 놓은 경우에 채광이 좋지 않을 수 있다. 홍채 이미지에서의 가림은 장치의 센서 위의 손가락들의 부적절한 배치에 의해 생길 수 있다. 이것은 이미지 획득 장치의 크기가 작아짐에 따라, 홀드(hold)될 때 사용자의 손이 장치의 더 큰 부분을 커버할 가능성이 높아지기 때문에 중요한 문제가 될 수 있다. 도 63은 사용자의 손의 그래스프(grasp)를 배치하는 데 도움이 되게 하는 영역 또는 마커를 제공함으로써, 이러한 문제를 해결하기 위한 구현을 도시한다. 예를 들어, 센서 및 적외선 LED(들)이 차지하는 장치의 영역에서 멀리 배치된, 엄지손가락 지문 또는 엄지손가락 받침대(thumb-rest)의 2D 또는 3D 표현과 같은 마커가 핸드헬드 장치에 포함될 수 있다. 마커는 사용자의 엄지손가락이 마커에 배치되어야 함을 표시하기 위해 사용자 안내를 제공할 수 있다. 마커에 따라 사용자의 그래스프를 배치함으로써, 예를 들어, 도 64에 도시된 바와 같이, 사용자가 센서 또는 조명기 영역을 부적절하게 가릴 가능성이 작다.In a particular embodiment, the image acquisition device incorporates a positioning system that realizes an acquired iris image with good and unilluminated light while providing a simple and quick alignment of the sensor and the user's eyes. Biological features may be poorly lit when the user places a finger over the LEDs of the device. Occlusion in the iris image may be caused by improper placement of the fingers on the sensor of the device. This can be an important issue as the size of the image acquisition device becomes smaller, which increases the likelihood that the user's hand will cover a larger portion of the device when held. FIG. 63 illustrates an implementation to solve this problem by providing an area or marker to help place a grasp of a user's hand. For example, a marker may be included in the handheld device, such as a 2D or 3D representation of a thumb fingerprint or thumb-rest, placed away from the area of the device occupied by the sensor and infrared LED (s). The marker may provide user guidance to indicate that the user's thumb should be placed on the marker. By arranging the user's grasp in accordance with the marker, for example, as shown in FIG. 64, it is less likely that the user will inappropriately cover the sensor or illuminator area.

일부 실시예에서, 카메라/센서는 장치의 일 단부 근처에, 예를 들어, 장치의 꼭대기 근처에 배치될 수 있다. 적외선 조명기(들)는 예를 들어, 사용자의 속눈썹에 대해 그림자가 생기는 것을 피하기 위해, 카메라 아래에 배치될 수 있다. 엄지손가락 받침대 또는 마커는 적외선 조명기(들)가 차지하는 영역 아래에 배치될 수 있다. 옵션으로, 엄지손가락 받침대/마커 영역 상의 접촉 검출기가 엄지손가락이 존재하는지를 검출하기 위해 이용될 수 있고, 장치가 획득 시간 동안 적절하게 홀드되지 않는 경우에 차선일 수 있는 이미지의 획득을 피하기 위해 이용될 수 있다.In some embodiments, the camera / sensor may be disposed near one end of the device, for example near the top of the device. Infrared illuminator (s) can be placed under the camera, for example, to avoid shadows on the user's eyelashes. The thumb rest or marker may be placed below the area occupied by the infrared illuminator (s). Optionally, a contact detector on the thumb rest / marker area may be used to detect the presence of a thumb and may be used to avoid acquisition of an image that may be suboptimal if the device is not properly held during the acquisition time. Can be.

도 64는 핸드헬드 이미지 획득 장치의 일 실시예를 도시한다. 장치의 포지셔닝 메커니즘들은 장치의 특정 위치에 케이블 커넥터가 장착되는 경우에 이용하기가 특히 더 어려울 수 있다. 본원에 설명된 포지셔닝 메커니즘들을 이용할 때, 사용자는 손목의 피벗 포인트(pivot point)에 대해 장치를 시프트 및/또는 경사지게 할 수 있다. 케이블 커넥터가 피벗 포인트에서 먼 경우, 장치 커넥터/케이블의 중량 및 스티프니스에 의해 사용자의 손목에 가해지는 레버 암 힘(lever arm force)은 상당할 수 있고, 본원에 설명된 포지셔닝 메커니즘들의 이용을 더욱 어렵게 할 수 있다. 이러한 효과는 예를 들어, 엄지손가락 받침대 안내 메커니즘에 따라, 장치가 홀드되고 있을 때 사용자의 손목의 피벗 포인트 근처에 커넥터/케이블을 배치함으로써 완화될 수 있다. 그러한 실시예들에서, 사용자의 손목의 피벗 포인트와 커넥터/케이블의 위치 사이의 거리는 더 작아지므로, 도 65에 도시된 바와 같이, 레버 암 거리 및 사용자의 손목에 대한 후속 힘들이 감소한다. 일부 실시예에서, 바람직한 구성은 장치의 꼭대기에 카메라를 갖고, 카메라 아래에 적외선 조명을 갖고, LED 영역 아래에 엄지손가락 받침대/마커 영역을 갖고, 장치의 하부 단에 장치의 측면 또는 장치의 아래로 나가는 커넥터/케이블 영역을 갖는 것이다.64 illustrates one embodiment of a handheld image acquisition device. Positioning mechanisms of the device may be particularly difficult to use when the cable connector is mounted at a particular location of the device. When using the positioning mechanisms described herein, the user can shift and / or tilt the device with respect to the pivot point of the wrist. If the cable connector is far from the pivot point, the lever arm force exerted on the user's wrist by the weight and stiffness of the device connector / cable may be significant, making the use of the positioning mechanisms described herein more difficult. can do. This effect can be mitigated, for example, by placing a connector / cable near the pivot point of the user's wrist when the device is being held, in accordance with the thumb restraint guide mechanism. In such embodiments, the distance between the pivot point of the user's wrist and the position of the connector / cable is smaller, so that the lever arm distance and subsequent forces on the user's wrist are reduced, as shown in FIG. 65. In some embodiments, the preferred configuration has a camera on top of the device, an infrared light under the camera, a thumb rest / marker area under the LED area, and a side or bottom of the device at the lower end of the device. It has an outgoing connector / cable area.

일부 실시예에서, 생체/이미지 획득 장치는 적외선 조명에 의한 홍채의 고품질 이미지들뿐만 아니라, 가시적 조명에서의 장면(scene)의 고품질 이미지들을 획득하기 위해 단일 콤팩트 센서를 이용한다. 도 66은 단일 센서와 이용될 수 있는 필터 어레이의 일 실시예를 도시한다. 필터 어레이는 분산된 IR-통과 및 IR-차단 컴포넌트들을 포함할 수 있다. 그러한 필터 어레이를 형성하는 하나의 방법은, 균일한 IR-차단 필터 상의 정기적인 수직 및 수평 샘플링 간격들로 구멍들을 레이저 드릴링하는 것이다. 후자는 많은 카메라 모듈들(예를 들어, 스마트폰 카메라들, 태블릿 카메라들)에서 표준일 수 있다. 그러한 필터 어레이를 생성하기 위한 다른 방법들이 이용될 수 있고, 어레이는 필터의 일부 샘플링된 영역들에서의 가시-통과/IR-차단 필터 요소들, 및 필터의 다른 샘플링된 영역들에서의 가시-차단/IR-통과 필터 요소들과 같은 다른 필터 요소들을 포함할 수 있다. 일부 애플리케이션들에서, 가시적 이미지의 깨끗한 품질을 보존하고, 신호대 잡음 요건들 및/또는 특정 가시적 이미지 해상도를 충족시킬 필요가 있을 수 있다. 이와 같이, 이미지 획득 장치의 일부 실시예는 필터 어레이의 적외선 통과 컴포넌트의 샘플링을 초과하도록 필터 어레이의 적외선 차단 컴포넌트의 샘플링을 구성할 수 있다. 이미지 획득 장치는 실질적으로 적외선 차단 컴포넌트에 대한 대응하는 나이키스트 속도(Nyquist rate)에서 또는 그 아래에서 필터 어레이의 적외선 차단 컴포넌트를 샘플링할 수 있다. 이미지 획득 장치는 실질적으로 적외선 통과 컴포넌트에 대한 대응하는 나이키스트 속도에서 또는 그 아래에서 필터 어레이의 적외선 통과 컴포넌트를 샘플링할 수 있다. 실질적으로 대응하는 나이키스트 속도에서 또는 그 아래에서 샘플링하는 것은 에일리어싱(aliasing)의 효과들을 피할 수 있다.In some embodiments, the biometric / image acquisition device uses a single compact sensor to obtain high quality images of the iris by infrared illumination, as well as high quality images of the scene in visible illumination. 66 illustrates one embodiment of a filter array that may be used with a single sensor. The filter array can include distributed IR-pass and IR-blocking components. One way to form such a filter array is to laser drill holes at regular vertical and horizontal sampling intervals on a uniform IR-blocking filter. The latter can be standard in many camera modules (eg, smartphone cameras, tablet cameras). Other methods for generating such a filter array can be used, the array having visible-pass / IR-blocking filter elements in some sampled regions of the filter, and visible-blocking in other sampled regions of the filter. Other filter elements, such as / IR-pass filter elements. In some applications, it may be necessary to preserve the clean quality of the visible image and meet signal to noise requirements and / or specific visible image resolution. As such, some embodiments of the image acquisition device may configure sampling of the infrared blocking component of the filter array to exceed the sampling of the infrared pass component of the filter array. The image acquisition device may sample the infrared blocking component of the filter array at or below substantially the corresponding Nyquist rate for the infrared blocking component. The image acquisition device may sample the infrared pass component of the filter array at or below substantially the corresponding Nyquist velocity for the infrared pass component. Substantially sampling at or below the corresponding Nyquist rate can avoid the effects of aliasing.

일부 실시예에서, 적외선 통과 이미지의 상당한 서브-샘플링(significant sub-sampling)은 2가지 문제를 생성할 수 있다. 첫째, 심각한 센서 서브-샘플링이 에일리어싱을 생성할 수 있으므로, 획득한 홍채 이미지를 쓸모없게 만든다. 둘째, 획득한 홍채 이미지의 결과적인 해상도가 더 낮아질 수 있으므로, 홍채 인식을 신뢰할 수 없게 만든다. 예를 들어, 홍채 인식을 위한 ISO 표준들은 직경이 100-200 픽셀들인 홍채 이미지의 획득을 권고한다. 본 시스템들 및 방법들은 내장 장치들에서의 렌즈의 광학적 변조 전달 함수(Modulation Transfer Function; MTF)가 종종 센서 자체의 해상도로 리졸브(resolve)할 수 없는 현상을 이용한다. 다시 말해, 렌즈의 품질은 센서들의 점점 더 증가하는 해상도에 맞추지 않는다. 이것은 특히 센서들이 작아지고 더 높은 해상도를 지원해야 할 때 그러하다. 장치는 따라서 높은 값들로 서브 샘플링할 수 있고, 또한 많은 에일리어싱이 생기지 않는다. 그것은 장치가 적외선 광에서 홍채의 비-에일리어싱 이미지들(non-aliased images)을 획득함과 동시에 고품질 홍채 이미지들을 획득할 수 있게 한다. 필터 어레이는 센서의 픽셀 간격에 대해 필터의 IR-통과 컴포넌트가 상당히 서브 샘플링되도록 구성될 수 있다. 서브 샘플링의 속도는 예를 들어, 센서 어레이의 각각의 좌표 축에서 2-6의 인자일 수 있다. 그러한 큰 서브 샘플링 인자들은, 필터의 IR- 차단 부분들이 가시적 이미지를 더 많이 샘플링할 수 있으므로, 가시적 컴포넌트들의 신호대 잡음 및 해상도가 손상되지 않는다는 것을 의미한다.In some embodiments, significant sub-sampling of the infrared pass image can create two problems. First, serious sensor sub-sampling can produce aliasing, making the acquired iris image useless. Second, the resulting resolution of the acquired iris image may be lower, making the iris recognition unreliable. For example, ISO standards for iris recognition recommend the acquisition of iris images with 100-200 pixels in diameter. The present systems and methods utilize a phenomenon in which the optical modulation transfer function (MTF) of a lens in embedded devices is often unable to resolve to the resolution of the sensor itself. In other words, the quality of the lens does not match the ever increasing resolution of the sensors. This is especially true when sensors are smaller and need to support higher resolutions. The device can thus subsample with high values and also does not result in much aliasing. It allows the device to acquire high quality iris images while at the same time acquiring non-aliased images of the iris in infrared light. The filter array can be configured such that the IR-pass component of the filter is significantly subsampled for the pixel spacing of the sensor. The rate of subsampling may be, for example, a factor of 2-6 in each coordinate axis of the sensor array. Such large sub-sampling factors mean that the IR-blocking portions of the filter can sample more of the visible image, so that the signal-to-noise and resolution of the visible components are not compromised.

반대로, 미국 특허 7872234호는 에일리어싱을 방지하기 위해 매우 조밀하게 샘플링된 적외선 어레이들을 이용하는 방법을 개시한다. 예를 들어, 2의 서브 샘플링 인자에 의하면, 가시적 픽셀들의 (l/2)*(l/2) = 25%가 영향을 받는다. 이것은 가시적 이미지의 품질(신호대 잡음 및 해상도)을 손상시키는 결점이 있는데, 그것은 가시적 이미지를 구성하는 데 이용된 데이터의 대부분이 손실되기 때문이다. US 7872234호는 각각의 가시적 픽셀 클러스터에서 컬러 보상을 수행함으로써 이것을 완화한다. 그러나, 그러한 컬러 보상은 각각의 픽셀에 아티팩트들을 도입할 수 있고, 기본 가시적 이미지 신호의 신호대 잡음 값이 손상되는데, 그것은 가시적 이미지를 생성하기 위해 적은 입사 광자들이 이용되고 있기 때문이고, 이것은 센서 크기가 작고 낮은 신호대 잡음 속성들을 가질 때 특히 상당하다.In contrast, US patent 7872234 discloses a method of using very densely sampled infrared arrays to prevent aliasing. For example, with a subsampling factor of 2, (l / 2) * (l / 2) = 25% of the visible pixels are affected. This has the disadvantage of compromising the quality of the visible image (signal to noise and resolution) because most of the data used to construct the visible image is lost. US 7872234 mitigates this by performing color compensation on each visible pixel cluster. However, such color compensation can introduce artifacts into each pixel, and the signal-to-noise value of the underlying visible image signal is compromised because fewer incident photons are being used to generate the visible image, which is why the sensor size This is especially true when they have small and low signal-to-noise properties.

본 이미지 획득 장치들의 일부 실시예에서 적외선 컴포넌트의 더 큰 서브 샘플링을 이용함으로써, 더 작은 비율의 가시적 픽셀들이 영향을 받는다. 예를 들어, 4의 서브 샘플링 인자에 의하면, IR 샘플링에 의해 가시적 픽셀들의 (l/4)*(l/4)) = 6.25%만이 영향을 받는다. 6의 서브 샘플링 인자에 의하면, 가시적 픽셀들의 (l-(l/6)*(l/6)) = 97%가 훼손되지 않고 남는다. 통상적으로, 그러한 큰 픽셀 어레이들은 이미 데드(dead) 또는 높은/낮은 이득 픽셀들을 갖고, 스크린 영역의 점점 더 작은 퍼센티지를 차지하는 그러한 비정상들에서 채우기 위해 매우 상이한 보간 방법들이 개발되어 테스트된다. 예를 들어, 그러한 작은 비정상들은 주변 영역들에서 픽셀들에 대해 중앙값 필터링/평균화(median filtering/averaging)를 적용함으로써 완화될 수 있다. 따라서, 작은 수의 가시적 픽셀들에 영향을 미치는 소량의 IR 샘플링이 그러한 접근법들을 이용하여 보상될 수 있다. 그러나, 중앙값 필터링은 가시적 픽셀들이 낮은 경우(예를 들어, 미국 특허 7872234에서와 같은 높은 IR 샘플링)에 적절하지 않은데, 그것은 그러한 보상이 모든 픽셀 클러스터에서 수행되어야 하는 경우에 중앙값 필터링이 아티팩트들을 야기할 수 있기 때문이다 - 중앙값 필터링/평균화 알고리즘에 대한 입력으로서 임의의 주위의 오염되지 않은 가시적 픽셀 데이터가 존재하는 경우는 많지 않다. 획득한 가시적 이미지의 신호대 잡음 값은 또한 상당히 손상되지 않는데, 그것은 센서 어레이에서의 대부분의 픽셀들이 여전히 가시적 이미지를 생성하는 데 이용되고 있기 때문이다.By using larger subsampling of the infrared component in some embodiments of the present image acquisition devices, smaller proportions of visible pixels are affected. For example, with a subsampling factor of 4, only (l / 4) * (l / 4) = 6.25% of the visible pixels are affected by IR sampling. According to the sub-sampling factor of 6, (l- (l / 6) * (l / 6)) = 97% of the visible pixels remain intact. Typically, such large pixel arrays already have dead or high / low gain pixels, and very different interpolation methods have been developed and tested to fill in those anomalies that occupy smaller and smaller percentages of the screen area. For example, such small anomalies can be mitigated by applying median filtering / averaging on the pixels in the surrounding areas. Thus, a small amount of IR sampling that affects a small number of visible pixels can be compensated using such approaches. However, median filtering is not suitable for low visible pixels (e.g., high IR sampling as in US Pat. No. 7,872234), which means that median filtering will cause artifacts if such compensation must be performed in all pixel clusters. It is unlikely that there is any ambient unpolluted visible pixel data as input to the median filtering / averaging algorithm. The signal-to-noise value of the acquired visible image is also not significantly impaired because most of the pixels in the sensor array are still used to produce the visible image.

어레이의 IR-통과 컴포넌트에 의해 획득된 홍채 데이터는 큰 서브 샘플링으로 인해 작을 수 있고 보간후에도 그러할 수 있다. 일부 실시예에서, 이미지 획득 장치는 통상적인 홍채 획득 해상도보다 높은 해상도로 홍채 이미지를 획득함으로써 이것을 해결할 수 있다. 이것은, 예를 들어, 센서에 더 가깝게 홍채를 배치함으로써, 홍채의 더 큰 이미지를 획득하는 것에 의해 실현될 수 있다. 예를 들어, 직경이 100 픽셀인 보간된 홍채 이미지가 필요하고, 필터 어레이가 4의 IR-통과 서브 샘플 값으로 이용되는 경우, 이미지 획득 장치는 센서의 원래 샘플링에 대해 홍채의 직경이 400 픽셀들이 되도록 하는 거리에서 홍채 이미지들을 획득하도록 구성될 수 있다. 획득한 홍채 이미지의 크기 Iris_diameter_acquired가 Iris_diameter_acquired = Iris_diameter_required x IR_pass_sample_value에 의해 주어질 수 있고, 여기서 Iris_diameter_required는 홍채 인식을 위해 요구되는 보간된 홍채 직경이고, IR_pass_sample_value은 필터 어레이의 IR-통과 컴포넌트의 샘플링이다.Iris data obtained by the IR-pass component of the array can be small due to large subsampling and even after interpolation. In some embodiments, the image acquisition device may solve this by acquiring an iris image at a resolution higher than the conventional iris acquisition resolution. This can be realized by obtaining a larger image of the iris, for example by placing the iris closer to the sensor. For example, if an interpolated iris image with a diameter of 100 pixels is required, and the filter array is used with an IR-pass subsample value of 4, the image acquisition device may have 400 pixels in diameter for the original sampling of the sensor. And may be configured to acquire iris images at a distance that is desired. The size of the acquired iris image Iris_diameter_acquired can be given by Iris_diameter_acquired = Iris_diameter_required x IR_pass_sample_value, where Iris_diameter_required is the interpolated iris diameter required for iris recognition, and IR_pass_sample_value is the sampling of the IR-pass component of the filter array.

위에서 논의한 바와 같이, 성기게 샘플링된 영역들에 대한 샘플링 간격은 필터 어레이 아래에 놓이는 센서 어레이에서의 매 2nd - 6th 픽셀에 대응할 수 있다. 일부 실시예에서, 예를 들어, 도 66에 도시된 바와 같이, 룩업 테이블 또는 픽셀 계산기를 이용하여, 센서의 어느 픽셀들이 적외선 광에 노출되거나 노출되지 않는지를 결정 또는 예측할 수 있다. 이 픽셀들은 그 다음에 별개의 이미지 보간기 알고리즘들을 통과하여 노출된 픽셀 세트들 각각으로부터 별개의 이미지들을 생성한다. 적외선 광에 노출되지 않은 픽셀들의 세트는 가시 광선에서 표준 장면들의 심리스한(seamless) 고해상도 이미지들을 생성할 수 있다. 적외선 광에 노출된 픽셀들의 세트는 도 67에 도시된 바와 같이, 홍채의 심리스한 고해상도 이미지들을 생성할 수 있다. 필터가 센서 픽셀들에 대해 조심스럽게 반복적으로 정렬되는 경우, 룩업 테이블 또는 계산기는 센서 픽셀 간격의 기하학적 구조에 기초하여 사전 프로그래밍될 수 있다.As discussed above, the sampling interval for sparsely sampled regions may correspond to every 2 nd -6 th pixels in the sensor array that lies below the filter array. In some embodiments, for example, as shown in FIG. 66, a lookup table or pixel calculator may be used to determine or predict which pixels of the sensor are exposed or not exposed to infrared light. These pixels then pass through separate image interpolator algorithms to produce separate images from each of the exposed pixel sets. The set of pixels not exposed to infrared light can produce seamless high resolution images of standard scenes in visible light. The set of pixels exposed to infrared light can produce seamless high resolution images of the iris, as shown in FIG. 67. If the filter is carefully and repeatedly aligned with respect to the sensor pixels, the lookup table or calculator can be preprogrammed based on the geometry of the sensor pixel spacing.

일부 실시예에서, 필터가 센서 픽셀들에 대해 조심스럽게 정렬되지 않는 경우, 초기 및/또는 빠른 캘리브레이션 단계를 수행하여 어느 픽셀들이 적외선 광에 노출되는지를 결정할 수 있다. 캘리브레이션 단계는, 예를 들어, (적외선 광원에 의해 조명되는 무광 반사 표면과 같은) 적외선 광원 및 기록된 결과적인 이미지를 향해 센서, 필터 및 렌즈 조합을 가리키는 것을 포함할 수 있다. 필터의 IR-차단 부분 아래의 픽셀들은 어둡게 나타날 수 있고, 필터의 IR-통과 부분 아래의 픽셀들은 밝게 나타날 수 있다. 이러한 밝고 어두운 변화들(variations)은 예를 들어, 임계값에 의해 검출되거나 임계값과 비교될 수 있고, 임계값을 초과하는 픽셀들은 필터의 IR-통과 부분 아래에 있는 것으로서 식별될 수 있고, 예를 들어, 룩업 테이블에 삽입될 수 있다.In some embodiments, if the filter is not carefully aligned with respect to the sensor pixels, an initial and / or quick calibration step may be performed to determine which pixels are exposed to infrared light. The calibration step may include, for example, pointing the sensor, filter and lens combination towards the infrared light source (such as a matte reflective surface illuminated by an infrared light source) and the resulting resulting image. Pixels below the IR-blocking portion of the filter may appear dark, and pixels under the IR-passing portion of the filter may appear bright. Such bright and dark variations can be detected or compared to a threshold, for example, and pixels exceeding the threshold can be identified as being under the IR-passing portion of the filter, eg For example, it may be inserted into a lookup table.

IR-통과 컴포넌트에 의한 필터 어레이의 더 높은 샘플링이 에일리어싱을 야기할 수 있는 일부 실시예에서, 이미지 획득 장치의 렌즈는 센서에 입사하는 이미지를 블러링하기 위해 의도적으로 디-포커싱(de-focus)될 수 있다. 이것은 도 68에 도시된 바와 같이 에일리어싱의 영향을 감소시킬 수 있다. 캡처된 홍채 이미지의 해상도의 증가, 보간 및/또는 중앙값 필터링과 같은 기술들을 이용하여, 디-포커싱으로부터의 저하가 감소할 수 있다. 도 69는 필터의 IR-차단 부분이 높게 샘플링되기 때문에 어떻게 고품질, 인-포커스(in-focus) 가시적 이미지가 획득될 수 있는지를 도시한다. 필터의 IR-차단 부분은 에일리어싱의 효과들을 피하기 위해 실질적으로 대응하는 나이키스트 속도에서 또는 그 아래에서 샘플링된다.In some embodiments where higher sampling of the filter array by the IR-pass component may cause aliasing, the lens of the image acquisition device is intentionally de-focused to blur the image incident on the sensor. Can be. This can reduce the effect of aliasing as shown in FIG. 68. Using techniques such as increasing the resolution of the captured iris image, interpolation and / or median filtering, the degradation from de-focusing can be reduced. 69 shows how a high quality, in-focus visible image can be obtained because the IR-blocking portion of the filter is sampled high. The IR-blocking portion of the filter is sampled at or below the substantially corresponding Nyquist rate to avoid the effects of aliasing.

일부 실시예에서, 장치의 센서의 센서 픽셀들의 어레이는 필터 어레이에 대응하도록 구축될 수 있다. 예를 들어, RGB 픽셀들은 가시적 샘플 위치들에 배치될 수 있고, IR 센서 픽셀들은 IR-통과 샘플링 포인트들 아래에 배치될 수 있다. 이것은 (예를 들어, 샘플링되지 않은 영역들로부터 수집된) 데이터의 처리 및/또는 비용을 감소시킬 수 있다.In some embodiments, the array of sensor pixels of the sensor of the device may be built to correspond to the filter array. For example, RGB pixels can be placed at visible sample positions, and IR sensor pixels can be placed below IR-pass sampling points. This may reduce the processing and / or cost of the data (eg, collected from unsampled areas).

일부 실시예에서, 이미지 획득 장치는 장치 내의 처리를 최적화하고, 장치와 외부 장치들 사이의 인터페이스를 최적화하여, 메모리 및 전력과 같은 이용가능한 제한된 리소스들의 효율적인 이용을 행할 수 있다. 내장 장치에서, 메모리는 통상적으로 비용 한계들뿐만 아니라, 장치의 물리적 크기로 인해 제한된다. 장치를 위한 전력은 보통 USB 인터페이스와 같은 저전력 링크에 대한 액세스 또는 배터리 한계들로 인해 제한된다. 그러나, 동시에, 사용자 및 애플리케이션에 따라, 최적의 이미지가 획득될 수 있는지 여부 및 그 때가 불확실하기 때문에, 저품질 및 고품질 홍채 이미지 둘다의 많은 이미지들을 획득하기를 원할 수 있다. 동시에, 이미 획득한 이미지들은 특정 애플리케이션을 위해 요구되는 정확도에서 생체 매칭을 위해 충분한 정보를 제공할 수 있다. 효율적인 처리를 위해, 이미지 획득 장치는 일정 시간 기간에 걸쳐 생체 이미지들의 세트를 획득하고, 저장 또는 추가 처리를 위해 다른 것들 중 일부보다 더 양호한 품질의 이미지를 선택할 수 있다. 예를 들어, 이미지 획득 장치는 획득한 모든 이미지에 대해 매칭을 수행하기보다는, 생체 매칭을 위한 더 양호한 품질의 이미지를 선택할 수 있다. 따라서, 감소한 수의 이미지들이 내장 장치에서 버퍼링 및/또는 처리될 수 있다.In some embodiments, the image acquisition device may optimize processing within the device and optimize the interface between the device and external devices to make efficient use of the limited resources available, such as memory and power. In embedded devices, memory is typically limited not only by cost limitations, but also by the physical size of the device. Power for the device is usually limited due to battery limitations or access to a low power link such as a USB interface. However, at the same time, depending on the user and the application, it may be desired to obtain many images of both low quality and high quality iris images, since it is uncertain whether and when an optimal image can be obtained. At the same time, the already acquired images can provide sufficient information for biometric matching at the accuracy required for the particular application. For efficient processing, the image acquisition device may acquire a set of biometric images over a period of time, and select an image of better quality than some of the others for storage or further processing. For example, the image acquisition device may select a better quality image for biometric matching, rather than performing matching on all acquired images. Thus, a reduced number of images can be buffered and / or processed in the embedded device.

일부 실시예에서, 선택된 이미지들 중 하나 이상이 생체 매칭을 위해 더 양호한 품질로 된 새로 획득한 이미지에 의해 오버라이트(over-write)될 수 있다. 이러한 식으로, 이미지들을 버퍼링 또는 저장하기 위한 메모리 요건들이 감소할 수 있고, 더 적은 이미지들이 후속하여 처리 또는 전송될 수 있다. 도 44-49와 결합하여 위에서 논의한 바와 같이, 시스템들 및 방법들의 다양한 실시예가 저장 또는 추가 처리를 위해 복수의 획득된 이미지들로부터 특정 이미지들을 선택할 수 있다. 일부 실시예에서, 선택으로부터 생기는 감소된 수의 이미지들이 호스트 컴퓨터 또는 다른 컴퓨팅 장치에 전송된다. 도 70에 도시된 바와 같이, 선택된 이미지들은 암호화 또는 미처리 후에 호스트 컴퓨터 또는 다른 컴퓨팅 장치에 전송될 수 있다. 예시에 의해, USB 인터페이스를 통해 전송된 대량의 데이터가 호스트 컴퓨터 상의 상당한 CPU 및 메모리 리소스들을 차지할 수 있다. 따라서, 전송되는 데이터의 양을 감소시키는 것이 더욱 효율적일 수 있다.In some embodiments, one or more of the selected images may be over-written by newly acquired images of better quality for biometric matching. In this way, memory requirements for buffering or storing images can be reduced, and fewer images can be subsequently processed or transmitted. As discussed above in conjunction with FIGS. 44-49, various embodiments of systems and methods may select specific images from a plurality of acquired images for storage or further processing. In some embodiments, the reduced number of images resulting from the selection is sent to a host computer or other computing device. As shown in FIG. 70, the selected images may be sent to a host computer or other computing device after encryption or raw processing. By way of example, a large amount of data transferred via a USB interface can occupy significant CPU and memory resources on a host computer. Thus, it may be more efficient to reduce the amount of data transmitted.

도 71은 이미지 획득 장치의 다른 실시예를 도시한다. 이미지 획득 장치는 미리 정의된 품질 임계값, 또는 획득한 다른 이미지보다 생체 매칭을 위해 더 양호한 품질의 이미지의 미리 정의된 개수를 초과하는 것들과 같은, 획득한 이미지들의 서브세트를 선택할 수 있다. 이러한 감소한 수의 이미지들은, 눈 또는 홍채 주위의 영역들이 이미지들로부터 크롭(crop)될 수 있도록 후속하여 처리될 수 있다. 일부 실시예에서, 홍채를 나타내는 크롭된 이미지들만이, 암호화 또는 원시 포맷으로, 호스트 컴퓨터에 전송된다. 크롭은 호스트 컴퓨터에 전송되는 데이터의 양을 더 감소시킬 수 있다. 크롭 처리의 부분으로서, 장치 상의 이미지 처리 모듈이 각각의 이미지로부터 눈 또는 홍채를 배치할 수 있다. 예를 들어, 눈 검출기가 눈 또는 홍채를 식별하기 위한 객체 또는 패턴 인식을 수행할 수 있다. 일부 실시예에서, 눈 또는 홍채의 위치가 식별되었을 수 있거나, 이미지 선택 스테이지로부터 이용 가능하다.71 shows another embodiment of the image acquisition device. The image acquisition device may select a subset of the acquired images, such as those that exceed a predefined quality threshold, or a predefined number of images of better quality for biometric matching than other images obtained. This reduced number of images can be subsequently processed such that areas around the eye or iris can be cropped from the images. In some embodiments, only cropped images representing the iris are sent to the host computer, in encrypted or raw format. Crop can further reduce the amount of data sent to the host computer. As part of the cropping process, an image processing module on the device may place an eye or iris from each image. For example, the eye detector may perform object or pattern recognition to identify the eye or iris. In some embodiments, the location of the eye or iris may have been identified or is available from the image selection stage.

특정 실시예들에서, 감소한 수의 이미지들은, 눈 또는 홍채 영역들이 더 작은 이미지들로 크롭되도록 후속하여 처리될 수 있다. 일부 실시예에서, 홍채 데이터는 크롭 또는 미크롭 이미지들로부터 추출되어, 홍채 이미지보다 더욱 효율적인 형태로서 저장 또는 전송될 수 있다. 일부 실시예에서, 이미지 획득 장치는 크롭 또는 미크롭 이미지들, 또는 추출된 데이터를 이용하여, 장치들에서 국부적으로 생체 매칭을 수행할 수 있다. 생체 매칭은 장치에 저장되거나 장치에 로드되는 참조 템플릿들을 이용하여 수행될 수 있다. 일부 실시예에서, 생체 매칭의 결과가 장치 상에 디스플레이될 수 있거나 호스트 컴퓨터에 원시 또는 암호화 포맷으로 전송될 수 있다.In certain embodiments, the reduced number of images can be subsequently processed such that the eye or iris areas are cropped into smaller images. In some embodiments, iris data may be extracted from crop or microcrop images and stored or transmitted in a more efficient form than iris images. In some embodiments, the image acquisition device may perform biometric matching locally on the devices using cropped or microscopic images, or extracted data. Biometric matching may be performed using reference templates stored in or loaded into the device. In some embodiments, the results of biometric matching may be displayed on the device or transmitted to the host computer in raw or encrypted format.

방법들 및 시스템들의 특정 실시예들이 설명되었으며, 이제 당업자에게는 본 발명의 개념들을 포함하는 다른 실시예들이 이용될 수 있다는 것이 명백해질 것이다. 전술한 시스템들은 그러한 컴포넌트들 중 임의의 컴포넌트 또는 각각의 컴포넌트를 다수 제공할 수 있으며, 이러한 컴포넌트들은 독립형 기계 상에 또는 일부 실시예들에서 분산 시스템 내의 다수의 기계 상에 제공될 수 있다는 것을 이해해야 한다. 전술한 시스템들 및 방법들은 프로그래밍 및/또는 엔지니어링 기술들을 이용하여 소프트웨어, 펌웨어, 하드웨어 또는 이들의 임의 조합을 생성하는 방법, 장치 또는 제조물로서 구현될 수 있다. 게다가, 전술한 시스템들 및 방법들은 하나 이상의 제조물 상에 또는 그 안에 구현되는 하나 이상의 컴퓨터 판독가능 프로그램으로서 제공될 수 있다. 본 명세서에서 사용되는 바와 같은 "제조물(article of manufacture)"이라는 용어는 하나 이상의 컴퓨터 판독가능 장치로부터 액세스될 수 있고 그 안에 내장되는 코드나 로직, 펌웨어, 프로그래밍 가능 로직, 메모리 장치(예를 들어, EEPROM, ROM, PROM, RAM, SRAM 등), 하드웨어(예로서, 집적 회로 칩, 필드 프로그래머블 게이트 어레이(FPGA), 주문형 집적 회로(ASIC) 등), 전자 장치, 컴퓨터 판독가능 비휘발성 저장 유닛(예로서, CD-ROM, 플로피 디스크, 하드 디스크 드라이브 등)을 포함하도록 의도된다. 제조물은 네트워크 송신 라인, 무선 송신 매체, 공간을 통해 전파되는 신호, 전파, 적외선 신호 등을 통해 컴퓨터 판독가능 프로그램들에 대한 액세스를 제공하는 파일 서버로부터 액세스될 수 있다. 제조물은 플래시 메모리 카드 또는 자기 테이프일 수 있다. 제조물은 하드웨어 로직은 물론, 프로세서에 의해 실행되는 컴퓨터 판독가능 매체에 내장된 소프트웨어 또는 프로그래밍가능 코드를 포함한다. 일반적으로, 컴퓨터 판독가능 프로그램들은 LISP, PERL, C, C++, C#, PROLOG와 같은 임의의 프로그래밍 언어로 또는 JAVA와 같은 임의의 바이트 코드 언어로 구현될 수 있다. 소프트웨어 프로그램들은 하나 이상의 제조물 상에 또는 그 안에 객체 코드로서 저장될 수 있다.Specific embodiments of the methods and systems have been described, and it will now be apparent to one skilled in the art that other embodiments incorporating the inventive concepts may be used. It should be understood that the above-described systems may provide any of such components or multiple of each of these components, which components may be provided on a standalone machine or in some embodiments on multiple machines in a distributed system. . The systems and methods described above may be implemented as a method, apparatus or article of manufacture using software and / or engineering techniques to generate software, firmware, hardware or any combination thereof. In addition, the systems and methods described above may be provided as one or more computer readable programs implemented on or in one or more articles of manufacture. As used herein, the term "article of manufacture" may be accessed from, or embedded within, one or more computer readable devices, such as code or logic, firmware, programmable logic, memory devices (e.g., EEPROM, ROM, PROM, RAM, SRAM, etc.), hardware (e.g., integrated circuit chips, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs, etc.), electronic devices, computer readable nonvolatile storage units (e.g., CD-ROM, floppy disk, hard disk drive, etc.). The article of manufacture may be accessed from a file server providing access to computer readable programs via network transmission lines, wireless transmission media, signals propagating through space, radio waves, infrared signals, and the like. The article of manufacture may be a flash memory card or a magnetic tape. The article of manufacture includes hardware logic as well as software or programmable code embedded in a computer readable medium executed by a processor. In general, computer readable programs may be implemented in any programming language such as LISP, PERL, C, C ++, C #, PROLOG, or in any byte code language such as JAVA. Software programs may be stored as object code on or in one or more articles of manufacture.

Claims (34)

이미지 획득을 위해 피사체(subject)에서의 시각 우성(ocular dominance)의 효과들을 고려하여 그 피사체의 홍채의 배치(positioning)를 안내(guide)하도록 구성된, 홍채 이미지 획득을 위한 소형 이동 장치로서,
피사체로부터 홍채 이미지를 획득하기 위한 센서; 및
홍채 이미지 획득을 위해 상기 피사체가 상기 홍채를 배치하는 것을 지원하기 위해, 상기 피사체의 우성 눈(dominant eye)에 대해 배향되고, 상기 장치가 이미지 획득을 위한 적절한 거리에 배치될 때 상기 피사체에 단일 홍채의 이미지를 제공하도록 크기가 결정되는 소형 미러
를 포함하고,
상기 미러는 홍채 이미지 획득 중에 상기 센서와 상기 홍채 사이에 배치되고, 상기 홍채에서 반사된 광의 일부를 상기 센서에 전송하는, 소형 이동 장치.
A small mobile device for iris image acquisition, configured to guide positioning of an iris of a subject taking into account effects of ocular dominance in the subject for image acquisition,
A sensor for obtaining an iris image from a subject; And
In order to assist the subject in placing the iris for iris image acquisition, a single iris is placed on the subject when the device is oriented with respect to the dominant eye of the subject and the device is placed at a suitable distance for image acquisition. Small mirror sized to provide an image of the
Lt; / RTI >
The mirror is disposed between the sensor and the iris during iris image acquisition, and transmits a portion of the light reflected from the iris to the sensor.
제1항에 있어서, 컴퓨팅 장치에 접속하기 위한 커넥터를 더 포함하고, 상기 커넥터는 상기 장치를 동작시킬 때 상기 피사체의 손의 파지(grasp) 아래의 상기 장치의 하단으로부터 연장하는, 소형 이동 장치.The handheld mobile device of claim 1, further comprising a connector for connecting to a computing device, the connector extending from the bottom of the device under the grasp of the hand of the subject when operating the device. 제1항에 있어서, 컴퓨팅 장치에 상기 장치를 접속하기 위한 분절형 커넥터(articulated connector)를 더 포함하고, 상기 분절형 커넥터는 홍채 이미지 획득을 위한 상기 장치의 위치를 조정 가능하게 유지하는(adjustably maintaining), 소형 이동 장치.The apparatus of claim 1, further comprising an articulated connector for connecting the device to a computing device, wherein the segmented connector adjustably maintains the position of the device for iris image acquisition. ), A compact mobile device. 제1항에 있어서, 상기 장치의 디스플레이 스크린과 통합된 적외선 조명기(infra-red illuminator)를 더 포함하는, 소형 이동 장치.The handheld mobile device of claim 1, further comprising an infrared-red illuminator integrated with the display screen of the device. 제1항에 있어서, 이미지 획득을 위한 적절한 거리에 배치될 때 상기 피사체에 제2 홍채의 이미지를 제공하기 위한 제2 미러를 더 포함하는, 소형 이동 장치.The handheld mobile device of claim 1, further comprising a second mirror for providing an image of a second iris to the subject when placed at a suitable distance for image acquisition. 제1항에 있어서, 상기 피사체의 피처(feature)를 조명하기 위해 적외선 조명(infra-red illumination) 및 가시 조명(visible illumination) 중 적어도 하나를 제공하는 적어도 하나의 조명기를 더 포함하는, 소형 이동 장치.The handheld mobile device of claim 1, further comprising at least one illuminator providing at least one of infra-red illumination and visible illumination to illuminate a feature of the subject. . 제1항에 있어서, 상기 장치를 홀드(holding)한 채로 이미지 획득을 시작하기 위해 상기 피사체의 손가락에 대한 접촉 영역 또는 버튼을 더 포함하는, 소형 이동 장치.The miniature mobile device according to claim 1, further comprising a contact area or a button on a finger of the subject to start an image acquisition while holding the device. 제1항에 있어서, 상기 미러는 상기 장치의 본체의 일 단 근처에 배치되고, 상기 피사체는 상기 장치를 동작시키는 동안 타 단의 적어도 일부를 홀드하는, 소형 이동 장치.The miniature mobile device according to claim 1, wherein the mirror is disposed near one end of the main body of the device, and the subject holds at least a portion of the other end while operating the device. 제1항에 있어서, 상기 미러는 상기 피사체의 우성 눈에 대해 상기 미러를 경사지게(tilting) 하기 위한 조정가능한 또는 회전가능한 받침대(mount)를 포함하는, 소형 이동 장치.The handheld mobile device of claim 1, wherein the mirror comprises an adjustable or rotatable mount for tilting the mirror with respect to the dominant eye of the subject. 제1항에 있어서, 주로 상기 홍채에 조명을 포커싱하도록 배향된 조명기를 더 포함하는, 소형 이동 장치.The handheld mobile device of claim 1, further comprising an illuminator oriented to focus illumination primarily on the iris. 제1항에 있어서, 상기 센서는 상기 홍채의 적외선 이미지 및 상기 피사체의 피처의 비-적외선 이미지(non-infra-red image)를 획득하는 데 이용되는, 소형 이동 장치.The handheld mobile device of claim 1, wherein the sensor is used to acquire an infrared image of the iris and a non-infra-red image of a feature of the subject. 제1항에 있어서, 상기 센서에 대한 광을 필터링하기 위한 필터 어레이를 더 포함하고, 상기 필터 어레이는 복수의 적외선 차단(infra-red cut) 영역들 및 복수의 적외선 통과(infra-red pass) 영역들을 포함하는, 소형 이동 장치.The apparatus of claim 1, further comprising a filter array for filtering light for the sensor, wherein the filter array comprises a plurality of infrared cut regions and a plurality of infrared pass regions. Handheld mobile device, including. 제1항에 있어서, 상기 센서는 일정 시간 기간 내에(within a period of time) 복수의 이미지들을 획득하는, 소형 이동 장치.The miniature mobile device of claim 1, wherein the sensor acquires a plurality of images within a period of time. 제13항에 있어서, 상기 복수의 이미지들로부터 홍채 이미지를 선택하기 위한 이미지 처리 모듈을 더 포함하고, 상기 선택된 홍채 이미지는 상기 복수의 이미지들 내의 다른 이미지들 중 적어도 일부보다 생체 매칭(biometric matching)에 대해 더 양호한 품질을 갖는, 소형 이동 장치.14. The apparatus of claim 13, further comprising an image processing module for selecting an iris image from the plurality of images, wherein the selected iris image is biometric matching than at least some of the other images in the plurality of images. Miniature mobile device having better quality for. 제14항에 있어서, 상기 이미지 처리 모듈은 추가적인 이미지들을 획득 또는 처리하면서 버퍼에 상기 선택된 홍채 이미지를 저장하는, 소형 이동 장치.15. The handheld mobile device of claim 14, wherein the image processing module stores the selected iris image in a buffer while acquiring or processing additional images. 제14항에 있어서, 상기 이미지 처리 모듈은 버퍼에 저장된 사전선택된 이미지를 상기 선택된 홍채 이미지로 오버라이트(overwrite)하는, 소형 이동 장치.15. The compact mobile device of claim 14 wherein the image processing module overwrites a preselected image stored in a buffer with the selected iris image. 제14항에 있어서, 상기 이미지 처리 모듈은 상기 선택된 홍채 이미지에 대해 생체 매칭을 수행하는, 소형 이동 장치.The handheld mobile device of claim 14, wherein the image processing module performs biometric matching on the selected iris image. 제14항에 있어서, 상기 이미지 처리 모듈은 상기 선택된 홍채 이미지를 물리적 또는 무선 접속을 통해 컴퓨터에 전송하는, 소형 이동 장치.The handheld mobile device of claim 14, wherein the image processing module transmits the selected iris image to a computer via a physical or wireless connection. 제1항에 있어서, 상기 피사체의 얼굴의 일부의 이미지를 갖는 디스플레이를 더 포함하고, 상기 디스플레이는 상기 피사체의 상기 센서를 향한 응시(gaze)를 유도하기 위해 상기 센서의 물리적 위치를 향해 상기 피사체의 눈의 이미지를 이동하는, 소형 이동 장치.The apparatus of claim 1, further comprising a display having an image of a portion of the subject's face, wherein the display is configured to move the subject toward the physical position of the sensor to induce gaze towards the sensor. Handheld mobile device for moving images of the eye. 이미지 획득을 위해 피사체에서의 시각 우성의 효과들을 고려하여 그 피사체의 홍채의 배치를 안내하도록 구성된, 홍채 이미지 획득을 위한 소형 이동 장치로서,
센서; 및
상기 피사체의 얼굴의 일부의 이미지를 디스플레이하기 위한 디스플레이
를 포함하고,
상기 디스플레이는 상기 피사체의 상기 센서를 향한 응시를 이끌어 내기 위해 상기 센서의 물리적 위치를 향해 상기 피사체의 눈의 이미지를 이동하고, 상기 센서는 상기 피사체의 응시가 상기 센서까지 또는 그 근처까지 왔을 때 생체 매칭을 위한 상기 피사체의 홍채의 이미지를 획득하는, 소형 이동 장치.
A small mobile device for iris image acquisition, configured to guide the placement of an iris of a subject taking into account the effects of visual dominance on the subject for image acquisition,
sensor; And
A display for displaying an image of a part of the face of the subject
Lt; / RTI >
The display moves the image of the subject's eye towards the physical location of the sensor to elicit the gaze towards the sensor of the subject, wherein the sensor is a living body when the gaze of the subject comes to or near the sensor. A miniature mobile device for acquiring an image of the iris of the subject for matching.
홍채 이미지 획득을 위한 소형 이동 장치로서,
일정 시간 기간에 걸쳐서 피사체에 대한 복수의 이미지들을 획득하기 위한 센서; 및
추가 처리를 위해 획득된 상기 복수의 이미지들로부터 상기 피사체의 홍채의 이미지를 선택하기 위한 이미지 처리 모듈
을 포함하고,
상기 선택된 이미지는 획득된 상기 복수의 이미지들 내의 다른 이미지들 중 적어도 일부보다 생체 매칭을 위해 더 양호한 품질을 갖는, 소형 이동 장치.
As a compact mobile device for iris image acquisition,
A sensor for acquiring a plurality of images of the subject over a period of time; And
An image processing module for selecting an image of the iris of the subject from the plurality of images obtained for further processing
/ RTI >
And the selected image has a better quality for biometric matching than at least some of the other images in the plurality of images obtained.
제21항에 있어서, 상기 이미지 처리 모듈은 미리 결정된 이미지 품질 임계값에 적어도 부분적으로 기초하여 상기 홍채 이미지를 선택하는, 소형 이동 장치.The handheld mobile device of claim 21, wherein the image processing module selects the iris image based at least in part on a predetermined image quality threshold. 제21항에 있어서, 상기 이미지 처리 모듈은 추가적인 이미지들을 획득 또는 처리하면서 버퍼에 상기 선택된 홍채 이미지를 저장하는, 소형 이동 장치.22. The handheld mobile device of claim 21, wherein the image processing module stores the selected iris image in a buffer while acquiring or processing additional images. 제21항에 있어서, 상기 이미지 처리 모듈은 버퍼에 저장된 사전선택된 이미지를 상기 선택된 홍채 이미지로 오버라이트하는, 소형 이동 장치.The handheld mobile device of claim 21, wherein the image processing module overwrites a preselected image stored in a buffer with the selected iris image. 제21항에 있어서, 상기 이미지 처리 모듈은 상기 선택된 홍채 이미지에 대해 생체 매칭을 수행하는, 소형 이동 장치.The handheld mobile device of claim 21, wherein the image processing module performs biometric matching on the selected iris image. 제21항에 있어서, 상기 이미지 처리 모듈은 상기 선택된 홍채 이미지를 암호화하는, 소형 이동 장치.The handheld mobile device of claim 21, wherein the image processing module encrypts the selected iris image. 제21항에 있어서, 상기 이미지 처리 모듈은 상기 선택된 홍채 이미지를 물리적 또는 무선 접속을 통해 컴퓨터에 전송하는, 소형 이동 장치.The handheld mobile device of claim 21, wherein the image processing module transmits the selected iris image to a computer via a physical or wireless connection. 홍채 이미지 획득을 위한 소형 장치로서,
피사체의 홍채의 적외선 이미지 및 상기 피사체의 피처의 비-적외선 이미지를 획득하기 위한 센서; 및
상기 센서에 대한 광을 선택적으로 필터링하기 위한 필터 어레이
를 포함하고,
상기 필터 어레이는 상기 비-적외선 이미지에 대한 비-적외선 데이터를 샘플링하기 위한 복수의 적외선 차단 영역들, 및 상기 적외선 이미지에 대한 적외선 데이터를 샘플링하기 위한 복수의 적외선 통과 영역들을 포함하는, 소형 장치.
As a compact device for acquiring iris images,
A sensor for obtaining an infrared image of an iris of a subject and a non-infrared image of a feature of the subject; And
Filter array for selectively filtering light for the sensor
Lt; / RTI >
And the filter array comprises a plurality of infrared blocking regions for sampling non-infrared data for the non-infrared image, and a plurality of infrared passing regions for sampling infrared data for the infrared image.
제28항에 있어서, 상기 복수의 적외선 통과 영역들은 실질적으로 상기 적외선 통과 영역들에 대한 대응하는 나이키스트 한계(Nyquist limit)에서 또는 그 아래에서 적외선 데이터를 샘플링하는, 소형 장치.29. The compact apparatus of claim 28, wherein the plurality of infrared light passing zones sample infrared data at or below a corresponding Nyquist limit for the infrared light passing areas. 제28항에 있어서, 상기 복수의 적외선 통과 영역들은 필터링되는 광을 디-포커싱(de-focusing)함으로써, 실질적으로 상기 적외선 통과 영역들에 대한 대응하는 나이키스트 한계에서 또는 그 아래에서 적외선 데이터를 샘플링하는, 소형 장치.29. The method of claim 28, wherein the plurality of infrared pass regions de-focus the filtered light to thereby sample the infrared data at or below a corresponding Nyquist limit for the infrared pass regions. Handheld device. 제28항에 있어서, 상기 복수의 적외선 차단 영역들은 실질적으로 상기 적외선 차단 영역들에 대한 대응하는 나이키스트 한계에서 또는 그 아래에서 가시 데이터(visible data)를 샘플링하는, 소형 장치.29. The compact apparatus of claim 28, wherein the plurality of infrared blocking regions sample visible data at or below a corresponding Nyquist limit for the infrared blocking regions. 제28항에 있어서, 상기 필터 어레이를 통과하는 적외선 광에 노출되는 상기 센서의 픽셀들을 결정하기 위한 룩업 테이블 또는 계산기를 더 포함하는, 소형 장치.29. The handheld device of claim 28, further comprising a look up table or calculator for determining pixels of the sensor that are exposed to infrared light passing through the filter array. 제28항에 있어서, 상기 적외선 이미지를 생성하기 위해 상기 샘플링된 적외선 데이터를 보간하기 위한 보간기(interpolator)를 더 포함하는, 소형 장치.29. The handheld device of claim 28, further comprising an interpolator for interpolating the sampled infrared data to produce the infrared image. 제28항에 있어서, 상기 비-적외선 이미지를 생성하기 위해 상기 샘플링된 비-적외선 데이터를 보간하기 위한 보간기를 더 포함하는, 소형 장치.29. The handheld device of claim 28, further comprising an interpolator for interpolating the sampled non-infrared data to produce the non-infrared image.
KR1020137029383A 2011-04-06 2012-04-05 Mobile identity platform KR20140050603A (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161472279P 2011-04-06 2011-04-06
US201161472270P 2011-04-06 2011-04-06
US61/472,270 2011-04-06
US61/472,279 2011-04-06
US13/398,562 2012-02-16
US13/398,562 US9280706B2 (en) 2011-02-17 2012-02-16 Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor
PCT/US2012/032391 WO2013109295A2 (en) 2011-04-06 2012-04-05 Mobile identity platform

Publications (1)

Publication Number Publication Date
KR20140050603A true KR20140050603A (en) 2014-04-29

Family

ID=48799791

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137029383A KR20140050603A (en) 2011-04-06 2012-04-05 Mobile identity platform

Country Status (3)

Country Link
EP (1) EP2695107A4 (en)
KR (1) KR20140050603A (en)
WO (1) WO2013109295A2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8212870B2 (en) 2007-09-01 2012-07-03 Hanna Keith J Mirror system and method for acquiring biometric data
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
US9117119B2 (en) 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
WO2009029757A1 (en) 2007-09-01 2009-03-05 Global Rainmakers, Inc. System and method for iris data acquisition for biometric identification
US9036871B2 (en) 2007-09-01 2015-05-19 Eyelock, Inc. Mobility identity platform
EP2676223A4 (en) 2011-02-17 2016-08-10 Eyelock Llc Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor
CN108256406B (en) * 2017-01-05 2023-11-03 广州市晶密电子有限公司 Data processing method and device for realizing face recognition through eye positioning guidance
TWI672608B (en) * 2017-02-15 2019-09-21 瑞昱半導體股份有限公司 Iris image recognition device and method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7103235B2 (en) * 2001-04-25 2006-09-05 Lockheed Martin Corporation Extended range image processing for electro-optical systems
AU2007227371B2 (en) * 2006-03-23 2012-02-02 Amo Manufacturing Usa, Llc Systems and methods for wavefront reconstruction for aperture with arbitrary shape
WO2009066770A1 (en) * 2007-11-22 2009-05-28 Nikon Corporation Digital camera and digital camera system
KR20090106791A (en) * 2008-04-07 2009-10-12 (주)아이리사 아이디 Iris scanning device using spherical mirror
US8090246B2 (en) * 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system

Also Published As

Publication number Publication date
EP2695107A2 (en) 2014-02-12
WO2013109295A3 (en) 2013-10-10
WO2013109295A2 (en) 2013-07-25
EP2695107A4 (en) 2014-09-03

Similar Documents

Publication Publication Date Title
US10296791B2 (en) Mobile identity platform
US9036871B2 (en) Mobility identity platform
US9002073B2 (en) Mobile identity platform
KR102024949B1 (en) Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor
KR20140050603A (en) Mobile identity platform
KR102024954B1 (en) Systems and methods for capturing artifact free images
US10284817B2 (en) Device for and method of corneal imaging
US20170085790A1 (en) High-resolution imaging of regions of interest
US20170061210A1 (en) Infrared lamp control for use with iris recognition authentication
WO2017132903A1 (en) Biometric composite imaging system and method reusable with visible light
US20140028861A1 (en) Object detection and tracking
WO2012158825A2 (en) Systems and methods for illuminating an iris with visible light for biometric acquisition
IL303125B1 (en) Tilt shift iris imaging
US11163995B2 (en) User recognition and gaze tracking in a video system
KR20150033572A (en) Tracking optics system for a mobile device
KR20160050755A (en) Electronic Device and Method for Recognizing Iris by the same
EP3051386A1 (en) Eye tracking system and method
WO2019190561A1 (en) Deep learning for three dimensional (3d) gaze prediction
WO2019167381A1 (en) Information processing device, information processing method, and program
WO2023063861A1 (en) A method and a system configured to reduce impact of impairment data in captured iris images

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application