JP2019506694A - 生体測定分析のシステムおよび方法 - Google Patents

生体測定分析のシステムおよび方法 Download PDF

Info

Publication number
JP2019506694A
JP2019506694A JP2018555441A JP2018555441A JP2019506694A JP 2019506694 A JP2019506694 A JP 2019506694A JP 2018555441 A JP2018555441 A JP 2018555441A JP 2018555441 A JP2018555441 A JP 2018555441A JP 2019506694 A JP2019506694 A JP 2019506694A
Authority
JP
Japan
Prior art keywords
subject
images
analysis system
iris
biometric analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018555441A
Other languages
English (en)
Inventor
デイヴィッド・アラン・アッカーマン
バリー・イー・メイペン
アンドリュー・ジェームズ・ボール
クリストファー・ロバート・マーティン
マイケル・ジェイ・キアナン
ジョン・ティモシー・グリーン
Original Assignee
プリンストン・アイデンティティー・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by プリンストン・アイデンティティー・インコーポレーテッド filed Critical プリンストン・アイデンティティー・インコーポレーテッド
Publication of JP2019506694A publication Critical patent/JP2019506694A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

例示的な実施形態は、一般に、1つまたはより多くの照明源、カメラ、および分析モジュールを含む生体測定分析システムに関する。照明源は、被験者の顔の少なくとも一部を照明するように構成される。カメラは、被験者の顔の照明中に、被験者の1つまたはより多くの画像をキャプチャするように構成される。分析モジュールは、カメラによってキャプチャされた1つまたはより多くの画像を分析して、被験者が生体であること示すものであるか判断し、なりすましを防止するように構成される。

Description

本願は、2016年1月12日に出願された米国仮出願第62 / 277,630号及び2016年2月16日に出願された米国仮出願第62 / 295,554号に基づく、それらの全ての優先権の利益を主張するものである。
本開示は、生体測定分析のシステムおよび方法、特に安全なトランザクション(transaction)を保証するための1つ以上のスプーフィング防止構成要素を含む生体測定分析システムに関する。
セキュリティは、個人情報を含む様々なトランザクションにおいて懸念事項である。虹彩認識は、安全なトランザクションを可能にし、鍵および/またはパスワードを超えるセキュリティの更なるレイヤを追加可能にする、世界中の政府および商用システムで使用されている、生体認証識別の広く受け入れられた正確な手段である。虹彩認識システムによって提供されるセキュリティの向上により、そうしたシステムの利用が世界中で増加している。
生体認証の利用の増加に伴い 、セキュリティのためバイオメトリクスを使用するシステムへの攻撃はまた、抗スプーフィング対策についてのより大きな需要の発生となる結果を増加させ得る。特に、このようなシステムのセキュリティは、スプーフィング攻撃(生体測定システムを不正使用しようとして、実際のバイオメトリクス認証情報の模造物を生体測定システムに提示する攻撃)によって脅かされる可能性がある。銀行、病院、学校、店舗、企業、軍事施設、およびその他の政府および/または商用 システムは、スプーフィング攻撃に対して強化された生体認証セキュリティの恩恵を受け得る。
虹彩認証システムから詐取しようとして、それらは 種々様々な攻撃を一般に用いようとする。なりすましでは、詐欺師は、認証システムに対し、生体による生体認証のための組織の提示の代わりに、不正な非生体の虹彩を認識システムに提示し得る。例えば、詐欺師は、実際の虹彩の代わりに虹彩の写真を提示し得る。偽物の虹彩は様々な側面から本物のようであり得ることがあり、虹彩認識システムがシステムに登録されている本物の虹彩と間違えることがあり得、そのアイデンティティを誤認証し、保護されたシステムへの詐欺師によるアクセスを許可することとなり得る。単純な画像ベースのなりすましによる虹彩生体認証の失敗は、虹彩生体認証の評価に汚点をつけることがあり得る。
生体認証におけるアンチスプーフィングまたは生体検出のための多くのシステムが存在する。なりすましに対して防御するために、生体測定システムは、誤った生体認証情報の提示における不一致を識別する。模造物(例えば、印刷された紙、コンピュータモニタ、タブレットディスプレイ、彫刻された顔、偽の眼球など)から生きた生体認証サンプル(例えば顔、虹彩など)を区別する多くの既存の技術が存在する。提示された虹彩の生体判断を行う虹彩認識システムは、瞳孔測定、動的な凝視および瞬きの検出、および赤外線シグナリングの複雑なシステムを含む方法を使用することができる。
瞳孔測定において、刺激(例えば明るい可視光など)は、被験者の瞳孔を瞬時に収縮させ、このことが生体であることを示すものとなる。眼のサッカード運動の検出も、非検体が生体であることを示していることを提示する。虹彩の写真や虹彩の模様のプリントされた偽の眼球は、生体の虹彩と同様には、瞳孔の収縮を起こすような明るい光に反応しません。そのような場合、明るい光の刺激は、生体の虹彩を動きのない画像または虹彩の模型から区別するであろうし、したがって、関連する刺激を提供し、応答を測定することができるシステムにおいて、まがい物の提示に対して防御を行うであろう。刺激光は、ユーザによっては目障りととらえられる。さらに、瞳孔測定システムは処理に過度の時間を必要とすることがあり、それによって識別のための時間を遅くする。
生体の生体認証サンプルを模造物から区別するための既存の他の技術は、角膜からの鏡面反射を比較し、明確な反射の欠如を検出する、もしくは、ステレオイメージングを含むものである。3次元画像(ステレオイメージング、stereo imaging)または飛行時間型奥行きセンサ(time-of-flight depth sensor)は、本物の顔の実際の3次元の凹凸から平坦または曲げられた紙の画像を区別することによってなりすまし攻撃(presentation attacks)を報知することもできる。ステレオイメージングは、提示された顔を分析するため、3次元イメージを生成するためにステレオ再構成アルゴリズム(stereo reconstruction algorithms)を一般に必要とする。新たなアンチスプーフィング技術が開発されるにつれて、攻撃者はこれらの新しいスプーフィング対策を無効にすることができる模造物を作成しようとする。
したがって、トランザクションのセキュリティを保証し、プレゼンテーション攻撃をより困難にするためのアンチスプーフィングを有する、改善された生体測定分析システムの必要性が存在する。これらおよびその他の必要性は、本開示の生体測定分析のシステムおよび方法によって対処される。
本開示の実施形態によれば、1つ以上の照明源、1つ以上のカメラ、1つ以上の処理モジュール、および1つまたは複数の分析モジュールを含む例示的な生体測定分析システムが提供される。照明源は、被験者の虹彩の少なくとも一部、および被験者の眼の周辺、眼部(ocular region)、および/または顔の少なくとも一部を照明するように構成され得る。一実施形態では、照明源は周囲光であってもよい。カメラは、照明源で被験者を照している間に、被験者の1つまたは複数の画像をキャプチャするように構成されうる。1つまたは複数の画像は、虹彩からの反射光および、眼部や顔の周辺部分を示すことができる。分析モジュールは、1つまたは複数の画像を入力として受け取り、1つまたは複数の画像における反射光を分析し、1つまたは複数の画像における反射光に基づいて、画像が、一般に3次元の解剖学的特徴を有する生体である被験者と矛盾しないものであるか否かを示す、ことができる。分析モジュールは、複数の生体テストの結果を組み合わせて、被験者が模造物ではなく生体の被験者であるということの総合的な信頼性を報告するため、処理モジュールと協働することができる。一実施形態では、第1の分析モジュールは、カメラから画像を受信し、眼のみを表示するために画像を切り取り、切り取られた画像を処理のために第2の分析モジュールに送信することができる。
照明源は、近赤外線照明源であってもよい。被験者の眼部周辺および顔の部分の照明は、あるパターンの照明を生成してもよい。分析モジュールは、模造物を、被検体の照度分布の均一なパターンの検出に基づく被検体の3次元性の欠如に基づいて、示すように構成され得る。特に、分析モジュールは、3次元性の欠如が生体である被験者を示さない(contraindicative)もので複写画像(facsimile image)を示すものであるかどうかを、判断するよう構成されうる。分析モジュールは、生体である被験者の顔に対応する対象の照度分布の不均一なパターンの検出に基づいて、被験者の3次元性を判断するように構成され得る。
いくつかの実施形態では、照明源は、被験者の眼窩の一時的な端部周辺の三次元の凹凸に照明をあてるよう、構成されうる。カメラは、被検体の眼窩の一時的な端部の1つまたは複数の画像をキャプチャするよう、構成されうる。分析モジュールは、被験者の眼窩の一時的な端部の反射光を分析するよう、構成され得る。 いくつかの実施形態では、照明源は、被験者の虹彩と、被験者の眼部周辺及び被験者の顔の一部とを静的な光を照射して照明するよう、構成され得る。静的な光は、実質的に均一なレベルの照明であり得る。いくつかの実施形態では、照明源は、変化するまたは動的な光を放射して、被験者の虹彩と、眼部周囲および被験者の顔の一部とを照らすよう、構成され得る。動的な光を放射することは、照明源で第1の照明レベルを放射し、続いて照明源で第2の照明レベルを放射することを含み得る。
いくつかの実施形態では、第2の照明レベルは、第1の照明レベルよりも明るくまたはより大きい。いくつかの実施形態では、第2の照明レベルは、第1の照明レベルよりも暗いか、またはより低い。
カメラは、第1の照明レベルで被験者を照明している間に被験者の1つまたはより多くの画像をキャプチャし、第2の照明レベルで被験者を照明している間に被験者の1つまたはより多くの画像をキャプチャするように構成され得る。分析モジュールは、第1の照明レベルの1つまたはより多くの画像と第2の照明レベルの1つまたはより多くの画像とを入力として受け取り、1つまたはより多くの画像の反射光を分析し、被検体の照度分布の特性またはパターンの変化に基づいて被検体の3次元性の欠如の判断を行うよう、構成され得る。生体測定分析システムは、登録された被検体の生体認証照合(biometric matching)を可能にするために、登録された被検体の生体認証データに対応するデータを電子的に格納するように構成された1つ以上のデータベースを含み得る。特に、例示的な生体測定分析システムは、本明細書で説明するアンチスプーフィング機能に加えて、生体認証マッチングに必要なコンポーネントを含んでもよいことが理解されるべきである。
本開示の実施形態によれば、生体測定分析の例示的な方法が提供される。この方法は、生体測定分析システムの1つまたは複数の照明源により、非検体の虹彩および、眼の周辺、眼部、および/または顔の少なくとも一部を照明することを含む。この方法は、照明源による被検体の照明の間に、生体認証分析システムの1つ以上のカメラで被検体の1つまたはより多くの画像をキャプチャするステップを含む。1つまたは複数の画像は、虹彩と、眼部周辺および顔の部分とからの反射光を表示することができる。この方法は、1つまたはより多くの画像を生体測定分析システムの分析モジュールで入力として受け取ることを含む。この方法は、生体測定分析システムの分析モジュールにより、1つまたは複数の画像内の反射光を分析するステップを含む。この方法は、生体測定分析システムの分析モジュールにより、被験者の3次元性の欠如を判定することを含む。
この方法は、被検体の照度分布の均一なパターンの検出に基づいて、分析モジュールで、被検体の3次元性の欠如を判定することを含んでもよい。この方法は、3次元性の欠如が生体である被検体を示さないものであるかいなか、複写画像を示しているかどうか、を判断すること、それにより、被検体の3次元性の欠如に基づいて被検体を複写画像として信頼しないことと、を含む。この方法は、生体の顔に対応する被検体の照度分布の不均一なパターンの検出に基づいて、分析モジュールで被検体の3次元性を判定することを含む。
いくつかの態様において、方法は、照明源により、被験者の眼窩の一時的な周辺端の三次元の凹凸を照明することを、含んでもよい。この方法は、カメラにより、被検体の眼窩の一時的な端部の1つまたは複数の画像をキャプチャするステップを含んでもよい。この方法は、分析モジュールにより、非検体の眼窩の一時的な端部の反射光を分析するステップを含んでもよい。
いくつかの実施形態では、方法は、照明源により静的な光を放射して、被検体の虹彩と、非検体の眼部周辺および顔の一部とに照射することを含み得る。静的な光は、実質的に均一な照明レベルであり得る。いくつかの実施形態では、この方法は、被検体の虹彩と眼部周辺および被験者の顔の一部とを照らすために照明源で動的な光を放射することを、含んでもよい。
いくつかの実施形態では、方法は、照明源で第1の照明レベルを放射し、続いて照明源で第2の照明レベルを放射することを含んでもよい。この方法は、第1および第2の照明レベルの間で照明レベルを徐々に変化させることを含んでもよい。この方法は、第1の照明レベルで被検体を照明している間にカメラで被検体の1つまたはより多くの画像をキャプチャし、第2の照明レベルで被検体を照明している間に被検体の1つまたはより多くの画像をキャプチャするステップを含んでもよい。この方法は、照明レベルが段階的に変更されるときに一連の対象の画像をキャプチャすることを含んでもよい。この方法は、分析モジュールにおける入力として、第1の照明レベルの1つまたはより多くの画像と第2の照明レベルの1つまたはより多くの画像とを受け取ることを含んでもよい。この方法は、1つまたは複数の画像内の反射光を分析するステップを含んでもよい。この方法は、被検体の照度分布の特徴的なパターンの変化に基づいて、被検体の三次元性の欠如を判定することを含んでもよい。
本開示の実施形態によれば、生体測定分析のための命令を格納する例示的な非一時的なコンピュータ可読媒体が提供される。命令は、処理装置によって実行可能である。処理装置による命令の実行は、処理装置に、生体測定分析システムの1つ以上の照明源により、被験者の虹彩および、眼の周辺、眼部および/または顔の少なくとも一部を照明させる。処理装置による命令の実行は、処理装置に、照明源を有する被検体の照明中に、生体測定分析システムの1つ以上のカメラにより被検体の1つまたはより多くの画像をキャプチャさせることができる。1つまたは複数の画像は、虹彩と眼部周辺および顔の一部とからの反射光を表示するものであってもよい。処理装置による命令の実行は、処理装置に生体測定分析システムの分析モジュールにおける入力として1つまたはより多くの画像を受け取らせてもよい。処理装置による命令の実行は、処理装置に、分析モジュールを用いて1つまたはより多くの画像における反射光を分析させてもよい。処理装置による命令の実行は、処理装置に、分析モジュールによる被検体の3次元性の欠如を判定させてもよい。
本開示の実施形態によれば、1つ以上の照明源、1つ以上のカメラ、1つ以上の処理モジュール、および1つ以上の分析モジュールを含む、例示的な生体測定分析システムが提供される。照明源は、被験者の虹彩を照らして被験者の網膜反射を生成するよう、構成され得る。カメラは、照明源で被検体を照明している間に、被検体の1つまたは複数の画像をキャプチャするよう、構成され得る。1つまたは複数の画像は、被験者の網膜反射を表示する。分析モジュールは、1つまたは複数の画像を入力として受け取り、1つまたは複数の画像における網膜反射を分析し、網膜反射が網膜の自然な反射率を示すかどうかを判定するよう、構成され得る。
分析モジュールは、網膜の自然な反射の欠如が、生体である被検体を示さないもので、かつ、複写画像を示しているか否かを判定するよう構成され得るもので、それによって、網膜の自然反射の欠如に基づき、複写画像として被検体が信用しないものとなる。カメラはレンズを含むことができ、照明源が被験者の網膜反射を生成するであろう可能性を高めるように、照明源がレンズの十分または実質的に隣接する位置に配置され得るものである。いくつかの実施形態では、照明源は、赤外線スペクトルにおける網膜反射を発生させるよう、赤外線を放射してもよい。いくつかの実施形態では、照明源は、連続的な放射光で被検体の虹彩を照らすよう、構成され得る。いくつかの実施形態では、照明源は、フラッシュ発光で被験者の虹彩を照らすよう、構成され得る。照明源は、フラッシュ発光のフラッシュの間の時間間隔を変化させるよう、構成され得る。照明源は、各フラッシュの持続時間および/または各フラッシュの輝度を変えるよう、構成され得る。照明源は、各被験者についてフラッシュ発光のフラッシュの回数を変えるように構成され得る。
本開示の実施形態によれば、生体測定分析の例示的な方法が提供される。この方法は、生体測定分析システムの1つまたは複数の照明源で被験者の虹彩を照明して被験者の網膜反射を生成する、ステップを含む。この方法は、照明源で被検体を照明する間に生体測定分析システムの1つ以上のカメラで被検体の1つまたはより多くの画像をキャプチャする、ステップを含む。1つまたは複数の画像は、被験者の網膜反射を表示してもよい。この方法は、1つまたはより多くの画像を生体測定分析システムの分析モジュールで入力として受け取る、ステップを含む。この方法は、生体測定分析システムの分析モジュールで、1つまたは複数の画像における網膜反射を分析する、ステップを含む。この方法は、生体測定分析システムの分析モジュールで、網膜反射が網膜の自然な反射率を示すかどうかを判定する、ステップを含む。
方法は、網膜の自然な反射率の欠如に基づいて、複写画像として被検体を信用しない、ステップを含む。この方法は、赤外線スペクトルにおける網膜反射を生成しようとして照明源で赤外線を放射する、ステップを含む。いくつかの実施形態では、方法は、照明源から放射される連続光で被検体の虹彩を照明する、ステップを含んでもよい。いくつかの実施形態では、この方法は、照明源から放射されるフラッシング光で被検体の虹彩を照明する、ステップを含んでもよい。方法は、照明源から放射されたフラッシュ光のフラッシュの間の時間間隔ならびに、フラッシュの持続時間および/または強度を変化させる、ステップを含んでもよい。この方法は、各被験者のために照明源から放射されるフラッシュ光のフラッシュ回数を変化させる、ステップを含んでもよい。
本開示の実施形態によれば、生体測定分析のための命令を記憶する例示的な非一時的なコンピュータ可読媒体が提供される。命令は、処理装置によって実行可能であり得る。処理装置による命令の実行は、処理装置に、被験者の網膜反射を生成させるために、生体測定分析システムの1つ以上の照明源で被験者の虹彩を照射させ得る。処理装置による命令の実行は、処理装置に、照明源を有する被検体の照明をおこなっている最中に、生体測定分析システムの1つ以上のカメラで被検体の1つまたはより多くの画像をキャプチャさせることができる。1つまたは複数の画像は、被験者の網膜反射を表示することができる。処理装置による命令の実行は、処理装置に生体測定分析システムの分析モジュールにおける入力として1つまたはより多くの画像を受け取らせることができる。処理装置による命令の実行は、処理装置に、1つまたはより多くの画像における網膜反射を生体測定分析システムの分析モジュールで分析させることができる。処理装置による命令の実行は、処理装置に、生体測定分析システムの分析モジュールで、網膜反射が網膜の自然な反射率を示すかどうかを判定させることができる。
本開示の実施形態によれば、1つ以上の第1の照明源、1つ以上の第2の照明源、1つ以上のカメラ、1つ以上の処理装置、および1つ以上の分析モジュールを含む、例示的な生体測定分析システムが提供される。第1の照明源は、被験者の虹彩を照らすように構成され得る。第2の照明源は、被検体の顔の少なくとも一部を照明するために可視光を放射するように構成され得る。照明源の一方または両方は、システムによって生成されてもよく、またはシステムが使用される環境における周囲のものであってもよい。カメラは、第1の照明源および第2の照明源を用いて、被検体の照明中に、被検体の1つまたは複数の画像をキャプチャするよう、構成され得る。分析モジュールは、1つまたはより多くの画像を入力として受け取り、第1の照明源で被検体を照明している間に被験者の1つまたはより多くの画像に基づいて虹彩の構造を決定し、第2の照明源で被検体を照明している間に被検体の1つまたはより多くの画像に基づいて被検体の1つまたはより多くの画像内の被検体の顔の部分の色のスペクトルを判定し、第2の照明源で被検体を照明している間にキャプチャされた1つまたはより多くの画像のうちの被検体の顔の部分が、モノクローム部分(モノクローム部分は、単一色または狭い色のバンドを有するカラーパレットを有する画像をさす)を含むか否かを判定する。
カメラは、被験者を第1の照明源及び第2の照明源で照明している間に、被験者の1つまたはより多くの画像を効果的に同時にキャプチャするように構成されうる。第1の照明源は、近赤外光を放射するように構成され得る。第1の照明源を用いて被検体を照明する間にキャプチャされた被検体の1つまたはより多くの画像は、モノクローム画像であり得る。第2の照明源を用いて被検体を照明する間にキャプチャされた被検体の1つまたはより多くの画像は、カラー画像であり得る。分析モジュールは、第2の照明源を用いて被検体を照明している間に、被検体の1つまたはより多くの画像に基づいて被検体の顔の部分のモノクローム部分を検出する場合、分析モジュールは、モノクローム部分が不自然であると判定し、生体の被験者ではなく複写画像を示すものであると判断し得る。
本開示の実施形態によれば、生体測定分析の例示的な方法が提供される。この方法は、生体測定分析システムの1つまたは複数の第1の照明源で被験者の虹彩を照明するステップを含む。この方法は、生体測定分析システムの1つまたは複数の第2の照明源から放出される可視光で被検体の顔の少なくとも一部を照明するステップを含む。この方法は、第1の照明源および第2の照明源を用いて被検体を照明する間に、生体測定分析システムの1つまたは複数のカメラで被検体の1つまたは複数の画像をキャプチャするステップを含む。この方法は、1つまたはより多くの画像を生体測定分析システムの分析モジュールで入力として受け取るステップを含む。この方法は、第1の照明源による被検体の照明中に、被検体の1つまたはより多くの画像に基づいて、生体測定分析システムの分析モジュールを用いて虹彩の構造を判定するステップを含む。この方法は、第2の照明源による被検体の照明中に被検体の1つまたはより多くの画像に基づいて生体測定システムの分析モジュールを用いて被検体の顔の部分の色スペクトルを判定するステップを含む。この方法は、第2の照明源で被検体を照明中にキャプチャされた被検体の1つまたはより多くの画像における被検体の顔の部分がモノクローム部分を含むかどうかを分析モジュールで判定するステップを含む。
方法は、第1の照明源および第2の照明源を用いた被検体の照明中に被検体の1つまたは複数の画像をカメラで効果的に同時にキャプチャするステップを含んでもよい。この方法は、モノクローム部分が生体である被験者を示さないもので、複写画像を示すことを判定するステップを含むことができ、それによって、分析モジュールが、第2の照明源での被検体の照明中の被検体の1つまたはより多くの画像に基づいて、被験者の顔の部分のモノクローム部分を検出する場合、被検体を複写画像として信用しないものとなる。
本開示の実施形態によれば、生体測定分析のための命令を記憶する例示的な非一時的なコンピュータ可読媒体が提供される。命令は、処理装置によって実行可能であり得る。処理装置による命令の実行は、処理装置に、生体測定分析システムの1つ以上の第1の照明源で被検体の虹彩を照らさせてもよい。処理装置による命令の実行は、処理装置に、生体測定分析システムの1つまたは複数の第2の照明源から放射される可視光で被検体の顔の少なくとも一部を照射させてもよい。処理装置による命令の実行は、処理装置に、第1の照明源および第2の照明源での被検体の照明中に、生体測定分析システムの1つまたは複数のカメラで被検体の1つまたは複数の画像をキャプチャさせてもよい。処理装置による命令の実行は、処理装置に、生体測定分析システムの分析モジュールにおいて、入力として1つまたはより多くの画像を受け取らせてもよい。処理装置による命令の実行により、処理装置に、第1の照明源での被検体の照明中の被検体の1つまたはより多くの画像に基づいて、生体測定分析システムの分析モジュールで、虹彩の構造を判定させてもよい。処理装置による命令の実行は、処理装置に、第2の照明源による照明中の被験者の1つまたはより多くの画像に基づいて、生物学的分析システムの分析モジュールで、被験者の顔の部分の色スペクトルを判定させてもよい。処理装置による命令の実行は、処理装置に、分析モジュールによって、第2の照明源を有する被検体の照明中にキャプチャされた被検体の1つまたはより多くの画像における被検体の顔の部分が、モノクローム部分を含むか否かを判定させてもよい。
本開示の実施形態によれば、1つまたは複数のカメラおよび分析モジュールを含む例示的な生体測定分析システムが提供される。カメラは、レンズ(例えば可動レンズ)を含んでもよく、被験者の顔に対する第1の点から、被験者の顔を通って、被験者の顔に対する第2の点へとレンズが焦点面を徐々に移動させるに伴って、被験者の顔の一連の画像をキャプチャするよう、構成されてもよい。カメラは、十分に狭い被写界深度を用いて複数の距離でフォーカスすることを可能にする、任意の技術であってよい(例えば、画像がキャプチャされた後で処理を適用して焦点を合わせる、可動レンズのない、フェーズスタイルカメラ(phase-style camera))。分析モジュールは、入力として一連の画像を受け取り、一連の画像の各画像の領域を輪郭の鮮明度について分析し、各画像の輪郭が生体である被験者の輪郭に対応するか否かを判定するよう、構成され得る。特に、分析モジュールは、一連の画像の1つまたはより多くの画像における輪郭が、生体である被験者の輪郭に対応する閉じた輪郭を画定するかどうかを判定するよう、構成され得る。
生体分析システムは、被験者の顔の少なくとも一部を照明するように構成された1つのまたは複数の照明源を含み得る。被験者の顔に対する第1の点は、被験者の顔の後方にあってもよい。被験者の顔に対する第2の点は、被験者の顔の前方にあってもよく、または、その逆であってもよい。一連の画像は、被験者の顔の地形図(topographic map)を形成してもよい。地形図は、生体である被験者の輪郭に対応するおおむね滑らかな曲面を規定するものであってもよい。分析モジュールが、生体である被験者に典型的な閉じた輪郭を一連の画像の1つまたはより多くの画像において検出する場合、分析モジュールは、閉じた輪郭が生体である被験者を示すと判定してもよく、それによって対象を生体である被験体として識別してもよい。分析モジュールが、フラットまたは単純にカーブした印刷画像に典型的な、閉じた輪郭を有さないコンスタントな焦点の略直線を検出した場合、分析モジュールは、略直線が複写画像を示すものと判断してもよく、生体である被検体を示さないものとして対象物を識別し、対象物を複写画像として識別してもよい。
いくつかの実施形態では、生体分析システムは、動的被験者応答モジュールを含んでもよい。動的被験者応答モジュールは、被験者のまばたきを検出するように構成されたまばたき検出システムを含んでもよい。動的被験者応答モジュールは、被験者の視線の変化を検出するように構成された視線検出システムを含んでもよい。いくつかの実施形態では、動的被験者応答モジュールは、まばたき検出システムおよび視線検出システムの両方を含んでもよい。
本開示の実施形態によれば、生体測定分析の例示的な方法が提供される。方法は、被験者の顔に対する第1の点から被験者の顔を通って被験者の顔に対する第2の点へと焦点面を徐々に移動させるよう、生体測定分析システムの1以上のカメラの可動レンズを動かすステップを、有する。この方法は、レンズの漸次的な動きの間に、カメラで被験者の顔の一連の画像をキャプチャすることを含む。この方法は、生体測定分析システムの分析モジュールの入力として画像シーケンスを受信するステップを含む。この方法は、輪郭の鮮明さについて生体測定分析システムの分析モジュールDVDえ一連の画像の各画像の領域を分析するステップを含む。この方法は、各画像の輪郭が生体である被験者の輪郭に対応するかどうかを生体測定分析システムの分析モジュールで判定することを含む。この方法は、一連の画像の1つまたはより多くの画像における輪郭が、生体である被験者の輪郭に対応する閉じた輪郭を画定するかどうかを分析モジュールで判定することを含む。
この方法は、1つ以上の照明源で被検体の顔の少なくとも一部を照明することを含んでもよい。被験者の顔に対する第1の点は、被験者の顔の後ろにあってもよい。被験者の顔に対する第2の点は、被験者の顔の前にあってもよい。この方法は、被験者の顔の地形図を一連の画像で形成するステップを含んでもよい。いくつかの実施形態では、この方法は、生体測定分析システムの動的被験者応答モジュールで被験者のまばたきを検出することを含んでもよい。いくつかの実施形態では、この方法は、生体測定分析システムの動的被験者応答モジュールで被験者の視線の変化を検出することを含んでもよい。
本開示の実施形態によれば、生体測定分析のための命令を格納する例示的な非一時的なコンピュータ可読媒体が提供される。命令は、処理装置によって実行可能である。処理装置による命令の実行は、処理装置に、焦点面を徐々に被験者の顔に対する第1の点から被験者の顔を通過して被験者の顔に対する第2の点へと移動するよう、生体測定分析システムの1つ以上のカメラのレンズ(例えば可動レンズ)を動作させてもよい。処理装置による命令の実行は、処理装置に、レンズの漸次的な動きの間に、カメラにより被験者の顔の一連の画像をキャプチャさせてもよい。処理装置による命令の実行は、処理装置に生体測定分析システムの分析モジュールにおける入力として一連の画像を受け取らせてもよい。処理装置による命令の実行は、処理装置に、一連の画像の各画像の領域を、輪郭の鮮明さについて、生体測定分析システムの分析モジュールで分析させてもよい。処理装置による命令の実行が、処理装置に、生体測定分析システムの分析モジュールで、各画像の輪郭が生体である被験者の輪郭に対応するかどうかを判定させてもよい。特に、処理装置による命令の実行は、処理装置に、一連の画像の1つまたはより多くの画像における輪郭が、生体である被験者の輪郭に対応する閉じた輪郭を画定するかどうかを分析モジュールで判定させてもよい。
本開示の実施形態によれば、1つ以上の照明源、1つ以上のスペクトル弁別器(spectral discriminator)、1つ以上のカメラ、1つ以上の処理装置、および1つ以上の分析モジュールを含む例示的な生体測定分析システムが提供される。照明源は、被験者の虹彩を照らすように構成され得る。スペクトル弁別器は、第1の通過特性のセットを有する第1の光学フィルタと、第2の通過特性のセットを有する第2の光学フィルタとを含んでもよい。いくつかの実施形態では、各フィルタが独立したチャネルを有する、異なる波長帯域値を有する複数のフィルタ(例えば、近赤外、赤、緑、青、代替IRスペクトル(alternative IR spectra)、代替UVスペクトル(alternative UV spectra)など)を使用してもよい。スペクトル弁別器は、第1の光学フィルタおよび第2の光学フィルタを介して、虹彩から散乱された光を選択的に受光するように構成され得る。カメラは、虹彩から散乱された光が第1の光学フィルタを通じて通過する間に被検体の1つまたはより多くの画像をキャプチャするように構成されてもよく、また、虹彩から散乱された光が第2の光学フィルタを通じて通過する間に被検体の1つまたはより多くの画像をキャプチャするように構成されてもよい。分析モジュールは、虹彩から散乱された光が第1の光学フィルタおよび第2の光学フィルタを通じて通過する間にキャプチャされた1つまたは複数の被検体の画像を、入力として受け取るよう、構成されてもよい。分析モジュールは、虹彩から散乱された光が第1の光学フィルタおよび第2の光学フィルタを通じて通過する間の被検体の1つまたは複数の画像に示される虹彩構造情報の間にマッチするものが存在するか否か、複写画像(facsimile image)であることを示す所定の品質にマッチ (match)するものが存在することを、判断するよう構成されてもよい。一実施形態では、システムは、分析モジュールのロジックを適用する前に、被験者の眼の色を最初に検出してもよい。
照明光源は、近赤外光を放射してもよい。第1の光学フィルタの通過特性の第1のセットは、人間の眼に見える光だけの通過を許してもよい。いくつかの実施形態では、人間の眼に見える光は、約380nm乃至約780nmの波長範囲にあってもよい。第2の光学フィルタの通過特性の第2のセットは、近赤外光のみの通過を許してもよい。いくつかの実施形態では、近赤外光は、約850nmの波長の約30nm帯の波長範囲にあり得る。いくつかの実施形態では、虹彩から散乱された光が、第1の光学フィルタを通過し、キャプチャされた被験者の1つまたはより多くの画像は、赤ー緑ー青の画像(例えば、カラー画像)であってもよい。いくつかの実施形態では、虹彩から散乱された光が、第2の光学フィルタを通過する間に、キャプチャされた被験者の1つまたはより多くの画像は、虹彩に関する構造情報を含む近赤外画像であり得る。
いくつかの実施形態では、カメラは、虹彩から散乱された光が第1の光学フィルタを通過する間に高速に連続して被験者の一連の画像をキャプチャするように構成されてもよく、虹彩から散乱された光が第2の光学フィルタを通過する間に高速に連続して被験者の一連の画像をキャプチャするように構成されてもよい。第1の光学フィルタおよび第2の光学フィルタを経過した、虹彩から散乱された光の通過の間の被検体の1つまたは複数の画像に表示される虹彩構造情報の間にマッチするものが存在する場合、分析モジュールはマッチするものが生体である被験者を示さないもの(contraindicative)であると判断し得るものであり、被験者を複写画像として信用しないこととし得る。第1の光学フィルタおよび第2の光学フィルタを経過した、虹彩から散乱された光の通貨の間の被検体の1つまたは複数の画像に示される虹彩構造情報の間にマッチするものがない場合、分析モジュールは、マッチするものが無いことは生体である被験者を示すと判断してもよく、それによって被験者を生体である被験者として識別する。
いくつかの実施形態では、カメラは、被験者の虹彩を囲む領域の1つまたはより多くの画像をキャプチャするように構成されてもよい。分析モジュールは、被験者の虹彩を囲む領域の1つまたは複数の画像を入力として受け取り、1つまたは複数の画像の少なくとも1つの一部が単色(monochromatic)であるかどうかを決定するように構成され得る。分析モジュールは、虹彩から散乱された光が、第2の光学フィルタを通して、通過する間に被験者の1つまたはより多くの画像を入力として受け取るよう構成されてもよく、1つまたはより多くの画像に示された角膜の鏡面性の構造を分析するように構成されてもよい。
いくつかの実施形態では、生体測定分析システムは、分析システムのスペクトル試験と併せて、被験者の瞳の収縮を刺激するために被験者の眼の領域を照明するように構成された1つ以上の第2の可視照明源を含んでもよい。カメラは、被験者の瞳の収縮中に被験者の一連の画像をキャプチャするように構成され得る。分析モジュールは、被験者の瞳の収縮中に被験者の一連の画像を入力として受け取るように構成され得る。分析モジュールは、収縮前および収縮中の瞳孔の直径を測定して、被験者が生体であることが示されることを判断するように構成され得る。
本開示の実施形態によれば、生体測定分析の例示的な方法が提供される。この方法は、生体測定分析システムの1つまたは複数の照明源で被験者の虹彩を照明することを含む。方法は、虹彩から散乱された光を、第1の光学フィルタと生体測定分析システムのスペクトル弁別器の第2の光学フィルタを介して、選択的に受光することを含む。第1の光学フィルタは第1の通過特性のセットを有し、第2の光学フィルタは第2の通過特性のセットを有することができる。方法は、虹彩から散乱された光が第1の光学フィルタを介して通過する間に、生体測定分析システムの1つ以上のカメラで被検体の1つまたはより多くの画像をキャプチャすることを含む。方法は、虹彩から散乱された光が第2の光学フィルタを介して通過する間に、生体測定分析システムのカメラで被験者の1つまたはより多くの画像をキャプチャすることを含む。方法は、虹彩から散乱された光が第1の光学フィルタおよび第2の光学フィルタを介して通過する間にキャプチャされた被験者の1つまたはより多くの画像を、生体測定分析システムの分析モジュールにおける入力として受け取ることを含む。方法は、生体測定分析システムの分析モジュールによって、虹彩から散乱された光が第1の光学フィルタおよび第2の光学フィルタを介して通過する間に、被験者の1つまたは複数の画像に示される虹彩構造情報の間にマッチするものが存在するか否かを判断することを含み、その存在が複製物の画像であるを示すものとなる。
方法は、虹彩から散乱された光が第1の光学フィルタを介し、通過する間にカメラを用いて被験者の一連の画像を高速に連続してキャプチャすることと、虹彩から散乱された光が第2の光学フィルタを介し、通過する間にカメラを用いて被験者の一連の画像を高速に連続してキャプチャすることを、含んでもよい。この方法は、カメラを用いて被験者の虹彩の周辺の領域の1つまたは複数の画像をキャプチャすることを含んでもよい。この方法は、分析モジュールにおいて、被験者の虹彩の周辺の領域の1つまたはより多くの画像を入力として受け取り、分析モジュールによって、1つまたはより多くの画像の少なくとも1つの一部が単色であるかどうかを判断することを含んでもよい。
方法は、分析モジュールにおいて、虹彩から散乱された光が第2の光学フィルタを介し、通過する間に被験者の1つまたはより多くの画像を受け取ることと、分析モジュールにより、1つまたはより多くの画像に示された角膜の鏡面性の構造を分析することを、含んでもよい。方法は、被験者の眼の領域を1つ以上の第2の可視照明源で照明して、被験者の瞳の収縮を引き起こすことを含んでもよい。方法は、被験者の瞳の収縮中にカメラで被験者の一連の画像をキャプチャすることを含んでもよい。方法は、被験者の瞳の収縮中に被験者の一連の画像を分析モジュールにおいて入力することと、分析システムのスペクトル分析と併せて被験者が生体であることを表すことを判断するために収縮前および収縮中の瞳孔の直径を分析モジュールで測定することとを、含んでもよい。
本開示の実施形態によれば、生体測定分析のための命令を記憶する例示的な非一時的なコンピュータ可読媒体が提供される。命令は、処理装置によって実行可能であり得る。処理装置による命令の実行は、処理装置に、生体測定分析システムの1つ以上の照明源で被験者の虹彩を照射させ得る。処理装置による命令の実行は、処理装置に、虹彩から散乱された光を、生体測定分析システムのスペクトル弁別器の第1の光学フィルタおよび第2の光学フィルタを介して、選択的に受け取らせることができる。第1の光学フィルタは第1の通過特性の組を有し得るもので、第2の光学フィルタは第2の通過特性の組を有し得るものである。処理装置による命令の実行は、処理装置に、虹彩から散乱された光が第1の光学フィルタを介して通過する間に、生体測定分析システムの1つ以上のカメラで被験者の1つまたはより多くの画像をキャプチャさせてもよい。処理装置による命令の実行は、処理装置に、虹彩から散乱された光が第2の光学フィルタを介して通過する間に、生体測定分析システムのカメラで被検体の1つまたはより多くの画像をキャプチャさせてもよい。処理装置による命令の実行は、処理装置に、虹彩から散乱された光が第1の光学フィルタおよび第2の光学フィルタを介して通過する間に、被験者の1つ以上のキャプチャされた画像を、生体測定分析システムの分析モジュールにおいて入力として受け取らせてもよい。処理装置による命令の実行により、処理装置は、生体測定分析システムの分析モジュールに、虹彩から散乱された光が第1の光学フィルタおよび第2の光学フィルタを介して通過する間の被験者の1つまたは複数の画像に示される虹彩構造情報の間にマッチするものが存在するか否かを判断させてもよく、マッチするものの存在は複写画像を示し得るものである。
本開示の実施形態によれば、1つ以上の照明源、1つ以上のカメラ、1つ以上の処理装置、および1つ以上の分析モジュールを含む例示的な生体測定分析システムが提供される。照明源は、被験者の眼を照らすように構成され得る。カメラは、第1の照明源で眼を照明している間に、被験者の眼の1つまたはより多くの画像をキャプチャするように構成され得る。1つまたは複数の画像は、眼の鏡面性の性質を示し得る。分析モジュールは、1つまたは複数の画像を入力として受け取り、眼の鏡面性の性質における輝度および均一性を分析し、眼の反射が、生体である被験者の眼において典型的である3次元性と整合的であるか否かを示すよう、構成され得る。
鏡面性の性質は、被験者の角膜上における鏡面反射であり得る。眼の鏡面性の性質が暗く低い均一性を有する場合、分析モジュールは対象を複写画像として信用しないこととし得る。眼の鏡面性の性質が明るく均一である場合、分析モジュールは、被験者を生体である被験者として判別してもよい。生体である被験者は、十分に光沢のある眼の角膜表面により、明るく均一な鏡面性を有し得る。照明源は、近赤外光を放射してもよい。
本開示の実施形態によれば、例示的な生体測定分析の方法が提供される。方法は、生体測定分析システムの1つまたは複数の照明源で被験者の眼を照明することを含む。方法は、第1の照明源で眼を照明している間に、生体測定分析システムの1つ以上のカメラで被験者の眼の1つまたはより多くの画像をキャプチャすることを含む。1つまたは複数の画像は、眼の鏡面性の性質を示し得る。方法は、1つまたはより多くの画像を生体測定分析システムの分析モジュールにおける入力として受け取ることを含む。方法は、分析モジュールを用いて、眼の鏡面性の性質における輝度および均一性を分析することを含む。方法は、眼の鏡面性の性質が生体である被験者を示すものであるか否かを判断することを含む。このような判断は、鏡面性のの性質における反射が、生体である被験者の眼の典型的な三次元性と整合的であるか否かに基づいて行われる。
鏡面性の性質は、被験者の角膜の鏡面反射であり得る。方法は、暗く均一性の低い眼の鏡面性の性質が生体である被験者を示さないものであり、複写画像を示すと判断することを含むことができ、それにより、眼の鏡面性の性質が暗く低い均一性を有する場合には、分析モジュールにより、対象を複写画像として信用しないこととなる。方法は、眼の明るく均一な鏡面性の性質が複写画像を示さないものであり、生体である被験者を示すものと判断することを含むことができ、それにより、眼の鏡面性の性質が明るく均一であれば、分析モジュールにより、対象を生体である被験者として判別することとなる。生体である被験者は、十分に光沢のある眼の角膜表面により、明るく均一な鏡面性を有し得る。方法は、照明源により近赤外光を放射することを含んでもよい。
本開示の実施形態によれば、生体測定分析のための命令を格納する例示的な非一時的なコンピュータ可読媒体が提供される。命令は、処理装置によって実行可能であり得る。処理装置による命令の実行は、処理装置に、生体測定分析システムの1つ以上の照明源を用いて被験者の眼を照明させてもよい。処理装置による命令の実行は、処理装置に、第1の照明源での眼の照射中に生体測定分析システムの1つ以上のカメラで被験者の眼の1つまたはより多くの画像をキャプチャさせてもよい。1つまたは複数の画像は、眼の鏡面性の性質を示すものであり得る。処理装置による命令の実行は、処理装置に、生体測定分析システムの分析モジュールにおける入力として1つまたはより多くの画像を受け取らせてもよい。処理装置による命令の実行は、処理装置に、分析モジュールを用いて眼の鏡面性の性質の輝度および均一性を分析させてもよい。処理装置による命令の実行は、処理装置に、鏡面性の性質に基づいて分析モジュールにより眼の3次元性を判定させてもよい。
添付の図面と併せて考慮されるものである以下の詳細な説明から、他の目的および特徴が明らかになるであろう。しかしながら、図面は説明のためだけに設計されており、本発明の範囲を限定するものではないことを理解されたい。
生体測定分析の開示されたシステムおよび方法を作成および使用するに際し、当業者を補助するため、添付図面を参照する。
図1は、本開示による例示的な生体測定分析システムの第1の実施形態のブロック図である。 図2は、図1の生体測定分析システムの実装における例示的な処理を示すフローチャートである。 図3は、本開示による例示的な生体測定分析システムの第2の実施形態のブロック図である。 図4は、図3の生体測定分析システムの実装における例示的な処理を示すフローチャートである。 図5は、本開示による例示的な生体測定分析システムの第3の実施形態のブロック図である。 図6は、図5の生体測定分析システムの実装における例示的な処理を示すフローチャートである。 図7は、本開示による例示的な生体測定分析システムの第4の実施形態のブロック図である。 図8A〜8Bは、本開示による複写画像および生体である被験者の概略図である。 図8A〜8Bは、本開示による複写画像および生体である被験者の概略図である。 図9は、図8の例示的な生体測定分析システムの第4の実施形態の概略図である。 図10A〜Bは、図7の生体測定分析システムによって生成された地形図(topographical maps)の概略図である。 図10A〜Bは、図7の生体測定分析システムによって生成された地形図(topographical maps)の概略図である。 図11は、図7の生体測定分析システムの実装における例示的な処理を示すフローチャートである。 図12は、本開示による例示的な生体測定分析システムの第5の実施形態のブロック図である。 図13A〜13Bは、図12の生体測定分析システムの実装における例示的な処理を示すフローチャートである。 図13A〜13Bは、図12の生体測定分析システムの実装における例示的な処理を示すフローチャートである。 図14は、本開示による例示的な生体測定分析システムの第6の実施形態のブロック図である。 図15は、図14の生体分析システムの実装における例示的な処理を示すフローチャートである。 図16は、本開示による例示的な生体測定システムのうちの1つ以上を実装するための例示的なコンピューティングデバイスのブロック図である。 図17は、本開示による例示的な生体測定分析システム環境のブロック図である。
本開示の実施形態によれば、生体である被験者と比べ、複写画像を検出、区別するためのアンチスプーフィング機能を含む例示的な生体測定分析システムが説明される。生体測定分析システムは、一般に、分析モジュールによって分析される被験者の少なくとも一部の1つまたは複数の画像をキャプチャするように構成された1つまたは複数のカメラを含む。生体測定分析システムは、一般に、1つまたは複数の照明器または照明源(例えば、太陽光、オフィス照明のような人工的な環境光源、またはシステムの一部である人工的な光源)を含む。いくつかの実施形態では、生体測定分析システムは、自然のおよび/または環境における照明を被験者の少なくとも一部に提供する1つまたは複数の第1の照明源と、照明(例えば近赤外線)を被験者の少なくとも一部に提供する1つまたは複数の第2の照明源を含む。図面においては異なる照明源を有するものとして示されているが、各生体測定分析システムの照明源は、静的光、動的光、連続光、点滅光、それらの組み合わせなどを放射することができることを理解されたい。例えば、照明源によって放射される光の強度、持続時間、および/または周期は、各生体測定分析システムにおいて様々であり得る。ここで使用される用語「画像」は、静止フレーム画像、ビデオ、それらの組み合わせなどを含んでもよい。本明細書で使用する「複写画像」(facsimile image)という用語は、静止フレーム画像(フラットなまたはカーブした)、3次元モデル、移動モデル(moving model)、それらの組み合わせなどを含んでもよい。
生体分析システムは、1つ以上の分析モジュール(例えば、1つまたは複数の処理装置に組み入れられ、あるいは、別個のコンポーネントとして)と、1つまたは複数の画像にあらわれる特徴を検出するように構成された1つ以上の検出器および/またはセンサを含んでもよい。ここに記載された各生体測定分析システムは、生体である被験者または複写画像と整合的である検出された特徴の存在または欠落に基づいて、キャプチャされた画像が生体である被験者を示すものであるかあるいはを示さないもの(contraindicative)であるかを判定し得るものであり、このような判定は被験者が生体である被験者か否かの判断を支援するものである。一例として、生体である被験者の顔は3次元形状を有し、したがって、3次元形状と整合的である特定の特性を有するはずである。対照的に、平らな用紙に印刷された複写画像は、一般に、3次元形状の特徴を欠いており、生体である被験者とは整合的でない平坦な物体と整合する特性も示し得る。
ここでは個別の生体測定分析システムとして説明されるが、多階層のアンチスプーフィング、および/もしくは、より高い信頼レベルの判断を提供するために、個々の生体測定分析システムの1つ以上のコンポーネントを1つのシステムに結合し得る。例えば、被検体が生体であるか複製であるかについての最終的な判断を行う上での重みづけされた個々のシステムの判定を用いて、キャプチャされた画像が生体である被験者を示すものであるかあるいは示さないものであるかを判定するため、生体測定分析システム(および/または代替システム)のうちの2つ以上を組み合わせてもよい。いくつかの実施形態では、画像が生体である被験者を示さないものであるか、生体である被験者を示すものであるかについて生体測定分析システムの決定を裏付けるため、1つまたは複数のセンサ(例えば、3次元センサ)を使用してもよい。異なる生体測定システムにおける同様の構造を表すために、図面において同様の参照番号が使用され得る。
図1を参照すると、例示的な生体測定分析システム100(以下、「システム100」)の第1の実施形態のブロック図が提供される。システム100は、被験者の解剖学的構造と整合する照度レベルを探すことによって、被験者が生体であることを検査する。一例として、人間の虹彩認証は、一般に、近赤外線(NIR)照明を使用して、可視のスペクトルの光を吸収するが近赤外線スペクトルを吸収しない虹彩色素を介して、虹彩の構造の視覚化を提供する。被験者の虹彩および、眼部の周囲及び/又は顔に適用される近赤外照明は、虹彩からだけではなく、皮膚、強膜、毛、及び被験者の他の解剖学的特徴からの反射を引き起こす。これらの反射の強度は、照明源の強度、解剖学的表面の反射率特性、および、照明源、被験者、カメラの相対位置に基づく。
強膜、皮膚、髪、虹彩、および他の解剖学的特徴はすべて、異なる反射特性を有する。例えば、皮膚の反射率は、虹彩の反射率(皮膚の色素沈着を考慮した後)よりも一般に明らかに高い。結果として、生体測定分析のための許容可能な虹彩の信号を得るために必要な照明レベルは、しばしば、皮膚から反射される過剰な光量を生成するもので、眼部および/または顔の領域を、キャプチャされた画像のその余のものよりも明るいものとする。より高い照明レベルは、特に、それらが最大量の照明をカメラへ反射するよう角度が付けられた領域において、飽和点における眼部領域および/または顔の領域を示す画像をもたらす結果となり得る。
システム100は、皮膚からの反射を、例えば、紙によるなりすましや複写画像からの反射から区別するために、(色素沈着のレベルにかかわらず)皮膚の異なる反射率を利用する。顔の3次元性に基づいて、肌の反射と複写画像からの反射との区別を判断しえる。特に、被験者の顔のある点の輝度は、顔の3次元曲率の影響を受ける。一般に皮膚のすべての領域は同じ色であるが、カメラにおおむね垂直な、例えば眉山、頬骨などの生体である被験者の顔の領域は、光をカメラに直接反射し、照明されている間に皮膚の他の領域よりも著しく明るく見える。例えば、こめかみおよび頬の側面は、斜めの状態でカメラから離れており、したがって、キャプチャされた画像においてより暗く見える。
対照的に、紙に印刷された顔の画像は、顔の特徴の全てがカメラに対してほぼ同じ方向に向けられた、おおむね平坦な表面を描く。例えば、虹彩、眉毛、頬骨、耳などは、平面上に描かれる。したがって、紙から反射された光は、描かれた顔の特定の領域から優先的に反射するものではない。以下に説明されえうように、システム100は、提示された対象が生体である被験者であるか2次元の偽物であるかを判定するために、静的な照明または変化する/動的な照明レベルのいずれかによって3次元性の欠如を検出する。
システム100は、提示された被験者の虹彩の少なくとも一部を照明するように構成された1つ以上の照明源102を一般に含む。照明源102はまた、眼部周辺および/または被験者の顔の少なくとも一部を照明するように構成してもよい。照明源102は近赤外線照明源としてもよい。システム100は、被験者の近接または位置を検出するように構成された1つまたは複数のセンサを含んでもよい。例えば、被験者が所定の領域にある場合、照明源102は、虹彩および眼部および/または被験者の顔を照らすために作動され得る。生体認証または虹彩認識を実行するために、被験者の眼、転じて被験者の顔の少なくとも一部を、被験者の虹彩の固有の構造を検出するのに十分なだけ照明源102によって照明してもよい。
システム100は、1枚のまたはより多くの画像(例えば、静止画像、ビデオ画像、これらの組み合わせ、等をフレーム)を取得するように構成された、1つまたはより多くのカメラ104を含む。注視される領域が照明源102によって照射されると、カメラ104は、被験者の1枚もしくはより多くの画像106をキャプチャするように作動され得る。画像106は、虹彩のみ、眉毛のみ、頬骨のみ、耳のみなど、被験者の特定の領域のみを表示し得る。画像106は、例えば、被験者の顔の全体や、あるいは顔の特徴のうちの複数のものを有する顔の領域のように、被験者の領域のうちの複数のものも単一の画像106で表示してもよい。1枚もしくはより多くの画像106は、虹彩から反射されキャプチャされた光を表示してもよい。1枚またはより多くの画像106は、被験者の眼部周辺および/または顔の1つまたは複数の部分から反射されキャプチャされた光を、表示してもよい。特に、生体である被験者の眼部領域および/または顔の照明は、顔の3次元構造に基づいた被験者の顔面上に照明のパターンを生成する。
画像106は、電子的に、ローカルおよび/またはリモートのデータベース108に格納されてもよい。システム100は、画像106をデータベース108に電子的に送信するように構成された通信インタフェース110を含んでもよい。通信インタフェース110は、画像106(または任意の他の電子データ)を電子的に受信するように構成されてもよく、また、システム100のコンポーネント間の電子通信を提供する。
システム100は、インタフェース110を介して画像106を入力として受信するように構成された分析モジュール112(例えば、処理装置)を含む。分析モジュール112は、画像106における反射光あるいは反射光のパターンを分析するために実行され得るもので、反射光のパターンが生体である被験者の期待される三次元特徴と一致するかどうかを判定する。例えば、分析モジュール112は、真の3次元の対象物と、生体である被験者からの反射光レベルについて予想されるものとの間の整合性を検出してもよい。システム100は、被験者からの応答(自律的または随意的)を必要としない。むしろ、分析モジュール112は、画像106内のキャプチャされた反射光パターンに基づいて、被験者が三次元の顔または頭を所有していることを検出する。従って、システム100は、生体であることの検出のための刺激に依拠した別のアプローチよりも簡単な方法で機能する。
画像106における異なる模様(pattern)あるいは照明分布に基づいて、分析モジュール112は、顔の3次元曲率を、最も一般的なプレゼンテーション攻撃(presentation attack)の形態である、紙に印刷されあるいはスクリーン上に表示された平面上の眼の画像から、区別する。したがって、分析モジュール112は、検出された模様または照明の分布が、真正のトランザクションおよびプレゼンテーション攻撃を示すものであるか、あるいは、示さないものであるかを判断する。特に、システム100は、撮影された画像106を、生体である被験者の顔に特有の不均一性を有する特徴的な照明パターンについて分析する。分析モジュール112によって画像106に不均一な照明パターンが検出された場合、分析モジュール112は、パターンが生体である被験者を示していると判断することができ、対象が生体である被験者である旨の高い信頼度を出力する。対照的に、紙に印刷された被験者の眼の画像は(たとえ紙が湾曲していても)、システム100に提示された場面の二次元平面性(および三次元性の欠如)により、より均一な照明の分布を示すものとなるであろう。実質的に均一な照明パターンが画像106において分析モジュール112によって検出された場合、分析モジュール112は、パターンが生体である被験者を示さないものであると判定し、対象が複写画像である旨の高い確信度を出力する。
システム100は、静的光114および/または動的光116を有する照明源102と共に使用されてもよい。システム100は、したがって、被験者とのトランザクション(transaction)の過程で照明レベルを変えることができるシステムに組み込まれ得るものであり、結果として生じる画像106は、適切な応答の検出のために分析され得るものである。静的光114は、虹彩および眼部周辺領域および/または被験者の顔を照らすために、実質的に静的または連続的な光(例えば、実質的に均一な照度レベル)を放射することができる。キャプチャされた各々の画像106は、画像に示された照明の不均一なパターンに基づいて生体である顔の特徴的な構造を検出するために、分析モジュール112によって個別に分析され得る。
一例として、静的光114は、被験者の眼窩の一時的な端部周辺の三次元の凹凸を照らすように構成され得る。明るい近赤外照明は、明るい領域と暗い領域を含む特徴的なパターンを顔(対象が生体である被験者の場合)に生成する。カメラ104は、被験者の眼窩の一時的な端部の1つまたはより多くの画像106をキャプチャするように動作させられ得る。分析モジュール112は、画像106中にキャプチャされた眼窩の一時的な端部の反射光を分析して、均一または不均一な照明パターンが示されているかどうかを判定する。照明のパターンが均一である場合、分析モジュール112は、対象を複写画像として信用し得ない。不均一な照明パターンは、生体である被験者の3次元画像を示し得る。
動的光116は、異なる照明のレベルで光を放射し得る。例えば、動的光116は、照明光源を用いて、第1の照明レベルを放射し、続いて第2の照明レベルを放射することができる。いくつかの実施形態では、動的光116は、最初に第1の照明レベル(例えば、低いまたは暗い照明レベル)を放射し、第2の照明レベル(例えば、高いまたは明るい照明レベル)を放射するように自動的に切り替えてもよい。いくつかの実施形態では、動的光116は、最初に第1の照明レベル(例えば、低い照明レベルまたは暗い照明レベル)を放射してもよく、徐々にまたはだんだんと第2の照明レベル(例えば、高いまたは明るい照明レベル)へと移行し、それによって、第1の照明レベルと第2の照明レベルとの間の異なる照明を提供する。カメラ104は、1つまたはより多くの画像106を各照明レベルでキャプチャしてもよく(例えば、一連の画像106)、分析モジュール112は、例えば、一連の画像106における彩度および/または照度分布といった、特性の変化に基づいて、被験者の3次元性の欠如を判断する。
動的光116を実装することにより、正確な静的3次元照明の人工物をうまく描写し得た複写画像が見いだされ、信用されないものとなり得る。照明の量を変化させるかまたは徐々に増加させることによって、カメラ104に垂直な顔の領域は、顔の残りの部分よりも先に明るくなり、照度の閾値で白くなるまたは飽和レベルに近づく。分析モジュール112は、様々な画像106を比較し、カメラ104に対するそれらの角度に起因する照明に対する高い感度を示す領域を検出する。生体である被験者を含む真正のトランザクションでは、白くなったまたは飽和した領域は、例えば眉の***および頬骨における顔の既知の構造に対して整合的であり、また、暗い領域はカメラ106に対して角度をなす顔の領域において依然として存在するであろう。分析モジュール112は、さらなる偽装または生体であることを示すもののため、様々な解剖学的特徴を様々な画像106の異なる反射率レベルと更に比較してもよい。
対照的に、複写画像は、画像の2次元形状のために、画像の大部分または全体に白いまたは飽和領域を示し得る。一実施形態では、2つの照明のレベルの間の遷移または照明の複数のレベルにわたる漸次的な遷移は、予め設定された頻度または時点で実行されてもよい。一実施形態では、2つの照明のレベルの間の遷移または照明の複数のレベルにわたる漸次的な遷移に関する頻度もしくは時点は、トランザクションごとに変更されてもよい。
システム100は、記録または登録された被験者情報118に対応するデータをデータベース108に電子的に格納してもよい。登録された被験者情報118は、生体または虹彩認識に基づいてユーザを認証するために使用され得る。複写画像と比較される際に、生体である被験者において一般にあらわれる照明パターンのテンプレートまたは比較用として、分析モジュール112は登録された被験者情報118を使用してもよい。システム100は、グラフィカルユーザインタフェース(GUI)122を含むユーザインタフェース120を含んでもよい。GUI122は、被験者がシステム100に情報を入力するために使用することができ、被験者の認証の成功または複写画像の検出など、被験者に情報を表示するために使用され得る。
システム100は、システム100の1つまたはより多くのコンポーネントを実行するように構成されたプロセッサ126を伴う処理装置124を含んでもよい。例えば、処理装置124は、分析モジュール112を実装し、照明源を制御し、および/またはカメラ104を制御するための命令を、実行してもよい。いくつかの実施形態では、システム100は、照明源102、カメラ104、分析モジュール112、処理装置124、および/またはユーザインタフェース120と、通信インタフェース110を介して通信する中央コンピューティングシステム128を含んでもよい。
図2は、システム100を実施する例示的な処理150を示すフローチャートである。まず、ステップ152において、被験者の虹彩、及び、被験者の眼部領域の周囲の領域及び/又は顔の少なくとも一部が、照明源で照明される。ステップ154では、被験者の照明源による照明中に、被験者の1つまたはより多くの画像がカメラでキャプチャされる。1つまたはより多くの画像は、虹彩および眼部領域の周辺および/または顔からの反射光パターンを示す。ステップ156において、1つまたはより多くの画像が分析モジュールで入力として受け取られる。ステップ158で、画像内の反射光が分析モジュールで分析される。ステップ160において、被験者の3次元性が、不均一な照明パターンに基づいて分析モジュールによって決定される(または3次元性の欠如が照明の均一なパターンに基づいて決定される)。
いくつかの実施形態では、ステップ162において、被験者の虹彩および、被験者の眼部領域および/または顔を照明するために、静的光が放射され得るものであり、この静的光は実質的に均一な照明レベルを有する。いくつかの実施形態では、ステップ164において、被験者の虹彩および、被験者の眼部領域および/または顔を照らすために、動的光が放射され得る。詳細には、ステップ166において、第1の照明レベルが最初に放射され得るものであり、その後、第2の照明レベルが照明源により放射され得る(例えば、2つの照明レベルの間をダイレクトに、または段階的に)。ステップ168において、第1および第2の照明レベルでの照明中に、被験者の1つまたはより多くの画像をカメラでキャプチャしてもよい。ステップ170において、分析モジュールは、異なる照明レベルにおける画像を受け取り、画像内の照明分布のパターンの変化に基づいて3次元性の欠如を判定する。ステップ172において、分析モジュールは、3次元性の欠如が、生体である被験者を示さないものであり、複写画像を示すものかどうかを判定し、それにより、複写画像としての被験者を信用しないものとする。
図3を参照すると、例示的な生体測定分析システム200(以下、「システム200」)の第2の実施形態におけるブロック図が提供される。システム200は、2次元的なあるいは3次元的な複製物と比較される、生体の眼の網膜の再帰反射(例えば、赤目、赤外線眼(infrared-eye)など)を検出することによって、虹彩識別システムの被験者またはユーザが生体であることを保証し、これによってプレゼンテーション攻撃による偽装を阻止する。
いくつかの従来の生体測定分析システムは、角膜からの鏡面反射を比較するものであるところ、システム200は、眼の複雑な光学系の結果である赤外線スペクトルにおける網膜の自然な反射率を利用する。いくつかの実施形態では、複写画像をさらに検出するために時間的な側面を使用し得る。例えば、システム200は、提示された被験者の虹彩における予測困難な信ぴょう性のテストを生成するために、時間的な制御をされ得る。いくつかの実施形態では、ここに記載された代替システムおよび/またはアンチスプーフィングの追加のレイヤ(例えば、瞳孔測定、視線検知(glance detection)など)がシステム200と組み合わせられ得るもので、各システムが、生体である被験者であるか、模造された被験者であるかの判定を提供し、対象が生体である被験者であるかどうかの判断において各判定が重み付けされるものである。
網膜反射または再帰反射は、光が眼に入射し、網膜から跳ね返り、カメラに戻るときに生じる。網膜反射は、光源、被験者の眼、およびカメラの相対位置ならびに被験者の瞳孔の大きさに依存する。再帰反射は、一般に、照明源 - アイカメラによって形成される角度が約5度を超えることを保証することによって防止することができる。システム200は、標準的な5度の推奨値より低い角度を変化させることによって、生体である被験者を示すものとしての網膜反射の発生を促進する。網膜反射を生成するために必要な条件は、一般に被験者に依存する。例えば、大人よりも瞳孔が大きくなる傾向がある子供の場合、カメラのレンズに近いフラッシュを備えたコンパクトカメラは、特徴的に赤い反射(赤目と呼ばれる)を生じる。より小さな瞳孔を持ったより高齢の被験者では、同じカメラが赤いグレア(glare)の同じ輝度を得られないことがありえる。また、レンズとフラッシュの距離が遠くなるように設計されたカメラでは、コンパクトカメラと同じ距離にある被験者で赤目を生じない場合があり得る。
システム200は、虹彩からの網膜反射を生成するために被験者の虹彩を照明するように構成された1つまたはより多くの照明源202を含む。システム200は、各々がレンズ206を含む1つまたはより多くのカメラ204を含む。照明源202は、被験者の虹彩に網膜反射を生じさせることを試みるため、レンズ206に隣接する位置に配置されてもよい。特に、照明源202は、虹彩における網膜反射を引き起こすことを試みるため、カメラレンズ206のできるだけ近くに配置され得る。裸眼によっては検出されない赤外線スペクトルの網膜反射を生成するため、照明源202によって放出される光は赤外線であり得る。
カメラ204は、照明源202を用いた虹彩の照明中、被験者の1つまたはより多くの画像212をキャプチャする(例えば、被験者の虹彩)。画像212の少なくともいくつかは、被験者の虹彩の網膜反射を示し得る。分析モジュール112は、画像212を入力として受け取り、画像212における網膜反射の存在または欠如を分析し、網膜反射(存在する場合)が生体である被験者の網膜の自然反射率を示すかどうかを判定する。分析モジュール112が画像212における自然な網膜反射率の欠如を検出する場合、対象は複写画像または複製された眼であるとして信用され得ない。
いくつかの実施形態では、照明源202は、実質的に連続な光208(例えば、実質的に均一な照明レベルの)を放射してもよい。いくつかの実施形態では、照明源202は、フラッシュ光210を放射してもよい(例えば、同じ時間間隔で放射された光、異なる時間間隔で放射された光、各トランザクションごとに異なる数のフラッシュの放射、異なる強度のフラッシュの放射、など)。フラッシュ光210は、生体測定分析トランザクション中に短時間の、予測することが困難な網膜反射を生成し、それによりアンチスプーフィングを防止する。いくつかの実施形態では、照明源202は、選択的な網膜反射の促進または回避を試みるために臨界角の基準の上下5度を変更する意図で、様々な位置から光を放射することが可能であってもよい(例えば、様々な位置の複数の照明器、可動照明など)。
ある実施形態では、網膜反射をもたらす赤外刺激は、生体測定トランザクション中に一度だけ短い時間、あるいは、間に時間間隔をあけて複数回、照射してもよい。分析モジュール112は、ビデオまたは画像212内のどのフレームが、明るい瞳孔を表すであろう、容易に測定されるであろう、網膜反射を示すものかを知るであろう。画像212の他のフレームすべては、暗い瞳孔を含んでもよい。明るい瞳孔を偽装した人為的手段を用いたなりすましスプーフィング攻撃(presentation spoof attack)は、照明源202から刺激が発生するまさにその瞬間に反応を生成する必要がある。システム200は、偽装成功の可能性を低減するために、トランザクションごとに刺激のタイミング(いつフラッシュが発生するか、および/または、フラッシュを何回発生するか)を変えてもよい。
図4は、システム200の実装における例示的な処理250を示すフローチャートである。まず、ステップ252で、被験者の網膜反射を生じさせることを試みるため、被験者の虹彩が照明源で照らされる。ステップ254において、赤外線スペクトルにおける網膜反射を生成するため、照明源は赤外線を放射する。ステップ254はステップ252の一部と考えることができるもので、赤外線スペクトルにおける被験者の網膜反射を生成するために照明源が赤外線を放射するものである。いくつかの実施形態では、ステップ256において、照明源は、虹彩を照らすために連続的な光を放射する。いくつかの実施形態では、ステップ258において、照明源は、虹彩を照らすためにフラッシュ光を放射する。いくつかの実施形態では、ステップ260において、照明源は、フラッシュ光のフラッシュの間の時間間隔を変化させる。いくつかの実施形態では、ステップ262において、照明源は、(例えば、各トランザクションごとに)各被験者に対して放射されるフラッシュ光のフラッシュの回数を変化させる。
ステップ264で、被験者の虹彩の1もしくはより多くの画像は、被験者の照明源による照明中にカメラでキャプチャされる。1つまたはより多くの画像は、被験者の網膜反射を示す。ステップ266において、分析モジュールは、1つまたはより多くの画像を入力として受け取る。ステップ268において、分析モジュールは、1つまたはより多くの画像における網膜反射を分析する。ステップ270において、分析モジュールは、網膜反射が(例えば、模造された被験者の虹彩における網膜反射と比較して)網膜の自然な反射率を示すかどうかを判定する。ステップ272において、分析モジュールは、網膜の自然な反射率の欠如が生体である被験者を示さないものであるか否かを判定し、それによって被験者を複写画像として信用しないものとする。
図5を参照すると、例示的な生体測定分析システム300(以下、「システム300」)の第3の実施形態のブロック図が提供される。システム300は、広いスペクトル範囲を使用することによって虹彩識別システムの被験者またはユーザの信ぴょう性を確かなものとする。従来の生体測定分析システムは、一般に、近赤外線スペクトルにおける虹彩特性の分析に依存している。システム300は、生体認証虹彩認証情報が、狭いスペクトル(例えば、近赤外スペクトルのみ)ではなく、全スペクトルの実特性を示すことを示すために、広いスペクトル範囲(例えば、カラーおよび近赤外スペクトルの両方)を分析し、これによってプレゼンテーション攻撃による偽装を阻止する。具体的には、システム300は、生体である被験者と矛盾するスペクトル特性を示す模造物を示すことを試みる。
システム300は、1つまたはより多くの第1の照明源302および1つまたはより多くの第2の照明源304(例えば、近赤外、赤色、緑色、青色、UV、代替スペクトルなどの、異なる波長を有する照明源)を含む。第1の照明源302は、被験者の虹彩の少なくとも一部を照明するように構成される。第1の照明源302は、近赤外線を放射するように構成され得る。第2の照明源304は、被験者の顔の少なくとも一部を照明するために可視光を放射するように構成される。システム300は、被験者の照明中に被験者の1つまたはより多くの画像306をキャプチャするように構成された1つまたはより多くのカメラを含む。
例えば、システム300は、第1の照明源302を用いた被験者の照明中に被験者の1つまたはより多くの画像306をキャプチャするように構成された1つ以上の第1のカメラ308(例えば、近赤外線カメラ)を、含んでもよい。さらなる例として、システム300は、第2の照明源304を用いた被験者の照明中に被験者の1つまたはより多くの画像306をキャプチャするように構成された1つまたはより多くの第2のカメラ310(例えば、可視光カメラ)を、含んでもよい。いくつかの実施形態では、単一のカメラは、第1および第2の照明源302、304によって照射された被験者の画像306を実質的に同時にキャプチャしてもよい。
カメラ308は、近赤外スペクトルにおける虹彩テクスチャの測定を可能にするモノクローム画像306を、生成する。カメラ310は、被験者の顔のカラー画像306を生成する。システム300は、被験者のモノクロームおよびカラー画像306の両方を使用することによって、顔、眼周辺領域および/または虹彩のモノクローム画像306を信用しないものとしてもよい(例えば、顔、眼周辺領域および/または虹彩の正常な色素沈着による) 。分析モジュール112は、1つまたはより多くの画像306(例えば、モノクロームおよびカラー)を入力として受け取り、第1の照明源302による照明の間の被験者の画像306に基づいて虹彩の構造を判定し、第2の照明源304を用いて照明する間の被験者の画像306に基づいて少なくとも被験者の顔の一部分のカラースペクトルを判定する。
このため、動きまたは活性に依存するというより、システム300は、キャプチャされた生体計測特徴のスペクトルの整合性、特に、顔および眼周辺領域(眼を含む)の色を、テストする。虹彩カメラから偽の虹彩として一般的に得られるモノクローム画像を攻撃者が使用する場合、カラーカメラ310はモノクローム画像を知覚することができる(実際の生体認証特徴は全スペクトルのカラーであるため)ので、システム300は、画像が生体である被験者を示さないものであると判断し、それによって画像を複写画像として信用しないこととなる。特に、分析モジュール112が、カラーカメラ310によって取り込まれた画像306の少なくとも一部が、被験者が第2の照明源304によって照明されたときに、モノクロームであることを検出する場合、分析モジュール112は被験者を複写画像として信用しないこととし得る。分析モジュール112が、第1の照明源302による被験者の照明中に近赤外線カメラ308によってキャプチャされた画像306と、被験者の第2の照明源304による照明中にカラーカメラ310によってキャプチャされた完全なカラー画像306とにおいて、単色の虹彩構造を検出する場合、分析モジュール112は、対象を生体である被験者として識別することができる。
いくつかの実施形態では、被験者が認証されるときに、システム300は、各スペクトル帯域における、カメラ308、310によってキャプチャされた画像306について、セグメント化してテンプレート312を生成し、分析モジュール112によりテンプレート312に対して比較分析を行ってもよい。テンプレート312に対応するデータは、データベース108に電子的に格納されてもよい。カラーカメラ310によってキャプチャされた色素沈着特性のため、カラーカメラ310および近赤外線カメラ308によってキャプチャされた生体の虹彩はマッチするべきではない。システム300は、不整合もしくは生体であることを感知するために、動きを必要としない。
図6は、システム300の実装における例示的な処理350を示すフローチャートである。まず、ステップ352で、被験者の虹彩が第1の照明源からの近赤外光で照明される。ステップ354において、被験者の顔の少なくとも一部は、第2の照明源からの色光で照明される。いくつかの実施形態では、第1および第2の照明源からの照明は実質的に同時に生じる。ステップ356において、1つまたはより多くのカメラは、第1および第2の照明源を用いた被験者の照明中に被験者の1つまたはより多くの画像をキャプチャする。いくつかの実施形態では、ステップ358において、1つまたはより多くのカメラは、第1および第2の照明源で被験者の照明中に被験者の1つまたはより多くの画像を実質的に同時にキャプチャする。
ステップ360において、分析モジュールは、カメラから1つまたはより多くの画像を入力として受け取る。ステップ362において、分析モジュールは、第1の照明源での被験者の照明中にキャプチャされた被験者の画像に基づいて虹彩の構造を判定する。ステップ364において、分析モジュールは、第2の照明源による被験者の照明中にキャプチャされた被験者の画像に基づいて、被験者の顔の一部の色スペクトルを判定する。ステップ366において、分析モジュールは、モノクロームの部分が生体である被験者を示さないものであり、複写画像を示すと判断し、そのため、第2の照明源を用いた被験者の照明中にキャプチャされた被験者の1つまたはより多くの画像に基づいて、分析モジュールが被験者の顔の一部のモノクロームの部分を検出した場合に、被験者を複写画像として信用しないこととする。
図7を参照すると、第4の実施形態の例示的な生体測定分析システム400(以下、「システム400」)のブロック図が提供される。システム400は、十分に狭い被写界深度を有する複数の距離でキャプチャされた顔の輪郭を見直すことによって、虹彩識別システムの被験者またはユーザの信ぴょう性を確かなものとする。いくつかの実施形態では、システム400は、焦点の異なる位置で可動レンズ、画像が取得された後に焦点を合わせるためのライトフィールドカメラ、などを使用してもよい。一実施形態では、システム400は、被験者の焦点の点または面を変えるためにカメラのレンズが動くのに伴い一連の画像を取得する。一実施形態では、システム400は、可動レンズなしで一連の画像を取得し、処理中に被写界深度を狭める。システム400は、中間画像を分析して、単純に曲げられた紙の画像の曲線から区別され得るものである実際の顔の滑らかな曲面を、検出する。
システム400は、必要に応じて被験者の顔の少なくとも一部を照明するように構成された1つまたはより多くの照明源402を含んでもよい。システム400は、可動レンズ406を有する1つまたはより多くのカメラ404を含む。特に、カメラ404は、被験者の顔の様々なポイントに沿ってカメラ404の焦点面を変更するために、レンズ406を徐々に動かすように構成された機構を含む。カメラ404は、レンズ406が被験者の顔に対する第1の点から被験者の顔を介して被験者の顔に対する第2の点へと焦点面を徐々に動かすときに、被験者の顔の一連の画像408をキャプチャするように、作動され得る。いくつかの実施形態では、レンズ406の漸次的な移動は、ピントの合った画像を得るためにカメラ404が被験者に焦点を合わせようとするとき、カメラ404のオートフォーカス機構と同時に、行われてもよい。アンチスプーフィング機能をオートフォーカス処理に組み込むことにより、スプーフィング防止処理は気付かれずに実行され、プレゼンテーション・アタックに打破されることをより少なくしえるものです。
いくつかの実施形態では、第1の点は被験者の顔の背後の点であり、第2の点は被験者の顔の前方の点であり得る。いくつかの実施形態では、第1の点は被験者の顔の前方の点であり、第2の点は被験者の顔の背後の点であり得る。したがって、キャプチャされた画像408は、第1の点と第2の点との間に異なる焦点を示す。焦点の掃引(sweep of focus)は、(たとえ紙が曲げられていても)紙とは質的に異なる実際の顔の三次元的な凹凸を示す。一例として、生体である被験者の顔の3次元構成のために、一連のキャプチャされた画像408は、焦点のあった鼻の先端を示しながら画像408の残りの部分の焦点がずれている1枚の画像408、焦点があった頬骨の上端を示しながら残りの部分の焦点がずれている第2の画像408、焦点があった眼を示しながら残りの部分の焦点がずれている第3の画像408、焦点が合った耳を示しながら残りの部分の焦点がずれている第4の画像408、等である。
対照的に、複写画像は、閉じた輪郭を有さない、一定の焦点の実質的に真っ直ぐな線をもたらす、2次元形状を画定することがありえる。一例として、湾曲されていない/フラットな複写画像に対する一連のキャプチャされた画像408は、焦点が合っていない全体の画像408を示す1枚の画像408と、複写画像の平面に焦点面がそろった場合の焦点が合っている全体の画像408を示す第2の画像408と、焦点が合っていない全体の画像408を示す第3の画像408と、を含み得る。更なる例として、折り曲げられた複写画像に関する一連のキャプチャされた画像408は、画像408の中心線の全体に沿って延びる一定の焦点を有する実質的に垂直方向の線を示す1枚の画像408と、画像408全体に亘って延在し、画像408の中心線からずれた(offset)、一定の焦点の2つの実質的に垂直方向の線を示す第2の画像408と、画像408全体に亘って延在し、画像408の中心線からさらにずれた、一定の焦点の2つの実質的に垂直方向の線を示す第3の画像408と、を含みえる 。
いくつかの実施形態では、処理装置124は、カメラ404によってキャプチャされた一連の画像408を入力として受け取り得るもので、被験者の顔の地形図410を出力または形成する。地形図410は、レンズ406の焦点の変化に基づいて画像408に取り込まれた異なるレベルの焦点を示してもよい。焦点の異なるレベルは、被験者の輪郭に対応する滑らかな曲面として表されてもよい。
分析モジュール112は、画像408および/または地形図410を入力として受け取り、輪郭の鮮明さについて画像408及び/又は地形図410の1つの以上の領域を分析し、各画像408および/または地形図410の輪郭が生体である被験者の輪郭に対応するか否かを判定する。生体である被験者の顔の三次元構造に起因して、画像408または地形図410は閉じた輪郭を含むことが期待される。複写画像の二次元構造(湾曲していても)のため、複写画像に対応する画像408または地形図410は、焦点のあった全体画像408、または、閉じた輪郭のない一定の焦点の実質的に真っ直ぐな線を、含むであろう。コンピュータ利用可能な焦点の計量(computationally efficient focus metric)は、同質的に焦点の十分にあった平面に対応する、本物の顔の閉じた輪郭を示すのに利用され得るもので、紙面で容易には再現され得ない。これは、紙の複写画像が、例えば、虹彩のような特徴を含むその完全性を同時に維持しなければならないならば特に該当するものとなり、それによって折り紙のような折畳みを妨げる。
システム400は、カメラ404に対する空間内の単一平面であって、対象が最適な焦点にあるものを確立する、固定焦点光学系を使用してもよい。この平面についてどちらの方向でも、焦点の質は低下する。被写界深度は、その内で被験者が適切な焦点にある、最適な焦点の両側の深度範囲内に存在する。人が生体認証手段によって識別され得る最適な焦点の両側の深度範囲内を、生体認証深度と呼ばれてもよい。
システム400は、所定の範囲内の物体に焦点を合わせることを可能にする可変焦点光学系を使用してもよい。焦点面が移動可能であるので、焦点を合わせた画像を得るための全体の範囲は、固定焦点システムの生体認証の被写界深度よりも大きい。静止した物体の場合、カメラ404に対するレンズ406の位置のスイープは、物体空間における焦点面のスイープを生成する。例えば、レンズ406がカメラ404に近い位置にある場合、焦点面は対象物の後ろにあり、その場合には対象物には焦点が合っていないであろう。カメラ404からレンズ406がより遠くなると、対象物の焦点が良好となり得る。さらにカメラ404に対してレンズ406がより遠くなると、焦点面は対象物の前方となり得、対象物には再び焦点があわないものとなるであろう。
このように、カメラ404の焦点を掃引することにより、対象物の後方から物体を通って対象物の前方に徐々に移動する焦点面を有する一連の画像408を生成することができる。対象物が人間の顔であるような凹凸を有する場合、一連の画像408は、焦点の鮮明にあった鼻の先端を示しながら眼の焦点がずれている1枚の画像408、および焦点の合っていない鼻を示すものではあるが眼には鮮やかに焦点があっている第2の画像408を含むであろう。被写界深度が非常に浅いものであり得る高速なレンズ406を近接領域に有することによって、カメラ404の被写界深度を人間の鼻の長さに対して浅くしてもよい。
分析モジュール112は、画像408の局所領域を鮮明さについて分析するため、焦点の計量(focus metric)を用いてもよい。不鮮明さは計量に低い値を登録させ、鮮明な焦点により同様の計量に高い値を登録させるものとなる。被験者の眼に焦点が合っているが被験者の鼻に焦点が合っていない画像408では、焦点の計量は眼部を通って比較的類似の値を示し得るもので、鼻の先端に向かって値を減少させる。焦点の計量は、顔の明確な特徴を示すために、顔の地形図410を提供することができる(焦点の近い側および遠い側に不明確な部分が配される)。
対照的に、地形図410は、正確な虹彩画像を有する高品質な顔画像が印刷された複製紙面については、明確に異なる特徴を示す。フラットな紙面の場合、地形図410は、カメラ404の光軸に対する紙の傾きに依存した、一定の焦点の実質的に真っ直ぐな線を示すものとなり得る。カメラ404に提示されている間、用紙が湾曲されて滑らかに曲がっている場合、より複雑な構造を有するものではあるが、一定の焦点の計量における輪郭もまた実質的に真っ直ぐな線となり得る。どちらの状況においても、用紙上に閉じた輪郭が存在しないものである、というのは、カメラ404によって見られる用紙上の画像の全体性を損なうであろう紙のしわを必要とするためである。
従って、実際の顔を紙面に印刷されたものと区別することは、用紙が湾曲されているか否かにかかわらず、生体認証識別または検証のために画像408を記録する前に、画像408の焦点合わせの過程で生成されるであろう焦点の計量における輪郭を分析及び判断することである。上述したように、分析モジュール112は、キャプチャされた画像408を受信し、輪郭を分析して、生体である被験者、または、複写画像のいずれがシステム400に提示されているのかを判断する。瞬き検出システム414および/または視線検出システム416(あるいは、ここで説明する代替システムのいずれか)などの複合防御は、システム400に組み込まれ得るもので、複雑な動きを再現するマスクを必要とするであろう更なるアンチスプーフィング対策に、画像が生体である被験者であるか模造物であるかの最終決定において、重みづけされた各システムの判定を提供する。
例えば、システム400は、被験者が生体であることの追加的な検知を提供するため、ここで論じられるアンチスプーフィング機能と併せて実行される、動的被験者応答モジュール412を含んでもよい。いくつかの実施形態では、動的被験者応答モジュール412は、一連の画像408のキャプチャ中に被験者のまばたきを検出するように構成されたまばたき検出システム414を含んでもよい。例えば、まばたき検出システム414は、画像408を分析して被験者の眼が閉じられている、または瞬きの過程にある1つまたは複数の画像を検出するために、分析モジュール112と連動して動作してもよい。いくつかの実施形態では、動的被験者応答モジュール412は、一連の画像408をキャプチャする間に被験者の視線の変化を検出するように構成された視線検出システム416を含んでもよい。例えば、視線検出システム416は、画像408を分析して一連の画像408をキャプチャしている間に被験者の瞳孔が位置を変える1つまたはより多くの画像を検出するために、分析モジュール112と連動して動作してもよい。いくつかの実施形態では、画像が生体であるか模造物であるかの最終的な決定において各システムの決定が加重され、ここで記載された2つ以上のシステム(および/または代替の防衛システム)が組み合わされてもよい。
図8A、8Bは、それぞれ複写画像420および生体である被験者440の概略図を示す。複写画像420は、1枚の紙424上に印刷された顔422の形状であってもよい。紙424は、実質的に平坦な構成でシステム400に提示されうるもので、または、3次元の顔422を形成することを試みて曲線426を含んでもよい。顔422は、虹彩430を有する眼428、鼻432、口434、および、実際的な顔を描画するものである他の特徴を含む。顔422は、実際の虹彩の色にマッチするように適切な色で印刷されうる。図8Bの生体である被験者440は、眼444、虹彩446、鼻448、口450、胴体452、及び生体の顔の他の特徴を有する三次元頭部442を、含む。生体である被験者440の照明に基づいて、顔は、顔の側面454,456上に異なる陰影パターンを含んでもよい。
図9は、システム400の概略の側面図である。システム400は、可動レンズ406を備えたカメラ404を含み、これにより、カメラ404が焦点を変えることを可能としている。カメラ404は、生体の被験者440の一連の画像を取得するように構成されている。軸458は、物体空間内の平面に焦点を合わせるカメラ404から延びる光軸を表す。カメラ404の被写界深度460は、浅くなるように配置されている。平面462乃至468(例えば、光軸458に実質的に垂直な平面)は、レンズ406が漸次的に動くときに、いくつかの焦点の面を表す。
被験者440の頭部442はカメラ404から離れており、カメラの被写界深度460は、被験者の鼻448の先端のある面464から被験者の眼444のある面466までの距離と比較して、小さなものである。カメラ404の被写界深度460の条件は、適切なレンズ絞り(lens aperture)、レンズの焦点距離、およびカメラ404から被験者440までの距離を選択することによって満たし得る。
カメラ404が平面462に焦点を合わせる場合、被験者440は、焦点から全く外れる。平面464において、被験者の鼻448は、被験者の眼444および耳470よりも鮮明にフォーカスされる。平面466において、被験者の眼444(および頬)は、鼻448の先端および耳470よりも鮮明にフォーカスされる。平面468において、被験者の耳470は、鼻448、眼444および顔の残りの特徴よりも鮮明にフォーカスされる。複写画像がシステム400に提示される場合、焦点が合っている領域および焦点が合っていない領域を有するというより、複写画像は一定の焦点の直線を有するであろう。例えば、平面466では、複写画像における3次元性の欠如のために、眼、頬及び口の全体的な描画が、焦点のあった直線に沿うであろう。
図10A乃至図10Bはそれぞれ、複写画像420および生体である被験者440についての、地形図472,478の線図である。地形図472,478として図示されているものではあるが、地形図472,478は一連の画像から構築され、焦点の曲線を決定するため、このような画像が個別に分析されるものであることが理解されるべきである。図10Aについて、複写画像420の2次元性により、地形図472は、画像がカメラ404によってキャプチャされたときの異なる焦点面に基づいて、顔422に重畳された一定の焦点の真っ直ぐな線474,476を示す。一定の焦点の真っ直ぐな線474,476は、したがって、画像の全長にわたって延び、生体である被験者440の構造における変化を示さない。例えば、線474は、画像440の二次元形状に起因して、画像440の額、鼻432、口434、および顎に沿って、一定の焦点を示す。対照的に、生体である被験者440は、同一の平面に沿って構造の様々な凹凸及び変化を有し、焦点のあった同一の線474をもたらさないであろう。
図10Bについて、生体である被験者440の顔の3次元性のため、地形図478は、生体である被験者440の顔の複雑な構造および凹凸による、変化のある焦点の線480,482,484を示す。地形図478は、閉じた輪郭の線482,484も示しており、頬のような顔の一部の領域が顔の他の領域と比較して焦点が合っている。地形の複雑さの違いは、模造物の紙のプレゼンテーション攻撃を実物の提示から区別するため、システム400によって使用される。
図11は、システム400を実装する例示的なプロセス500を示すフローチャートである。まず、ステップ502において、被験者の顔の少なくとも一部が、任意選択的に照明源で照明され得る。ステップ504で、カメラの可動レンズが移動され、焦点面が、被験者の顔に対する第1の点から被験者の顔を介して被験者の顔に対する第2の点へ、徐々に移動する。ステップ506において、レンズの漸次的な動きの間に、顔の一連の画像が可動レンズ(例えば、カメラ)でキャプチャされる。ステップ508において、被験者の顔の地形図は、一連の画像から、オプションとして、形成されてもよい。
ステップ510では、分析モジュールは、一連の画像(及び/又は地形)を入力として受け取る。ステップ512では、各画像の領域の輪郭の鮮明さ(および閉じた輪郭の存在)について、分析モジュールで分析される。ステップ514で、分析モジュールは、各画像の輪郭が生体である被験者の輪郭に対応するかどうかを判定する。ステップ516において、動的応答モジュールは、被験者のまばたきを任意選択的に検出してもよい。ステップ518において、動的被験者応答モジュールは、被験者の視線の変化を任意選択的に検出してもよい。いくつかの実施形態では、ここに記載された1つまたは複数の生体測定分析システムおよび/または代替の防衛システムを組み合わせてもよく、各システムからの決定に、画像が生体であるか模造物であるかの最終決定において、重み付けがされる。ステップ520において、分析モジュールは、閉じられた輪郭の欠如が、生体である被験者を示さないものであり、複写画像を示すものであるか否かを判定し、それにより、閉じた輪郭を持たない一定の焦点の実質的に真っ直ぐな線に基づく複写画像として、対象を信用しないこととする。分析モジュールは、画像中の閉じた輪郭の検出に基づいて、対象を生体である被験者として認証してもよい。
図12を参照すると、例示的な生体測定分析システム550(以下、「システム550」)の第5の実施形態のブロック図が提供される。システム550は、画像をキャプチャする間に角膜反射に影響する異なる光学フィルタを適用することにより、虹彩識別システムの被験者またはユーザの信ぴょう性 を確かなものとし、それによってプレゼンテーション攻撃によるスプーフィングを阻止する。ここに記載のスペクトル特性に基づくシステム550の動作の様々な実施形態は、スプーフィングを防止するために、個別にまたは組み合わせて使用されてもよい。
システム550は、被験者の一方または両方の虹彩を照明するように構成された一つまたはより多くの照明源552を含む。照明源552は近赤外線を放射してもよい。システム550は、1つまたはより多くのカメラ556に組み込まれ得るスペクトル弁別器554を含む。スペクトル弁別器554は、第1の光学フィルタ558および第2の光学フィルタ560(および追加の光学フィルタを含んでもよい)を有する。第1の光学フィルタ558は第1の通過特性セットを有し、第2の光学フィルタ560の第2の通過特性セットとは異なるものである。例えば、第1の通過特性のセットは、第1の光学フィルタ558を介して、人間の眼に見える光のみ通過することを許してもよい(例えば、約380nmから約780nmの波長範囲)。さらなる例として、第2の通過特性のセットは、第2の光学フィルタ560を介して、近赤外光のみの通過を許してもよい(例えば、約850nmの波長の、約30nmの波長帯域)。
スペクトル弁別器554は、第1の光学フィルタ558もしくは第2の光学フィルタ560を介して虹彩から散乱された光を受光するために、所定のまたは様々な時間間隔で第1および第2の光学フィルタ558,560を選択的に切り替えるように構成された、フィルタ切り替え機構562を含む。システム550は、虹彩から散乱された光が第1の光学フィルタ558を介して通過する間に被験者の1つまたはより多くの画像564をキャプチャするように構成され、さらに、虹彩から散乱された光が第2の光学フィルタ560を介して通過する間に被験者の1つまたはより多くの画像564をキャプチャするように構成された、カメラ556を含む。いくつかの実施形態では、2つのカメラ556を使用して、画像564を実質的に同時にキャプチャしてもよい(例えば、第1のカメラ556は、第1の光学フィルタ558を介して散乱された光の画像564をキャプチャし、第1のカメラ556は、第2の光学フィルタ560を介して散乱された光の画像564をキャプチャする)。いくつかの実施形態では、単一のカメラ556は、虹彩から散乱された光が第1の光学フィルタ558を介して通過する間に高速に連続して一連の画像564をキャプチャするように構成されてもよく、フィルタ切り替え機構562は、光学フィルタ558を第2の光学フィルタ560に切り替えるように構成されてもよく、また、カメラ556は、虹彩から散乱された光が第2の光学フィルタ560を介して通過する間に高速に連続して一連の画像564をキャプチャするように構成されてもよい。
第1の光学フィルタ558を介して虹彩から散乱された光が通過する間、キャプチャされた画像564は、赤-緑-青の画像(例えば、カラー画像)であり得る。対照的に、虹彩から散乱された光が第2の光学フィルタ560を介して通過する間のキャプチャされた画像564は、虹彩に関する構造情報を示す近赤外線画像であり得る。分析モジュール112は、キャプチャされた画像564を入力として受け取り、第1および第2の光学フィルタ558,560を介した光の通過中にキャプチャされた画像564に示された虹彩構造情報の間にマッチするものが存在するかどうかを判定する。マッチするものが存在しない場合、分析モジュールは、マッチするものの欠如が生体である被験者を示すと判断し、したがって対象を生体である被験者として識別する。
特に、近赤外線の供給源の適用による近赤外の角膜反射の特徴的な鏡面反射が、信ぴょう性について試験されてもよい。印刷された紙の偽装は、異なる内部の光学フィルタ558,560が適用されるのにともなって出現および消滅する角膜反射を示することができず、したがって、システム550によって偽物として識別され得る。システム550は、スペクトル弁別器554の形態の光学フィルタリングシステムを導入し、通過特性の異なるセットを有する2つもしくはより多くの光学フィルタ558,560を用いることによって、実際の虹彩をプレゼンテーション攻撃から区別してもよい。分析モジュール112によって実行される計算段階(computational aspect)は、虹彩認識の第1段階(例えば、眼を見つけ出す段階)で動作することができ、したがって、わずかな計算オーバーヘッドで迅速に動作することができ得る。
システム550は、人間に可視でありかつ近赤外の光を感知するイメージセンササブシステム(例えば、カメラ556に組み込まれている)、センサに到達する光のスペクトルを変更する光学フィルタリングサブシステム(例えば、スペクトル識別器)、センサ上に虹彩の画像564を生成するレンズサブシステム(例えば、カメラ556)、および、虹彩の独特の構造を画像化するために近赤外光を提供する照明サブシステム(例えば、照明源552) を、含む。照明源552は、周辺の光の暗い場合に補助的な可視照明を任意に提供してもよい。システム550は、ハードウェアをセキュアに自動化するための、そして、最終的に、虹彩認識に適した虹彩画像564をレンダリングするための、命令またはソフトウェアを含んでもよい。
上述のように、システム550は、偽物の虹彩から本物の虹彩を区別するための基礎としてシステム550によって撮像された光のスペクトルを使用する。システム550は2通りもしくはより多くの測定を行い、その各々は異なる光学スペクトルを検知し得るものである。測定されたスペクトル特性に基づいて、分析モジュールは、提示された虹彩が生体である被験者のものであるかまたは複写画像であるかを判断する。近赤外線帯域の光の虹彩の照明は、虹彩の最初の表面にしばしば現れる色素を透過するために使用される。虹彩から散乱された近赤外光は、被験者に固有であることが知られている虹彩の構造に関する情報とともに、撮像システム(例えば、カメラ556)に戻る。
近赤外線照明は、虹彩から散乱する前に眼の滑らかで光沢のある角膜に当たるので、角膜からの鏡面反射が通常は各虹彩画像564にある。鏡面反射(例えば、鏡面性)は、典型的には虹彩画像564内の小さな点であり、反射する角膜の小さな領域からの光の輝きの明るさのために飽和またはほぼ飽和したものである。鏡面性はシステム550の近赤外線照明器の反射であるので、鏡面反射の光のスペクトルは近赤外線照明器のものである。角膜に入射する他の光源(例えば、太陽光または室内光)のためにカメラ556に戻る他の鏡面反射がありえるが、これらの他の鏡面反射は、近赤外線照明源552によって適用されるものより普通は暗く、近赤外線照明源552のそれより角膜上において異なる場所に大方はある。特に、近赤外線照明器とカメラ556のレンズとの相対的な配置による、近赤外線照明器の鏡面性は周知である。例えば、近赤外の鏡面性は、被験者の瞳孔を覆う被験者の角膜の右上象限にあり得、あるいは、照明源552が複数の場合、一対の近赤外の鏡面性が被験者の瞳孔の中央の反対側にあり得る。したがって、システム550は、近赤外の鏡面性がどこに現れることが予想されるか、比較的高い精度で事前に検知し得る。
プレゼンテーション攻撃の場合、攻撃者は、人間の虹彩の模造物を生成してシステム550をだます。模造物は、例示のため、紙の上に印刷された虹彩の写真であり得、本物の虹彩のごとく見えるようにシステム550の前に配置され得る。このような写真は、近赤外線で照らされた本物の虹彩に期待される虹彩情報(例えば、虹彩に関するスペクトル情報)を含むほど十分に本物そっくりでなければならない。加えて、模造物は、システム550の近赤外線照射の下で本物そっくりに現われなければならず、従って、紙などの適切な表面上に適切な材料で印刷しなければならない。近赤外線照明下で本物そっくりの虹彩の要件を満たすならば、偽装は虹彩認識システムに登録された人の虹彩を有する必要がある。
システム550においては、第一アルゴリズムステップの1つは、次のステップに進む前に、眼又は両眼が存在しているという証拠のシーンが索される、眼の捜索のステップであってもよい。眼の存在を検出するための1つの方法は、システム550の近赤外線照明器の特徴である、被験者の角膜上の明瞭な鏡面反射を探すものである。発見されると、システム550は、被験者の虹彩にコード化された固有の虹彩情報を検出する。システム550は、虹彩とそのスペクトルの内容についての鏡面性をテストする測定値のセットを組成する。
虹彩画像564のスペクトルのテストの一例は、システム550のレンズによって集められた光を、スペクトル弁別器554を通すものである。上述のように、スペクトル弁別器554は、異なる通過特性のセットを有する1組の光学フィルタ558,560から形成されてもよい(例えば、第1の光学フィルタ558は、人間にとって可視である光のみを通過させることができ、典型的には約380nmから約780nmの波長帯域にわたり、第2の光学フィルタ560は、近赤外線照明器によって放射された光、例えば約850nmの照明器の波長中心のまわりの30nmバンドのみを通過させ得る)。
第1の光学フィルタ558は、近赤外線鏡面反射がカメラ556に到達することを完全に阻止し、結果として、第1の光学フィルタ558を介して結像される虹彩は、特徴的な近赤外線鏡面反射を除いた人間に可視な光(例えば、赤-緑-青の画像)を含む。第2の光学フィルタ560は、近赤外線照明器と同じ帯域の光のみを通過させ、第2の光学フィルタ560を介して撮像された虹彩は、近赤外の鏡面反射と、被験者の虹彩に関する固有の構造情報(例えば、近赤外線画像)を含む 。いくつかの実施形態では、フィルタ558,560は、単一のカメラ556の前を選択的に通過され得るか、または複数のカメラ556が異なるフィルタ558,560を使用してもよい。
一例として、以下は、本物の虹彩の赤-緑-青及び近赤外線画像564と、プレゼンテーション攻撃における模造された虹彩の赤-緑-青及び近赤外画像564との間の差異を考慮したものである。本物の虹彩の近赤外線画像564は、虹彩の色素沈着とは無関係に虹彩構造を示し、さらに近赤外の鏡面性を示す。実際の虹彩の赤-緑-青の画像564は、虹彩構造を隠し得る、あるいは、隠さないかもしれない虹彩の色素沈着を示し、近赤外の鏡面反射の証拠を示さない。
対照的に、紙に印刷された模造された虹彩の近赤外線画像564は、虹彩の同一性を検証するために必要な虹彩構造を示し得るもので、システム550の眼の捜索のルーチンによって必要とされる虹彩の鏡面性を示し得る。しかし、赤-緑-青の画像564は、偽の虹彩写真に印刷されているものであるために、同一の虹彩構造を示すものであり、またさらに、偽の虹彩写真上の期待される場所に印刷されるために、近赤外線の鏡面反射の証拠を示すものでもある。正確な赤-緑-青の画像564が取り込まれるのに十分な周囲照明が利用可能であるべきであることに留意されたい。周辺光レベルが赤-緑-青色画像564を生成するには不十分である場合、代替の照明源552(例えば、1つまたはより多くの白色発光ダイオード(LED))から補助可視光を提供してもよい。
いくつかの実施形態では、実際の虹彩を偽の虹彩から区別するためにスペクトル情報を使用する手段は、赤-緑-青および近赤外線の画像564に示された虹彩構造情報の間にマッチするものが存在するか否かを判定するために、画像564を分析することを含む。マッチするものが存在する場合、または画像564の実質的部分がマッチする場合、実際の虹彩の色素が近赤外スペクトルに見られる構造情報を典型的にはブロックするので、分析モジュール112はマッチするものが複写画像を示すものであると判断し、対象が複写画像であるとして信用しないものとなる。時には、淡い色素(例えば、青色)の虹彩の場合、虹彩の前にはわずかな色素が存在し、赤-緑-青のバンドで見られる虹彩が近赤外線バンドで見られるものとマッチしえる。分析モジュール112は、画像564を正確に見直して虹彩構造情報を検出し、淡い色素の虹彩であっても、赤-緑-青と近赤外線の画像564を区別するように構成され得る。分析モジュール112が近赤外および赤-緑-青の画像564の間の差異またはマッチしないことを検出した場合、分析モジュール112は差異またはマッチしないことが生体である被験者を示すと判断し、それにより対象を生体である被験者として識別する。
いくつかの実施形態では、偽の虹彩から実際の虹彩を区別するためにスペクトル情報を使用する手段は、近赤外鏡面反射の存在について画像564を分析することを含む。実際の虹彩では、鏡面性は、位置が近赤外線照明器によって生成された照明に対して整列することが知られており、近赤外画像に表示され、赤-緑-青フィルタ(例えば、第1の光学フィルタ558)によってブロックされるために赤-緑-青の画像では表示されない。偽の虹彩の場合、赤-緑-青および近赤外の両方の虹彩画像564に、眼の捜索のルーチンによって必要とされる近赤外の鏡面性が現れる。これは、プレゼンテーション攻撃のスプーフィングにおいて、角膜上の光点として正しい場所に鏡面性が単純に印刷され、人間の可視光および近赤外光を反射するために、発生する。赤-緑-青および近赤外の画像の両方に見られる近赤外の鏡面性は、偽の虹彩画像を示す。再度、正確な赤-緑-青の画像564をキャプチャするのに十分な周囲照明が利用可能であるべきであることに留意されたい。周辺光レベルが赤-緑-青の画像564を生成するには不十分である場合、代替の照明源552(例えば、1つまたはより多くの白色発光ダイオード(LED))から補助可視光を提供してもよい。
いくつかの実施形態では、本物の虹彩を偽の虹彩から区別するためにスペクトル情報を使用する手段は、近赤外および赤-緑-青の画像564の取得に関連する時間的な情報の使用を伴う。例えば、虹彩取得ルーチンは、赤-緑-青フィルタ(例えば、第1の光学フィルタ558)の使用により、カメラ556で赤-緑-青の画像564を高速に連続して取得することによって、開始してもよく、赤-緑-青フィルタから近赤外フィルタ(例えば、第2の光学フィルタ560)にフィルタセットを変更することによって近赤外の画像564へ高速にスイッチし、カメラ556で近赤外の画像564を高速に連続してキャプチャする。フィルタのスイッチのタイミングはシステム550に知られていてもよく、得られた画像564はカメラ556および/または分析モジュール112によって適宜ラベル付けされてもよい。いくつかの実施形態では、フィルタのスイッチのタイミングおよび/または頻度は、トランザクションごとに変更することができる。プレゼンテーション攻撃者はフィルタの切り替えのタイミングを知らず、攻撃者が各フィルタセットに適した画像を準備していても、攻撃者はいつ適切な画像を表示すべきかを知らない。したがって、画像564をキャプチャすることに関連する時間的情報は、システム550のスプーフィングを防止するために使用され得る。
いくつかの実施形態では、偽物の虹彩から本物の虹彩を区別するためにスペクトル情報を使用する手段は、被験者の眼の周辺地域(例えば、眼の領域)から、もしくは、代替的に被験者の顔全体から収集した情報を使用してもよい。カメラ556は、被験者の虹彩を囲む領域の1つまたはより多くの画像564をキャプチャするように構成され得る。モノクロ諧調のみ(例えば、モノクローム)の提示は、色素沈着の点で本物のような顔または眼の領域を提示することができない。被験者の赤緑青の画像564からの1つまたはより多くのモノクロームの領域の分析モジュール564による検出は、他のレベルのアンチスプーフィングを提供し、偽物の虹彩を示し得る。
いくつかの実施形態において、システム550は、上述した分光方法と組み合わせて、アンチスプーフィングの追加機能を組み込み得る。いくつかの実施形態では、システム550は、角膜上の近赤外鏡面反射の構造を検出し得る。角膜からの鏡面反射は明るく、したがって、典型的には、虹彩からの低コントラストおよび淡い像を検出するように設定された虹彩画像センサを飽和させる(例えば、カメラ556の内部)。対照的に、紙に印刷された偽物の虹彩からの鏡面反射は、写真上の明るい領域を示す。明るい領域は、システム550からの明るい近赤外光によって照らされても、イメージセンサを飽和させない。したがって、システム550で偽物の虹彩画像を検出する1つの処理は、近赤外線照明器より期待される角膜鏡面の構造を調べることを含んでもよい。飽和した鏡面性を有する本物の虹彩の画像564は、その領域に亘ってフラットな輝度分布を表示し、実質的にすべてのピクセルは、イメージセンサの飽和によってクリップされるので、最大可能値を読み取る。対照的に、偽物の鏡面性の画像564は、典型的には、飽和値を下回る最大値と、虹彩の画像の明るい部分に典型的な値の分布を表示す。
この処理では、近赤外線照明器による適当な位置に見られる鏡面反射は、分析モジュール112でその構造が分析される。クリップされたフラットな分布ではなく、ピクセル強度のピーク分布を示す鏡面反射は、本物の鏡面性ではなく模造物である写真の鏡面性から生じる得る。例外はある。第1に、大きな距離から撮像された本物の眼は、センサを飽和させるのに必要な光量よりも少ない光を反射しえる。そのような距離が依然として認識範囲内にある場合、暗い鏡面反射は、分析モジュール112によって写真による偽装の鏡面性と誤認されていることがあり得る。第2に、写真による偽装が、特別に設計された反射率の高い領域が、鏡面反射の位置と一致するように設けられている場合、偽装は、画像化装置を飽和させる鏡面反射を生じさせ、分析モジュール112によって本物の虹彩と誤認され得る。
しかしながら、両方の場合について、分析モジュール112によって構造について分析される鏡面反射は、対象の信憑性を確かなものにするために、(上述のように)追加のアンチスプーフィング分析を受け得る。特に、構造について分析された鏡面反射は、上述した赤-緑-青のフィルタ(例えば、第1の光学フィルタ558)を通して見たときに正しいスペクトルの内容をも有する必要がある。スペクトルの内容の分析は別個に行われてもよいが、スペクトルの内容とスペクトル反射の分析の組み合わせは、偽物の画像を本物の画像と間違える可能性を効果的に低減し得る。さらに、暗い鏡面反射の問題は、虹彩の直径を調べることによって虹彩の距離をテストすることにより緩和され得るもので、約20%以内に距離を定める、信頼できる方法となり得る。虹彩が飽和した鏡面を生成すると予想される距離内にあると判定される場合に、かつ、その距離においてそうならない場合に、分析モジュール112は画像を偽物の虹彩として信用しないものとし得る。
いくつかの実施形態では、システム550は、ここに記載される代替システムと組み合わせて使用され得るもので、各システムが、対象が生体である被験者であるか模造物であるかの最終決定のために重み付けされる。例えば、システム550は、低い周囲光の条件下で、虹彩認識のための付加的なアンチスプーフィング保護を提供するため、瞳孔測定法を組み込んでもよい。瞳孔測定の目的のために、システム550は、被験者の瞳の収縮を引き起こすため、被験者の角膜領域を照明するように構成された1つまたはより多くの角膜領域の照明源566を、含んでもよい。カメラ556は、瞳孔の収縮中に被験者の一連の画像564をキャプチャするように構成される。分析モジュール112は、画像564を受信するように構成され、収縮前および収縮中の瞳孔の直径を測定して、被験者が生体であることの判定をする。特に、瞳孔測定は、眼の瞳孔の直径、眼に光が入る虹彩の中心の穴、を測定する。ほとんどの場合、周囲の光レベルの知覚可能な変化に応答して、生体である人間の虹彩の直径が変化する。周辺光レベルが低下すると、虹彩は広がり、周囲光レベルが上昇すると収縮する。
被験者が明るいまたは適度に明るい周囲条件下でシステム550を使用している場合、被験者の瞳孔は、おそらくサイズが控えめまたは小さくなる。これらの条件下で、他の被験者の虹彩の写真を使用してシステム550を偽装しようとする同じ被験者は、鏡面反射に対応する偽物の虹彩写真の明るいスポットから散乱する周囲の光により、赤-緑-青のフィルタを介して赤-緑-青の帯域内の鏡面反射を示す虹彩画像564を作成し得る。このようなプレゼンテーション攻撃は、したがって、スペクトルの内容および/またはスペクトルの反射分析によって阻止される。
とはいえ、被験者がほの暗いまたは暗い周囲の条件下で模造品の虹彩をシステム550に提示する場合、スペクトルの内容分析の赤-緑-青の画像564は、画像全体が赤-緑-青のバンドにおいて暗くなるために鏡面性を示さないことがあり得る。スペクトルの内容分析は、従って、鏡面反射の兆候を示さないであろうが、スペクトルの内容分析の近赤外画像は、偽物の画像内の偽の鏡面反射から散乱する近赤外線照明により、鏡面性を示すであろう。スペクトルの内容分析は、従って、非常に暗い周囲の照明の場合にはあまり効果的でない可能性があり得る。遠隔の虹彩の場合は不飽和の近赤外線鏡面性を生成し得るが、スペクトル反射分析は暗い周囲照明下で適切に機能し得る。
補助可視光源(例えば、一つもしくはより多くの可視波長の明かり、発光ダイオード(LED))は、周囲の照明を増強するために使用されてもよい。あるいは、グラフィカルユーザインタフェース122の表示画面によって放射される可視スペクトル光は、分析モジュール112によって適切に分析され得る画像564をキャプチャするために、カメラ556に適度な量の周囲の照明を提供し得る。LEDまたは明るいディスプレイは、偽物の虹彩写真の鏡面反射を照らす追加的な周囲の光を提供し得るもので、スペクトルの内容分析に、分析モジュール112によってなりすましの画像と判断されるであろう赤-緑-青の画像564における鏡面性を示させるであろう。LEDまたは明るいディスプレイは、被験者の瞳孔を虹彩認識に適した大きさに収縮させることもできる。いくつかの実施形態では、瞳孔収縮は、LEDが点灯されるかまたはディスプレイが明るくなると、高速に連続して取得された画像564によってキャプチャされ得るもので、赤緑青または近赤外のいずれかの帯域でキャプチャされ得る。したがって、ほの暗いまたは暗い周辺照明の場合、追加的な周囲光がスペクトルの内容分析を実行することを可能にするであろうし、相前後して、生体である虹彩の収縮を探し出すことによって瞳孔測定を通じて生体であることを検出し得る。システム550により、近赤外線バンドにおいて撮像された、暗い周囲条件においてのLED(またはディスプレイ)の刺激時の収縮の欠如の検出は、紙に印刷された静的な虹彩の形でのなりすましにおける提示であることを、示し得るものである。システム550の異なる実施形態または構成要素は、したがって、広い範囲の距離および周囲の照明条件にわたって虹彩が生体のものであることを検証するために、個別にまたは組み合わせて使用され得るもので、プレゼンテーション攻撃を介したシステム550のスプーフィングにおけるの高いレベルの困難性を生じる。
図13Aおよび図13Bは、システム550を実装する例示的な処理600を示すフローチャートである。まず、ステップ602において、被験者の虹彩が照明源で照明される。選択的に、ステップ604において、被験者の瞳孔の収縮を引き起こすために、被験者の角膜領域を第2の照明源で照明してもよい。ステップ606において、虹彩から散乱された光は、スペクトル弁別器の第1の光学フィルタ及び第2の光学フィルタを介して選択的に受け取られ、各フィルタは異なる通過特性のセットを有するものである。ステップ608では、虹彩から散乱された光が第1の光学フィルタを介して通過する間に、被験者の1つまたはより多くの画像がカメラでキャプチャされる。ステップ610では、虹彩から散乱された光が第2の光学フィルタを介して通過する間に、カメラ(または異なるカメラ)で被験者の1つまたはより多くの画像がキャプチャされる。いくつかの実施形態では、ステップ608および610は実質的に同時に実行してもよい。
任意選択的に、ステップ612において、虹彩から散乱された光が第1の光学フィルタを介して通過する間に、カメラを用いて被験者の一連の画像が高速に連続してキャプチャされてもよく、続いて、虹彩から散乱された光が第2の光学フィルタを介して通過する間に、カメラを用いて被験者の一連の画像が高速に連続してキャプチャされてもよい。任意選択的に、ステップ614において、被験者の虹彩を囲む領域の1つまたはより多くの画像がカメラでキャプチャされてもよい。任意選択的に、ステップ616において、被験者の瞳の収縮中に、被験者の一連の画像をカメラでキャプチャしてもよい。ステップ618で、分析モジュールは、虹彩から散乱された光が第1および第2の光学フィルタを介して通過する間にキャプチャされた画像を、入力として受け取る。任意選択的に、ステップ620において、分析モジュールは、虹彩を囲む領域の画像を受け取り得るもので、画像の少なくとも1枚における一部がモノクロームであるかどうかを判定する。
任意選択的に、ステップ622において、分析モジュールは、虹彩から散乱された光が第2の光学フィルタを介して通過する間の被験者の画像を入力として受け取り得るもので、画像に示された角膜の鏡面構造を分析する。任意選択的に、ステップ624において、分析モジュールは、瞳の収縮する間の被験者の一連の画像を入力として受け取ってもよく、被験者が生体であることを判断するために収縮前および収縮時の瞳孔の直径を測定する。ステップ626で、分析モジュールは、虹彩から散乱された光が第1および第2の光学フィルタを介して通過する間の画像に示される虹彩構造情報の間に、マッチするものが存在するか判断する。ステップ628において、分析モジュールは、画像中の虹彩構造情報のマッチするものが生体である被験者を示さないものであって複写画像を示すものであるかどうかを判断し、それにより、画像中の虹彩構造情報のマッチするものが存在する場合に被験者が複写画像として信用しないものとなる。ステップ630において、分析モジュールは、画像中の虹彩構造情報のマッチするものの欠如が複写画像を示さないものであって生体である被験者を示すものであるかどうかを判断し、それにより、画像中の虹彩構造情報のマッチするものが存在しない場合に被験者を生体である被験者として識別する。任意選択的に、ステップ632において、分析モジュールは、被験者の角膜の鏡面性が生体である被験者の鏡面性にマッチする場合、対象を生体である被験者として識別し得る。任意選択的に、ステップ634において、分析モジュールは、収縮前の瞳孔の測定された直径と、収縮中の瞳孔の測定された直径とが異なる場合に、対象が生体であることを示しており、対象を生体である被験者として識別し得る。
図14を参照すると、例示的な生体測定分析システム650(以下、「システム650」という)の第6の実施形態のブロック図が提供されている。システム650は、照明中に虹彩の鏡面反射の特性を認証することにより、虹彩識別システムの被験者またはユーザが生体であることを確かめ、それによってプレゼンテーション攻撃によるスプーフィングを阻止する。システム650は、近赤外線光で被験者の眼を照明するように構成された1つまたはより多くの照明源652を含む。近赤外線照明は、可視光のスペクトルを吸収するが近赤外スペクトルは吸収しない虹彩色素を通過し、虹彩の構造を検出して表示するために使用される。近赤外線照明源652は、眼の画像656をキャプチャするために、1つまたはより多くのカメラ654に対して眼の十分に良好な照明を確保する。
近赤外照明は、角膜に小さいが強い鏡面反射を生成する。画像656は、近赤外線照明源652によって引き起こされる眼の鏡面反射の特性を示す。紙ベースのプレゼンテーション攻撃は、システム650によってキャプチャされるように鏡面性を印刷することによって、鏡面性を模倣しようとしえる。しかしながら、印刷された鏡面性は、一般に、実際の眼からの鏡面性ほど明るくも均一でもない。分析モジュール112は、画像656内の鏡面性を分析し、本物の眼からの鏡面性を、紙面上に作成されたそれから、区別する。特に、分析モジュール112は、画像656における鏡面反射の特性の輝度および/または均一性を分析し、検出された鏡面反射の特性に基づいて眼の3次元性および生体であることを判断する。
システム650は、被験者からの(自律的なあるいは自発的な)応答を要しない。代わりに、システム650は、眼の鏡面反射の特性に基づいて、光沢のある角膜の表面を有する三次元の眼を被験者が持つことを検出する。生体である眼は丸く濡れている。近赤外光で照らされると、生体である眼は非常に明るく均一な鏡面反射を生み出す。鏡面反射の数および位置は、照明源652の数および位置に基づいて変化し得る。眼の印刷された紙を有するプレゼンテーション攻撃では、鏡面性は紙の印刷された眼に現れるが、紙自体によって生成されるものではない。複写画像の鏡面性は、一般的には、本物の眼の鏡面反射よりも薄暗く、均一性が低い。カメラ654によってキャプチャされた画像656を分析することによって、鏡面性の輝度および/または均一性を測定し得る。測定された鏡面度の輝度および/または均一性に基づいて、分析モジュール112は、特性が本物の眼または紙の偽装のいずれに対応するかを判定し得る。
図15は、システム650を実施する例示的な処理700を示すフローチャートである。まず、ステップ702において、被験者の眼が照明源で照明される。ステップ704で、第1の照明源で眼を照明している間に、眼の1つまたはより多くの画像がカメラでキャプチャされる。画像は眼の鏡面反射の特性を示す。ステップ706において、分析モジュールは、キャプチャされた画像を入力として受け取る。ステップ708において、分析モジュールは、眼の鏡面反射の特性の輝度および/または均一性を分析する。ステップ710において、分析モジュールは、鏡面反射の特性に基づいて眼の3次元性を判断する。ステップ712において、分析モジュールは、鏡面反射の特性の暗い輝度レベルおよび低い均一性レベルが、生体である被験者を示さないものであって複写画像を示すものであるかどうかを判断し、これにより、鏡面反射の特性の暗い輝度レベルと低い均一性とに基づいて複写画像として対象を信用しないこととする。分析モジュールは、明るく均一な鏡面性の特性が複写画像を示さないものであって生体である被験者を示すかどうかを判定し得るものであり、これにより、鏡面性の特性が明るく均一であれば対象を生体である被験者として識別するものである。
図16は、本開示の例示的な実施形態による、コンピューティングデバイス800のブロック図である。コンピューティングデバイス800は、例示的な実施形態を実施するための1つまたはより多くのコンピュータ実行可能な命令またはソフトウェアを格納するための1つまたは複数の非一時的コンピュータ可読媒体を含む。非一時的なコンピュータ可読媒体は、1つまたはより多くのタイプのハードウェアメモリ、非一時的な有形の媒体(例えば、1つまたはより多くの磁気記憶ディスク、1つまたはより多くの光学ディスク、1つまたはより多くのフラッシュドライブ)などが含まれる。例えば、コンピューティングデバイス800に含まれるメモリ806は、本開示の例示的な実施形態を実装するためのコンピュータ可読かつコンピュータ実行可能な命令またはソフトウェアを格納してもよい(例えば、照明源を動作させるための命令、カメラを動作させるための命令、分析モジュール、処理装置を操作するための命令、ユーザインタフェースを操作するための命令、通信インタフェースを操作するための命令、中央コンピューティングシステムを操作するための命令、生体測定分析システムの他の構成要素を操作するための命令、これらの組み合わせ、など)。コンピューティングデバイス800はまた、メモリ806に記憶されているコンピュータ可読のコンピュータ命令またはソフトウェアおよびシステムハードウェアを制御するための他のプログラムを実行するための、構成可能なおよび/またはプログラム可能なプロセッサ802と関連するコア804、および任意選択的に、1つまたはより多くの追加の構成可能なおよび/またはプログラム可能なプロセッサ802 'と関連するコア804'(例えば、複数のプロセッサ/コアを有するコンピュータシステムの場合)も含む。プロセッサ802およびプロセッサ802 'は、それぞれ単一コアのプロセッサまたは複数コア(804および804')のプロセッサであってもよい。
コンピューティングデバイス800内のインフラストラクチャおよびリソースを動的に共有することができるように、コンピューティングデバイス800に仮想化を採用してもよい。プロセスが複数のコンピューティングリソースではなく1つのコンピューティングリソースのみを使用しているように見えるように、複数のプロセッサで実行中のプロセスを処理する仮想マシン814を提供してもよい。1台のプロセッサで複数の仮想マシンを使用してもよい。メモリ806は、DRAM、SRAM、EDO RAMなどのコンピュータシステムメモリまたはランダムアクセスメモリを含んでもよい。メモリ806は、他のタイプのメモリ、またはそれらの組み合わせを含んでもよい。
ユーザは、例示的な実施形態に従って提供され得る1つまたはより多くのユーザインタフェース820(例えば、グラフィカルユーザインタフェース)を表示することができる、コンピュータモニタなどの視覚的表示装置818(例えば、パーソナルコンピュータ、モバイルスマートデバイスなど)を介して、コンピューティングデバイス800と対話してもよい。コンピューティングデバイス800は、ユーザからの入力を受けるための他のI/Oデバイス、例えば、カメラ、センサ、キーボードまたは任意の適当なマルチポイントタッチインタフェース808、ポインティングデバイス810(例えば、マウス)を、含んでもよい。キーボード808およびポインティングデバイス810は、視覚表示装置818に結合されてもよい。コンピューティングデバイス800は、他の適切な既存のI/O周辺機器を含んでもよい。
コンピューティングデバイス800はまた、ここに記載された生体測定分析システムの例示的な実施形態を実装するデータおよびコンピュータ可読命令および/またはソフトウェアを格納するための、ハードドライブ、CD-ROM、eMMC(MultiMediaCard)、SD(セキュアデジタル)カード、フラッシュドライブ、不揮発性記憶媒体、他のコンピュータ可読媒体、などの1つまたはより多くの記憶装置824を、含んでもよい。例示的な記憶装置824はまた、例示的な実施形態を実装するのに必要な任意の適切な情報を格納するための1つまたはより多くのデータベース826を、格納してもよい。例えば、例示的な記憶装置824は、キャプチャされた画像、登録された被験者の情報、地形図、それらの組み合わせ、などに関する情報、および、ここで説明する例示的な実施形態を実装するコンピュータ読み取り可能な命令および/またはソフトウェアを格納するための、1つまたはより多くのデータベース826を格納し得る。データベース826は、データベース内の1つまたはより多くの項目を追加、削除、および/または更新するために、任意の適切な時期に手動または自動で更新されてもよい。
コンピューティングデバイス800は、1つまたはより多くのネットワークデバイス822を介して、例えばローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)または、インターネットなどの1つまたは複数のネットワークとインタフェースするように構成されたネットワークインタフェース812を含んでもよく、インターネットは、限定はされないが、標準的な電話回線、LANもしくはWANリンク(802.11、T1、T3、56kb、X.25など)、ブロードバンド接続(ISDN、フレームリレー、ATMなど)、無線接続、コントローラー・エリア・ネットワーク(CAN)、または、上記のいずれか乃至すべての組み合わせを含む種々の接続を介する。ネットワークインタフェース812は、内蔵ネットワークアダプタ、ネットワークインタフェースカード、PCMCIAネットワークカード、PCI/PCIeネットワークアダプタ、SDアダプタ、Bluetooth(登録商標)アダプタ、カードバスネットワークアダプタ、無線ネットワークアダプタ、USBネットワークアダプタ、モデムまたはその他の、通信およびここに記載された動作を行うことができる任意のタイプのネットワークにコンピューティングデバイス800をインタフェースするのに適したデバイスを、含んでもよい。さらに、コンピューティングデバイス800は、ワークステーション、デスクトップコンピュータ、サーバ、ラップトップ、ハンドヘルドコンピュータ、タブレットコンピュータ(例えばタブレットコンピュータ)、モバイルコンピューティングまたは通信デバイス(例えばスマートフォン通信デバイス)、組み込みコンピューティングプラットフォーム、または、通信可能であり、ここに記載の動作を実行するのに十分なプロセッサの処理能力およびメモリ容量を有する他の形態のコンピューティングまたは通信デバイスであってもよい。
コンピューティングデバイス800は、Microsoft Windowsオペレーティングシステムの任意のバージョン、UnixおよびLinux(登録商標)オペレーティングシステムの異なるリリース、Macintoshコンピュータ用のMacOSの任意のバージョン、種々の組み込みオペレーティングシステム、種々のリアルタイムオペレーティングシステム、種々のオープンソースオペレーティングシステム、種々のプロプライエタリオペレーティングシステム、または、コンピューティングデバイス上で動作し、ここで説明される動作を実行することができる他のオペレーティングシステムなど、任意のオペレーティングシステム816を実行してもよい。例示的な実施形態では、オペレーティングシステム816は、ネイティブモードまたはエミュレートモードで実行されてもよい。例示的な実施形態では、オペレーティングシステム816は、1つまたはより多くのクラウドマシンインスタンス上で実行されてもよい。
図17は、本開示の例示的な実施形態による生体測定分析システム環境900のブロック図である。環境900は、1つまたはより多くの照明源906、1つまたはより多くのカメラ908、1つまたはより多くのセンサ910、分析モジュール912、ユーザインタフェース914、および中央コンピューティングシステム916と、通信プラットフォーム922を介して通信するように構成されたサーバ902,904を含み得るものであって、通信プラットフォーム922が、ネットワークに通信可能に結合された装置間で情報を送信することができる任意のネットワークである。例えば、通信プラットフォーム922は、インターネット、イントラネット、仮想プライベートネットワーク(VPN)、ワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)などであり得る。いくつかの実施形態では、通信プラットフォーム922は、クラウド環境の一部であってもよい。
環境900は、検出されたスキャンを登録されたスキャンとのマッチングをするための1つまたはより多くの生体認証マッチングシステム920であって、サーバ902,904、1つまたはより多くの照明源906、1つまたはより多くのカメラ908、1つまたはより多くのセンサ910、分析モジュール912、ユーザインタフェース914、および、中央コンピューティングシステム916と、通信プラットフォーム922を介して通信ができるものを含んでもよい。環境900は、サーバ902,904、1つまたはより多くの照明源906、1つまたはより多くのカメラ908,1つまたはより多くのセンサ910、分析モジュール912、ユーザインタフェース914、および、中央コンピューティングシステム916と、通信プラットフォーム922を介して通信することができる、リポジトリまたはデータベース918を、含んでもよい。
例示的な実施形態では、サーバ902,904,1つまたはより多くの照明源906,1つまたはより多くのカメラ908,1つまたはより多くのセンサ910、分析モジュール912、ユーザインタフェース914、および、中央コンピューティングシステム916は、コンピューティングデバイス(例えば、コンピューティングデバイス800)として実装されてもよい。当業者であれば、データベース918がサーバ902,904の1つまたはより多くに組み込まれ得ることを、認識するであろう。いくつかの実施形態では、データベース918は、キャプチャされた画像、登録された被験者の情報、地形図、それらの組み合わせなどに関するデータを、格納し得る。いくつかの実施形態では、キャプチャされた画像、登録された被験者の情報、地形図、それらの組み合わせなどに関するデータは、複数のデータベース918にわたって分散され得る。
例示的な実施形態をここに記載してきたが、これらの実施形態は限定的に解釈されるべきではなく、ここに明示的に記載されたものに対する追加および修正もまた本発明の範囲内に含まれるものであることを、明確に述べるものである。さらに、ここに記載された様々な実施形態の特徴は互いに排他的ではなく、本発明の本質および範囲から逸脱することなく、ここに明示されていない組み合わせまたは変形であっても、こうした種々の組み合わせや変形が存在し得ることが、理解されるべきである。
100 生体測定分析システム
102 照明源
104 カメラ
106 画像
108 データベース
110 通信インタフェース
112 分析モジュール
114 静的光
116 動的光
118 被験者情報
120 ユーザインタフェース
122 グラフィカルユーザインタフェース
124 処理装置
126 プロセッサ
128 中央コンピューティングシステム
150 処理
200 生体測定分析システム
202 照明源
204 カメラ
206 カメラレンズ
208 光
210 フラッシュ光
212 画像
250 処理
300 生体測定分析システム
302 第1の照明源
304 第2の照明源
306 画像
308 第1のカメラ
310 第2のカメラ
312 テンプレート
400 生体測定分析システム
402 照明源
404 カメラ
406 可動レンズ
408 画像
410 地形図
412 動的被験者応答モジュール
414 検出システム
416 視線検出システム
420 複写画像
422 顔
424 紙
426 曲線
428 眼
430 虹彩
432 鼻
434 口
440 被験者
440 画像
442 頭部
444 眼
446 虹彩
448 鼻
450 口
452 胴体
454 側面
456 側面
458 光軸
460 被写界深度
462 平面
464 面
466 面
468 平面
470 耳
472 地形図
474 線
476 線
478 地形図
480 線
482 線
484 線
550 生体測定分析システム
552 照明源
554 スペクトル弁別器
556 第1のカメラ
558 第1の光学フィルタ
560 第2の光学フィルタ
562 機構
564 画像
566 照明源
650 生体測定分析システム
652 照明源
654 カメラ
656 画像
800 コンピューティングデバイス
802’プロセッサ
802 プロセッサ
804 コア
804’コア
806 メモリ
808 マルチポイントタッチインタフェース
810 ポインティングデバイス
812 ネットワークインタフェース
814 仮想マシン
816 オペレーティングシステム
818 視覚表示装置
820 ユーザインタフェース
822 ネットワークデバイス
824 記憶装置
826 データベース
900 生体測定分析システム環境
902 サーバ
904 サーバ
906 照明源
908 カメラ
910 センサ
912 分析モジュール
914 ユーザインタフェース
916 中央コンピューティングシステム
918 データベース
920 生体認証マッチングシステム
922 通信プラットフォーム

Claims (111)

  1. 生体測定分析システムであって、
    被験者の虹彩、および、被験者の、眼の周囲、眼部領域、ならびに顔の、少なくとも一部を照明するように構成された照明源と、
    前記照明源を用いて前記被験者の照明中に前記被験者の1つまたはより多くの画像を取得するように構成されたカメラであって、前記1つまたはより多くの画像が前記虹彩からの反射光および前記眼部領域ならびに顔面の一部を表示する、前記カメラと、
    前記1つまたはより多くの画像を入力として受け取り、前記1つまたはより多くの画像内の反射光を分析し、前記1つまたはより多くの画像内の反射光に基づいて前記被験者の3次元性の欠如を判定するように構成された分析モジュールと、を含む、請求項1に記載のシステム。
  2. 前記照明源が近赤外線照明源である、請求項1に記載の生体測定分析システム。
  3. 前記被験者の眼の周囲ならびに顔の一部の照明が、照明パターンを生成する、請求項1に記載の生体測定分析システム。
  4. 前記分析モジュールは、前記被験者の照明分布の均一なパターンの検出に基づいて、前記被験者の3次元性の欠如を判定するように構成された、請求項1に記載の生体測定分析システム。
  5. 前記分析モジュールは、前記3次元性の欠如が、生体である被験者を示さないものであり、複写画像を示すか否かを決定するように構成された、請求項1に記載の生体測定分析システム。
  6. 前記分析モジュールは、生体の顔に対応する前記被検体の照度分布の不均一なパターンの検出に基づいて、前記被検体の3次元性を判定するように構成された、請求項1に記載の生体分析システム。
  7. 前記照明源は、前記被験者の眼窩の一時的な端部の周りの3次元の凹凸を照明するように構成され、
    前記カメラは、前記眼窩の前記一時的な端部の1つまたはより多くの画像をキャプチャするように構成され、
    前記分析モジュールは、前記被験者の眼窩の一時的な端部の反射光を分析するように構成された、
    請求項1に記載の生体分析システム。
  8. 前記照明源は、前記被験者の虹彩、および、前記被験者の眼の周囲と顔の一部を照らすために静的な光を放射するように構成された、請求項1に記載の生体測定分析システム。
  9. 前記静的な光は、実質的に均一な照明レベルである、請求項8に記載の生体測定分析システム。
  10. 前記照明源は、前記被験者の虹彩、および、前記被験者の眼の周囲と顔の一部を照らすために動的な光を放射するように構成された、請求項1に記載の生体測定分析システム。
  11. 前記動的な光の照射は、前記照明源で第1の照明レベルを放射し、続いて前記照明源で第2の照明レベルを放射することを含む、請求項10に記載の生体測定分析システム。
  12. 前記第2の照明レベルは前記第1の照明レベルよりも大きい、請求項11に記載の生体測定分析システム。
  13. 前記第2の照明レベルは、前記第1の照明レベルよりも低い、請求項11に記載の生体測定分析システム。
  14. 前記カメラは、前記第1の照明レベルでの前記被験者の照明中に前記被験者の1つまたはより多くの画像をキャプチャし、前記第2の照明レベルでの前記被験者の照明中に前記被験者の1つまたはより多くの画像をキャプチャするように構成された、請求項11に記載の生体測定分析システム。
  15. 前記分析モジュールは、前記第1の照明レベルにおける前記1つまたはより多くの画像および前記第2の照明レベルにおける前記1つまたはより多くの画像を入力として受け取り、前記1つまたはより多くの画像の前記反射光を分析して、前記被験者の照明分布のパターンにおける特性の変化に基づいて、前記被験者の3次元性の欠如を判断する、請求項14に記載の生体測定分析システム。
  16. 被験者の生体測定データに対応するデータを電子的に記憶するように構成された、請求項1に記載の生体測定分析システム。
  17. 生体測定分析の方法であって、
    生物測定システムの照明源を用いて、被験者の虹彩、および、被験者の、眼の周囲、眼部領域、ならびに顔の、少なくとも一部を照明するステップと、
    前記生体測定分析システムのカメラで前記被験者の1つまたはより多くの画像をキャプチャするステップであって、前記1つまたはより多くの画像は、前記虹彩からの反射光および前記眼の周囲および顔の一部を表示するものである、ステップと、
    前記生体測定分析システムの分析モジュールで、前記1つまたはより多くの画像を入力として受け取るステップと、
    前記生体測定分析システムの分析モジュールで、前記1つまたはより多くの画像内の反射光を分析するステップと、
    前記生体測定分析システムの前記分析モジュールで、前記被験者の三次元性の欠如を判断するステップと、を含む生体測定分析の方法。
  18. 前記被験者の照明分布の均一なパターンの検出に基づいて、前記分析モジュールで前記被験者の3次元性の欠如を判断するステップを含む、請求項17に記載の方法。
  19. 前記3次元性の欠如が、生体である被験者を示さないものであり、複写画像を示すかどうかを判断することを含む、請求項17に記載の方法。
  20. 生体である被験者の顔に対応する前記被験者の照度分布の不均一なパターンの検出に基づいて、前記分析モジュールで前記被験者の3次元性を判断するステップを含む、請求項17に記載の方法。
  21. 前記照明源で前記被験者の眼窩の一時的な端部の周りの3次元の凹凸を照明し、前記被験者の眼窩の一時的な端部の1つまたはより多くの画像を前記カメラでキャプチャするステップと、
    前記分析モジュールで、前記被験者の眼窩の一時的な端部の反射光を分析するステップと、
    を含む、請求項17に記載の方法。
  22. 前記照明源で静的な光を放射して前記被験者の虹彩、および、前記被験者の眼の周囲と顔の一部を照明するステップを含み、前記静的な光は実質的に均一な照明のレベルである、請求項17に記載の方法。
  23. 前記照明源で動的な光を放射して、前記被験者の虹彩、および、前記被験者の眼の周囲と顔の一部を照明するステップを含む、請求項17に記載の方法。
  24. 前記照明源で第1の照明レベルを放射し、続いて前記照明源で第2の照明レベルを放射することを含む、請求項23に記載の方法。
  25. 前記第1の照明レベルでの前記被験者の照明中に前記カメラで前記被験者の1つまたはより多くの画像をキャプチャするステップと、
    前記第2の照明レベルで前記被験者の照明中に前記被験者の1つまたはより多くの画像をキャプチャするステップと、
    を含む、請求項24に記載の方法。
  26. 前記分析モジュールで、前記第1の照明レベルにおける前記1つまたはより多くの画像および前記第2の照明レベルにおける前記1つまたはより多くの画像を入力として受け取り、前記1つまたはより多くの画像の前記反射光を分析し、前記被験者の照明分布の特徴的なパターンの変化に基づいて前記被験者の三次元性の欠如を判定するステップを具備する、請求項25に記載の方法。
  27. 処理装置によって実行可能な生体測定分析のための命令を格納する非一時的なコンピュータ可読媒体であって、処理装置による命令の実行が処理装置に、
    生体測定分析システムの照明源で、被験者の虹彩、および、被験者の、眼の周囲、眼部領域、ならびに顔の、少なくとも一部を照明し、
    前記照明源を用いた前記被験者の照明中に、前記生体測定分析システムのカメラで前記被験者の1つまたはより多くのの画像をキャプチャし、前記1つまたはより多くのの画像が前記虹彩からの反射光および前記眼の周囲および顔の一部を示しており、
    前記生体測定分析システムの分析モジュールで、前記1つまたはより多くの画像を入力として受け取り、
    前記分析モジュールで、前記1つまたはより多くの画像内の反射光を分析し、
    前記分析モジュールで、前記被験者の3次元性の欠如を決定する、ことを行わせるものである。
  28. 生体測定分析システムであって、
    被験者の虹彩を照明して前記被験者の網膜反射を生成するように構成された照明源と、
    前記照明源で被験者を照明中に前記被験者の1もしくはより多くの画像をキャプチャするよう構成されたカメラであって、前記1もしくはより多くの画像が前記被験者の網膜反射を示すものである、前記カメラと、
    前記1もしくはより多くの画像を入力として受け取り、前記1もしくはより多くの画像における前記網膜反射を分析し、前記網膜反射が前記網膜の自然な反射率を示すかどうかを判定するように構成された分析モジュールと、を具備する生体測定分析システム。
  29. 前記分析モジュールは、前記網膜の自然な反射率の欠如が生体である被験者を示さないものであり、複写画像を示すか否かを判断するように構成された、請求項28に記載の生体測定分析システム。
  30. 前記カメラがレンズを備え、前記照明源が前記レンズに隣接する位置に配置されて前記被験者の網膜反射を生成する、請求項28に記載の生体測定分析システム。
  31. 前記照明源は、赤外線スペクトルで前記網膜反射を生成するために赤外線を放射する、請求項28に記載の生体測定分析システム。
  32. 前記照明源は、前記被験者の虹彩に連続的に放射される光で照明するよう構成された、請求項28に記載の生体測定分析システム。
  33. 前記照明源は、前記被験者の虹彩を点滅する放射光で照らすように構成された、請求項28に記載の生体測定分析システム。
  34. 前記照明源は、前記点滅する放射光の点滅の間の時間間隔を変化させるように構成された、請求項33に記載の生体測定分析システム。
  35. 前記照明源は、各被験者に対して前記点滅する放射光の点滅の回数を変化させるように構成された、請求項33に記載の生体測定分析システム。
  36. 生体測定分析の方法であって、
    生体測定分析システムの照明源で被験者の虹彩を照明して被験者の網膜反射を生成するステップと、
    前記照明源による前記被験者の照射の間に、前記生体測定分析システムのカメラで前記被験者の1つまたはより多くの画像をキャプチャするステップであって、前記1つまたはより多くの画像が前記被験者の網膜反射を表示するものである、ステップと、
    前記生体測定分析システムの分析モジュールで、前記1つまたはより多くの画像を入力として受け取るステップと、
    前記生体測定分析システムの分析モジュールで、前記1つまたはより多くの画像における前記網膜反射を分析するステップと、
    前記生体測定分析システムの分析モジュールで、前記網膜反射が前記網膜の自然な反射率を示すかどうかを判定するステップと、を具備する生体測定分析の方法。
  37. 前記網膜の自然な反射率の欠如が、生体である被験者を示さないものであり、複写画像を示すものであるか否かを判断する、請求項36に記載の方法。
  38. 赤外線スペクトルで前記網膜反射を生成するために、前記照明源で赤外線を放射するステップを含む、請求項36に記載の方法。
  39. 前記照明源から放射される連続光で前記被験者の虹彩を照明する、請求項36に記載の方法。
  40. 前記照明源から放射される点滅光で前記被験者の虹彩を照明するステップを含む、請求項36に記載の方法。
  41. 前記照明源から放射された前記点滅光の点滅の間の時間間隔を変化させるステップを含む、請求項40に記載の方法。
  42. 各被験者に対して前記照明源から放射される前記点滅光の点滅の回数を変化させるステップを含む、請求項40に記載の方法。
  43. 処理装置によって実行可能な生体測定分析のための命令を格納する非一時的なコンピュータ可読媒体であって、前記処理装置による前記命令の実行は、前記処理装置に、
    被験者の網膜反射を生成するために、生体測定分析システムの照明源で前記被験者の虹彩を照明し、
    前記照明源で前記被験者の照射の間に、前記生体測定分析システムのカメラで前記被験者の1つまたはより多くの画像をキャプチャし、ここで、前記1つまたはより多くの画像が前記被験者の網膜反射を示すものであり、
    前記生体測定分析システムの分析モジュールで、前記1つまたはより多くの画像を入力として受け取り、
    前記生体測定分析システムの前記分析モジュールで、前記1つまたはより多くの画像の網膜反射を分析し、
    前記生体測定分析システムの前記分析モジュールで、前記網膜反射が前記網膜の自然な反射率を示すかどうかを判断する、ようにさせるものである。
  44. 生体測定分析システムであって、
    被験者の虹彩を照明するように構成された第1の照明源と、
    前記被験者の顔の少なくとも一部を照明するために可視光を放射するように構成された第2の照明源と、
    前記第1の照明源および前記第2の照明源で前記被験者の照明中に前記被験者の1つまたはより多くの画像をキャプチャするように構成された1つまたはより多くのカメラと、
    前記1つまたはより多くの画像を入力として受け取り、前記第1の照明源で前記被験者の照明中にキャプチャされた前記被験者の前記1つまたはより多くの画像に基づいて虹彩構造を判定し、前記第2の照明源で前記被験者の照明中にキャプチャされた前記被験者の1つまたはより多くの画像に基づいて前記被験者の前記顔の一部の色スペクトルを判断し、前記第2の照明源で前記被験者の照明中にキャプチャされた前記被験者の1つまたはより多くの画像内の前記被験者の前記顔の一部がモノクローム部分を含むか否かを判断する、分析モジュールを具備する、生体測定分析システム。
  45. 前記1つまたはより多くのカメラは、前記第1の照明源および前記第2の照明源で前記被験者の照明中に前記被験者の前記1つまたはより多くの画像を同時にキャプチャするように構成された、請求項44に記載の生体測定分析システム。
  46. 前記第1の照明源は、近赤外線を放射するように構成された、請求項44に記載の生体測定分析システム。
  47. 前記第1の照明源による前記被験者の照明中に前記被験者の前記キャプチャされた1つまたはより多く画像がモノクローム画像である、請求項44に記載の生体測定分析システム。
  48. 前記第2の照明源による前記被験者の照明中に前記被験者の前記キャプチャされた1つまたはより多くの画像がカラー画像である、請求項44に記載の生体測定分析システム。
  49. 前記分析モジュールが、前記第2の照明源による前記被験者の照明中にキャプチャされた前記被検体の前記1つまたはより多くの画像に基づいて、前記被験者の前記顔の一部の前記モノクローム部分を検出する場合、前記分析モジュールが、前記モノクローム部分が生体である被験者を示さないものであり、複写画像を示すと判断する、請求項44に記載の生体測定分析システム。
  50. 生体測定分析の方法であって、
    生体測定分析システムの第1の照明源で被験者の虹彩を照明するステップと、
    前記生体測定分析システムの第2の照明源から放射される可視光で前記被験者の顔の少なくとも一部を照明するステップと、
    前記第1の照明源および前記第2の照明源で前記被験者を照明する間に、前記生体測定分析システムの1つまたはより多くのカメラで前記被験者の1つまたはより多くの画像をキャプチャするステップと、
    前記生体測定分析システムの分析モジュールで、前記1つまたはより多くの画像を入力として受け取るステップと、
    前記第1の照明源で前記被験者の照明中にキャプチャされた前記被験者の前記1つまたはより多くの画像に基づいて、前記生体測定分析システムの前記分析モジュールで虹彩の構造を判断するステップと、
    前記生体測定分析システムの前記分析モジュールで、前記第2の照明源で前記被験者の照明中にキャプチャされた前記被験者の前記1つまたはより多くの画像に基づいて、前記被験者の前記顔の一部の色スペクトルを判断するステップと、
    前記第2の照明源で前記被験者の照明中にキャプチャされた前記被験者の前記1つまたはより多くの画像における前記被験者の前記顔の一部がモノクローム部分を含むかどうかを前記分析モジュールで判断するステップと、を具備する方法。
  51. 前記第1の照明源および前記第2の照明源で前記被験者の照明中に前記1つまたはより多くのカメラで前記被験者の前記1つまたはより多くの画像を同時にキャプチャするステップを含む、請求項51に記載の方法。
  52. 前記モノクローム部分が生体である被験者を示さないものであり、複写画像を示すことを判断するステップを含む、請求項51に記載の方法。
  53. 処理装置によって実行可能な生体測定分析のための命令を格納する非一時的なコンピュータ可読媒体であって、前記処理装置による前記命令の実行は、前記処理装置に、
    生体測定分析システムの第1の照明源で被験者の虹彩を照明することと、
    前記生体測定分析システムの第2の照明源から放射された可視光で前記被験者の顔の少なくとも一部を照明することと、
    前記第1の照明源および前記第2の照明源で前記被験者を照明する間に、前記生体測定分析システムの1つまたはより多くのカメラで前記被験者の1つまたはより多くの画像をキャプチャすることと、
    前記生体測定分析システムの分析モジュールで前記1つまたはより多くの画像を入力として受け取ることと、
    前記第1の照明源で前記被験者の照明中にキャプチャされた前記被験者の1つまたはより多くの画像に基づいて、前記生体測定分析システムの前記分析モジュールで虹彩の構造を判断することと、
    前記生体測定分析システムの前記分析モジュールで、前記第2の照明源で前記被験者の照明中にキャプチャされた前記被験者の1つまたはより多くの画像に基づいて、前記被験者の前記顔の一部の色スペクトルを判断することと、
    前記分析モジュールで、前記第2の照明源で前記被験者を照明中にキャプチャされた前記被験者の前記1つまたはより多くの画像における前記被験者の前記顔の一部がモノクローム部分を含むかどうかを判断することと、
    を実行させるものである、前記コンピュータ可読媒体。
  54. 生体測定分析システムであって、
    被験者の顔に対する第1の点から、前記被験者の顔を介して、前記被験者の顔に対する第2の点へと、焦点面を徐々に移動させながら前記被験者の顔の一連の画像をキャプチャするように構成されたカメラと、
    前記一連の画像を入力として受け取り、前記一連の画像の各画像の領域の輪郭の鮮明さについて解析し、前記一連の画像の1つまたはより多くの画像における輪郭が生体である被験者の輪郭に対応する閉じた輪郭を規定するかどうかを判定する分析モジュールと、を具備する生体測定分析システム。
  55. 前記被験者の顔の少なくとも一部を照らすように構成される照明源を具備する、請求項54に記載の生体測定分析システム。
  56. 前記被験者の顔に対する第1の点は、前記被験者の顔の後ろにある、請求項54に記載の生体測定分析システム。
  57. 前記被験者の顔に対する第2の点は、前記被験者の顔の前にある、請求項54に記載の生体測定分析システム。
  58. 前記一連の画像は、前記被験者の顔の地形図を形成する、請求項54に記載の生体測定分析システム。
  59. 前記地形図は、前記生体である被験者の輪郭に対応する滑らかな曲面を規定する、請求項58に記載の生体測定分析システム。
  60. 前記分析モジュールは、前記一連の画像の1つまたはより多くの画像において前記閉じた輪郭を検出する場合、前記閉じた輪郭が前記生体である被験者を示すものであると判定する、請求項54に記載の生体測定分析システム。
  61. 前記分析モジュールが、閉じた輪郭を持たない一定の焦点の実質的な直線を検出した場合、前記分析モジュールは、前記実質的な直線が複写画像を示すと判断する、請求項54に記載の生体測定分析システム。
  62. 動的被験者応答モジュールを含む、請求項54に記載の生体測定分析システム。
  63. 前記動的被験者応答モジュールは、被験者のまばたきを検出するように構成されたまばたき検出システムを含む、請求項62に記載の生体測定分析システム。
  64. 前記動的被験者応答モジュールは、前記被験者の視線の変化を検出するように構成された視線検出システムを含む、請求項62に記載の生体測定分析システム。
  65. 被験者の顔に対する第1の点から前記被験者の顔を介して前記被験者の顔に対する第2の点へ漸次的に焦点面を移動させるように、生体測定分析システムのカメラの可動レンズを動かすステップと、
    前記レンズの漸次的な移動の間に前記カメラで前記被験者の顔の一連の画像をキャプチャするステップと、
    前記生体測定分析システムの分析モジュールで、前記一連の画像を入力として受け取るステップと、
    前記生体測定分析システムの分析モジュールで、前記一連の画像の各画像の領域における輪郭の鮮明さについて分析するステップと、
    前記一連の画像の1つまたはより多くの画像内の輪郭が、生体である被験者の輪郭に対応する閉じた輪郭を画定するかどうかを前記分析モジュールで判定するステップと、
    を具備する生体測定分析の方法。
  66. 前記被験者の顔の少なくとも一部を照明源で照らすステップを含む、請求項65に記載の方法。
  67. 前記被験者の顔に対する前記第1の点は、前記被験者の顔の後ろにある、請求項65に記載の方法。
  68. 前記被験者の顔に対する前記第2の点は、前記被験者の顔の前にある、請求項65に記載の方法。
  69. 前記一連の画像を用いて前記被験者の顔の地形図を形成するステップを含む、請求項65に記載の方法。
  70. 前記生体測定分析システムの動的被験者応答モジュールで前記被験者のまばたきを検出するステップを含む、請求項65に記載の方法。
  71. 前記生体測定分析システムの動的被験者応答モジュールで、前記被験者の視線の変化を検出するステップを含む、請求項65に記載の方法。
  72. 処理装置によって実行可能な生体測定分析のための命令を格納する非一時的なコンピュータ可読媒体であって、前記処理装置による前記命令の実行は、処理装置に、
    生体測定分析システムのカメラの可動レンズを動かして、焦点面を、被験者の顔に対する第1の点から、前記被験者の顔を介して、前記被験者の顔に対する第2の点へ漸次的に移動させ、
    前記レンズの漸次的な動作の間に、前記カメラで前記被験者の顔の一連の画像をキャプチャし、
    前記生体測定分析システムの分析モジュールで一連の画像を入力として受け取り、
    前記生体測定分析システムの分析モジュールで一連の画像の各画像の領域を輪郭の鮮明さについて分析し、
    前記分析モジュールで、前記一連の画像の1つまたはより多くの画像内の輪郭が、生体である被験者の輪郭に対応する閉じた輪郭を画定するかどうかを判断する、
    ことを行わせる、コンピュータ可読媒体。
  73. 被験者の虹彩を照明するように構成された照明源と、
    第1の通過特性のセットを有する第1の光学フィルタと第2の通過特性のセットを有する第2の光学フィルタとを有するスペクトル弁別器であって、前記虹彩から散乱された光を前記第1の光学フィルタ及び前記第2の光学フィルタを通して選択的に受け取るように構成された前記スペクトル弁別器と、
    前記虹彩から散乱された光が前記第1の光学フィルタを介して通過する間に前記被験者の1つまたはより多くの画像をキャプチャするように構成され、前記虹彩から散乱された光が前記第2の光学フィルタを介して通過する間に前記被験者の1つまたはより多くの画像をキャプチャするように構成されたカメラと、
    前記虹彩から散乱された光が前記第1の光学フィルタおよび前記第2の光学フィルタを介して通過する間に、前記被験者の1つまたはより多くのキャプチャされた画像を入力として受け取るように構成され、また、前記虹彩から散乱された光が前記第1の光学フィルタおよび前記第2の光学フィルタを介して通過する間の前記被験者の1つまたはより多くの画像に示される虹彩の構造情報の間に、マッチするものが存在するか否かを判断するように構成された、分析モジュールと、
    を具備する生体測定分析システム。
  74. 前記照明源が近赤外線を放射する、請求項73に記載の生体測定分析システム。
  75. 前記第1の光学フィルタの前記第1の通過特性のセットは、人間に可視の光のみ通過を許すものである、請求項73に記載の生体測定分析システム。
  76. 前記人間に可視の光は、約380nm~約780nmの波長範囲にある、請求項75に記載の生体測定分析システム。
  77. 前記第2の光学フィルタの前記第2の通過特性のセットは、近赤外光のみ通過をゆるすものである、請求項73に記載の生体測定分析システム。
  78. 前記近赤外光は、約850nmの波長の周りの約30nm帯の波長範囲にある、請求項77に記載の生体測定分析システム。
  79. 前記虹彩から散乱された光が前記第1の光学フィルタを介して通過中にキャプチャされた前記被験者の1つまたはより多くの画像が、赤-緑-青の画像である、請求項75に記載の生体測定分析システム。
  80. 前記虹彩から散乱された光が前記第2の光学フィルタを介して通過する間にキャプチャされた前記被験者の1つまたはより多くの画像が、前記虹彩に関する構造情報を含む近赤外線画像である、請求項77に記載の生体測定分析システム。
  81. 前記カメラが、前記虹彩から散乱された光が前記第1の光学フィルタを介して通過する間に前記被験者の一連の画像を高速に連続してキャプチャするよう構成され、前記虹彩から散乱された光が前記第2の光学フィルタを介して通過する間に前記被験者の一連の画像を高速に連続してキャプチャするよう構成された、請求項73に記載の生体測定分析システム。
  82. 前記虹彩から散乱された光が前記第1の光学フィルタおよび前記第2の光学フィルタを介して通過する間の前記1つまたはより多くの画像に示された前記虹彩の構造情報の間にマッチするものが存在する場合、前記分析モジュールは、前記マッチするものが生体である被験者を示さないものであって複写画像を示すものであると判断する、請求項73に記載の生体測定分析システム。
  83. 前記虹彩から散乱された光が前記第1の光学フィルタおよび前記第2の光学フィルタを介して通過する間の前記1つまたはより多くの前記画像に示された前記虹彩の構造情報の間に前記マッチするものが存在しない場合、前記分析モジュールは、マッチするものの欠如が複写画像を示さないものであり、生体である被験者を示すと判断する、請求項73に記載の生体測定分析システム。
  84. 前記カメラが、前記被験者の虹彩を囲む領域の1つまたはより多くの画像をキャプチャするように構成された、請求項73に記載の生体測定分析システム。
  85. 前記分析モジュールが、前記被験者の虹彩を囲む領域の前記1つまたはより多くの画像を入力として受け取り、前記1つまたはより多くの画像のうちの少なくとも1つの一部がモノクロームであるかどうかを判定するように構成された、請求項84に記載の生体分析システム。
  86. 前記分析モジュールが、前記虹彩から散乱された前記光が前記第2の光学フィルタを介して通過する間の前記被験者の1つまたはより多くの画像を入力として受け取るように構成され、また、前記1つまたはより多くの画像に示される角膜の鏡面構造を分析するように構成された、請求項73に記載の生体測定分析システム。
  87. 前記被験者の瞳を刺激して収縮させるように前記被験者の眼部を照明するように構成された第2の可視照明源を含む、請求項73に記載の生体測定分析システム。
  88. 前記カメラが、前記被験者の瞳の収縮中に前記被験者の一連の画像をキャプチャするように構成された、請求項87に記載の生体測定分析システム。
  89. 前記分析モジュールは、前記被験者の瞳の収縮中の前記被験者の一連の画像を入力として受け取り、収縮前および収縮中の瞳孔の直径を測定して前記被験者が生体であることを示すもであることの判定を行うように構成された、請求項88に記載の生体測定分析システム。
  90. 生体測定分析システムの照明源で被験者の虹彩を照明するステップと、
    前記虹彩から散乱された光を、前記生体測定分析システムのスペクトル弁別器の第1の光学フィルタ及び第2の光学フィルタを介して選択的に受光するステップであって、前記第1の光学フィルタが第1の通過特性のセットを有し、前記第2の光学フィルタが第2の通過特性のセットを有するものである、ステップと、
    前記虹彩から散乱された光が前記第1の光学フィルタを介して通過する間に、前記生体測定分析システムのカメラで前記被験者の1つまたはより多くの画像をキャプチャするステップと、
    前記虹彩から散乱された光が前記第2の光学フィルタを介して通過する間に、前記生体測定分析システムのカメラで前記被験者の1つまたはより多くの画像をキャプチャするステップと、
    前記虹彩から散乱された光が前記第1の光学フィルタおよび前記第2の光学フィルタを介して通過する間にキャプチャされた前記被験者の1つまたはより多くの画像を、前記生体測定分析システムの分析モジュールで入力として受け取るステップと、
    前記虹彩から散乱された光が前記第1の光学フィルタと前記第2の光学フィルタとを介して通過する間の前記被験者の1つまたはより多くの画像に示された虹彩の構造情報の間にマッチするものが存在するかどうかを前記生体測定分析システムの前記分析モジュールで判断するステップであって、前記マッチするものの存在が複写画像を示すものである、ステップと、
    とを具備する、生体測定分析方法。
  91. 前記虹彩から散乱された光が前記第1の光学フィルタを介して通過する間に前記カメラで前記被験者の一連の画像を高速に連続してキャプチャし、前記虹彩から散乱された光が前記第2の光学フィルタを介して通過する間に前記カメラで前記被験者の一連の画像を高速に連続してキャプチャするステップを含む、請求項90に記載の方法。
  92. 前記カメラで前記被験者の虹彩を囲む領域の1つまたはより多くの画像をキャプチャするステップを含む、請求項90に記載の方法。
  93. 前記分析モジュールで、前記被験者の虹彩を囲む領域の前記1つまたはより多くの画像を入力として受け取るステップと、前記1つまたはより多くの画像のうちの少なくとも1つの一部がモノクロームであるかどうかを前記分析モジュールで判断するステップと、を含む、請求項92に記載の方法。
  94. 前記分析モジュールで、前記虹彩から散乱された光が前記第2の光学フィルタを介して通過する間に前記被験者の前記1つまたはより多くの画像を入力として受け取り、前記分析モジュールで、前記1つまたはより多くの画像に表示された角膜の鏡面構造を分析するステップを含む、請求項90に記載の方法。
  95. 前記被験者の瞳の収縮を引き起こすために、前記被験者の角膜領域を第2の照明源で照明するステップを含む、請求項90に記載の方法。
  96. 前記被験者の瞳の収縮の間に前記カメラで前記被験者の一連の画像をキャプチャするステップを含む、請求項95に記載の方法。
  97. 前記分析モジュールで、前記被験者の瞳孔の収縮の間の前記被験者の一連の画像を入力し、収縮前および収縮の間の前記瞳孔の直径を前記分析モジュールで測定して前記被験者が生体であることを示すものであることを判定するステップを含む、請求項96に記載の方法。
  98. 処理装置によって実行可能な生体測定分析のための命令を格納する非一時的なコンピュータ可読媒体であって、前記処理装置による命令の実行が前記処理装置に、
    生体測定分析システムの照明源で被験者の虹彩を照らし、
    前記生体測定分析システムのスペクトル弁別器の第1の光学フィルタと第2の光学フィルタを介して、前記虹彩から散乱された光を選択的に受光し、前記第1の光学フィルタが第1の通過特性のセットをするもので、前記第2の光学フィルタが第2の通過特性のセットを有するものであり、
    前記虹彩から散乱された光が前記第1の光学フィルタを介して通過する間に、前記生体測定分析システムのカメラで前記被験者の1つまたはより多くの画像をキャプチャし、
    前記虹彩から散乱された光が前記第2の光学フィルタを介して通過する間に、前記生体測定分析システムの前記カメラで前記被験者の1つまたはより多くの画像をキャプチャし、
    前記生体測定分析システムの分析モジュールが、前記虹彩から散乱された光が前記第1の光学フィルタおよび前記第2の光学フィルタを介して通過する間にキャプチャされた前記被験者の1つまたはより多くの画像を入力として受け取り、前記虹彩から散乱された光が前記第1の光学フィルタ及び前記第2の光学フィルタを介して通過する間の前記被験者の1もしくはより多くの画像に示される虹彩の構造情報にマッチするか存在するか否かを前記生体測定分析システムの分析モジュールで判断し、前記マッチするものの存在が複写画像を示すものである、
    ことを行わせるものである、コンピュータ可読媒体。
  99. 生体測定分析システムであって、
    被験者の眼を照明するように構成された照明源と、
    前記第1の照明源で前記眼の照明中に、前記被験者の眼の1つまたはより多くの画像をキャプチャするように構成されたカメラであって、前記1つまたはより多くの画像が前記眼の鏡面性の特性を示すものである、前記カメラと、
    前記1つまたはより多くの画像を入力として受け取り、前記眼の鏡面性の特性の輝度および均一性を分析し、前記鏡面性の特性に基づいて前記眼の3次元性を判断するように構成された分析モジュールと、を具備する前記生体測定分析システム。
  100. 前記鏡面性の特性は、前記被験者の角膜の鏡面反射である、請求項99に記載の生体測定分析システム。
  101. 前記眼の鏡面性の特性が薄暗く均一性が低い場合、前記分析モジュールは、当該薄暗く均一性が低いことが、生体である被験者を示さないものであり、複写画像を示すと判断する、請求項99に記載の生体測定分析システム。
  102. 前記分析モジュールは、前記眼の鏡面性の特性が明るく均一である場合、前記明るく均一な鏡面性の特性が複写画像を示さないものであり、生体である被験者を示すものであると判断する、請求項99に記載の生体測定分析システム。
  103. 前記生体である被験者は、前記眼の光沢のある角膜表面により、明るく均一な鏡面性を有する、請求項102に記載の生体測定分析システム。
  104. 前記照明源が近赤外線を放射する、請求項99に記載の生体測定分析システム。
  105. 生体測定分析の方法であって、
    生体測定分析システムの照明源で被験者の眼を照明するステップと、
    前記第1の照明源で前記眼を照明している間に前記生体測定分析システムのカメラで前記被験者の眼の1つまたはより多くの画像をキャプチャするステップであって、前記1つまたはより多くの画像が前記眼の鏡面性の特性を示すものである、ステップと、
    前記生体測定分析システムの分析モジュールで前記1つまたはより多くの画像を入力として受け取るステップと、
    前記分析モジュールにより、前記眼の鏡面性の特性の輝度及び均一性を分析するステップと、
    前記鏡面性の特性に基づいて前記分析モジュールで前記眼の3次元性を判断するステップと、
    を含む方法。
  106. 前記鏡面性の特性が前記被験者の角膜の鏡面反射である、請求項105に記載の方法。
  107. 前記眼の鏡面性の特性の明暗の均一性が、生体である被験者を示さないものであり、複写画像を示すものと判断することを含む、請求項105に記載の方法。
  108. 前記眼の明るく均一な鏡面性が複写画像を示さないものであり、生体である被験者を示すものと判断することを含む、請求項105に記載の方法。
  109. 前記生体である被験者は、前記眼の光沢のある角膜表面に起因する特性明るく均一な鏡面性を有する、請求項108に記載の方法。
  110. 近赤外光を前記照明源で照射するステップを具備する、請求項105に記載の方法。
  111. 処理装置によって実行可能な生体計測分析のための命令を格納する非一時的なコンピュータ可読媒体であって、前記処理装置による命令の実行は、前記処理装置に、
    生体測定分析システムの照明源で被験者の眼を照明し、
    前記第1の照明源で前記眼の照明中に前記生体測定分析システムのカメラで、前記被験者の眼の1つまたはより多くの画像をキャプチャし、前記1つまたはより多くの画像が前記眼の鏡面性の特性を示しており、前記生体測定分析システムの分析モジュールで1つまたはより多くの画像を入力として受け取り、前記分析モジュールにより、前記眼の鏡面性特性の輝度および均一性を分析し、
    前記鏡面性の特性に基づいて前記分析モジュールで前記眼の3次元性を判断する、
    ことを行わせる方法。
JP2018555441A 2016-01-12 2017-01-12 生体測定分析のシステムおよび方法 Pending JP2019506694A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662277630P 2016-01-12 2016-01-12
US62/277,630 2016-01-12
US201662295554P 2016-02-16 2016-02-16
US62/295,554 2016-02-16
PCT/US2017/013110 WO2017123702A1 (en) 2016-01-12 2017-01-12 Systems and methods biometric analysis

Publications (1)

Publication Number Publication Date
JP2019506694A true JP2019506694A (ja) 2019-03-07

Family

ID=59311975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018555441A Pending JP2019506694A (ja) 2016-01-12 2017-01-12 生体測定分析のシステムおよび方法

Country Status (5)

Country Link
US (5) US10643088B2 (ja)
EP (1) EP3403217A4 (ja)
JP (1) JP2019506694A (ja)
KR (1) KR20180102637A (ja)
WO (1) WO2017123702A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181305A (ja) * 2019-04-24 2020-11-05 凸版印刷株式会社 生体判別装置及び生体判別方法、並びに個人認証方法
WO2020246141A1 (ja) * 2019-06-06 2020-12-10 日本電気株式会社 処理システム、処理方法及びプログラム
WO2021186990A1 (ja) * 2020-03-17 2021-09-23 ソニーグループ株式会社 プログラム、情報処理装置及び端末装置
CN113536869A (zh) * 2020-04-17 2021-10-22 技嘉科技股份有限公司 人脸识别装置以及人脸识别方法
KR20230064266A (ko) * 2021-11-03 2023-05-10 주식회사 유니온커뮤니티 동공 움직임을 이용한 위조 홍채 판별장치 및 그 방법

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202105B1 (en) * 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
KR102412290B1 (ko) 2014-09-24 2022-06-22 프린스톤 아이덴티티, 인크. 생체측정 키를 이용한 모바일 장치에서의 무선 통신 장치 기능의 제어
CA2969331A1 (en) 2014-12-03 2016-06-09 Princeton Identity, Inc. System and method for mobile device biometric add-on
US9639560B1 (en) * 2015-10-22 2017-05-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
CN105931045B (zh) * 2015-12-10 2019-11-15 天地融科技股份有限公司 利用生物特征进行信息获取、提取的方法、***和设备
WO2017123702A1 (en) 2016-01-12 2017-07-20 Princeton Identity, Inc. Systems and methods biometric analysis
US10698998B1 (en) 2016-03-04 2020-06-30 Jpmorgan Chase Bank, N.A. Systems and methods for biometric authentication with liveness detection
US10366296B2 (en) 2016-03-31 2019-07-30 Princeton Identity, Inc. Biometric enrollment systems and methods
US10373008B2 (en) 2016-03-31 2019-08-06 Princeton Identity, Inc. Systems and methods of biometric analysis with adaptive trigger
US10210320B2 (en) * 2016-09-21 2019-02-19 Lextron Systems, Inc. System and method for secure 5-D user identification
US10121054B2 (en) * 2016-11-10 2018-11-06 Synaptics Incorporated Systems and methods for improving spoof detection based on matcher alignment information
JP6801435B2 (ja) * 2016-12-20 2020-12-16 富士通株式会社 生体認証装置、生体認証システム、生体認証プログラム、及び生体認証方法
US11238304B2 (en) * 2017-03-08 2022-02-01 Quantum Rgb Ltd. System and method for biometric identification
KR102387571B1 (ko) * 2017-03-27 2022-04-18 삼성전자주식회사 라이브니스 검사 방법 및 장치
WO2018187337A1 (en) 2017-04-04 2018-10-11 Princeton Identity, Inc. Z-dimension user feedback biometric system
GR1009318B (el) * 2017-04-07 2018-06-22 Ιωαννης Κωνσταντινου Κομινης Κβαντικη βιομετρικη ταυτοποιηση υπερυψηλης ασφαλειας βασισμενη στην κβαντικη στατιστικη ανιχνευσης φωτονιων απο τον αμφιβληστροειδη χιτωνα του ματιου
US10657401B2 (en) * 2017-06-06 2020-05-19 Microsoft Technology Licensing, Llc Biometric object spoof detection based on image intensity variations
US10380418B2 (en) * 2017-06-19 2019-08-13 Microsoft Technology Licensing, Llc Iris recognition based on three-dimensional signatures
CA3071100A1 (en) 2017-07-26 2019-01-31 Princeton Identity, Inc. Biometric security systems and methods
CN110909695B (zh) * 2017-07-29 2023-08-18 Oppo广东移动通信有限公司 防伪处理方法及相关产品
US11160449B2 (en) * 2017-08-29 2021-11-02 Verily Life Sciences Llc Focus stacking for retinal imaging
US10726245B2 (en) * 2017-12-12 2020-07-28 Black Sesame International Holding Limited Secure facial authentication system using active infrared light source and RGB-IR sensor
CN107909063B (zh) * 2017-12-22 2021-05-04 天津科技大学 基于灰度变化的生物识别视频回放攻击检测方法
US11023757B2 (en) 2018-02-14 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification
FR3078793B1 (fr) * 2018-03-09 2021-03-19 Idemia Identity & Security France Procede d'authentification d'un visage base sur la reflectance
US11138429B2 (en) * 2018-03-12 2021-10-05 Tobii Ab Iris recognition using eye-tracking system
WO2019244431A1 (ja) 2018-06-19 2019-12-26 イリスコミュニケーション株式会社 照明光調整システム、照明光調整方法、及び、照明光調整プログラム
WO2020057365A1 (en) * 2018-09-18 2020-03-26 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method, system, and computer-readable medium for generating spoofed structured light illuminated face
CN109271954B (zh) * 2018-09-29 2022-04-22 北京百度网讯科技有限公司 用于检测模型可靠性的方法及装置
US11768926B2 (en) * 2018-10-24 2023-09-26 University Of Notre Dame Du Lac Method of textured contact lens detection
CA3118891C (en) * 2018-11-06 2023-02-28 Princeton Identity, Inc. Systems and methods of enhancing biometric matching accuracy and/or efficiency
DE102018131780B4 (de) * 2018-12-11 2021-10-14 Stellar Data Broadcast Services Gmbh Bestimmen eines Pupillendurchmessers
US11170242B2 (en) * 2018-12-26 2021-11-09 Advanced New Technologies Co., Ltd. Spoof detection using dual-band fluorescence
WO2020140893A1 (en) * 2019-01-04 2020-07-09 Shenzhen GOODIX Technology Co., Ltd. Anti-spoofing live face sensing for enhancing security of facial recognition
KR20200100481A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 생체 정보를 인증하기 위한 전자 장치 및 그의 동작 방법
US11328043B2 (en) 2019-03-15 2022-05-10 Advanced New Technologies Co., Ltd. Spoof detection by comparing images captured using visible-range and infrared (IR) illuminations
WO2021001668A1 (en) * 2019-07-01 2021-01-07 Quantum Biometronics Private Company System and method for biometrics identification and pupillometry
SG10201906721SA (en) 2019-07-19 2021-02-25 Nec Corp Method and system for chrominance-based face liveness detection
WO2021044540A1 (ja) * 2019-09-04 2021-03-11 日本電気株式会社 制御装置、制御方法及び記憶媒体
EP3937038A4 (en) * 2019-09-26 2022-06-15 Andopen Co., Ltd. DEVICE AND METHOD FOR USER AUTHENTICATION BY MEANS OF A SECURITY CARD
JP7392376B2 (ja) 2019-10-10 2023-12-06 Toppanホールディングス株式会社 情報登録判定システム
US11294996B2 (en) 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
US11348375B2 (en) 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
WO2021090366A1 (ja) * 2019-11-05 2021-05-14 日本電気株式会社 撮像装置
CN111582145A (zh) * 2020-05-06 2020-08-25 英华达(上海)科技有限公司 生物识别方法、电子设备以及计算机可读存储介质
US11275959B2 (en) 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
US11080516B1 (en) * 2020-12-30 2021-08-03 EyeVerify, Inc. Spoof detection based on red-eye effects
US11816198B2 (en) 2021-04-06 2023-11-14 Bank Of America Corporation Systems and methods for geolocation security using biometric analysis
US11734888B2 (en) * 2021-04-23 2023-08-22 Meta Platforms Technologies, Llc Real-time 3D facial animation from binocular video
US20230055268A1 (en) * 2021-08-18 2023-02-23 Meta Platforms Technologies, Llc Binary-encoded illumination for corneal glint detection
US11256939B2 (en) * 2021-10-06 2022-02-22 Arnav Gupta Methods, systems and computer program products for eye based spoof detection
EP4170608A1 (en) * 2021-10-22 2023-04-26 e.solutions GmbH Method for detecting forgery in facial recognition and computer readable medium and vehicle for performing such method
IT202200000548A1 (it) * 2022-01-14 2023-07-14 Biomeye S R L Sistema e metodo di autenticazione di un essere vivente basato sul riconoscimento dell’iride
WO2023149829A1 (en) * 2022-02-03 2023-08-10 Fingerprint Cards Anacatum Ip Ab Cornea-based biometric authentication
WO2023163636A1 (en) * 2022-02-24 2023-08-31 Fingerprint Cards Anacatum Ip Ab Real-eye detection using multiple polarization configurations

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086614A (ja) * 2002-08-27 2004-03-18 Matsushita Electric Ind Co Ltd 目画像撮像装置及び目画像認証装置
JP2005040591A (ja) * 2003-07-04 2005-02-17 Matsushita Electric Ind Co Ltd 生体眼判定方法および生体眼判定装置

Family Cites Families (246)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3852592A (en) 1973-06-07 1974-12-03 Stanley Works Automatic door operator
US3993888A (en) 1974-10-29 1976-11-23 Calspan Corporation Scanning line filter
US4109237A (en) 1977-01-17 1978-08-22 Hill Robert B Apparatus and method for identifying individuals through their retinal vasculature patterns
US4641349A (en) 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5337104A (en) 1992-11-09 1994-08-09 Smith Neil D Apparatus and method for redirecting camera flash light so as to avoid red-eye
JP2882266B2 (ja) 1993-12-28 1999-04-12 株式会社日立製作所 信号伝送装置及び回路ブロック
US5835616A (en) 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
US5481622A (en) 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5572596A (en) 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US5833188A (en) 1994-12-20 1998-11-10 Twofish Unlimited Accessory mounting apparatus
WO1997014873A1 (en) 1995-10-16 1997-04-24 Valentin Semenovich Gorelykh Method of converting energy and a device for applying the said method
WO1997021188A1 (en) 1995-12-04 1997-06-12 David Sarnoff Research Center, Inc. Wide field of view/narrow field of view recognition system and method
US6226016B1 (en) 1996-02-05 2001-05-01 Seiko Epson Corporation Display apparatus and method capable of rotating an image by 180 degrees
US5987459A (en) 1996-03-15 1999-11-16 Regents Of The University Of Minnesota Image and document management system for content-based retrieval
US6320610B1 (en) 1998-12-31 2001-11-20 Sensar, Inc. Compact imaging device incorporating rotatably mounted cameras
JP3436293B2 (ja) 1996-07-25 2003-08-11 沖電気工業株式会社 動物の個体識別装置及び個体識別システム
US5933515A (en) 1996-07-25 1999-08-03 California Institute Of Technology User identification through sequential input of fingerprints
GB2315858A (en) 1996-08-01 1998-02-11 Sharp Kk System for eye detection and gaze direction determination
WO1998008439A1 (en) 1996-08-25 1998-03-05 Sensar, Inc. Apparatus for the iris acquiring images
US6123733A (en) 1996-11-27 2000-09-26 Voxel, Inc. Method and apparatus for rapidly evaluating digital data processing parameters
US6215891B1 (en) 1997-03-26 2001-04-10 Oki Electric Industry Co., Ltd. Eye image recognition method eye image selection method and system therefor
US6144754A (en) 1997-03-28 2000-11-07 Oki Electric Industry Co., Ltd. Method and apparatus for identifying individuals
US6204858B1 (en) 1997-05-30 2001-03-20 Adobe Systems Incorporated System and method for adjusting color data of pixels in a digital image
US6119096A (en) 1997-07-31 2000-09-12 Eyeticket Corporation System and method for aircraft passenger check-in and boarding using iris recognition
US6252976B1 (en) 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
EP0910986A1 (en) 1997-10-24 1999-04-28 BRITISH TELECOMMUNICATIONS public limited company Imaging apparatus
US6055322A (en) 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
US5953440A (en) 1997-12-02 1999-09-14 Sensar, Inc. Method of measuring the focus of close-up images of eyes
EP0934986A1 (de) 1997-12-17 1999-08-11 Roche Diagnostics GmbH Farbstoff-Polyaccharid- bzw. Cyclosaccharid-Konjugate und deren Verwendung als Diagnostikum
US6421462B1 (en) 1998-02-06 2002-07-16 Compaq Computer Corporation Technique for differencing an image
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US5966197A (en) 1998-04-21 1999-10-12 Visx, Incorporated Linear array eye tracker
JP3610234B2 (ja) 1998-07-17 2005-01-12 株式会社メディア・テクノロジー アイリス情報取得装置およびアイリス識別装置
JP3315648B2 (ja) 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
US6424727B1 (en) 1998-11-25 2002-07-23 Iridian Technologies, Inc. System and method of animal identification and animal transaction authorization using iris patterns
JP2000189403A (ja) 1998-12-25 2000-07-11 Oki Electric Ind Co Ltd 虹彩領域抽出方法及び個体識別装置
US6681056B1 (en) 1999-03-30 2004-01-20 International Business Machines Corporation Method and system for digital image acquisition and continuous zoom display from multiple resolutional views using a heterogeneous image pyramid representation
US6247813B1 (en) 1999-04-09 2001-06-19 Iritech, Inc. Iris identification system and method of identifying a person through iris recognition
JP3636927B2 (ja) 1999-05-18 2005-04-06 三菱電機株式会社 顔画像処理装置
US6433326B1 (en) 1999-07-14 2002-08-13 Sarnoff Corporation CMOS/CCD line transfer imager with low dark current
EP1196881B1 (de) 1999-07-22 2003-01-22 Swisscom Mobile AG Transaktionsverfahren und dafür geeignete vorrichtungen
US6525303B1 (en) 1999-09-23 2003-02-25 Mitutoyo Corporation Control systems and methods for synchronizing diffuse illumination with a camera
US6836554B1 (en) 2000-06-16 2004-12-28 International Business Machines Corporation System and method for distorting a biometric for transactions with enhanced security and privacy
JP3466173B2 (ja) 2000-07-24 2003-11-10 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、デバイス、方法及びコンピュータプログラム
JP4469476B2 (ja) 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US7277561B2 (en) 2000-10-07 2007-10-02 Qritek Co., Ltd. Iris identification
US7155036B2 (en) 2000-12-04 2006-12-26 Sony Corporation Face detection under varying rotation
US7015955B2 (en) 2000-12-22 2006-03-21 Eastman Kodak Company Camera having verification display with viewer adaptation compensation for reference illuminants and method
JP3586431B2 (ja) 2001-02-28 2004-11-10 松下電器産業株式会社 個人認証方法および装置
KR100374708B1 (ko) 2001-03-06 2003-03-04 에버미디어 주식회사 회전영상의 보정에 의한 비접촉식 홍채인식방법
US7095901B2 (en) 2001-03-15 2006-08-22 Lg Electronics, Inc. Apparatus and method for adjusting focus position in iris recognition system
US20020159621A1 (en) * 2001-04-26 2002-10-31 Memphis Eye & Cataract Associates Ambulatory Surgery Center (Dba Meca Laser And Surgery Center) System for automatically detecting eye corneal striae using projected and reflected shapes
JP2002330318A (ja) 2001-04-27 2002-11-15 Matsushita Electric Ind Co Ltd 携帯端末装置
US6937135B2 (en) 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
US6895103B2 (en) 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
US20030169334A1 (en) 2001-08-06 2003-09-11 Michael Braithwaite Iris capture device having expanded capture volume
US7167987B2 (en) 2001-08-29 2007-01-23 Hewlett-Packard Development Company, L.P. Use of biometrics to provide physical and logic access to computer devices
US7269737B2 (en) 2001-09-21 2007-09-11 Pay By Touch Checking Resources, Inc. System and method for biometric authorization for financial transactions
US8200980B1 (en) 2001-09-21 2012-06-12 Open Invention Network, Llc System and method for enrolling in a biometric system
KR100456619B1 (ko) 2001-12-05 2004-11-10 한국전자통신연구원 에스.브이.엠(svm)을 이용한 얼굴 등록/인증 시스템 및방법
DE10163583A1 (de) 2001-12-21 2003-07-03 Philips Intellectual Property Verfahren und Vorrichtung zur Belichtung von Röntgenaufnahmen
KR100854890B1 (ko) 2001-12-28 2008-08-28 엘지전자 주식회사 홍채 인식 시스템의 다중 조명을 이용한 홍채 등록 및인식방법
US7715595B2 (en) 2002-01-16 2010-05-11 Iritech, Inc. System and method for iris identification using stereoscopic face recognition
US7118042B2 (en) 2002-01-18 2006-10-10 Microscan Systems Incorporated Method and apparatus for rapid image capture in an image system
US8819788B2 (en) 2002-10-21 2014-08-26 Clearone Communications Hong Kong, Limited Method and system for providing security data to security stations
US7804982B2 (en) 2002-11-26 2010-09-28 L-1 Secure Credentialing, Inc. Systems and methods for managing and detecting fraud in image databases used with identification documents
TWI224287B (en) 2003-01-23 2004-11-21 Ind Tech Res Inst Iris extraction method
US7280678B2 (en) 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
US7380938B2 (en) 2003-03-25 2008-06-03 Sarnoff Corporation Apparatus to detect and measure saccade and pupilary changes
US7599524B2 (en) 2003-04-04 2009-10-06 Sarnoff Corporation Method and apparatus for providing a robust object finder
US7539330B2 (en) * 2004-06-01 2009-05-26 Lumidigm, Inc. Multispectral liveness determination
KR20030066512A (ko) 2003-07-04 2003-08-09 김재민 노이즈에 강인한 저용량 홍채인식 시스템
EP1647936B1 (en) 2003-07-17 2012-05-30 Panasonic Corporation Iris code generation method, individual authentication method, iris code entry device, individual authentication device, and individual certification program
DE10335261A1 (de) 2003-08-01 2005-02-17 Daimlerchrysler Ag Verdichterrad und/oder Turbinenrad für eine Sekundärluftfördereinrichtung
US6912298B1 (en) 2003-08-11 2005-06-28 Adobe Systems Incorporation Object detection using dynamic probability scans
US7333653B2 (en) 2003-08-29 2008-02-19 Hewlett-Packard Development Company, L.P. Detecting and correcting redeye in an image
KR100682889B1 (ko) 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
JP2007504562A (ja) 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8050463B2 (en) 2005-01-26 2011-11-01 Honeywell International Inc. Iris recognition system having image quality metrics
US8090157B2 (en) * 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
KR20050025927A (ko) 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
US7310443B1 (en) 2003-09-17 2007-12-18 Sonic Solutions, Inc. Automatic red eye detection and correction in digital images
US7295686B2 (en) 2003-09-29 2007-11-13 Primax Electronics Ltd. Method of processing red eye in digital images
US20050165327A1 (en) * 2004-01-28 2005-07-28 Thibault Lawrence E. Apparatus and method for detecting the severity of brain function impairment
US20050210267A1 (en) 2004-03-18 2005-09-22 Jun Sugano User authentication method and system, information terminal device and service providing server, subject identification method and system, correspondence confirmation method and system, object confirmation method and system, and program products for them
JP4059224B2 (ja) 2004-04-13 2008-03-12 株式会社デンソー 運転者の外観認識システム
JP2005334402A (ja) 2004-05-28 2005-12-08 Sanyo Electric Co Ltd 認証方法および認証装置
US7466308B2 (en) 2004-06-28 2008-12-16 Microsoft Corporation Disposing identifying codes on a user's hand to provide input to an interactive display application
JP4574277B2 (ja) 2004-08-09 2010-11-04 興和株式会社 眼科撮影装置
WO2007011375A1 (en) 2004-09-13 2007-01-25 Cdm Optics, Inc. Iris image capture devices and associated systems
US20080021331A1 (en) * 2004-09-29 2008-01-24 Yeda Research And Development Co. Ltd. Characterization of moving objects in a stationary background
US7856558B2 (en) 2004-10-21 2010-12-21 Honeywell International Inc. Biometric verification and duress detection system and method
CA2614519A1 (en) 2004-10-22 2006-05-04 Omer Yilmaz System and method for aligning an optic with an axis of an eye
US7565183B2 (en) 2004-11-15 2009-07-21 Sony Ericsson Mobile Communications Ab Mobile device with selectable camera position
EP1820142A4 (en) * 2004-12-07 2010-03-10 Aoptix Technologies IRISIZATION WITH THE HELP OF THE EYE REFLECTION
JP4767971B2 (ja) 2005-01-26 2011-09-07 ハネウェル・インターナショナル・インコーポレーテッド 距離虹彩認識システム
US7568628B2 (en) 2005-03-11 2009-08-04 Hand Held Products, Inc. Bar code reading device with global electronic shutter control
JP4702598B2 (ja) 2005-03-15 2011-06-15 オムロン株式会社 監視システム、監視装置および方法、記録媒体、並びにプログラム
US20060222212A1 (en) 2005-04-05 2006-10-05 Yingzi Du One-dimensional iris signature generation system and method
US7542628B2 (en) 2005-04-11 2009-06-02 Sarnoff Corporation Method and apparatus for providing strobed image capture
US7634114B2 (en) 2006-09-01 2009-12-15 Sarnoff Corporation Method and apparatus for iris biometric systems for use in an entryway
WO2006132686A2 (en) 2005-06-03 2006-12-14 Sarnoff Corporation Method and apparatus for designing iris biometric systems for use in minimally
US20070047770A1 (en) 2005-06-13 2007-03-01 Swope Guy G Multiple biometrics enrollment and verification system
JP2007011667A (ja) 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 虹彩認証装置および虹彩認証方法
JP4664147B2 (ja) 2005-07-29 2011-04-06 株式会社山武 虹彩認証装置
KR20080043849A (ko) 2005-08-16 2008-05-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 회전 유닛을 갖는 휴대용 전자 디바이스
WO2007025258A2 (en) 2005-08-25 2007-03-01 Sarnoff Corporation Methods and systems for biometric identification
US20070092115A1 (en) * 2005-10-26 2007-04-26 Usher David B Method and system for detecting biometric liveness
US7873490B2 (en) 2005-12-28 2011-01-18 Solmetric Corporation Solar access measurement device
US7583823B2 (en) 2006-01-11 2009-09-01 Mitsubishi Electric Research Laboratories, Inc. Method for localizing irises in images using gradients and textures
US20070160266A1 (en) 2006-01-11 2007-07-12 Jones Michael J Method for extracting features of irises in images using difference of sum filters
GB0603411D0 (en) 2006-02-21 2006-03-29 Xvista Ltd Method of processing an image of an eye
JP2007225763A (ja) 2006-02-22 2007-09-06 Sony Corp 撮像装置および撮像方法、並びにプログラム
US7844084B2 (en) 2006-02-27 2010-11-30 Donald Martin Monro Rotation compensated iris comparison
US7903168B2 (en) 2006-04-06 2011-03-08 Eastman Kodak Company Camera and method with additional evaluation image capture based on scene brightness changes
US8139117B2 (en) 2006-04-21 2012-03-20 Sick, Inc. Image quality analysis with test pattern
WO2008039252A2 (en) * 2006-05-15 2008-04-03 Retica Systems, Inc. Multimodal ocular biometric system
US7682026B2 (en) 2006-08-22 2010-03-23 Southwest Research Institute Eye location and gaze detection system and method
WO2008032329A2 (en) 2006-09-13 2008-03-20 Alon Atsmon Providing content responsive to multimedia signals
EP2062197A4 (en) 2006-09-15 2010-10-06 Retica Systems Inc MULTIMODAL BIOMETRIC SYSTEM AND METHOD FOR LARGE DISTANCES
WO2008091401A2 (en) * 2006-09-15 2008-07-31 Retica Systems, Inc Multimodal ocular biometric system and methods
US8121356B2 (en) 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
US7574021B2 (en) 2006-09-18 2009-08-11 Sarnoff Corporation Iris recognition for a secure facility
US7986816B1 (en) 2006-09-27 2011-07-26 University Of Alaska Methods and systems for multiple factor authentication using gaze tracking and iris scanning
US20080121721A1 (en) 2006-11-25 2008-05-29 Chun-Hsien Chen Reflective Reading Structure For Portable Computer
WO2008073962A2 (en) 2006-12-12 2008-06-19 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
US7825958B2 (en) 2007-01-25 2010-11-02 Research In Motion Limited Method and apparatus for controlling a camera module to compensate for the light level of a white LED
KR100807940B1 (ko) 2007-03-08 2008-02-28 박경진 안구내렌즈
US8023699B2 (en) 2007-03-09 2011-09-20 Jiris Co., Ltd. Iris recognition system, a method thereof, and an encryption system using the same
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
US8553948B2 (en) 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
US20090092292A1 (en) 2007-10-05 2009-04-09 Carver John F Eye Scanner with Integrated Focus Distance Determination Mechanism
JP5674473B2 (ja) 2007-11-27 2015-02-25 ウェイヴフロント・バイオメトリック・テクノロジーズ・ピーティーワイ・リミテッド 眼を使用した生体認証
US8750574B2 (en) 2007-12-31 2014-06-10 Applied Recognition Inc. Method, system, and computer program for identification and sharing of digital images with face signatures
CA2736609C (en) 2008-02-14 2016-09-20 Iristrac, Llc System and method for animal identification using iris images
US8930238B2 (en) 2008-02-21 2015-01-06 International Business Machines Corporation Pervasive symbiotic advertising system and methods therefor
US9131141B2 (en) 2008-05-12 2015-09-08 Sri International Image sensor with integrated region of interest calculation for iris capture, autofocus, and gain control
US8994877B2 (en) 2008-07-30 2015-03-31 Semiconductor Components Industries, Llc Method and system for synchronizing a flash to an imager
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US9633261B2 (en) 2008-08-22 2017-04-25 International Business Machines Corporation Salting system and method for cancelable iris biometric
US20100082398A1 (en) 2008-09-29 2010-04-01 Yahoo! Inc. System for providing contextually relevant data
US20100278394A1 (en) 2008-10-29 2010-11-04 Raguin Daniel H Apparatus for Iris Capture
US8317325B2 (en) 2008-10-31 2012-11-27 Cross Match Technologies, Inc. Apparatus and method for two eye imaging for iris identification
CN101750697A (zh) 2008-12-10 2010-06-23 深圳富泰宏精密工业有限公司 电子装置的外挂镜架
US8615596B1 (en) 2009-01-14 2013-12-24 Sprint Communications Company L.P. Communication method and system for providing content to a communication device according to a user preference
US8374404B2 (en) 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
KR101030369B1 (ko) * 2009-02-23 2011-04-20 인하대학교 산학협력단 영상 분류 장치 및 방법
WO2010121227A1 (en) 2009-04-17 2010-10-21 Ioculi Image diversion systems & methods for image capture devices
US8387858B2 (en) 2009-06-01 2013-03-05 Synderesis Technologies, Inc. Consumer rewards systems and methods
US20100328420A1 (en) 2009-06-29 2010-12-30 Roman Kendyl A Optical adapters for mobile devices with a camera
US20110007205A1 (en) 2009-07-08 2011-01-13 Dechnia, LLC Rear to forward facing camera adapter
US8452131B2 (en) 2009-09-25 2013-05-28 International Business Machines Corporation Iris recognition system and method
US20110081946A1 (en) 2009-10-07 2011-04-07 Byron Singh N John Singh Apparatus and method for changing an image-capturing position of a mobile phone camera using a mirror device
US20110142297A1 (en) 2009-12-16 2011-06-16 Eye Controls, Llc Camera Angle Compensation in Iris Identification
US20110187878A1 (en) 2010-02-02 2011-08-04 Primesense Ltd. Synchronization of projected illumination with rolling shutter of image sensor
JP5003774B2 (ja) 2010-02-15 2012-08-15 東京エレクトロン株式会社 現像装置、現像方法及び記憶媒体
US10178290B2 (en) 2010-02-17 2019-01-08 Sri International Method and apparatus for automatically acquiring facial, ocular, and iris images from moving subjects at long-range
KR101046459B1 (ko) 2010-05-13 2011-07-04 아이리텍 잉크 다수의 홍채템플릿을 이용한 홍채인식장치 및 방법
US8957956B2 (en) 2010-06-09 2015-02-17 Honeywell International Inc. Method and system for iris image capture
US8150255B2 (en) 2010-06-25 2012-04-03 Apple Inc. Flash control for electronic rolling shutter
US20120086645A1 (en) 2010-10-11 2012-04-12 Siemens Corporation Eye typing system using a three-layer user interface
US8631473B2 (en) 2011-07-06 2014-01-14 Symphony Advanced Media Social content monitoring platform apparatuses and systems
KR20120067761A (ko) 2010-12-16 2012-06-26 한국전자통신연구원 사용자 단말을 이용한 생체정보 측정 장치 및 그 방법
US8254768B2 (en) 2010-12-22 2012-08-28 Michael Braithwaite System and method for illuminating and imaging the iris of a person
US8195576B1 (en) 2011-01-31 2012-06-05 Bank Of America Corporation Mobile transaction device security system
US8625847B2 (en) 2011-03-21 2014-01-07 Blackberry Limited Login method based on direction of gaze
US8682073B2 (en) 2011-04-28 2014-03-25 Sri International Method of pupil segmentation
US8639058B2 (en) 2011-04-28 2014-01-28 Sri International Method of generating a normalized digital image of an iris of an eye
US8755607B2 (en) 2011-04-28 2014-06-17 Sri International Method of normalizing a digital image of an iris of an eye
US8854446B2 (en) 2011-04-28 2014-10-07 Iristrac, Llc Method of capturing image data for iris code based identification of vertebrates
CA2836472C (en) 2011-05-18 2022-11-22 Nextgenid, Inc. Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
US20150042776A1 (en) 2011-06-18 2015-02-12 Morpho Trust USA,LLC Systems And Methods For Detecting A Specular Reflection Pattern For Biometric Analysis
US20130329115A1 (en) 2011-06-20 2013-12-12 Rhp Multimedia Corp. Case for portable electronic device
US20170161557A9 (en) * 2011-07-13 2017-06-08 Sionyx, Inc. Biometric Imaging Devices and Associated Methods
IN2014CN00418A (ja) 2011-07-14 2015-04-03 Koninkl Philips Nv
JP2013027617A (ja) 2011-07-29 2013-02-07 Canon Inc 眼科装置、眼科撮影方法、及びプログラム
RU2623795C2 (ru) 2011-08-22 2017-06-29 АЙЛОК ЭлЭлСи Системы и способы для захвата безартефактных изображений
US8473748B2 (en) 2011-09-27 2013-06-25 George P. Sampas Mobile device-based authentication
US20130083185A1 (en) 2011-09-30 2013-04-04 Intuitive Medical Technologies, Llc Optical adapter for ophthalmological imaging apparatus
US20130089240A1 (en) 2011-10-07 2013-04-11 Aoptix Technologies, Inc. Handheld iris imager
US9241200B2 (en) 2011-10-11 2016-01-19 Verizon Patent And Licensing Inc. Targeted advertising
WO2013056001A1 (en) 2011-10-12 2013-04-18 Carnegie Mellon University System and method for the long range acquisition of iris images for stationary and mobile subjects
US20130106894A1 (en) 2011-10-31 2013-05-02 Elwha LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
TW201324180A (zh) 2011-12-07 2013-06-16 Wistron Corp 整合一行動通訊裝置以及一可攜式電子裝置的方法及其可攜式電腦模組
GB2497553B (en) 2011-12-13 2018-05-16 Irisguard Inc Improvements relating to iris cameras
US20130188943A1 (en) 2012-01-19 2013-07-25 Shing-Wai David Wu Camera Adapter
US9330294B2 (en) 2012-01-26 2016-05-03 Aware, Inc. System and method of capturing and producing biometric-matching quality fingerprints and other types of dactylographic images with a mobile device
US9373023B2 (en) 2012-02-22 2016-06-21 Sri International Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor
US9100825B2 (en) 2012-02-28 2015-08-04 Verizon Patent And Licensing Inc. Method and system for multi-factor biometric authentication based on different device capture modalities
US9138140B2 (en) 2012-03-20 2015-09-22 Lrs Identity, Inc. Compact iris imaging system
CN102708357A (zh) 2012-04-12 2012-10-03 北京释码大华科技有限公司 单图像传感器双眼虹膜识别设备
AU2013205535B2 (en) 2012-05-02 2018-03-15 Samsung Electronics Co., Ltd. Apparatus and method of controlling mobile terminal based on analysis of user's face
US8977560B2 (en) 2012-08-08 2015-03-10 Ebay Inc. Cross-browser, cross-machine recoverable user identifiers
US8437513B1 (en) * 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US20140055337A1 (en) 2012-08-22 2014-02-27 Mobitv, Inc. Device eye tracking calibration
EP2895905A1 (en) 2012-09-12 2015-07-22 olloclip, LLC Removable optical devices for mobile electronic devices
US9154677B2 (en) 2012-09-20 2015-10-06 Apple Inc. Camera accessory for angled camera viewing
KR102039725B1 (ko) 2012-11-23 2019-11-04 엘지디스플레이 주식회사 액정표시장치 어레이 기판 및 그 제조방법
EP2929487A4 (en) 2012-12-10 2016-08-10 Stanford Res Inst Int BIOMETRIC IRIS ADJUSTMENT SYSTEM
US9058519B2 (en) 2012-12-17 2015-06-16 Qualcomm Incorporated System and method for passive live person verification using real-time eye reflection
CN105210093B (zh) 2012-12-18 2021-06-08 艾斯适配有限公司 捕获和显示外观的装置、***和方法
US9019420B2 (en) 2012-12-19 2015-04-28 Covr Llc Image redirection system for mobile devices
CN103048848A (zh) 2012-12-21 2013-04-17 吴刚 一种用于移动设备摄像头的转角镜头及其组件
CN103099624A (zh) 2013-01-11 2013-05-15 北京释码大华科技有限公司 虹膜测距板、虹膜识别一体机及使用其的虹膜识别方法
US9304376B2 (en) 2013-02-20 2016-04-05 Hand Held Products, Inc. Optical redirection adapter
JP2014187554A (ja) * 2013-03-22 2014-10-02 Fujitsu Ltd 撮像装置、情報処理装置、携帯端末装置及び表示装置
US20140327815A1 (en) 2013-05-06 2014-11-06 Cvs Pharmacy, Inc. Smartphone scanner adapter
US9390327B2 (en) 2013-09-16 2016-07-12 Eyeverify, Llc Feature extraction and matching for biometric authentication
US9971937B1 (en) 2013-09-30 2018-05-15 Samsung Electronics Co., Ltd. Biometric camera
US9836648B2 (en) 2013-10-08 2017-12-05 Princeton Identity, Inc. Iris biometric recognition module and access control assembly
US10025982B2 (en) 2013-10-08 2018-07-17 Princeton Identity, Inc. Collecting and targeting marketing data and information based upon iris identification
US10038691B2 (en) 2013-10-08 2018-07-31 Princeton Identity, Inc. Authorization of a financial transaction
US9300769B2 (en) 2013-11-01 2016-03-29 Symbol Technologies, Llc System for and method of adapting a mobile device having a camera to a reader for electro-optically reading targets
US10121073B2 (en) 2014-02-12 2018-11-06 Samsung Electronics Co., Ltd Agile biometric camera with bandpass filter and variable light source
JP6299300B2 (ja) 2014-03-14 2018-03-28 オムロン株式会社 画像処理装置および画像処理方法
US9679212B2 (en) * 2014-05-09 2017-06-13 Samsung Electronics Co., Ltd. Liveness testing methods and apparatuses and image processing methods and apparatuses
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
KR101494874B1 (ko) * 2014-05-12 2015-02-23 김호 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
US10034606B2 (en) 2014-05-30 2018-07-31 Nidek Co., Ltd. Optical equipment for observation of the iridocorneal zone, methods of measuring and/or evaluating the iridocorneal zone
US9934436B2 (en) 2014-05-30 2018-04-03 Leidos Innovations Technology, Inc. System and method for 3D iris recognition
US20160019421A1 (en) 2014-07-15 2016-01-21 Qualcomm Incorporated Multispectral eye analysis for identity authentication
JP6327071B2 (ja) * 2014-09-03 2018-05-23 オムロン株式会社 画像処理装置および画像処理方法
US9414037B1 (en) * 2014-09-26 2016-08-09 Amazon Technologies, Inc. Low light image registration
US9767358B2 (en) * 2014-10-22 2017-09-19 Veridium Ip Limited Systems and methods for performing iris identification and verification using mobile devices
US10198645B2 (en) * 2014-11-13 2019-02-05 Intel Corporation Preventing face-based authentication spoofing
US9412169B2 (en) 2014-11-21 2016-08-09 iProov Real-time visual feedback for user positioning with respect to a camera and a display
CA2969331A1 (en) 2014-12-03 2016-06-09 Princeton Identity, Inc. System and method for mobile device biometric add-on
KR20160073866A (ko) 2014-12-17 2016-06-27 삼성전자주식회사 홍채 인식 장치, 이를 포함하는 홍채 인식 시스템 및 상기 홍채 인식 시스템의 동작 방법
US9361507B1 (en) * 2015-02-06 2016-06-07 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP6535223B2 (ja) 2015-05-28 2019-06-26 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム
US20160364609A1 (en) 2015-06-12 2016-12-15 Delta ID Inc. Apparatuses and methods for iris based biometric recognition
TWI558202B (zh) 2015-10-14 2016-11-11 緯創資通股份有限公司 攝像裝置、攝像系統以及其控制方法
US20170124314A1 (en) 2015-11-03 2017-05-04 Tavita Laumea Device and Method for Keypad with an Integral Fingerprint Scanner
KR102402829B1 (ko) 2015-11-10 2022-05-30 삼성전자 주식회사 사용자 인증 방법 및 이를 지원하는 전자 장치
US10102358B2 (en) * 2015-12-29 2018-10-16 Sensory, Incorporated Face-controlled liveness verification
WO2017123702A1 (en) 2016-01-12 2017-07-20 Princeton Identity, Inc. Systems and methods biometric analysis
US10366296B2 (en) 2016-03-31 2019-07-30 Princeton Identity, Inc. Biometric enrollment systems and methods
US10373008B2 (en) 2016-03-31 2019-08-06 Princeton Identity, Inc. Systems and methods of biometric analysis with adaptive trigger
WO2018111860A1 (en) 2016-12-12 2018-06-21 Princeton Identity, Inc. Systems and methods of biometric analysis
KR102455633B1 (ko) 2017-12-21 2022-10-17 삼성전자주식회사 라이브니스 검사 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086614A (ja) * 2002-08-27 2004-03-18 Matsushita Electric Ind Co Ltd 目画像撮像装置及び目画像認証装置
JP2005040591A (ja) * 2003-07-04 2005-02-17 Matsushita Electric Ind Co Ltd 生体眼判定方法および生体眼判定装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181305A (ja) * 2019-04-24 2020-11-05 凸版印刷株式会社 生体判別装置及び生体判別方法、並びに個人認証方法
WO2020246141A1 (ja) * 2019-06-06 2020-12-10 日本電気株式会社 処理システム、処理方法及びプログラム
JPWO2020246141A1 (ja) * 2019-06-06 2020-12-10
JP7485448B2 (ja) 2019-06-06 2024-05-16 日本電気株式会社 処理システム、処理方法及びプログラム
WO2021186990A1 (ja) * 2020-03-17 2021-09-23 ソニーグループ株式会社 プログラム、情報処理装置及び端末装置
CN113536869A (zh) * 2020-04-17 2021-10-22 技嘉科技股份有限公司 人脸识别装置以及人脸识别方法
JP2021174504A (ja) * 2020-04-17 2021-11-01 技嘉科技股▲ふん▼有限公司Giga−Byte Technology Co., Ltd. 顔認識装置及び顔認識方法
US11417149B2 (en) 2020-04-17 2022-08-16 Giga-Byte Technology Co., Ltd. Face recognition device and face recognition method
JP7384772B2 (ja) 2020-04-17 2023-11-21 技嘉科技股▲ふん▼有限公司 顔認識装置及び顔認識方法
KR20230064266A (ko) * 2021-11-03 2023-05-10 주식회사 유니온커뮤니티 동공 움직임을 이용한 위조 홍채 판별장치 및 그 방법
KR102567390B1 (ko) 2021-11-03 2023-08-16 주식회사 유니온커뮤니티 동공 움직임을 이용한 위조 홍채 판별장치 및 그 방법

Also Published As

Publication number Publication date
WO2017123702A1 (en) 2017-07-20
US20180025244A1 (en) 2018-01-25
EP3403217A1 (en) 2018-11-21
US20170323167A1 (en) 2017-11-09
WO2017123702A8 (en) 2017-08-17
US10452936B2 (en) 2019-10-22
US20170337441A1 (en) 2017-11-23
US10643087B2 (en) 2020-05-05
US20170337439A1 (en) 2017-11-23
US20170337440A1 (en) 2017-11-23
KR20180102637A (ko) 2018-09-17
US10762367B2 (en) 2020-09-01
US10943138B2 (en) 2021-03-09
EP3403217A4 (en) 2019-08-21
US10643088B2 (en) 2020-05-05

Similar Documents

Publication Publication Date Title
US10643087B2 (en) Systems and methods of biometric analysis to determine a live subject
US11657133B2 (en) Systems and methods of multi-modal biometric analysis
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
KR101393717B1 (ko) 얼굴 인식 기술
KR101415287B1 (ko) 라이브니스 검출을 위한 방법, 컴퓨터 판독가능한 저장 디바이스 및 컴퓨팅 디바이스
KR101286454B1 (ko) 눈 영상의 특성을 이용한 모조얼굴 식별장치 및 방법
US20160019421A1 (en) Multispectral eye analysis for identity authentication
US20160019420A1 (en) Multispectral eye analysis for identity authentication
US20070110285A1 (en) Apparatus and methods for detecting the presence of a human eye
JP7192872B2 (ja) 虹彩認証装置、虹彩認証方法、虹彩認証プログラムおよび記録媒体
CN108009534B (zh) 基于瞳孔灰度的活体检测方法
JP2006318374A (ja) 眼鏡判別装置および認証装置ならびに眼鏡判別方法
KR20070004213A (ko) 모조 홍채 식별 방법
WO2023112237A1 (ja) 生体判定装置、生体判定方法、及び、記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180912

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210628