JP6242888B2 - 顔検証のためのシステムおよび方法 - Google Patents

顔検証のためのシステムおよび方法 Download PDF

Info

Publication number
JP6242888B2
JP6242888B2 JP2015520285A JP2015520285A JP6242888B2 JP 6242888 B2 JP6242888 B2 JP 6242888B2 JP 2015520285 A JP2015520285 A JP 2015520285A JP 2015520285 A JP2015520285 A JP 2015520285A JP 6242888 B2 JP6242888 B2 JP 6242888B2
Authority
JP
Japan
Prior art keywords
image data
face
person
skin
nir
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015520285A
Other languages
English (en)
Other versions
JP2015528942A (ja
Inventor
ジャン、シャオペン
ジャン、シャオカン
ワン、ジライ
ジョウ、シャオミン
ク、ガン
シェン、リァン
フェン、チェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015528942A publication Critical patent/JP2015528942A/ja
Application granted granted Critical
Publication of JP6242888B2 publication Critical patent/JP6242888B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Algebra (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本開示は、顔検証のためのシステムおよび方法に関する。特に、本開示は、人物の顔を検出し、検出された人物の顔が生身の人物の顔であるか否かを決定するためのシステムおよび方法に関する。
[0002] 顔検出および/または検証システムは、例えば、ペアレンタルコントロールアプリケーション(parental control applications)、法の執行(law enforcement)、モバイルバンキング、およびセキュリティーアプリケーション等を含む、様々なコンテキストにおいて有用でありうる。従来の自動顔検出システムは、画像内の人物の顔を検出することができる。しかしながら、これらのシステムは、一般に、画像内の検出された顔が生身の人物の顔からキャプチャされたのか、あるいは単に人物の顔の写真または他の人物の顔の複製からキャプチャされたにすぎないのかを決定することができない。
[0003] 例えば、ある場合には、検出された顔は、写真の中の顔、ディスプレイスクリーン上の顔の画像、顔のマスク、顔の複製の模型、マネキン、またはいずれかの他の生身でない顔といった、人工のソースに由来しうる。例えば、偽の身分証明書を作成しようとする者は、顔検出システムをだまそうとするため、誰か他の人物の顔写真、またはマスクを使用しうる。さらに、まばたきや他のタイプの顔の動きをとらえる高性能なシステムでさえ、生身の顔を検出することは、生身の顔に代わる誰か他の人物の顔のビデオストリームを使用することによって妨げられうる。
[0004] ある実装において、画像内の生身の人物の顔を検出するための方法が開示される。方法は、人物の顔を含むマルチスペクトル画像データを受信することを含むことができ、ここで、マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備える。方法は、人物の顔を検出するために、マルチスペクトル画像データを処理することを備えることができ、検出された人物の顔が生身の人物の顔であるかどうかを決定するために、可視光画像データ内の検出された人物の顔とNIR画像データ内の検出された人物の顔とを関連付けることをさらに含みうる。
[0005] 別の実装では、画像内の生身の人物の顔を検出するためのイメージングシステムが開示される。イメージングシステムは、可視光画像データおよび近赤外線(NIR)画像データを備えるマルチスペクトル画像データをキャプチャするように構成された少なくとも1つの画像センサを含むことができ、ここで、マルチスペクトル画像データは、人物の顔を含む。加えて、イメージングシステムは、人物の顔を検出するためにマルチスペクトル画像データを分析するように構成された顔検出モジュールを含みうる。イメージングシステムはまた、検出された顔のマルチスペクトル画像データを分析し、検出された人物の顔が、生身の人物の顔かどうかを決定するように構成された肌検証モジュールを含みうる。
[0006] さらに別の実装において、イメージングシステムが開示される。イメージングシステムは、人物の顔を含むマルチスペクトル画像データを受信するための手段を含むことができ、ここで、マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備える。システムはさらに、人物の顔を検出するために、マルチスペクトル画像データを処理するための手段を含みうる。加えて、システムは、検出された人物の顔が生身の人物の顔であるかどうかを決定するために、可視光画像データ内の検出された人物の顔とNIR画像データ内の検出された人物の顔とを関連付けるための手段を含みうる。
[0007] 別の態様において、非一時的コンピュータ読み取り可能な媒体が開示される。非一時的コンピュータ読み取り可能な媒体は、実行されると方法を実施するコードが記憶されている。方法は、人物の顔を含むマルチスペクトル画像データを受信することを備えることができ、ここで、マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備える。方法はさらに、人物の顔を検出するために、マルチスペクトル画像データを処理することを含みうる。加えて、方法は、検出された人物の顔が生身の人物の顔であるかどうかを決定するために、可視光画像データ内の検出された人物の顔とNIR画像データ内の検出された人物の顔とを関連付けることを含みうる。
図1は、ある実装に従った、顔検証システムの概念図である。 図2は、マルチスペクトルイメージングデータを使用して生身の人物の顔を検証するための方法の一実装を図示するフローチャートである。 図3は、生身の人物の顔を検証するための方法の別の実装を図示するフローチャートである。 図4は、図3で提示された方法からの実験結果を図示する。 図5は、キャプチャされた人物の顔が生身の人物の顔かどうかを決定するための1つの方法を図示するフローチャートである。 図6Aは、画素が生身の人物の肌を表すか、または生身でない人物の肌を表すかどうかを決定するための方法を図示するフローチャートである。 図6Bは、一実装に従った決定論的方法を図示するフローチャートである。 図6Cは、別の実装に従った確率論的方法を図示するフローチャートである。 図6Dは、導出された確率密度関数についての実験結果のグラフである。 図6Eは、導出された確率密度関数についての実験結果のグラフである。 図6Fは、顔が生身の人物の顔かどうかを決定するための、1つの方法を図示するフローチャートである。 図7Aは、様々な実装に従った、ユーザインターフェースの画像である。 図7Bは、様々な実装に従った、ユーザインターフェースの画像である。 図8Aは、生身の人物の顔を検証するための様々な他の実装を図示するフローチャートである。 図8Bは、生身の人物の顔を検証するための様々な他の実装を図示するフローチャートである。
詳細な説明
[システムの概要]
[0020] 本明細書で開示される実装は、1つまたは複数のイメージングセンサを有する電子デバイスを用いて生身の人物の顔を検証するための、システム、方法および装置を提供する。例えば、ある実施形態において、システムは、可視光イメージングセンサおよび赤外光イメージングセンサを含みうる。画像をキャプチャする間、システムは、写真またはビデオとは対照的に、両方のセンサからの情報を組み合わせることによって、キャプチャされた顔が生身の人物からのものであるかどうかを検出しうる。例えば、いくつかの波長において、赤外光イメージングセンサからのデータは、キャプチャされた顔から生じる熱があるかどうかを決定するのに使用され得、他の波長において、赤外光イメージングセンサからのデータは、顔から詳細なテクスチャ情報をキャプチャするのに使用されうる。別の実施形態において、システムは、キャプチャされた顔に対応する画素が、下記に説明されるような、生身の肌からの画素であるかどうかを決定しうる。当業者であれば、開示された実施形態がハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせにおいて実装されうることを理解するだろう。
[0021] 下記の説明において、例についての十分な理解を提供するために、特定の詳細が与えられる。しかしながら、当業者であれば、これらの例がこれらの特定の詳細なしで実施されうることを理解するだろう。例えば、これらの例を不必要な詳細で不明瞭にしないように、電子コンポーネント/デバイスは、ブロック図で示されうる。他の事例において、このようなコンポーネント、他の構造、および技法が、これらの例をさらに説明するために詳細に示されうる。
[0022] これらの例はまた、処理として説明され、それらは、フローチャート、フロー図、有限状態図、構造図、またはブロック図として図示されうることに留意されたい。フローチャートは、動作を連続的な処理として説明しうるが、動作の多くは、並列または同時並行に行われることができ、また、処理は繰り返されることができる。加えて、動作の順序は並べ換えることができる。処理は、その動作が完了した場合に終了する。処理は、方法、関数、手順、サブルーチン、サブプログラム等に対応しうる。処理がソフトウェア関数に対応する場合、その終了は、呼び出し関数または主関数、あるいは同様のサブルーチンの完了または同様の機能性に関数を戻すことに対応する。
[0023] 当業者であれば、情報および信号は、様々な異なる技術および技法のうちの任意のものを用いて表されうることを理解するだろう。例えば、上記説明の全体にわたって参照されうるデータ、命令、コマンド、情報、信号、ビット、シンボル、およびチップは、電圧、電流、電磁波、磁場または磁性粒子、光場または光粒子、あるいはこれらの任意の組み合わせによって表されうる。
[0024] 図1は、イメージングされた人物の顔が生身の人物の顔であることを検証するための顔検証システム1の一実装を図示する。顔検証システム1は、マルチスペクトルイメージングシステム2を含む。マルチスペクトルイメージングシステム2は、ブロードバンドの波長を感知することができるマルチスペクトルイメージングセンサを含むように構成され、それは、少なくとも可視光波長および近赤外線(NIR)光波長を含む。マルチスペクトルイメージングセンサは、約390ナノメートルと約1400ナノメートルとの間の波長における光を検出するように構成されうる。もちろん、イメージングセンサはまた、より広い範囲の波長も同様に検出するように構成されうる。いくつかの実装において、電荷結合素子(CCD)は、マルチスペクトルイメージングセンサとして使用されうる。いくつかの実装において、CMOSイメージングセンサは、マルチスペクトルイメージングセンサとして使用されうる。
[0025] 他の実装において、マルチスペクトルイメージングセンサシステム2は、マルチスペクトルイメージングセンサの代わりに、2つの別個のセンサを含みうる。この実施形態において、マルチスペクトルイメージングセンサシステム2は、可視光センサおよび別個のNIRセンサを含みうる。例えば、マルチスペクトルイメージングセンサシステム2は、少なくとも約390ナノメートルと約800ナノメートルとの間の範囲における可視光を検出することができる、CCD/CMOSのような第1のセンサを含みうる。マルチスペクトルイメージングセンサシステム2は、約800ナノメートルと約1400ナノメートルとの間の範囲におけるNIR光を検出することができる、CCD/CMOSのような第2のセンサをさらに含みうる。いくつかの実装において、可視およびNIRセンサについての波長の範囲は、重複するか、または実質的に同じでさえありうる。例えば、様々な実装において、アプティナ・イメージング社(カリフォルニア州、サンノゼ)によって製造されたMT9M112センサが、可視光センサとして使用され、またアプティナ・イメージング社(カリフォルニア州、サンノゼ)によって製造されたMT9M001センサが、NIRセンサとして使用されうる。当業者は、他のタイプのセンサが可能でありうることを理解するだろう。いくつかの実装において、NIRパスフィルタのようなイメージングフィルタは、NIRデータのみを検出するために、適切なCCD/CMOSにおいて使用されうる。当業者は、様々な他のセンサまたはそれらの組み合わせが、可視およびNIRイメージングデータをキャプチャするのに使用されうることを理解するだろう。
[0026] 顔検証システム1は、メモリ3およびプロセッサ4をさらに含みうる。メモリ3およびプロセッサ4は、互いにおよびマルチスペクトルイメージングセンサ2と電気的に通信するように構成される。顔検証システム1はまた、プロセッサ3によって実行されうる様々なソフトウェアモジュールを記憶することができる記憶デバイス5を有する。いくつかの実装において、プロセッサ4は、マルチスペクトルイメージングセンサシステム2へデータを送信し、またマルチスペクトルイメージングセンサシステム2からデータを受信し、記憶デバイス5内のソフトウェアモジュールに記憶されたコンピュータに実装された命令を実行することによって、そのデータを操作することができる。
[0027] 記憶デバイス5は、非一時的記憶媒体のようないずれかの適切なコンピュータ読み取り可能な記憶媒体でありうる。記憶デバイス5は、任意の数のソフトウェアモジュールを備えうる。例えば、通信モジュール10および前処理モジュール11は、記憶デバイス5で記憶されうる。通信モジュール10は、顔検証システム1のコンポーネント間のデータのフローを管理するコンピュータに実装された命令を備えうる。前処理モジュール11は、他の動作がデータ上で行われる前に、マルチスペクトルイメージングシステム2から受信された画像データのようなデータを前処理するように構成されうる。記憶デバイス5はまた、ユーザインターフェースモジュール12を含みうる。ユーザインターフェースモジュール12は、ユーザインターフェース6を実装するための命令を備えうる。図7A−7Bに関して下記でより詳細に説明されるように、システムによって検出された顔の周りに、ユーザが見るための仮想ボックスが描かれ、また、いくつかの実装において、生身でない肌よりも生身の肌である確率が高い画素の割合が、ユーザインターフェース6で表示されうる。他のユーザインターフェース特徴は、グラフィカルユーザインターフェース(GUI)を含んでおり、ユーザインターフェースモジュール12に記憶された命令によって制御または実装されうる。
[0028] 記憶デバイス5は、顔検出モジュール13をさらに含む。顔検出モジュール13は、画像内の人物の顔を検出することができるソフトウェアを含みうる。いくつかの実装において、顔検出モジュール13は、画像内のキャプチャされた顔の形状を検出および検証するために、既知の技法を使用しうる。いくつかの実装において、顔検出モジュール13は、顔の輪郭を検出するように構成されうるが、他の実装において、顔検出モジュール13は、顔が位置付けられる一般的な領域(例えば、特定の正方形または長方形の領域内に位置づけられた顔)を検出しうる。ある実装において、例えば、日本の京都にあるオムロン株式会社によって製造されたOKAO Visionセンシング技術(OKAO Vision Sensing Technology)が、顔検出モジュール13で使用されうる。顔検出モジュール13の他の実装が可能であり、よって、実施形態は、画像内の顔を検出するための任意の特定の方法に制限されない。
[0029] 肌検証モジュール14はまた、記憶デバイス5で記憶されうる。本明細書でより詳細に説明されるように、肌検証モジュール14は、写真または他の人工の人物の顔からキャプチャされた画像によって生成される生身でない肌とは反対に、人物の顔の画像内の肌が生身の人物の肌であることを検証するために、コンピュータに実装された命令を含みうる。ある実装において、肌検証モジュール14もまた、人物の体の他の部分の肌が、生身の人物の肌であることを検証しうる。記録デバイス5はまた、ユーザ通知モジュール15を含む。ユーザ通知モジュール15は、検出された顔が生身または生身でない人物の顔であることをユーザに通知するように構成されうる。ある実装において、ユーザ通知モジュール15は、どの画素が生身のまたは生身でない肌画素(skin pixels)であると決定されたかを、ユーザに通知することができる。また、図1で示されるように、他の処理モジュール16は、システム1に関する様々な他の機能性を実装することが望まれる場合、記憶デバイス5に記憶されうる。
[0030] 顔検証システム1は、ユーザインターフェース6を含む。ユーザインターフェース6は、イメージングされた顔が画像内の生身の人物の顔であることを検証するために、システム1のユーザが、システムと相互作用することおよび様々なモジュールを効果的に使用することを可能にしうる。例えば、ユーザインターフェース6は、キャプチャされた画像および/または顔検証処理に関連付けられた他のデータを表示するために、1つまたは複数のディスプレイを含みうる。ディスプレイはまた、システム1の有用性をさらに高めるために、グラフィカルユーザーインターフェース(GUI)を表示するように構成されうる。ユーザインターフェース6は、マイクロフォン、スピーカ、あるいは音声を受信または送信するように構成された他のデバイスのような、様々な音声デバイスを含みうる。いくつかの実装において、ユーザインターフェース6は、例えば、キーボード、マウス、プリンタ、および他の入力/出力デバイス等を含む、様々な周辺デバイスを含みうる。
[0031] 顔検証システム1は、モバイルフォンまたはスマートフォン、タブレットコンピュータ、ラップトップコンピュータ、デジタルカメラ等を含む、モバイルデバイス上で実装されうる。モバイルデバイス上のマルチスペクトルイメージングシステム2、メモリ3、プロセッサ4、記憶装置5、およびユーザインターフェース6を統合することによって、顔検証システム1は、システムに固定されたロケーションに留まることを要求することなく、有利に使用されることができる。しかしながら、他の実装において、顔検証システム1は、デスクトップコンピュータ、サーバ、コンピュータワークステーション、または他のタイプのコンピューティングデバイスを備えうる。マルチスペクトルイメージングシステム2は、他のキャプチャハードウェアと統合されうるか、あるいは、例えば1つの別個のカメラまたは複数のカメラとして、コンピューティングデバイスと別個でありうる。
[マルチスペクトルイメージングの概要]
[0032] 図2は、マルチスペクトル画像データを使用して生身の人物の顔を検証するための方法20の一実装を図示するフローチャートである。ブロック21において、マルチスペクトル画像データがキャプチャされる。マルチスペクトル画像データは、少なくとも可視光およびNIRスペクトルにわたる画像データを備えうる。例えば、画像データは、約390ナノメートルと1400ナノメートルとの間の波長の範囲にわたって、マルチスペクトルイメージングシステム2によってキャプチャされうる。可視およびNIR波長の両方にわたる画像データを利用することによって、画像データがより狭い光のスペクトルに制限される場合よりも、景色または物体のより多くの詳細が感知されうる。例えば、NIR画像データは、いくつかの状況において、対応する可視光画像データよりもより滑らかな表面をもたらしうる。
[0033] 画像がブロック21でキャプチャされた後、方法20は、ブロック22へと移動し、ここで、人物の顔は、キャプチャされた画像内で検出される。顔検出のいずれかの適切な方法が画像内の顔を検出するのに使用されうる。例えば、上述されたように、顔検出モジュール13は、キャプチャされた顔の形状について詳細を検出しうる。代替的に、顔検出モジュール13は、画像内の特定のボックスの中などといった、顔が位置する一般的な領域を検出しうる。
[0034] しかしながら、上述されるように、顔検出は、検出された顔が、生身の人物の顔であるか、あるいは写真からキャプチャされた画像、マスク、顔モジュールまたは顔型、あるいは任意の他の人工の人物の顔のような、人工の顔の複製であるか否かを決定することができないであろう。ブロック22において顔を検出した後、方法20は、ブロック23へと移動し、ここで、顔検証システム1は、検出された顔の肌が生身の人物の肌であることを検証しうる。下記でより詳細に論じられるように、様々な方法が、肌が生身の肌であることを検証するように用いられうる。
[0035] 方法20は次に、検出された顔が生身の人物の顔であるかどうかを決定するための決定ブロック24へと移動する。検出された顔が生身の人物の顔であるかどうかを決定するための様々な方法がある。例えば、図6Fに関して下記で説明されるように、生身および生身でない肌の画素数が計算される。検出された顔内で、生身の肌の画素数が、画素数の特定の閾値を超える場合、検出された顔が生身の人物の顔であると決定されうる。他の実施形態において、各画素について、当該画素が生身の肌画素である確率が計算されうる。生身の肌の画素の数を決定するために、生身でない肌よりも生身の肌である可能性がより高い画素の数が計算されうる。生身でない肌画素(または別の閾値)よりも生身の肌画素がより多くある場合、その顔が生身の人物の顔であると決定されうる。
[0036] 顔が生身の顔であるという決定がなされると、方法20は次にブロック26へと移動し、顔が生身であることをユーザに通知する。顔が生身の顔でないという決定がなされると、方法20は次に、ブロック25へと移動し、ここで、ユーザは、顔が生身の人物の顔でないことを通知される。例えば、ユーザ通知モジュール15は、例えば、ユーザインターフェース6の方法によって、顔が生身でない顔であることをユーザに通知するために実装されうる。下記で説明されるように、画像内の画素のセットに関する画像データが与えられると、顔全体が生身であるか、または生身でないかを決定することができる。例えば、検出された顔は、別の写真の画像等のような、人物の顔の複製の画像でありうる。顔が生身であるか否かを、どのようにシステムが検出するかに関するさらなる詳細が、下記で説明される。
[0037] 図3を参照すると、生身の人物の顔を検証するための方法30の別の実装が開示される。しかしながら、図2とは異なり、方法30においてNIR画像データおよび可視光画像データは、単一のマルチスペクトルセンサを用いた場合とは対照的に、別個でキャプチャされる。方法30が開始しブロック31へと移動し、ここで、分析されるべき顔の可視光画像およびNIR画像が、キャプチャされる。図1に関して上記で説明されるように、別個の可視光およびNIRセンサ(例えば、CCDまたはCMOS)が、人物の顔を含む2つの別個の画像をキャプチャしうる。
[0038] 方法30は次に、ブロック32へと移動し、ここで、人物の顔は、可視光およびNIR画像の両方において検出される。上記のように、任意の適切な顔検出方法が、可視およびNIR画像の両方に関して実装されうる。例えば、オムロン株式会社によって製造されたOKAO Visionセンシング技術は、顔を検出するために、いくつかの実装において使用されうる。方法30は次に、ブロック33へと移動し、ここで、システムは、可視光およびNIR画像の両方において検出された顔の肌が生身の人物の肌であることを検証する。図6A−6Cに関して説明されるように、生身の肌を検証するための様々なシステムおよび方法が、本明細書で提示される。
[0039] 一旦、肌がブロック33で検証されると、方法30は、キャプチャされた顔が生身の顔であるかどうかを決定するための決定ブロック34へと移動する。図2に関して上述されたように、検出された顔が生身の人物の顔であるかどうかを決定するための様々な方法がある。例えば、上記のように、検出された顔内で、生身の肌の画素の数が、、画素数の特定の閾値を超える場合、検出された顔が生身の人物の顔であると決定されうる。図2のように、検出された顔が、ブロック34において決定されたような生身の人物の顔ではない場合、方法30は次に、ブロック35へと移動し、ここで、ユーザは顔が生身でないことを通知される。しかしながら、決定ブロック34において、検出された顔が生身の人物の顔であるという決定がなされた場合、方法30は次に、ブロック36へと移動し、ユーザは、キャプチャされた顔が生身の顔からのものであることを通知されうる。
[0040] 図4は、図3で提示された方法からの実験結果を図示する。ブロック31に関して説明されたように、別個のNIRおよび可視光センサによって、それぞれ、NIR画像41がキャプチャされ、可視(例えば、RGB)画像42がキャプチャされる。代替として、マルチスペクトルセンサが使用されて、画像データは、可視光画像データからNIR画像データを分離するために後処理されうる。別の実装において、フィルタは、所望の波長をフィルタリングするためにセンサによって適用されうる。
[0041] NIRおよび可視画像41、42の両方において、1つの生身の顔46が提示され、また2つの人工の人物の顔45が提示される。人工の人物の顔45は、人物の顔の写真で表されている。例えば、人工の顔は、人物の顔の、カラーまたは白黒の写真プリントによって表わされうる。実際、顔検証システム1は、カラー画像と白黒画像の両方、または表現(representations)において生身の人物の顔を検証することについて効果的でありうる。人物の顔に関する他の人工の表現がありうることが理解されるだろう。従来の顔検出システムは、画像41、42内の3つの人物の顔全てを検出することが可能でありうるが、従来のシステムは、画像41、42内の3つの顔のうちの2つが、生身の人物の顔46ではなく、実際は人工の顔45であることを検出することができないだろう。
[0042] 図4の肌検証画像43は、図3のブロック33の肌検証方法を実行した後の結果を図示しており、それは、図6A−6Cの下記の説明において、さらに詳細に説明されるだろう。肌検証画像43で見られるように、生身の人物の顔46は、生身の顔46と黒の背景との間の高いコントラストで示されるように、肌検証モジュール14によって正確に検証されている。画像43内の生身の顔46の高いコントラストは、画像43内で検出された、比較的多い生身の肌の画素の数を反映する。人工の人物の顔45は、生身の肌画素であると決定される画素がより少ないため、黒の背景と対比してより低いコントラストを有するように図示される。
[0043] 図4の、最後の生身の顔検証画像44において、生身の顔46は、生身の顔46の境界を示しているボックス47の実線で示されるように、正確に検出されている。一方、生身でない顔45の境界となる破線で示される2つのボックス48によって図示されるように、2つの生身でない顔45もまた識別されている。最後の画像44が与えられると、ユーザは、検出された人物の顔が、本当に生身の人物の顔であるかどうか(および、検出された人物の顔のどれが実際の人物の顔であるか)を正確に通知されうる。
[概要−検出された顔が生身の人物の顔であると検証すること]
[0044] 図5は、キャプチャされた人物の顔が生身の人物の顔であるかどうかを決定するための1つの方法50を図示するフローチャートである。方法50は、ブロック51で始まり、ここで、可視画像データおよびNIR画像データは、顔検証システム1によって受信される。いくつかの実装において、通信モジュール10および/またはプロセッサ4は、マルチスペクトルイメージングシステム2からの画像を受信しうる。画像データは、マルチスペクトルイメージングシステム2によってキャプチャされるか、またはデータが外部のイメージングシステムによってキャプチャされ、プロセッサ4および/または通信モジュール10に通信されうる。上述されたように、NIRおよび可視画像データは、単一のセンサによって、または別個の複数のセンサによってキャプチャされうる。
[0045] 可視およびNIR画像データがブロック51において受信された後、方法50は、人物の顔を検出するために、可視およびNIR画像データを処理するために、ブロック52へと移動する。例えば、顔検出モジュール13は、図1−3に関して上記で説明されたように、いずれかの適切な顔検出方法を使用して、画像内の人物の顔を検出しうる。方法50は次に、ブロック53へと移動し、ここで、可視画像データおよびNIR画像データは、検出された人物の顔が生身の人物の顔であるかどうかを決定するために関連付けられる。可視画像データとNIR画像データとの関連付けは、単バッチのマルチスペクトル画像データ(single batch of multispectral image data)、または別個の可視およびNIR画像に対して適用されうる。方法50は次に、検出された顔が人工の顔を表すかどうかを決定するために、決定ブロック54へと移動する。検出された顔が生身の人物の顔ではないという決定がなされると、方法50は次にブロック55へと移動し、その顔が生身でない顔であることをユーザに通知する。しかしながら、検出された顔が生身の顔であるという決定がなされる場合、方法50は次にブロック56へと移動し、検出された顔が生身の人物からのものであることをユーザに通知する。
[生身および生身でない肌画素を識別すること]
[0046] 図6A−6Cは、マルチスペクトル画像データにおいて、検出された人物の顔の、生身および生身でない肌画素を識別するための様々な実装を図示するフローチャートである。いくつかの実装において、検出された顔が生身の人物の顔であるかどうかの決定に関してユーザが通知される前に、肌検証モジュール14は、1画素単位に、どの画素が生身の人物の肌を表し、どの画素が生身でない人物の肌を表すか、を決定できる。
[0047] 図6Aは、画像内の特定の画素iが、生身の人物の肌を表すか、または生身でない人物の肌を表すかを決定するための方法60のフローチャートである。図示された方法60は、ブロック61で始まり、ここで、第1の反射率差ν、および第2の反射率差νは、NIRおよび可視画像データの両方に関連付けられた特定の画素iについて計算される。第1の反射率差ν、および第2の反射率差νは、可視およびNIRスペクトルの両方において、人物の肌の反射率値に部分的に基づきうる。ある実装に従って、第1および第2の反射率差は、
によって決定されることができ、ここで、ρは、キャプチャされた肌(生身であるか、または生身でないか)の画素iについて、NIR波長(λNIR)、緑色波長(λ)、および赤色波長(λ)それぞれにおける反射率値を表す。いくつかの実装において、反射率値ρは、特定のマテリアルの表面および反射率Rに影響を与える照明(illumination)Lに基づいてモデル化されうる。この場合、肌についての反射率Rは、可視スペクトル内よりも、NIRスペクトル内でより強く(また、緑色波長帯よりも特に強く)なりうる。NIRと緑色波長との間の反射率における相違のために、緑色画像データは、いくつかの実装において、反射率差を計算するのに使用されうる。しかしながら、νおよびνの計算は、示された複数の波長における検出された強度間の差に比例するため、実際のところ、各波長に対する生の画素値は、反射率差νおよびνを計算する際に、各画素iに対して使用されうることに留意されたい。よって、反射率差νおよびνは、一般に、NIRと緑色波長とについて、および緑色と赤色波長とについて、イメージングされた肌の検出された強度間の差にそれぞれ比例しうる。
[0048] νとνについての上記関係で示されるように、第1の反射率差νは、NIR画像データの一部分における反射率値(または生の画素データ)ρ(λNIR)と、可視光画像データの対応する一部分における緑色データの反射率値(または生の画素データ)ρ(λ)との間の差に基づいて決定されうる。いくつかの実装において、NIR画像データの一部分は、特定の画素または画素のグループであり、また可視光画像データの対応する一部分は、可視光画像データの対応する画素または画素のグループである。第2の反射率差は、可視光画像データの、緑色データの反射率値(または生の画素データ)と、対応する一部分(例えば、画素または画素のグループ)における赤色データの反射率値(または生の画素データ)との間の差でありうる。推測に制限されることなく、上記で説明されたように、NIRデータと緑色データとの間のコントラストが、NIRデータと他の色(例えば、青または赤)との間よりも大きくなり得るため、緑色画像データが反射率値および/または反射率差を計算するように使用されうる。もちろん、他の色についての反射率値も比較されうる。例えば、赤色および青色の反射率値、または、緑色および青色の反射率値は、いくつかの実装において、νおよびνを計算するために比較されうる。
[0049] 特定の画素についての第1および第2の反射率差を計算した後、方法60は、図6Aのブロック62へと移動し、ここで、第1および第2の反射率差νおよびνは、第1および第2の正規化された反射率差rおよびrを取得するために正規化され、rおよびrは、それぞれ、
によって与えられる。反射率差を正規化する他の方法が可能である。いくつかの実装において、正規化が行われる必要はなく、代わりに、生の画素値が正規化することなく使用されうる。
[0050] 正規化の後、方法60は、決定論的方法が使用されるべきかどうかを決定するための決定ブロック63へと進む。いくつかの実装において、肌検証モジュール14は、検出される肌を分析するための方法を選択しうる。例えば、決定論的方法を選択する決定がなされる場合、方法60は次に、決定論的方法を行うためのブロック64へと移動する。決定論的方法を選択しない決定がなされる場合、方法60は次に、確率論的方法を行うために、ブロック70へと移動する。確率論的方法は、図6Aに図示されるが、他の方法が、検出された肌を分析するのに使用されうることが理解されるだろう。
[決定論的方法]
[0051] 図6Bは、決定論的方法64の一実装を図示するフローチャートである。方法64は、ブロック65で始まり、ここで、第1の閾値tn1、第2の閾値tn2、第3の閾値tr1、および第4の閾値tr2が設定されるか、そうでなければ決定される。いくつかの実装において、閾値は、最良の結果を取得するために、経験的方法を実験的に使用して決定されうる。他の実装において、閾値は、生身のおよび生身でない人物の肌についての理論上の反射率値に基づいて推定されうる。さらに別の実装において、閾値は、画像および/またはイメージングデバイスあるいはシステムの性質に基づいて、リアルタイムで決定されうる。
[0052] ブロック65において、閾値を設定した後、方法64は決定ブロック66へと進み、第1および第2の閾値と、第1の正規化された反射率差とを比較する。第1の反射率差が、第1の閾値以下であり、第2の閾値より小さいという決定がなされる場合、処理は次にブロック68へと進み、生身でない肌画素をユーザに返す。第1の正規化された反射率差rが、第1の閾値tn1より大きいが、第2の閾値tn2より小さいという決定がなされる場合、処理は次に別の決定ブロック67へと進み、第3および第4の閾値を、第2の正規化された反射率差と比較する。
[0053] ブロック67へ戻り、第2の正規化された反射率差rが第3の閾値trより大きいが、第4の閾値tr2より小さいという決定がなされる場合、方法64は次にブロック69へと進み、生身の肌画素を返す。第2の正規化された反射率差が、第3の閾値以下であり、第4の閾値より小さいという決定がなされる場合、方法64は次にブロック68へと移動し、生身でない肌画素を返す。
[0054] よって、図6Bで開示されたように、生身の肌画素を識別するために、正規化された反射率差は、
の両方を満たす。
[0055] 他の実装において、閾値の1つのセットは、他のものよりもより大きく重みづけされうる。例えば、ある実装において、閾値の不等式のうちの1つのみ(例えば、決定ブロック66および67のうちの1つのみ)が満たされる場合であっても、方法は次に、ブロック69において生身の肌画素を戻すことができる。決定論的方法において実装される閾値は、様々な閾値が様々な照明条件下で適用される、あらかじめ校正された(pre-calibrated)実験的データに基づきうる。そのため、顔検証システム1は、特定の画素が、生身の人物の肌を表すか、生身でない人物の肌を表すかを決定する際、NIRおよび可視画像データによって提供される豊富な情報を利用しうる。実際、上記の図4で提示される実験的結果は、図6A-6Bで開示された決定論的方法の例示的な実装を図示する。
[確率論的方法]
[0056] 図6Cを参照すると、確率論的方法70の例示的な実装が図示される。一般に、確率論的方法は、多数のサンプルにわたって既知の生身の肌をキャプチャした画像データに少なくとも部分的に基づいて、所与の画素が、生身の人物の肌を表示する可能性を推定しうる。例えば、1つまたは複数の既知の生身の人物の顔は、様々な照明条件においてイメージングされ、既知の生身の肌領域についての反射率値および/または生の画素データが記憶されうる。同様に、写真などの既知の人工の肌は、多数のサンプルにわたって同様の照明条件でイメージングされ、反射率値および/または生の画素データが記憶されうる。顔検証システム1は、この記憶されたライブラリの既知の生身および生身でない肌画像データを使用して、画像内のいずれかの所与の画素が、生身または生身でない肌を表示する確率を推定する。
[0057] 図6Cに図示された方法70は、ブロック71で始まり、ここで、第1および第2の正規化された反射率差rおよびrのそれぞれについての確率密度関数(PDF)は、生身の人の肌について取得される。PDFは、様々なあらかじめ定められた照明(lighting)条件下で実験的データに基づいて計算されうる。例えば、多くのサンプルのデータが、異なるタイプの生身の肌に基づいて収集されることができ、各サンプルは、暗い場所から明るい場所にわたる異なる照明条件下でイメージングされる。十分に多くの数の画像および/または画素がマルチスペクトルイメージングシステム2によってキャプチャされ、それは、システムがオフラインである間、例えば生身の顔を検証するのに用いられない間、に行われうる。
[0058] 仮に、(r1,1、r1,2、...r1,M)が、M個の生身の肌画素から導出または計算される、r(例えば、第1の正規化された反射率差)のセットを示すとする。多くの異なる画像が、M個の画素のセットを取得するためにキャプチャされうる。rについてのPDFを計算するために生身の被写体(subject)が意図的にイメージングされるから、M個の生身の肌画素は、生身の肌を表すということが既知である。この既知の生身の肌画像データのセットは次に、任意の所与の画素が生身の肌を表す確率を推定するのに使用されうる。M個の生身の画素のセットが与えられると、生身の肌画素(上付き文字のTで表される)についてのPDF、f(r)は、
によって導出されることができ、ここで、K(.)は、1に統合する対称関数(symmetric function that integrates to one)であるカーネルであり、hは、正のスムージングパラメータ(positive smoothing parameter)である。任意の適切なカーネルK(.)が使用されうる。いくつかの実装において、例えば、通常の分布が想定されると、ガウスカーネル(Gaussian kernel)が実装されうる。ガウスカーネルの場合、hに対する最適な選択は、
によって求められることができ、ここで、σは、標準偏差である。
[0059] 同様に、生身の肌についてのrのPDFは、
によって求められうる。
[0060] 生身の肌についての第1および第2の正規化された反射率差のPDFを取得した後、方法70は、ブロック72へと移動し、ここで、生身でない肌(上付き文字のFで表される)について、正規化された反射率差rおよびrのPDF、f(r)およびf(r)は、生身でない肌の実験的画像データを使用して、同様に取得される。例えば、偽の肌を表す画素のサンプルは、人物の顔の写真または模型(modsel)の1つまたは複数の画像を使用して取得されて、PDFを取得する。
[0061] 図6Dは、生身の肌画素および生身でない肌画素に関する様々な照明(lighting)条件下のrについてのPDFのグラフである。図6Eは、生身の肌画素および生身でない肌画素のための様々な照明条件下のrについてのPDFのグラフである。生身および生身でない両方の肌画素に関する正規化された反射率値の取得されたPDFは、いくつかの実装において、肌検証モジュール14で簡単にアクセスするために、ルックアップテーブル(LUT)として保存されうる。他の実装において、PDFは、パラメータ化関数として推定されうる。
[0062] 上記の関係を考慮すると、画素jは、生身の肌画素であることが既知である場合、次に、rおよびrの確率は、それぞれ、
である。その代りに、画素jが生身でない肌画素であることが既知である場合、rおよびrの確率を決定するために、同様の計算が行われうる。
[0063] 方法70は次に、ブロック73へと移動し、ここで、特定の画素が生身の肌画素である確率が計算される。正規化された反射率差についてのPDFが、特定のデバイスまたはデバイスのタイプについて(また潜在的に特定の照明条件下において)一旦取得されると、この情報は、任意の特定の画素が任意の後続の画像内の生身の肌を含む確率を推定するために、(1つまたは複数の)デバイス上で将来キャプチャされる画像で使用され得る。よって、上記取得されたPDFは、いくつかの実装においてオフラインで取得されることができ、特定の画素が生身の肌画素であるか、または生身でない肌画素であるかを、リアルタイムで決定するために、オンラインモードで使用されうる。
[0064] 例えば、任意の画素iが生身の肌画素である確率は、
によって計算されうる。ベイジアンルール(Bayesian rule)によると、
である。rおよびrが独立変数であると仮定すると、その場合は、
である。さらに、画素iが生身かまたは生身でないかという事前知識がない場合には、任意の特定の画素iが生身の肌画素である確率は、
によって推定されうる。
[0065] 方法70は、特定の画素が生身でない肌画素である確率を同様に計算するために、ブロック74へと移動しうる。画素iが生身でない肌画素である確率は、
によって決定されうる。p およびp についての2つの式は比例の観点から表されているが、それらの確率についての相対的な値は、画素iが生身の肌画素または生身でない肌画素であるか否かを決定するのに使用されうる。
[0066] 画素が生身または生身でない肌画素である確率を計算した後、方法70は決定ブロック75へと進み、画素が生身の肌を表示する確率と、画素が生身でない肌を表示する確率とを比較する。画素が生身の肌である確率が、画素が生身でない肌である確率よりも大きいという決定がなされる場合、方法70は次にブロック77へと移動し、画素が生身の肌画素であることを表示する。一方、画素が生身でない肌である確率が、画素が生身の肌である確率よりも大きいという決定がなされる場合、方法70は次にブロック76へと移動し、画素が生身でない肌画素であることを表示する。よって、
である場合、特定の画素iは、生身の肌画素として識別されうる。
[0067] 画素が生身または生身でない肌である確率を推定するための他の方法が可能である。例えば、様々な実装において、確率閾値は、画素が生身または生身でない肌画素であるか否かを決定するために用いられうる。さらに、上記の決定論的および確率論的方法が画素ベースで実装されうる一方、顔の肌が、スムーズな色応答(smooth color response)を有しうるため、可視およびNIR画像、および/または画像データの正確な位置合わせ(alignment)は、要求されない。従って、可視およびNIRの顔の画像が、顔検出に基づいて大まかな位置合わせだけが行われる場合、上記方法が効果的でありうる。
[生身の人物の顔を識別すること]
[0068] 図6A−6Cの実装は、生身または生身でない肌画素を識別するのに使用されうる。いくつかの実装において、この情報は、ディスプレイ上でユーザに提示されることができ(例えば、図4参照)、また検出された顔が生身の人物の顔であるか否かを、ユーザが可視的に決定するのに十分でありうる。しかしながら、他の実装において、検出された顔が生身の顔であるかどうかを決定するために識別された画素を分析するため、さらなる処理が行われうる。
[0069] 図6Fにおいて、生身の人物の顔を識別するための1つの方法80が開示される。方法80は、ブロック81で始まり、ここで、検出された顔内の生身の画素の数Nが計算される。生身の肌の画素の数を計算すると、方法80は、決定ブロック83へと進む。生身の画素数Nが画素数の閾値Tを超えるという決定がなされる場合、方法80はブロック85へと移動し、検出された顔が生身の顔であることをユーザに通知する。NがTよりも小さいという決定がなされる場合、方法80は次にブロック84へと移動し、検出された顔が生身でない人物の顔であることをユーザに通知する。様々な閾値Tが使用されうる。いくつかの実装において、Tは、検出された顔内の画素について、例えば約50%以上といったような特定の割合でありうる。様々な実装において、閾値Tは、約50%、60%、70%、80%、90%、または任意の他の適切な画素の割合の閾値でありうる。他の実装において、様々な他の閾値が使用されうる。例えば、検出された顔の範囲内の生身でない肌の画素数Nが計算されうる。N>Nである場合、ユーザは次に、検出された顔が生身の顔であることを通知されうる。そうでなければ、ユーザは、検出された顔が生身でない顔であることを通知されうる。
[0070] 図7Aは、生身でない顔が検出される場合の、ユーザインターフェース6の例示的な実装を示す。図7Aにおいて、例えば、人物の顔の人工の模型(例えばマネキン)は、別個のNIR(左図)および可視光(右図)センサを使用してイメージングされる。左図および右図上のボックスは、顔検出モジュール13によって検出された顔を示すのに使用されうる。生身の肌画素を識別した後、図7のユーザインターフェース6は、生身でない肌画素であるよりも高い生身の肌画素である確率を有する画素が36%のみしかなく、生身の肌画素であるよりも高い生身でない肌画素である確率を有する画素が64%あることを示している。示された実装について、生身でない肌画素よりも、生身の肌画素がより少ない(例えば、生身の肌の画素の数が、検出された顔内の全体の画素の50%より少ない)ため、ユーザ通知モジュール15は、検出された顔が生身の人物の顔ではないことを、ユーザインターフェース6を介してユーザに通知しうる(ディスプレイの中心にある「×」によって示される)。
[0071] 一方、図7Bは、生身の顔が検出される場合の、ユーザインターフェース6の例示的な実装を示す。しかしながら、図7Bにおいて、81%の画素が、生身でない肌画素であるよりも高い生身の肌画素である確率を有している。従って、ユーザ通知モジュール15は、検出された顔が生身の人物の顔であることをユーザに通知しうる(図7B内のディスプレイの中心に、チェックマークによって示される)。
[その他の実装]
[0072] 顔検出モジュールシステム1の他の実装が可能である。1つの方法90が、図8Aに示される。図8Aに示されるように、方法90は、NIR画像および可視画像をキャプチャするためのブロック91で始まる。上記のように、一旦NIRおよび可視画像がキャプチャされると、方法90は、ブロック92へと移動し、ここで、人物の顔は、NIR画像および可視画像内で検出される。方法90は次にブロック93へと移動し、任意の適切な方法を使用して、顔についての検出された形状(geometry)を検証する。顔の形状を検証した後、方法90は、ブロック94へと進み、ここで、検出された顔は次に、バイオメトリック検証される(biometrically verified)。生身および生身でない肌の画像データが、本明細書において開示される様々な実装において使用されているが、顔が生身の顔であることを確認するために、様々な他の方法が行われうることが理解されるだろう。例えば、虹彩認証または網膜スキャンが、いくつかの実装において使用されうる。他の実装において、肌の下にある、人(subject)の血管および動脈は、検出された顔が生身の顔であるどうかを決定するためにイメージングされうる。追加として、既知の顔の動きまたはチック(tics)は、いくつかの実装においてイメージングされうる。さらに別の実装において、熱シグネチャ(heat signature)は、バイオメトリック検証方法として使用されうる。上記のように、方法90は決定ブロック95へと進み、検出された顔が生身の人物の顔であるかどうかを決定する。決定された顔が生身の顔であるという決定がなされると、方法90は次にブロック96へと移動し、ユーザに検出された生身の顔を通知する。そうでなく、検出された顔が生身の顔ではないという決定がなされると、方法90は次にブロック97へと移動し、顔が生身でない顔であることをユーザに通知する。
[0073] 図8Bを参照すると、生身の顔を検証するための別の方法100が開示される。方法100は、NIRおよび可視画像をキャプチャするためのブロック101で始まる。画像をキャプチャした後、方法100は、ブロック102へと進み、ここで、NIRおよび可視画像データは、任意の既知の融合アルゴリズム(fusing algorithm)を使用して、互いに融合される。上記のように、方法100はブロック103へと移動して、融合された画像内の人物の顔を検出する。図8Aに関して説明されたように、示された方法100はブロック104へと進み、融合された画像中の検出された人物の顔に対し、1つまたは複数のバイオメトリック検証処理を行う。方法100は次に、決定ブロック105へと移動する。検出された顔が生身の顔であるという決定がなされると、方法100は次にブロック107へと移動し、顔が生身であることをユーザに通知する。そうではなく、検出された顔が生身でない顔であるという決定がなされると、方法100は次にブロック106へと進み、顔が生身ではないことをユーザに通知する。
[用語に関する説明]
[0074] 当業者であれば、本明細書で開示された実装に関連して説明された様々な例示的な論理ブロック、モジュール、回路、および処理ステップは、電子ハードウェア、コンピュータソフトウェア、または両方の組み合せとして実装されうることをさらに理解するだろう。ハードウェアおよびソフトウェアのこの互換性を明確に例示するために、様々な例示的なコンポーネント、ブロック、モジュール、回路、およびステップが、一般に、それらの機能性に関して上述されている。このような機能性がハードウェアまたはソフトウェアとして実装されるかどうかは、全体システムに課せられた設計の制約と特定のアプリケーションに依存する。当業者は、特定のアプリケーションごとに、様々な方法で開示された機能性を実装しうるが、このような実装の決定は、本発明の範囲からの逸脱を引き起こすものとして解釈されるべきではない。当業者であれば、ある部分、または一部分が、全体よりも少ないもの、または全体に等しいものを備えうることを理解するだろう。例えば、画素のコレクションの一部分は、それら画素のサブコレクション(sub-collection)を指しうる。
[0075] 本明細書で開示された実装に関連して説明された様々な例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタ論理、ディスクリートハードウェアコンポーネント、あるいは本明細書に説明された機能を実行するように設計されるこれらの任意の組み合わせで、実装または実行されうる。汎用プロセッサは、マイクロプロセッサでありうるが、代替において、このプロセッサは、任意の従来型のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシン(state machine)でありうる。プロセッサはまた、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと結合された1つまたは複数のマイクロプロセッサ、あるいは任意の他のこのような構成のような、コンピューティングデバイスの組み合わせとして実装されうる。
[0076] 本明細書に開示された実装に関連して説明された方法または処理のステップは、直接ハードウェアにおいて、プロセッサによって実行されるソフトウェアモジュールにおいて、またはこれら2つの組み合わせにおいて、具現化されうる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバルディスク、CD−ROM、または当該技術分野において周知の任意の他の形状の非一時的な記憶媒体内に存在しうる。例示的なコンピュータ読み取り可能な記憶媒体は、プロセッサがコンピュータ読み取り可能な記憶媒体から情報を読み取り、またそれに情報を書き込むことができるように、プロセッサに結合される。代替において、記憶媒体は、プロセッサと一体化されうる。プロセッサおよび記憶媒体は、ASICに存在しうる。ASICは、ユーザ端末、カメラ、または他のデバイス内に存在しうる。代替において、プロセッサおよび記憶媒体は、ユーザ端末、カメラ、または他のデバイス内のディスクリートコンポーネントとして存在しうる。
[0077] 見出しは、参照のためおよび様々なセクションの位置付けを支援するために、本明細書に含まれる。これらの見出しは、これらに関して説明された概念の範囲を制限するようには意図されない。このような概念は、明細書全体にわたって適用性を有しうる。
[0078] 開示された実装の上記説明は、いかなる当業者であっても、本発明を製造または使用できるように提供される。これらの実装への様々な修正は、当業者に対して容易に明らかになり、本明細書に定義された一般的な原理は、本発明の精神または範囲から逸脱することなく、他の実装にも適用されうる。よって、本発明は、本明細書に示された実装に制限されることを意図しないが、本明細書に開示された原理および新規の特徴と一致する最も広い範囲が与えられるべきである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
画像中の生身の人物の顔を検出するための方法であって、
人物の顔を含むマルチスペクトル画像データを受信することと、ここで、前記マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備え、
前記人物の顔を検出するために、前記マルチスペクトル画像データを処理することと、
前記検出された人物の顔が生身の人物の顔であるかどうかを決定するために、前記可視光画像データ内の前記検出された人物の顔と前記NIR画像データ内の前記検出された人物の顔とを関連付けることと、
を備える、方法。
[C2]
前記可視光画像データ内の検出された前記顔と、前記NIR画像データ内の検出された前記顔との間の前記関連付けは、第1の反射率差と第2の反射率差とに少なくとも部分的に基づき、前記第1の反射率差は、前記NIR画像データの一部分における反射率値と前記可視光画像データの対応する一部分における第1の色の反射率値との間の差であり、前記第2の反射率差は、前記第1の色の前記反射率値と前記可視光画像データの前記対応する一部分における第2の色の反射率値との間の差である、C1に記載の方法。
[C3]
前記可視光画像データ内のキャプチャされた前記検出された人物の顔と、前記NIR画像データ内のキャプチャされた前記検出された人物の顔とを関連付けることは、
第1の正規化された反射率差を取得するために前記第1の反射率差を正規化することと、
第2の正規化された反射率差を取得するために前記第2の反射率差を正規化することと、
を備える、C2に記載の方法。
[C4]
前記可視光画像データ内のキャプチャされた前記検出された人物の顔と、前記NIR画像データ内のキャプチャされた前記検出された人物の顔とを関連付けることは、
前記第1の正規化された反射率差を第1の閾値および第2の閾値と比較することと、
前記第2の正規化された反射率差を第3の閾値および第4の閾値と比較することと、
をさらに備える、C3に記載の方法。
[C5]
前記第1の正規化された反射率差が、前記第1の閾値より大きく前記第2の閾値より小さいかどうかに少なくとも部分的に基づいて、および前記第2の正規化された反射率差が、前記第3の閾値より大きく前記第4の閾値より小さいかどうかに少なくとも部分的に基づいて、前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表す画像データを含むかどうかを決定することをさらに備える、C4に記載の方法。
[C6]
生身の人物の肌を表す画像データを含む、前記検出された顔内の画素数に少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定することをさらに備える、C5に記載の方法。
[C7]
前記第1の色は、実質的に緑色であり、前記第2の色は、実質的に赤色である、C3に記載の方法。
[C8]
前記第1の正規化された反射率差の第1の確率密度関数、および前記第2の正規化された反射率差の第2の確率密度関数を取得することをさらに備え、ここで、前記第1および第2の確率密度関数は、生身の人物の肌の画像データに少なくとも部分的に基づく、C3に記載の方法。
[C9]
前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表す画像データを含む第1の確率を計算することをさらに備え、
ここで、前記第1の確率は、前記第1の確率密度関数および前記第2の確率密度関数に少なくとも部分的に基づく、C8に記載の方法。
[C10]
前記第1の正規化された反射率差の第3の確率密度関数、および前記第2の正規化された反射率差の第4の確率密度関数を取得することと、ここで、前記第3および第4の確率密度関数は、生身の人物の肌を表さない画像データに少なくとも部分的に基づき、
前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表さない画像データを含む第2の確率を計算することと、
をさらに備え、
前記第2の確率は、前記第3の確率密度関数および前記第4の確率密度関数に少なくとも部分的に基づく、C9に記載の方法。
[C11]
前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表す画像データを含むかどうかを決定するために、前記第1の確率および前記第2の確率を比較することをさらに備える、C10に記載の方法。
[C12]
生身の人物の肌を表す画像データを含む前記検出された顔内の画素数に少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定することをさらに備える、C11に記載の方法。
[C13]
イメージング装置を用いてマルチスペクトル画像データをキャプチャすることをさらに備える、C1に記載の方法。
[C14]
マルチスペクトル画像データをキャプチャすることは、可視光画像およびNIR画像をキャプチャすることを備える、C13に記載の方法。
[C15]
前記マルチスペクトル画像データを処理することは、
前記人物の顔を検出するために、前記可視光画像を処理することと、
前記人物の顔を検出するために前記NIR画像を処理することと、
を備える、C14に記載の方法。
[C16]
画像中の生身の人物の顔を検出するためのイメージングシステムであって、前記システムは、
可視光画像データおよび近赤外線(NIR)画像データを備えるマルチスペクトル画像データをキャプチャするように構成された少なくとも1つの画像センサと、ここで、前記マルチスペクトル画像データは、人物の顔を含み、
前記人物の顔を検出するために前記マルチスペクトル画像データを分析するように構成された顔検出モジュールと、
前記検出された顔の前記マルチスペクトル画像データを分析し、前記検出された人物の顔が生身の人物の顔であるかどうかを決定するように構成された肌検証モジュールと
を備える、イメージングシステム。
[C17]
前記少なくとも1つの画像センサは、NIRイメージングセンサおよび可視光センサを備える、C16に記載のイメージングシステム。
[C18]
前記肌検証モジュールは、前記検出された人物の顔が前記キャプチャされたマルチスペクトル画像データの第1の反射率差および第2の反射率差に少なくとも部分的に基づいて、生身の人物の顔であるかどうかを決定するように構成される、C16に記載のイメージングシステム。
[C19]
前記肌検証モジュールは、
第1の正規化された反射率差を取得するために前記第1の反射率差を正規化し、
第2の正規化された反射率差を取得するために前記第2の反射率差を正規化する
ようにさらに構成される、C18に記載のイメージングシステム。
[C20]
前記肌検証モジュールは、
前記第1の正規化された反射率差を第1の閾値および第2の閾値と比較し、
前記第2の正規化された反射率差を第3の閾値および第4の閾値と比較する
ようにさらに構成される、C19に記載のイメージングシステム。
[C21]
前記肌検証モジュールは、前記第1の正規化された反射率差が、前記第1の閾値より大きく前記第2の閾値より小さいかどうかに少なくとも部分的に基づいて、および前記第2の正規化された反射率差が、前記第3の閾値より大きく前記第4の閾値より小さいかどうかに少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定するようにさらに構成される、C20に記載のイメージングシステム。
[C22]
前記肌検証モジュールは、生身の人物の肌を表す画像データを含む、前記検出された顔内の画素数に少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定するようにさらに構成される、C21に記載のイメージングシステム。
[C23]
前記肌検証モジュールは、前記第1の正規化された反射率差の第1の確率密度関数、および前記第2の正規化された反射率差の第2の確率密度関数を取得するようにさらに構成され、前記第1および第2の確率密度関数は、生身の人物の肌の画像データに少なくとも部分的に基づく、C19に記載のイメージングシステム。
[C24]
前記肌検証モジュールは、
前記NIR画像データの一部分および前記可視光画像データの対応する一部分が、生身の人物の肌を表す画像データを含む第1の確率を計算する
ようにさらに構成され、
前記第1の確率は、前記第1の確率密度関数および前記第2の確率密度関数に少なくとも部分的に基づく、
C23に記載のイメージングシステム。
[C25]
前記肌検証モジュールは、
前記第1の正規化された反射率差の第3の確率密度関数、および前記第2の正規化された反射率差の第4の確率密度関数を取得し、ここで、前記第3および第4の確率密度関数は、生身の人物の肌を表さない画像データに少なくとも部分的に基づき、
前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表さない画像データを含む第2の確率を計算する
ようにさらに構成され、
前記第2の確率は、前記第3の確率密度関数および前記第4の確率密度関数に少なくとも部分的に基づく、
C24に記載のイメージングシステム。
[C26]
マルチスペクトル画像データを受信するように構成された通信モジュールをさらに備える、C16に記載のイメージングシステム。
[C27]
前記検出された顔が、生身の人物の顔であるか否かをユーザに通知するように構成されたユーザ通知モジュールをさらに備える、C16に記載のイメージングシステム。
[C28]
コンピュータ読み取り可能な命令および画像データのうちの少なくとも1つを記憶するように構成されたメモリをさらに備える、C16に記載のイメージングシステム。
[C29]
イメージングシステムであって、
人物の顔を含むマルチスペクトル画像データを受信するための手段と、ここで、前記マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備え、
前記人物の顔を検出するために、前記マルチスペクトル画像データを処理するための手段と、
前記検出された人物の顔が生身の人物の顔であるかどうかを決定するために、前記可視光画像データ内の前記検出された人物の顔と前記NIR画像データ内の前記検出された人物の顔とを関連付けるための手段と、
を備える、イメージングシステム。
[C30]
マルチスペクトル画像データを受信するための前記手段は、通信モジュールを備える、C29に記載のイメージングシステム。
[C31]
前記マルチスペクトル画像データを処理するための前記手段は、顔検出モジュールを備える、C29に記載のイメージングシステム。
[C32]
前記可視光画像データ内の前記検出された人物の顔と前記NIR画像データ内の前記検出された人物の顔とを関連付けるための前記手段は、肌検証モジュールを備える、C29に記載のイメージングシステム。
[C33]
マルチスペクトル画像データをキャプチャするための手段をさらに備える、C29に記載のイメージングシステム。
[C34]
マルチスペクトル画像データをキャプチャするための前記手段は、NIRイメージングセンサおよび可視光センサを備える、C33に記載のイメージングシステム。
[C35]
コードを記憶した非一時的コンピュータ読み取り可能な媒体であって、前記コードは、実行されると、
人物の顔を含むマルチスペクトル画像データを受信することと、ここで、前記マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備え、
前記人物の顔を検出するために、前記マルチスペクトル画像データを処理することと、
前記検出された人物の顔が生身の人物の顔であるかどうかを決定するために、前記可視光画像データ内の前記検出された人物の顔と前記NIR画像データ内の前記検出された人物の顔とを関連付けることと、
を備える方法を実行する、非一時的コンピュータ読み取り可能な媒体。

Claims (34)

  1. 画像中の生身の人物の顔を検出するための方法であって、
    人物の顔を含むマルチスペクトル画像データを受信することと、ここで、前記マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備え、
    前記人物の顔を検出するために、前記マルチスペクトル画像データを処理することと、
    前記可視光画像データ内の前記検出された人物の顔と前記NIR画像データ内の前記検出された人物の顔とを関連付けることと、
    前記可視光画像データおよび前記NIR画像データ内の人物の肌の反射率の差に少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定することと、
    を備え、
    前記検出された人物の顔が生身の人物の顔であるかどうかの前記決定は、前記可視光画像データおよび前記NIR画像データ内の人物の肌の第1の反射率差と第2の反射率差とに少なくとも部分的に基づく
    方法。
  2. 前記第1の反射率差は、前記NIR画像データの一部分における反射率値と前記可視光画像データの対応する一部分における第1の色の反射率値との間の差であり、前記第2の反射率差は、前記第1の色の前記反射率値と前記可視光画像データの前記対応する一部分における第2の色の反射率値との間の差である、請求項1に記載の方法。
  3. 前記検出された人物の顔が生身の人物の顔であるかどうかを決定することは、
    第1の正規化された反射率差を取得するために前記第1の反射率差を正規化することと、
    第2の正規化された反射率差を取得するために前記第2の反射率差を正規化することと、
    を備える、請求項2に記載の方法。
  4. 前記検出された人物の顔が生身の人物の顔であるかどうかを決定することは、
    前記第1の正規化された反射率差を第1の閾値および第2の閾値と比較することと、
    前記第2の正規化された反射率差を第3の閾値および第4の閾値と比較することと、
    をさらに備える、請求項3に記載の方法。
  5. 前記検出された人物の顔が生身の人物の顔であるかどうかを決定することは、前記第1の正規化された反射率差が、前記第1の閾値より大きく前記第2の閾値より小さいかどうかに少なくとも部分的に基づいて、および前記第2の正規化された反射率差が、前記第3の閾値より大きく前記第4の閾値より小さいかどうかに少なくとも部分的に基づいて、前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表す画像データを含むかどうかを決定することを備える、請求項4に記載の方法。
  6. 前記検出された人物の顔が生身の人物の顔であるかどうかを決定することは、生身の人物の肌を表す画像データを含む、前記検出された顔内の画素数に少なくとも部分的に基づく、請求項5に記載の方法。
  7. 前記第1の色は、実質的に緑色であり、前記第2の色は、実質的に赤色である、請求項3に記載の方法。
  8. 前記第1の正規化された反射率差の第1の確率密度関数、および前記第2の正規化された反射率差の第2の確率密度関数を取得することをさらに備え、ここで、前記第1および第2の確率密度関数は、生身の人物の肌の画像データに少なくとも部分的に基づく、請求項3に記載の方法。
  9. 前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表す画像データを含む第1の確率を計算することをさらに備え、
    ここで、前記第1の確率は、前記第1の確率密度関数および前記第2の確率密度関数に少なくとも部分的に基づく、請求項8に記載の方法。
  10. 前記第1の正規化された反射率差の第3の確率密度関数、および前記第2の正規化された反射率差の第4の確率密度関数を取得することと、ここで、前記第3および第4の確率密度関数は、生身の人物の肌を表さない画像データに少なくとも部分的に基づき、
    前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表さない画像データを含む第2の確率を計算することと、
    をさらに備え、
    ここで、前記第2の確率は、前記第3の確率密度関数および前記第4の確率密度関数に少なくとも部分的に基づく、請求項9に記載の方法。
  11. 前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表す画像データを含むかどうかを決定するために、前記第1の確率および前記第2の確率を比較することをさらに備える、請求項10に記載の方法。
  12. 前記検出された人物の顔が生身の人物の顔であるかどうかを決定することは、生身の人物の肌を表す画像データを含む前記検出された顔内の画素数に少なくとも部分的に基づく、請求項11に記載の方法。
  13. イメージング装置を用いてマルチスペクトル画像データをキャプチャすることをさらに備える、請求項1に記載の方法。
  14. マルチスペクトル画像データをキャプチャすることは、可視光画像およびNIR画像をキャプチャすることを備える、請求項13に記載の方法。
  15. 前記マルチスペクトル画像データを処理することは、
    前記人物の顔を検出するために、前記可視光画像を処理することと、
    前記人物の顔を検出するために前記NIR画像を処理することと、
    を備える、請求項14に記載の方法。
  16. 画像中の生身の人物の顔を検出するためのイメージングシステムであって、前記システムは、
    可視光画像データおよび近赤外線(NIR)画像データを備えるマルチスペクトル画像データをキャプチャするように構成された少なくとも1つの画像センサと、ここで、前記マルチスペクトル画像データは、人物の顔を含み、
    前記人物の顔を検出するために前記マルチスペクトル画像データを分析するように構成された顔検出モジュールと、
    前記検出された顔の前記マルチスペクトル画像データを分析し、前記可視光画像データおよび前記NIR画像データ内の人物の肌の反射率の差に少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定するように構成された肌検証モジュールと
    を備え、
    前記肌検証モジュールは、前記検出された人物の顔が、前記キャプチャされたマルチスペクトル画像データの第1の反射率差および第2の反射率差に少なくとも部分的に基づいて、生身の人物の顔であるかどうかを決定するように構成される、イメージングシステム。
  17. 前記少なくとも1つの画像センサは、NIRイメージングセンサおよび可視光センサを備える、請求項16に記載のイメージングシステム。
  18. 前記肌検証モジュールは、
    第1の正規化された反射率差を取得するために前記第1の反射率差を正規化し、
    第2の正規化された反射率差を取得するために前記第2の反射率差を正規化する
    ようにさらに構成される、請求項16に記載のイメージングシステム。
  19. 前記肌検証モジュールは、
    前記第1の正規化された反射率差を第1の閾値および第2の閾値と比較し、
    前記第2の正規化された反射率差を第3の閾値および第4の閾値と比較する
    ようにさらに構成される、請求項18に記載のイメージングシステム。
  20. 前記肌検証モジュールは、前記第1の正規化された反射率差が、前記第1の閾値より大きく前記第2の閾値より小さいかどうかに少なくとも部分的に基づいて、および前記第2の正規化された反射率差が、前記第3の閾値より大きく前記第4の閾値より小さいかどうかに少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定するようにさらに構成される、請求項19に記載のイメージングシステム。
  21. 前記肌検証モジュールは、生身の人物の肌を表す画像データを含む、前記検出された顔内の画素数に少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定するようにさらに構成される、請求項20に記載のイメージングシステム。
  22. 前記肌検証モジュールは、前記第1の正規化された反射率差の第1の確率密度関数、および前記第2の正規化された反射率差の第2の確率密度関数を取得するようにさらに構成され、前記第1および第2の確率密度関数は、生身の人物の肌の画像データに少なくとも部分的に基づく、請求項18に記載のイメージングシステム。
  23. 前記肌検証モジュールは、
    前記NIR画像データの一部分および前記可視光画像データの対応する一部分が、生身の人物の肌を表す画像データを含む第1の確率を計算する
    ようにさらに構成され、
    ここで、前記第1の確率は、前記第1の確率密度関数および前記第2の確率密度関数に少なくとも部分的に基づく、
    請求項22に記載のイメージングシステム。
  24. 前記肌検証モジュールは、
    前記第1の正規化された反射率差の第3の確率密度関数、および前記第2の正規化された反射率差の第4の確率密度関数を取得し、ここで、前記第3および第4の確率密度関数は、生身の人物の肌を表さない画像データに少なくとも部分的に基づき、
    前記NIR画像データの前記一部分および前記可視光画像データの前記対応する一部分が、生身の人物の肌を表さない画像データを含む第2の確率を計算する
    ようにさらに構成され、
    ここで、前記第2の確率は、前記第3の確率密度関数および前記第4の確率密度関数に少なくとも部分的に基づく、
    請求項23に記載のイメージングシステム。
  25. マルチスペクトル画像データを受信するように構成された通信モジュールをさらに備える、請求項16に記載のイメージングシステム。
  26. 前記検出された顔が、生身の人物の顔であるか否かをユーザに通知するように構成されたユーザ通知モジュールをさらに備える、請求項16に記載のイメージングシステム。
  27. コンピュータ読み取り可能な命令および画像データのうちの少なくとも1つを記憶するように構成されたメモリをさらに備える、請求項16に記載のイメージングシステム。
  28. イメージングシステムであって、
    人物の顔を含むマルチスペクトル画像データを受信するための手段と、ここで、前記マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備え、
    前記人物の顔を検出するために、前記マルチスペクトル画像データを処理するための手段と、
    前記可視光画像データ内の前記検出された人物の顔と前記NIR画像データ内の前記検出された人物の顔とを関連付けるための手段と、
    前記可視光画像データおよび前記NIR画像データ内の人物の肌の反射率の差に少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定するための手段と、
    を備え、
    前記検出された人物の顔が生身の人物の顔であるかどうかの前記決定は、前記可視光画像データおよび前記NIR画像データ内の人物の肌の第1の反射率差と第2の反射率差とに少なくとも部分的に基づく、イメージングシステム。
  29. マルチスペクトル画像データを受信するための前記手段は、通信モジュールを備える、請求項28に記載のイメージングシステム。
  30. 前記マルチスペクトル画像データを処理するための前記手段は、顔検出モジュールを備える、請求項28に記載のイメージングシステム。
  31. 前記検出された人物の顔が生身の人物の顔であるかどうかを決定するための前記手段は、肌検証モジュールを備える、請求項28に記載のイメージングシステム。
  32. マルチスペクトル画像データをキャプチャするための手段をさらに備える、請求項28に記載のイメージングシステム。
  33. マルチスペクトル画像データをキャプチャするための前記手段は、NIRイメージングセンサおよび可視光センサを備える、請求項32に記載のイメージングシステム。
  34. コードを記憶した非一時的コンピュータ読み取り可能な媒体であって、前記コードは、実行されると、
    人物の顔を含むマルチスペクトル画像データを受信することと、ここで、前記マルチスペクトル画像データは、可視光画像データおよび近赤外線(NIR)画像データを備え、
    前記人物の顔を検出するために、前記マルチスペクトル画像データを処理することと、
    前記可視光画像データ内の前記検出された人物の顔と前記NIR画像データ内の前記検出された人物の顔とを関連付けることと、
    前記可視光画像データおよび前記NIR画像データ内の人物の肌の反射率の差に少なくとも部分的に基づいて、前記検出された人物の顔が生身の人物の顔であるかどうかを決定することと、前記検出された人物の顔が生身の人物の顔であるかどうかの前記決定は、前記可視光画像データおよび前記NIR画像データ内の人物の肌の第1の反射率差と第2の反射率差とに少なくとも部分的に基づく
    を備える方法を実行する、非一時的コンピュータ読み取り可能な媒体。
JP2015520285A 2012-06-26 2013-06-18 顔検証のためのシステムおよび方法 Active JP6242888B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/533,706 US10452894B2 (en) 2012-06-26 2012-06-26 Systems and method for facial verification
US13/533,706 2012-06-26
PCT/US2013/046366 WO2014004179A1 (en) 2012-06-26 2013-06-18 Systems and method for facial verification

Publications (2)

Publication Number Publication Date
JP2015528942A JP2015528942A (ja) 2015-10-01
JP6242888B2 true JP6242888B2 (ja) 2017-12-06

Family

ID=48793523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015520285A Active JP6242888B2 (ja) 2012-06-26 2013-06-18 顔検証のためのシステムおよび方法

Country Status (6)

Country Link
US (1) US10452894B2 (ja)
EP (1) EP2864931A1 (ja)
JP (1) JP6242888B2 (ja)
KR (1) KR20150022016A (ja)
CN (1) CN104364798B (ja)
WO (1) WO2014004179A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514435A (zh) * 2012-06-29 2014-01-15 富士通株式会社 手检测方法和装置
US9996726B2 (en) 2013-08-02 2018-06-12 Qualcomm Incorporated Feature identification using an RGB-NIR camera pair
EP3118811B1 (en) * 2014-03-13 2023-05-03 Nec Corporation Detecting device, detecting method, and recording medium
US9396537B2 (en) * 2014-09-09 2016-07-19 EyeVerify, Inc. Systems and methods for liveness analysis
WO2016147272A1 (ja) 2015-03-13 2016-09-22 日本電気株式会社 生体検知装置、生体検知方法、および、記録媒体
CN104700087B (zh) * 2015-03-23 2018-05-04 上海交通大学 可见光与近红外人脸图像的相互转换方法
WO2016159150A1 (ja) * 2015-03-31 2016-10-06 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
JP6308161B2 (ja) 2015-03-31 2018-04-11 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
US10504228B2 (en) 2015-05-15 2019-12-10 Sony Corporation Image processing system and method
WO2017137435A1 (en) * 2016-02-08 2017-08-17 Koninklijke Philips N.V. Device, system and method for skin detection
US10424072B2 (en) 2016-03-01 2019-09-24 Samsung Electronics Co., Ltd. Leveraging multi cues for fine-grained object classification
JP2017191374A (ja) * 2016-04-11 2017-10-19 シャープ株式会社 生体判定装置、端末装置、生体判定装置の制御方法、制御プログラム
CN105912908A (zh) * 2016-04-14 2016-08-31 苏州优化智能科技有限公司 基于红外的真人活体身份验证方法
CN105930780A (zh) * 2016-04-14 2016-09-07 苏州优化智能科技有限公司 基于近红外和面部微表情的真人活体身份验证方法
JP2017208616A (ja) * 2016-05-16 2017-11-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US10579860B2 (en) 2016-06-06 2020-03-03 Samsung Electronics Co., Ltd. Learning model for salient facial region detection
CN106446831B (zh) * 2016-09-24 2021-06-25 江西欧迈斯微电子有限公司 一种人脸识别方法及装置
CN107992728B (zh) * 2016-10-27 2022-05-20 腾讯科技(深圳)有限公司 人脸验证方法及装置
WO2018079031A1 (ja) 2016-10-31 2018-05-03 日本電気株式会社 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体
CN108229325A (zh) * 2017-03-16 2018-06-29 北京市商汤科技开发有限公司 人脸检测方法和***、电子设备、程序和介质
US10515199B2 (en) * 2017-04-19 2019-12-24 Qualcomm Incorporated Systems and methods for facial authentication
US10657401B2 (en) * 2017-06-06 2020-05-19 Microsoft Technology Licensing, Llc Biometric object spoof detection based on image intensity variations
TWI630559B (zh) * 2017-06-22 2018-07-21 佳世達科技股份有限公司 影像擷取裝置及影像擷取方法
CN109583285B (zh) * 2017-09-29 2023-03-07 阿里巴巴集团控股有限公司 对象识别方法
US10726245B2 (en) * 2017-12-12 2020-07-28 Black Sesame International Holding Limited Secure facial authentication system using active infrared light source and RGB-IR sensor
CN109977741A (zh) * 2017-12-28 2019-07-05 北京京东尚科信息技术有限公司 人脸识别方法、装置、***及介质
CN108376239B (zh) * 2018-01-25 2021-10-15 努比亚技术有限公司 一种人脸识别方法、移动终端及存储介质
JP2018152079A (ja) * 2018-03-23 2018-09-27 日本電気株式会社 検知装置
JP6819653B2 (ja) * 2018-07-09 2021-01-27 日本電気株式会社 検知装置
CN109271954B (zh) * 2018-09-29 2022-04-22 北京百度网讯科技有限公司 用于检测模型可靠性的方法及装置
CN111222380B (zh) * 2018-11-27 2023-11-03 杭州海康威视数字技术股份有限公司 一种活体检测方法、装置、及其识别模型训练方法
CN109871773A (zh) * 2019-01-21 2019-06-11 深圳市云眸科技有限公司 活体检测方法、装置及门禁机
FR3095064A1 (fr) 2019-04-09 2020-10-16 Cynove Procédés et dispositifs de levée de doute biométrique
CN110503023A (zh) * 2019-08-19 2019-11-26 深圳市商汤科技有限公司 活体检测方法及装置、电子设备和存储介质
KR102349424B1 (ko) * 2019-12-31 2022-01-11 주식회사 에이블에이아이 얼굴 인식을 사용하는 개인 식별 장치
JP2020074241A (ja) * 2020-02-12 2020-05-14 日本電気株式会社 検知装置
CN112800997B (zh) * 2020-04-10 2024-01-05 支付宝(杭州)信息技术有限公司 一种活体检测方法、装置及设备
CN111611977B (zh) * 2020-06-05 2021-10-15 吉林求是光谱数据科技有限公司 基于光谱与多波段融合的人脸识别监控***及识别方法
CN112016478B (zh) * 2020-08-31 2024-04-16 中国电子科技集团公司第三研究所 一种基于多光谱图像融合的复杂场景识别方法及***
DE102020214713A1 (de) 2020-11-24 2022-05-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Unterscheiden einer realen Person von einem Surrogat
JP2021047929A (ja) * 2020-12-28 2021-03-25 日本電気株式会社 情報処理装置
US11657589B2 (en) * 2021-01-13 2023-05-23 Ford Global Technologies, Llc Material spectroscopy
WO2022150874A1 (en) * 2021-01-13 2022-07-21 Seeing Machines Limited System and method for skin detection in images
US11741747B2 (en) 2021-01-13 2023-08-29 Ford Global Technologies, Llc Material spectroscopy
US11636700B2 (en) 2021-05-21 2023-04-25 Ford Global Technologies, Llc Camera identification
US11967184B2 (en) 2021-05-21 2024-04-23 Ford Global Technologies, Llc Counterfeit image detection
US11769313B2 (en) 2021-05-21 2023-09-26 Ford Global Technologies, Llc Counterfeit image detection
CN113297978B (zh) * 2021-05-26 2024-05-03 奥比中光科技集团股份有限公司 活体检测方法、装置及电子设备
CN113297977B (zh) * 2021-05-26 2023-12-22 奥比中光科技集团股份有限公司 活体检测方法、装置及电子设备
CN113516089B (zh) * 2021-07-27 2024-04-12 中国平安人寿保险股份有限公司 人脸图像识别方法、装置、设备及可读存储介质

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2823564B2 (ja) 1988-05-27 1998-11-11 日本電信電話株式会社 生物体検知装置
US6496594B1 (en) 1998-10-22 2002-12-17 Francine J. Prokoski Method and apparatus for aligning and comparing images of the face and body from different imagers
US6424727B1 (en) 1998-11-25 2002-07-23 Iridian Technologies, Inc. System and method of animal identification and animal transaction authorization using iris patterns
US6820979B1 (en) 1999-04-23 2004-11-23 Neuroptics, Inc. Pupilometer with pupil irregularity detection, pupil tracking, and pupil response detection capability, glaucoma screening capability, intracranial pressure detection capability, and ocular aberration measurement capability
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US7027619B2 (en) 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
US7469160B2 (en) 2003-04-18 2008-12-23 Banks Perry S Methods and apparatus for evaluating image focus
JP4387643B2 (ja) 2002-07-31 2009-12-16 富士通株式会社 個人認識機能付き処理装置
US8190239B2 (en) 2002-09-03 2012-05-29 Fujitsu Limited Individual identification device
US7460696B2 (en) 2004-06-01 2008-12-02 Lumidigm, Inc. Multispectral imaging biometrics
GB0316631D0 (en) 2003-07-16 2003-08-20 Omniperception Ltd Facial liveness assessment system
EP1647936B1 (en) 2003-07-17 2012-05-30 Panasonic Corporation Iris code generation method, individual authentication method, iris code entry device, individual authentication device, and individual certification program
JP4254418B2 (ja) 2003-08-18 2009-04-15 Kddi株式会社 個人認証装置及び方法並びに携帯通信端末
JP4470434B2 (ja) 2003-10-06 2010-06-02 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
FR2864290B1 (fr) 2003-12-18 2006-05-26 Sagem Procede et dispositif de reconnaissance d'iris
KR100682898B1 (ko) 2004-11-09 2007-02-15 삼성전자주식회사 적외선을 이용한 영상 장치 및 그의 영상 식별 방법
US7602942B2 (en) 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
US7469060B2 (en) 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
US7417727B2 (en) * 2004-12-07 2008-08-26 Clean Earth Technologies, Llc Method and apparatus for standoff detection of liveness
EP1829479A1 (en) 2005-02-16 2007-09-05 Matsushita Electric Industrial Co., Ltd. Biometric discrimination device, authentication device, and biometric discrimination method
JP4696610B2 (ja) 2005-03-15 2011-06-08 オムロン株式会社 被写体認証装置、顔認証装置、携帯電話、及び被写体認証方法
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US20070248330A1 (en) * 2006-04-06 2007-10-25 Pillman Bruce H Varying camera self-determination based on subject motion
EP2041696B1 (en) 2006-07-19 2020-11-18 HID Global Corporation Multibiometric multispectral imager
US7801339B2 (en) 2006-07-31 2010-09-21 Lumidigm, Inc. Biometrics with spatiospectral spoof detection
US8965063B2 (en) 2006-09-22 2015-02-24 Eyelock, Inc. Compact biometric acquisition system and method
US8953849B2 (en) 2007-04-19 2015-02-10 Eyelock, Inc. Method and system for biometric recognition
US20090060286A1 (en) 2007-09-04 2009-03-05 General Electric Company Identification system and method utilizing iris imaging
KR102559017B1 (ko) 2007-09-24 2023-07-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8411910B2 (en) 2008-04-17 2013-04-02 Biometricore, Inc. Computationally efficient feature extraction and matching iris recognition
US8345936B2 (en) 2008-05-09 2013-01-01 Noblis, Inc. Multispectral iris fusion for enhancement and interoperability
FR2931979B1 (fr) 2008-06-02 2014-02-28 Advanced Track & Trace Procede et dispositif d'identification d'une plaque d'impression d'un document
CN101404060B (zh) 2008-11-10 2010-06-30 北京航空航天大学 一种基于可见光与近红外Gabor信息融合的人脸识别方法
JP4702441B2 (ja) 2008-12-05 2011-06-15 ソニー株式会社 撮像装置及び撮像方法
US8374404B2 (en) 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
US8503778B2 (en) 2009-05-14 2013-08-06 National University Of Singapore Enhancing photograph visual quality using texture and contrast data from near infra-red images
JP2011243862A (ja) 2010-05-20 2011-12-01 Sony Corp 撮像デバイス及び撮像装置
US8408821B2 (en) 2010-10-12 2013-04-02 Omnivision Technologies, Inc. Visible and infrared dual mode imaging system
CN101964056B (zh) 2010-10-26 2012-06-27 徐勇 一种具有活体检测功能的双模态人脸认证方法和***
US8897522B2 (en) 2012-05-30 2014-11-25 Xerox Corporation Processing a video for vascular pattern detection and cardiac function analysis
US8411909B1 (en) 2012-06-26 2013-04-02 Google Inc. Facial recognition
WO2014028911A2 (en) 2012-08-16 2014-02-20 Potter Darrel V Structure formed from panels joined with universal clamping brackets
US9996726B2 (en) 2013-08-02 2018-06-12 Qualcomm Incorporated Feature identification using an RGB-NIR camera pair
US20160019420A1 (en) 2014-07-15 2016-01-21 Qualcomm Incorporated Multispectral eye analysis for identity authentication
US20160019421A1 (en) 2014-07-15 2016-01-21 Qualcomm Incorporated Multispectral eye analysis for identity authentication
US20170091550A1 (en) 2014-07-15 2017-03-30 Qualcomm Incorporated Multispectral eye analysis for identity authentication

Also Published As

Publication number Publication date
CN104364798B (zh) 2019-04-02
KR20150022016A (ko) 2015-03-03
US20130342702A1 (en) 2013-12-26
JP2015528942A (ja) 2015-10-01
CN104364798A (zh) 2015-02-18
US10452894B2 (en) 2019-10-22
WO2014004179A1 (en) 2014-01-03
EP2864931A1 (en) 2015-04-29

Similar Documents

Publication Publication Date Title
JP6242888B2 (ja) 顔検証のためのシステムおよび方法
US12014571B2 (en) Method and apparatus with liveness verification
CN107766786B (zh) 活性测试方法和活性测试计算设备
KR102466997B1 (ko) 라이브니스 검사 방법 및 장치
KR102387571B1 (ko) 라이브니스 검사 방법 및 장치
WO2019134536A1 (zh) 基于神经网络模型的人脸活体检测
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
WO2019137178A1 (zh) 人脸活体检测
US11294996B2 (en) Systems and methods for using machine learning for image-based spoof detection
JP6312714B2 (ja) 陰影検出および減衰のためのマルチスペクトル撮像システム
KR20190001066A (ko) 얼굴 인증 방법 및 장치
JP5076563B2 (ja) 顔照合装置
CN107798279B (zh) 一种人脸活体检测方法及装置
US11625954B2 (en) Method and apparatus with liveness testing
WO2016203698A1 (ja) 顔検出装置、顔検出システム、及び顔検出方法
CN108737728A (zh) 一种图像拍摄方法、终端及计算机存储介质
CN110415113A (zh) 金融数据处理方法、装置、服务器及可读存储介质
WO2021166289A1 (ja) データ登録装置、生体認証装置、および記録媒体
CN108875472B (zh) 图像采集装置及基于该图像采集装置的人脸身份验证方法
WO2019229855A1 (ja) 物体検出装置、物体検出システム、物体検出方法、およびプログラムを記録する記録媒体
JP6878826B2 (ja) 撮影装置
CN106402717B (zh) 一种ar播放控制方法及智能台灯
KR102483647B1 (ko) 라이브니스 검증 방법 및 장치
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법
Dawson et al. Quality and Match Performance Analysis of Band-Filtered Visible RGB Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171108

R150 Certificate of patent or registration of utility model

Ref document number: 6242888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250