JP6844038B2 - 生体検出方法及び装置、電子機器並びに記憶媒体 - Google Patents

生体検出方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP6844038B2
JP6844038B2 JP2019565559A JP2019565559A JP6844038B2 JP 6844038 B2 JP6844038 B2 JP 6844038B2 JP 2019565559 A JP2019565559 A JP 2019565559A JP 2019565559 A JP2019565559 A JP 2019565559A JP 6844038 B2 JP6844038 B2 JP 6844038B2
Authority
JP
Japan
Prior art keywords
image
target
target area
area
key point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019565559A
Other languages
English (en)
Other versions
JP2020523665A (ja
Inventor
ルイ チャン
ルイ チャン
カイ ヤン
カイ ヤン
ティエンポン パオ
ティエンポン パオ
リーウェイ ウー
リーウェイ ウー
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド, ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2020523665A publication Critical patent/JP2020523665A/ja
Application granted granted Critical
Publication of JP6844038B2 publication Critical patent/JP6844038B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

(関連出願の相互参照)
本願は、出願番号が201810481863.3であり、出願日が2018年5月18日である中国特許出願に基づいて提出され、且つ該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願の実施例は、生体検出技術に関し、特に生体検出方法及び装置、電子機器並びに記憶媒体に関する。
生体検出は情報セキュリティ分野の重要な課題となっている。被検出対象が真実の生体からのものであるか偽造対象の画像であるかをどのように確定するかということは、生体検出技術における重要な研究課題となっている。従来の生体検出技術は対話型の考案と、外部情報を取り込む考案とを含む。ここで、対話型の考案は、システムへの要求が高く、実現形態が複雑で、ユーザの体験が悪い。外部情報を取り込む考案は精度が低く、偽造しやすい。
本願の実施例は生体検出の技術的手段を提供する。
本願の実施例の一態様によれば、
双眼撮像装置中の第1の画像センサにより収集された第1の画像に対して目標対象の検出を行い、第1の目標領域を得、前記双眼撮像装置中の第2の画像センサにより収集された第2の画像に対して前記目標対象の検出を行い、第2の目標領域を得ることと、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることと、前記目標対象のキーポイント深度情報に基づいて、前記目標対象が生体であるか否かを確定することと、を含む生体検出方法を提供する。
いくつかの実施例では、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることには、前記第1の目標領域に対してキーポイントの検出を行い、前記第1の目標領域のキーポイント情報を得、前記第2の目標領域に対してキーポイントの検出を行い、前記第2の目標領域のキーポイント情報を得ることと、前記第1の目標領域のキーポイント情報と前記第2の目標領域のキーポイント情報により、前記目標対象のキーポイント深度情報を確定することと、を含む。
いくつかの実施例では、前記目標対象のキーポイント深度情報に基づいて、前記目標対象が生体であるか否かを確定することには、前記目標対象のキーポイント深度情報に基づいて、深度離散度を確定することと、前記深度離散度により、前記目標対象が生体であるか否かを確定することとを、含む。
いくつかの実施例では、前記方法は、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することを更に含み、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることには、前記第1の目標領域と前記第2の目標領域とが一致すると確定した場合に、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることを含む。
いくつかの実施例では、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することには、基礎データベースから前記第1の目標領域に対応する第1の検索結果を検索することと、前記基礎データベースから前記第2の目標領域に対応する第2の検索結果を検索することと、前記第1の検索結果と前記第2の検索結果に基づいて、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することとを、含む。
いくつかの実施例では、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することには、前記第1の目標領域と前記第2の目標領域との類似度を確定することと、前記類似度に基づいて、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することとを、含む。
いくつかの実施例では、前記方法は、前記第1の目標領域と前記第2の目標領域とが一致しないと確定した場合に、前記第1の目標領域に基づいて、補正処理後の前記第2の目標領域を得ることを更に含み、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることには、前記第1の目標領域と補正処理後の前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることを含む。
いくつかの実施例では、前記第1の目標領域に基づいて、補正処理後の前記第2の目標領域を得ることには、前記第2の画像の中で前記第1の目標領域の対応領域を確定することと、前記対応領域を前記補正処理後の前記第2の目標領域として確定することとを、含む。
いくつかの実施例では、前記第2の画像の中で前記第1の目標領域の対応領域を確定することには、前記第1の目標領域のキーポイント情報により、前記第1の目標領域中のキー領域を確定することと、前記キー領域に基づいて、前記第1の目標領域の第2の画像における対応領域を確定することとを、含む。
いくつかの実施例では、前記第1の目標領域のキーポイント情報により、前記第1の目標領域中のキー領域を確定することには、前記第1の目標領域のキーポイント情報に基づいて、前記第1の目標領域中の少なくとも1つのキーポイントにより囲まれた最小領域を確定することと、前記最小領域を所定の倍数拡大し、前記キー領域を得ることとを、含む。
いくつかの実施例では、前記第2の画像の中で前記第1の目標領域の対応領域を確定することには、前記第1の目標領域中の少なくとも1つのキーポイントを前記第2の画像にマッピングし、前記少なくとも1つのキーポイントの前記第2の画像におけるマッピング位置情報を得ることと、前記少なくとも1つのキーポイントの前記第2の画像におけるマッピング位置情報により、前記第1の目標領域の前記第2の画像における対応領域を確定することとを、含む。
いくつかの実施例では、前記方法は、前記目標対象のキーポイント深度情報に基づいて前記目標対象が生体であると確定した場合に、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することと、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かに応じて、前記目標対象が生体であるか否かを確定することと、を更に含む。
いくつかの実施例では、前記偽造情報は結像媒体の縁部情報、光反射情報、材質情報、ディスプレイスクリーンの縁部情報、光反射情報、モアレ情報、マスク情報、彫塑情報、マネキン情報のうちの1種又はそれらの任意の組合せを含む。
いくつかの実施例では、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することには、前記第1の画像と前記第2の画像に対してそれぞれ特徴抽出処理を行い、第1の特徴データと第2の特徴データを得ることと、前記第1の特徴データと前記第2の特徴データに基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することとを、含む。
いくつかの実施例では、前記第1の特徴データと前記第2の特徴データに基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することには、前記第1の特徴データと前記第2の特徴データに対して融合処理を行い、融合特徴を得ることと、前記融合特徴に基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することとを、含む。
いくつかの実施例では、前記第1の特徴データ又は第2の特徴データは、ローカルバイナリパターン特徴、スパースコーディングヒストグラム特徴、色特徴、全画像特徴、領域特徴、細部特徴のうちの1種又はそれらの任意の組合せを含む。
いくつかの実施例では、前記方法は、前記第1の画像と前記第2の画像がフレーム選択条件を満たすか否かを確定することを更に含み、前記第1の目標領域と前記第2の目標領域により、目標対象のキーポイント深度情報を得ることには、前記第1の画像と前記第2の画像がフレーム選択条件を満たしたと確定した場合に、前記第1の目標領域と前記第2の目標領域により、目標対象のキーポイント深度情報を得ることを含む。
いくつかの実施例では、前記フレーム選択条件は、第1の画像と第2の画像のいずれからも前記目標対象が検出されたこと、第1の画像の中で検出された目標対象が前記第1の画像の設定領域に位置し且つ前記第2の画像の中で検出された目標対象が前記第2の画像の設定領域に位置すること、前記第1の画像と前記第2の画像の中で検出された目標対象の完全性が所定の条件を満たしたこと、前記第1の画像の中で検出された目標対象の前記第1の画像に占める割合が割合閾値より大きく且つ前記第2の画像の中で検出された目標対象の前記第2の画像に占める割合が前記割合閾値より大きいこと、第1の画像と第2の画像の鮮鋭度が鮮鋭度閾値より大きいこと、第1の画像と第2の画像の露光度が露光度閾値より大きいことのうちの一つ又はそれらの任意の組合せを含む。
いくつかの実施例では、前記方法は、前記第1の画像と前記第2の画像のうちの少なくとも1つの画像がフレーム選択条件を満たしていない場合に、ビデオストリーム中の次の画像ペアがフレーム選択条件を満たすか否かを確定することと、
所定の期間又は所定の数量の画像ペアに達し且つ前記ビデオストリームからフレーム選択条件を満たした画像ペアが発見されなかった場合に、前記ビデオストリームを偽造ビデオストリームとして確定することと、を更に含む。
いくつかの実施例では、前記第1の画像センサ又は前記第2の画像センサは、可視光カメラ、近赤外線カメラ、デュアルチャンネルカメラのうちの1種を含む。
いくつかの実施例では、前記方法は、前記第1の画像と前記第2の画像のうちの少なくとも1つの画像に対して、画像タイプ調整、サイズ調整、zスコア正規化処理、輝度調整のうちの1種又はそれらの任意の組合せを含む前処理を行うことを更に含み、
前記第1の画像センサに撮影された第1の画像に対して目標対象検出を行い、第1の目標領域を得、前記第2の画像センサに撮影された第2の画像に対して目標対象検出を行い、第2の目標領域を得ることには、前記前処理後の第1の画像に対して目標対象検出を行い、第1の目標領域を得、前記前処理後の第2の画像に対して目標対象検出を行い、第2の目標領域を得ることを含む。
いくつかの実施例では、前記目標対象は人物の顔である。
本願の実施例の一態様によれば、双眼撮像装置中の第1の画像センサにより収集された第1の画像に対して目標対象の検出を行い、第1の目標領域を得、前記双眼撮像装置中の第2の画像センサにより収集された第2の画像に対して前記目標対象の検出を行い、第2の目標領域を得るように構成される目標領域確定モジュールと、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得るように構成されるキーポイント深度情報取得モジュールと、前記目標対象のキーポイント深度情報に基づいて、前記目標対象が生体であるか否かを確定するように構成される第1の生体検出モジュールと、を含む生体検出装置を提供する。
本願の実施例の一態様によれば、上記生体検出方法を実行するように構成されるプロセッサと、プロセッサ実行可能コマンドを記憶するように構成されるメモリと、を含む電子機器を提供する。
本願の実施例の一態様によれば、コンピュータプログラムコマンドを記憶したコンピュータ可読記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に上記生体検出方法を実現するコンピュータ可読記憶媒体を提供する。
本願の実施例では、双眼撮像装置の第1の画像センサと第2の画像センサに撮影された第1の画像と第2の画像から検出された第1の目標領域と第2の目標領域により、目標対象の各キーポイントの深度情報を得、各キーポイントの深度情報により目標対象が生体であるか否かを確定する。本願の実施例は双眼撮像装置により撮影された画像を用いて、対話及び外部情報を必要とせずに目標対象の生体検出を完成でき、実施形態が簡単で、応用環境が多く、検出結果が精確である。
以下、図面を参照しながら例示的な実施例について詳細に説明することにより、本願の他の特徴及び態様は明瞭になる。
明細書に含まれ且つ明細書の一部を構成する図面は明細書と共に本願の例示的な実施例、特徴及び態様を示し、更に本願の実施例の原理を解釈するために用いられる。
本願の実施例に係る生体検出方法の例示的なフローチャートを示す。 本願の実施例に係る生体検出方法におけるステップS20の例示的なフローチャートを示す。 本願の実施例に係る生体検出方法におけるステップS30の例示的なフローチャートを示す。 本願の実施例に係る生体検出方法の別の例示的なフローチャートを示す。 本願の実施例に係る生体検出方法の別の例示的なフローチャートを示す。 本願の実施例に係る生体検出方法の別の例示的なフローチャートを示す。 本願の実施例に係る生体検出方法におけるステップS60の例示的なフローチャートを示す。 本願の実施例に係る人物の顔の生体検出方法の例示的なフローチャートを示す。 本願の実施例の図7B中で顔画像に対して人物の顔の偽造防止事前検出を行う例示的なフローチャートを示す。 本願の実施例に係る生体検出装置の例示的なブロック図を示す。 本願の実施例に係る生体検出装置の例示的なブロック図を示す。 例示的な実施例により示された電子機器のブロック図である。 例示的な実施例により示された生体検出装置のブロック図である。
以下の図面と関連付けられた例示的な実施例に対する詳細な説明によれば、本開示の他の特徴および態様は明確になる。以下に図面を参照しながら本開示の様々な例示的実施例、特徴および態様を詳細に説明する。図面における同じ符号は同じまたは類似する機能の要素を表す。図面において実施例の様々な態様を示したが、特に断らない限り、比例に従って図面を作る必要がない。ここの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明したいかなる実施例も他の実施例より優れたものと理解すべきではない。また、本開示の実施例をより効果的に説明するために、以下の具体的な実施形態において様々な具体的詳細を示す。当業者であれば、何らかの具体的詳細がなくなるにも関わらず、本開示の実施例は同様に実施できるということを理解すべきである。いくつかの実施例では、本開示の実施例の趣旨を強調するよう、当業者に既知の方法、手段、要素および回路に対する詳細な説明を省略する。
図1は本願の実施例に係る生体検出方法の例示的なフローチャートを示す。
ステップS10において、双眼撮像装置中の第1の画像センサにより収集された第1の画像に対して目標対象の検出を行い、第1の目標領域を得、前記双眼撮像装置中の第2の画像センサにより収集された第2の画像に対して前記目標対象の検出を行い、第2の目標領域を得る。
いくつかの実施例では、双眼撮像装置は2つの定義されたカメラを含む。双眼撮像装置中の2つのカメラを第1の画像センサと第2の画像センサと呼んでよい。第1の画像センサと第2の画像センサは同様なタイプのカメラであってもよく、異なったタイプのカメラであってもよい。ここで、カメラのタイプは可視光カメラ、近赤外線カメラ、デュアルチャンネルカメラなどを含み、いくつかの実施例では、第1の画像センサ又は第2の画像センサは、可視光カメラ、近赤外線カメラ、デュアルチャンネルカメラのうちの1種を含む。又は、本願の実施例におけるカメラは他のタイプのカメラであってもよく、具体的なタイプはここで限定されない。
ここで、可視光カメラは可視光を物体に照射して画像を形成するカメラである。近赤外線カメラは近赤外線を物体に照射して画像を形成するカメラである。デュアルチャンネルカメラはデュアルチャネル(赤(Red、R)チャネルを含み、赤緑青(RGB)カラーモデルを例として説明したが、勿論、他のカラーモデルを用いてもよい)結像原理を用いて画像を形成するカメラを含む。双眼撮像装置中の2つのカメラは同様なタイプのカメラであってもよく、異なったタイプのカメラであってもよい。例えば、双眼撮像装置Aの2つのカメラはいずれも可視光カメラであり、双眼撮像装置Bの2つのカメラはそれぞれ可視光カメラと近赤外線カメラであり、双眼撮像装置Cの2つのカメラはそれぞれ可視光カメラとデュアルチャンネルカメラであり、双眼撮像装置Dの2つのカメラはいずれもデュアルチャンネルカメラである。生体検出の要求に応じて、異なった型式のカメラを配置した双眼撮像装置を用いてもよい。必要に応じて双眼撮像装置中2つのカメラのタイプを選択でき、適応範囲がより広く、拡張可能性がより高い。
いくつかの実施例では、第1の画像センサと第2の画像センサにより一対の静止画像を撮影してよい。第1の画像センサと第2の画像センサにより撮影して連続したビデオストリームを得てから、撮影により得られたビデオストリームから一対のフレーム画像を切り出してよも、それに対して、第1の画像と第2の画像は静止画像又はビデオフレーム画像であってよく、本願の実施例では限定されない。
本願の実施例では、第1の画像センサにより撮影された第1の画像と第2の画像センサにより撮影された第2の画像に対してそれぞれ目標対象検出を行ってよい。画像識別などの技術を用いて、第1の画像と第2の画像から目標対象を検出してもよい。第1の画像と第2の画像をニューラルネットワークに入力して目標対象を検出してもよい。
前記目標対象は各種の生体対象又は生体対象の特定部位を含んでよい。例えば、目標対象は人物又は動物であってもよく、人物の顔、人物の手又は動物の顔部であってもよい。目標領域は第1の画像と第2の画像中の目標対象の所在する領域を含んでよい。いくつかの実施例では、前記目標対象は人物の顔であり、前記第1の目標領域と前記第2の目標領域は顔部領域又は顔枠である。
ステップS20において、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得る。
いくつかの実施例では、第1の目標領域と第2の目標領域において、キーポイントの検出を行い、目標対象の各キーポイントの第1の画像と第2の画像での位置情報を得てよい。キーポイントは目標対象における特定位置の点を含んでよい。例えば、目標対象が人物の顔である時に、必要に応じて、人物の顔中の目の目じりと目頭、瞳、鼻の先、眉間、眉の頭部、眉の尾部などの位置の点を、人物の顔のキーポイントとしてよい。キーポイントの数量は必要に応じて設定してよい。例えば、人物の顔からN個のキーポイントを確定してよく、N>2。各キーポイントの第1の目標領域での第1の座標と第2の目標領域での第2の座標により、即ち第1の目標領域のキーポイント情報、第2の目標領域のキーポイント情報及び双眼撮像装置のパラメータにより、目標対象のキーポイント深度情報を得てよい。ここで、いくつかの実施例では、双眼撮像装置のパラメータは、双眼撮像装置の焦点距離及び/又は2つのカメラの中心の間の距離を含んでもよく、又は他のパラメータを含んでもよく、本願の実施例では限定されない。
ステップS30において、前記目標対象のキーポイント深度情報に基づいて、前記目標対象が生体であるか否かを確定する。
いくつかの実施例では、双眼撮像装置により撮影された目標対象が生体である時に、生体上の各キーポイントから双眼撮像装置までの距離が異なる。例えば、生体の人物の顔が双眼撮像装置に正対している時に、鼻の先から双眼撮像装置までの距離が耳から双眼撮像装置までの距離より小さい。目標対象が人物の顔の写真であり、生体ではない時に、各キーポイントの深度情報が等しい。
本願の実施例では、双眼撮像装置の第1の画像センサと第2の画像センサに撮影された第1の画像と第2の画像から検出された第1の目標領域と第2の目標領域により、目標対象の各キーポイントの深度情報を得、各キーポイントの深度情報により目標対象が生体であるか否かを確定する。本願の実施例は双眼撮像装置により撮影された画像を利用するようになっており、対話及び外部情報を必要とせずに目標対象の生体検出を完成でき、実施形態が簡単で、応用環境が多く、検出結果が精確である。
図2は本願の実施例に係る生体検出方法におけるステップS20の例示的なフローチャートを示す。
ステップS21において、前記第1の目標領域に対してキーポイントの検出を行い、前記第1の目標領域のキーポイント情報を得、前記第2の目標領域に対してキーポイントの検出を行い、前記第2の目標領域のキーポイント情報を得る。
いくつかの実施例では、第1の目標領域の画像と第2の目標領域の画像をそれぞれニューラルネットワークに入力してキーポイント検出を行い、第1の目標領域のキーポイント情報と第2の目標領域のキーポイント情報を得てよい。キーポイント情報はキーポイントの第1の画像と第2の画像での平面座標情報を含んでよい。
ステップS22において、前記第1の目標領域のキーポイント情報と前記第2の目標領域のキーポイント情報により、前記目標対象のキーポイント深度情報を確定する。
いくつかの実施例では、キーポイントの第1の画像での平面座標情報と第2の画像での平面座標情報を用いて、キーポイントの深度情報を得てよい。
例えば、キーポイントの深度情報を得るために、まずカメラを定義してよい。双眼撮像装置中の左カメラを第1のカメラとし、右カメラを第2のカメラとし、左カメラの内部パラメータM1、右カメラの内部パラメータM2、左右カメラの外部パラメータ[R,T]を取得してよい。
Figure 0006844038

Figure 0006844038
はそれぞれ左カメラと右カメラの外部パラメータ回転行列を表し、
Figure 0006844038

Figure 0006844038
はそれぞれ左カメラと右カメラの水平移動行列を表し、[R,T]が右カメラの左カメラに対する位置関係であるので、左カメラの自分に対する位置関係が変わらなく、以下の式(1−1)及び(1−2)に示す。
Figure 0006844038
(1−1)
Figure 0006844038
(1−2)
目標対象が人物の顔である時に、定義された左右カメラにより同時に撮影された人物の顔の画像から、人物の顔のキーポイントの座標を確定する。左右カメラにより撮影された人物の顔のキーポイントの画像画素座標系座標値として
Figure 0006844038
及び
Figure 0006844038
が得られ、上記の既知の情報により人物の顔のキーポイントの左カメラ座標系での座標値
Figure 0006844038
が求められ、人物の顔のキーポイントの右カメラ座標系での座標値を
Figure 0006844038
とし、ただし、
Figure 0006844038

Figure 0006844038
及び
Figure 0006844038
の計算式はそれぞれ式(1−3)、(1−4)及び(1−5)に示される。
Figure 0006844038
(1−3)
Figure 0006844038
(1−4)
Figure 0006844038
(1−5)
式(1−5)を展開して式(1−6)が得られ、
Figure 0006844038
(1−6)
ただし、
Figure 0006844038

Figure 0006844038

Figure 0006844038

Figure 0006844038

Figure 0006844038
はすべて知られており、そのように上記の式から推算してd、sを求めることができる。dは世界座標系の左側カメラに対する変換係数であり、sは世界座標系の右側カメラに対する変換係数であり、最後に以下の式(1−7)により人物の顔のキーポイントの左カメラ座標系での座標値
Figure 0006844038
を求めることができる。
Figure 0006844038
(1−7)
ただし、
Figure 0006844038
は人物の顔中の各キーポイントの深度情報である。
各キーポイントの深度情報の分散を設定閾値と比較することにより、真実の顔であるか又は偽造された2次元(D、Dimensions)、2.5D顔であるかという該顔キーポイントの分布状況を判断することを説明する必要がある。該分散が閾値より大きければ、生体である検出結果が出力され、該分散が閾値より小さければ、偽造である検出結果が出力される。また、他の実施例では、分散の他に、ユークリッド距離などの統計量を所定の閾値と比較して検出結果を得てもよい。
本願の実施例では、第1の目標領域と第2の目標領域からキーポイントを検出することにより、キーポイントの第1の画像と第2の画像での座標を得、キーポイントの第1の画像と第2の画像での座標によりキーポイントの深度情報を算出する。双眼撮像装置により撮影された画像を用いることで、目標対象の各キーポイントの深度情報を容易かつ精確に算出でき、対話及び外部情報を必要とせずに目標対象の生体検出を完成でき、検出効率が高く、応用環境が多く、検出結果が精確である。
図3は本願の実施例に係る生体検出方法におけるステップS30の例示的なフローチャートを示す。
ステップS31において、前記目標対象のキーポイント深度情報に基づいて、深度離散度を確定する。
いくつかの実施例では、キーポイントの深度情報の深度離散度を算出することには、各キーポイントの深度情報の分散、標準偏差などを算出することを含んでよい。本願の実施例では限定されない。
ステップS32において、前記深度離散度により、前記目標対象が生体であるか否かを確定する。
いくつかの実施例では、算出された深度離散度を離散閾値と比較し、比較結果により第1の目標領域と第2の目標領域が生体であるか否かを判断してよい。例えば、算出された各キーポイントの深度離散度が設定された離散閾値より小さい時に、第1の目標領域と第2の目標領域中の各キーポイントから双眼撮像装置までの距離が類似的であり、生体の各キーポイントから双眼撮像装置までの距離の分布特徴に合致しないと考えられる。本願の実施例では、各キーポイントの深度情報の深度離散度により、第1の目標領域と第2の目標領域が生体であるか否かを判断する。各キーポイントの深度情報を用いて深度離散度を算出することで、対話及び外部情報を必要とせずに生体検出を完成でき、検出効率が高く、応用環境が多く、検出結果が精確である。
図4は本願の実施例に係る生体検出方法の別の例示的なフローチャートを示す。
ステップS40において、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定する。
ステップS20は、前記第1の目標領域と前記第2の目標領域とが一致すると確定した場合に、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得るステップS23を含む。
いくつかの実施例では、双眼撮像装置の撮影範囲内に複数の被撮影対象を含む時に、第1の画像と第2の画像に複数の被撮影対象の画像を同時に含むことが可能である。第1の画像と第2の画像に対して目標対象検出を行う時に、第1の画像から被撮影対象Aが検出され、即ち第1の目標領域が被撮影対象Aの所在する画像領域であることが可能であり、第2の画像から被撮影対象Bが検出出され、即ち第2の目標領域が被撮影対象Bの所在する画像領域であることが可能であり、上記の第1の目標領域と第2の目標領域に基づいて後続の生体検出ステップを行えば、精確な生体検出結果を得ることができない。第1の目標領域と第2の目標領域との一致性を検出することにより、第1の目標領域と第2の目標領域が同一な被撮影対象ではない状況を排除することができる。画像識別技術により第1の目標領域と第2の目標領域中の特徴をそれぞれ抽出し、抽出された2つの特徴を比較して、第1の目標領域と第2の目標領域との一致性を検出してよい。また、第1の目標領域と第2の目標領域を設定された第3の目標領域と比較することで、第1の目標領域と第2の目標領域との一致性を検出してもよい。本願の実施例では限定されない。
本願の実施例では、第1の目標領域と第2の目標領域との一致性を確定することにより、目標対象の生体検出結果の正確性を保証できる。
いくつかの実施例では、前記生体検出方法において、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することには以下を含む。
基礎データベースから前記第1の目標領域に対応する第1の検索結果を検索する。
前記基礎データベースから前記第2の目標領域に対応する第2の検索結果を検索する。
前記第1の検索結果と前記第2の検索結果に基づいて、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定する。
いくつかの実施例では、上記の第1の検索結果と第2の検索結果を得る2つのステップは同時に実行してもよく、任意の先後順序で実行してもよい。本願の実施例では限定されない。
いくつかの実施例では、基礎データベースは複数の検索待ちの目標対象の画像を含む。収集された所定の数量を満たした目標対象の画像により基礎データベースを構築してよい。基礎データベースから第1の目標領域に対応する第1の検索結果を検索してよい。第1の検索結果は検索された目標対象の画像であってもよく、検索された目標対象の画像による分析結果であってもよい。
第1の検索結果が検索された目標対象の画像である時に、第1の検索結果は第1の目標領域に完全に対応する検索待ちの目標対象の画像であってもよく、設定された照合基準に基づいて第1の目標領域と最も類似的な検索待ちの目標対象画像であってもよい。第1の検索結果が検索された目標対象の画像による分析結果である時に、第1の検索結果は第1の目標領域と検索された目標対象の画像の所定の特徴の差であってよい。基礎データベースから第2の目標領域に対応する第2の検索結果を検索することは、上記の基礎データベースから第1の目標領域に対応する第1の検索結果を検索することと同様であるため、重複説明を省略する。第1の検索結果と第2の検索結果とが一致した時に、第1の目標領域と第2の目標領域とが一致すると確定できる。第1の検索結果と第2の検索結果とが一致しない時に、第1の目標領域と第2の目標領域とも一致しないと確定できる。
本実施例では、基礎データベースから第1の目標領域と第2の目標領域を検索することで、検索結果同士の一致性の判断により、第1の目標領域と第2の目標領域との一致性を判断できる。基礎データベースから検索することにより、簡単な検索及び照合により、第1の目標領域と第2の目標領域とが一致するか否かを確定でき、判断プロセスが簡単で、動作効率が高い。
いくつかの実施例では、前記生体検出方法において、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することには、前記第1の目標領域と前記第2の目標領域との類似度を確定することと、前記類似度に基づいて、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することとを、含む。
いくつかの実施例では、第1の目標領域と第2の目標領域の全体又は特定の部分の領域により、第1の目標領域と第2の目標領域との類似度を確定してよい。例えば、目標対象が人物の顔である場合に、第1の目標領域と第2の目標領域中の鼻部領域により第1の目標領域と第2の目標領域との類似度を確定できる。
第1の目標領域と第2の目標領域の特徴をそれぞれ抽出して照合し、抽出された特徴により第1の目標領域と第2の目標領域との類似度を確定してもよい。例えば、目標対象が人物の顔である場合に、第1の目標領域と第2の目標領域中の鼻の先から瞳までの第1の距離、及び鼻の先から目じりまでの第2の距離をそれぞれ算出し、算出された2つの距離により、第1の目標領域と第2の目標領域との類似度を確定してよい。第1の目標領域と第2の目標領域との類似度を類似度閾値と比較してよく、第1の目標領域と第2の目標領域との類似度が類似度閾値より小さい時に、第1の目標領域と第2の目標領域とが一致すると確定する。必要に応じて類似度閾値を調整してよい。
本願の実施例では、第1の目標領域と第2の目標領域との類似度により、第1の顔部と第2の顔部とが一致するか否かを確認するようになっており、外部情報の導入を必要とせず、算出プロセスが簡単で容易である。
図5は本願の実施例に係る生体検出方法の別の例示的なフローチャートを示す。
ステップS50において、前記第1の目標領域と前記第2の目標領域とが一致しないと確定した場合に、前記第1の目標領域に基づいて、補正処理後の前記第2の目標領域を得る。
いくつかの実施例では、第1の目標領域と第2の目標領域とが一致しなくて後続の目標対象の生体検出結果が不精確になるという問題を回避するために、前記第1の目標領域と前記第2の目標領域とが一致しない時に、第1の目標領域に基づいて補正処理後の第2の目標領域を得てよく、補正処理後の第2の目標領域が第1の目標領域と一致する。例えば、第1の目標領域中の目標対象により、第2の画像に対して再度目標対象の検出を行い、第2の目標領域を得てよい。
ステップS20は、前記第1の目標領域と補正処理後の前記第2の目標領域により、前記目標対象のキーポイント深度情報を得るステップS24を含む。
いくつかの実施例では、補正処理後の前記第2の目標領域が第1の目標領域と一致する。前記第1の目標領域と補正処理後の前記第2の目標領域により、同一な目標対象のキーポイント深度情報を得ることができる。
本願の実施例では、第1の目標領域と第2の目標領域とが一致しない時に、前記第1の目標領域に基づいて、補正処理後の前記第2の目標領域を得てよい。第1の目標領域と補正処理後の前記第2の目標領域により得られたキーポイント深度情報は、精確な目標対象の生体検出結果を得ることに用いられる。
いくつかの実施例では、前記生体検出方法において、前記第1の目標領域に基づいて、補正処理後の前記第2の目標領域を得ることには、前記第2の画像の中で前記第1の目標領域の対応領域を確定することと、前記対応領域を前記補正処理後の前記第2の目標領域として確定することとを含む。
いくつかの実施例では、第1の目標領域の第1の画像での位置により、第2の画像から第1の目標領域の対応領域を確定してよい。例えば、第1の目標領域の第1の画像での位置はA1〜A6の合計6つの座標点の接続線により囲まれた領域であり、そのように、第2の画像において、A1〜A6の合計6つの座標点の接続線により囲まれた領域を第1の目標領域の対応領域として確定する。いくつかの実施例では、対応領域の第2の画像での位置と第1の目標領域の第1の画像での位置とが同様であり、そのように対応領域中の目標対象と第1の目標領域中の目標対象とが同様であると考えられ、対応領域が補正後の第2の目標領域である。本実施例では、第1の目標領域の第1の画像での位置により、第2の画像から対応領域を確定し、補正処理後の第2の目標領域を得る。補正方法は簡単で信頼的である。
いくつかの実施例では、前記生体検出方法において、前記第2の画像の中で前記第1の目標領域の対応領域を確定することには、以下を含む。
前記第1の目標領域のキーポイント情報により、前記第1の目標領域中のキー領域を確定する。
前記キー領域に基づいて、前記第1の目標領域の第2の画像における対応領域を確定する。
いくつかの実施例では、第1の目標領域中の全て又は一部のキーポイントのキーポイント情報により、第1の目標領域中のキー領域を確定してよい。例えば、第1の目標領域の全てのキーポイントの座標により、第1の目標領域からキー領域を確定してよく、全てのキーポイントがキー領域内に位置する。キー領域は任意形状の領域であってよい。
いくつかの実施例では、キー領域の第1の画像での位置情報により、第2の画像から第1の目標領域の対応領域を確定してよい。例えば、キー領域の境界線の座標情報により、第1の画像から対応領域を確定してよい。本実施例では、第1の目標領域中のキーポイント情報によりキー領域を確定した後、キー領域により第2の画像から対応領域を確定する。キーポイントにより得られた対応領域によって補正処理後の第2の目標領域を得て、正確度がより高くなる。
いくつかの実施例では、前記生体検出方法において、前記第2の画像の中で前記第1の目標領域の対応領域を確定することには、前記第1の目標領域のキーポイント情報に基づいて、前記第1の目標領域中の少なくとも1つのキーポイントにより囲まれた最小領域を確定することと、前記最小領域を所定の倍数拡大し、前記キー領域を得ることと、を含む。
いくつかの実施例では、第1の目標領域中の少なくとも1つのキーポイントにより最小領域を画定してよく、各キーポイントは最小領域の中に位置し又は最小領域の境界線に位置する。必要に応じて最小領域を画定するのに必要とされるキーポイントを確定してよい。いくつかの実施例では、最小領域を所定の倍数を拡大してからキー領域を得てよく、キー領域のカバー範囲がより大きくなる。キー領域の第1の画像での位置により、第2の画像中の対応位置において目標対象検出を行って、補正処理後の第2の目標領域を得てよい。本実施例では、第1の目標領域中の少なくとも1つのキーポイントにより最小領域を画定し、最小領域を所定の倍数拡大した後、キー領域を得る。キー領域のカバー範囲がより大きくなり、キー領域により第2の画像に対して目標対象検出を行い、得られた補正処理後の第2の目標領域の正確度もより高くなる。
いくつかの実施例では、前記生体検出方法において、前記第2の画像の中で前記第1の目標領域の対応領域を確定することには、前記第1の目標領域中の少なくとも1つのキーポイントを前記第2の画像にマッピングし、前記少なくとも1つのキーポイントの前記第2の画像におけるマッピング位置情報を得ることと、前記少なくとも1つのキーポイントの前記第2の画像におけるマッピング位置情報により、前記第1の目標領域の前記第2の画像における対応領域を確定することと、を含む。
いくつかの実施例では、必要に応じて、第1の目標領域から少なくとも1つのキーポイントを確定し、確定された各キーポイントの第1の画像での位置情報により、第2の画像から各キーポイントのマッピング位置情報を得てよい。例えば、キーポイント1の第1の画像での座標1、キーポイント2の第1の画像での座標2により、キーポイント1の第2の画像でのマッピング座標1’及びキーポイント2の第2の画像でのマッピング座標2’を得ることができる。
いくつかの実施例では、各キーポイントと第1の目標領域との位置関係、及び各キーポイントの第2の画像でのマッピング座標により、第2の画像から第1の目標領域の対応領域を確定してよい。例えば、第1の目標領域中のキーポイントの座標を得るために、まずカメラを定義する。双眼撮像装置中の左カメラを第1のカメラとし、右カメラを第2のカメラとしてよい。左カメラの内部パラメータ
Figure 0006844038
、右カメラの内部パラメータ
Figure 0006844038
、左右カメラの外部パラメータ[R,T]を取得する。
Figure 0006844038

Figure 0006844038
はそれぞれ左カメラと右カメラの外部パラメータ回転行列を表し、
Figure 0006844038

Figure 0006844038
はそれぞれ左カメラと右カメラの水平移動行列を表し、[R,T]が右カメラの左カメラに対する位置関係であるので、左カメラの自分に対する位置関係が変わらなく、以下の式(2−1)及び(2−2)に示す。
Figure 0006844038
(2−1)
Figure 0006844038
(2−2)
目標対象が顔部である場合に、左右カメラにより同時に撮影された顔部の画像を取得し、それぞれキーポイント抽出を行い、左右カメラにより撮影された顔部の画像画素座標系座標値として
Figure 0006844038

Figure 0006844038
(式(2−3)及び(2−4)を参照)がそれぞれ得られ、上記の既知の情報により顔部の左カメラ座標系での座標値
Figure 0006844038
が求められ、顔部の右カメラ座標系での座標値を
Figure 0006844038
(式(2−5)を参照)とする。
Figure 0006844038
(2−3)
Figure 0006844038
(2−4)
Figure 0006844038
(2−5)
式(2−4)を展開して式(2−6)が得られ、
Figure 0006844038
(2−6)
ただし、
Figure 0006844038

Figure 0006844038

Figure 0006844038

Figure 0006844038

Figure 0006844038
はすべて知られており、そのように上記の式から推算してd、sを求めることができ、最後に以下の式により顔部の左カメラ座標系での座標値
Figure 0006844038
(式(2−7)を参照)を求めることができる。
Figure 0006844038
(2−7)
上記で求められた顔部の世界座標系での座標値
Figure 0006844038
を固定し、それを既知量とし、そのように後続の生体検出中で左図の顔部キーポイント座標のみを抽出すればよく、左図の検出された顔部キーポイント座標
Figure 0006844038
を右図中の
Figure 0006844038
(式(2−8)を参照)にマッピングし、
Figure 0006844038
(2−8)
ただし、
Figure 0006844038
は以下の式(2−9)から得られ、
Figure 0006844038
(2−9)
右図にマッピングした顔部キーポイントにより右図の顔部領域を得る。
本願の実施例では、キーポイントの位置情報により、第2の画像からキーポイントのマッピング位置情報を確定し、キーポイントのマッピング位置情報により、第2の画像から第1の目標領域の対応領域を確定する。キーポイントのマッピング座標により得られた対応領域は、対応性がより高く、得られた対応領域もより精確になる。
図6は本願の実施例に係る生体検出方法の別の例示的なフローチャートを示す。
ステップS60において、前記目標対象のキーポイント深度情報に基づいて前記目標対象が生体であると確定した場合に、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定する。
いくつかの実施例では、目標対象の偽造は、目標対象の画像を含む紙写真を用いて偽造する方式を含んでよく、スマート端末により撮影された目標対象の画像を利用して偽造する方式を含んでよく、更に彫塑、金型などの立体モデルを利用して目標対象を偽造する方式を含んでよい。紙写真を利用して偽造する方式を第1次元の目標対象偽造方式とし、スクリーン中の目標対象画像を利用して偽造する方式を第2次元の目標対象偽造方式とし、立体モデルを利用して偽造する方式を第3次元の目標対象偽造方式としてよい。第1次元の目標対象偽造方式中で、紙画像中の紙写真の縁部、紙表面の光反射、紙の材質などにより抽出された情報を第1次元の偽造情報としてよい。第2次元の目標対象偽造方式中で、スクリーン縁部、スクリーン光反射、スクリーンモアレなどにより抽出された情報を第2次元の偽造情報としてよい。第3次元の目標対象偽造方式中で、モデルの表面(滑らか過ぎる皮膚)、金型自身の継目、金型と目標対象との継目などにより抽出された情報を第3次元の偽造情報としてよい。
ステップS70において、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かに応じて、前記目標対象が生体であるか否かを確定する。
いくつかの実施例では、第1の画像及び/又は第2の画像から第1次元の偽造情報、第2次元の偽造情報及び第3次元の偽造情報のうちの1種又はそれらの任意の組合せが発見された時に、目標対象が生体ではないと確認できる。第1の画像及び/又は第2の画像から単一次元による単一偽造情報、又は単一次元による複数の偽造情報の総合、及び複数の次元による複数の偽造情報の総合が発見された時に、目標対象が生体ではないと確認できる。本願の実施例では、第1の画像及び/又は第2の画像に偽造情報が存在するか否かを確定し、偽造情報が存在する時に、目標対象を非生体として確定する。第1の画像と第2の画像に様々な偽造情報が存在可能であり、生体検出の適用範囲が広く、生体検出の精度が高い。
いくつかの実施例では、前記偽造情報は、結像媒体の縁部情報、光反射情報、材質情報、ディスプレイスクリーンの縁部情報、光反射情報、モアレ情報、マスク情報、彫塑情報、マネキン情報のうちの1種又はそれらの任意の組合せを含む。
いくつかの実施例では、異なった材質の紙の表面の粒度が異なり、異なった紙の表面の光反射特徴が異なり、紙写真を利用して目標対象を偽造する時に、写真の縁部形状も規則的なものである。双眼撮像装置により紙写真を撮影して得られた画像に関しては、抽出された写真の縁部形状、紙の表面の光反射特徴の情報、及び粒度などにより表現される異なった材質の情報により、紙写真を利用した目標対象の偽造を識別できる。
スクリーンの縁部形状が規則的なものであり、スクリーンの材質は紙の材質と異なった光反射特徴を有し、スクリーンモアレはデバイス中の感光素子の高周波干渉による不規則な縞を含む。スクリーン中の画像を利用して目標対象を偽造する時に、双眼撮像装置によりスクリーンを撮影して得られた画像に関しては、抽出されたスクリーンの縁部形状、スクリーンの光反射の情報、スクリーンモアレなどの情報により、スクリーン中の画像を利用した目標対象の偽造を識別できる。立体モデルはマネキン、彫塑及びマスクなどを含む。立体モデルの表面は一般的に滑らかであり、真実な皮膚のような肌理と粒子特徴を持っていない。マスクを使用する時に、マスクと真実の顔部の間に継目も存在する。立体モデルを利用して目標対象を偽造する時に、双眼撮像装置により立体モデル又はマスクを撮影して得られた画像に関しては、立体モデルの表面又は継目の情報を識別することにより、立体モデルを利用した目標対象の偽造を識別できる。
本願の実施例では、紙写真、スクリーン又は立体モデルから抽出された情報により偽造情報を得て、様々の可能な目標対象偽造方式を識別でき、使用範囲が広い。
図7Aは本願の実施例に係る生体検出方法におけるステップS60の例示的なフローチャートを示す。
ステップS61において、前記第1の画像と前記第2の画像に対してそれぞれ特徴抽出処理を行い、第1の特徴データと第2の特徴データを得る。
いくつかの実施例では、第1の画像に対して第1の畳み込み処理を行って第1の特徴データを得てよい。第2の画像に対して第2の畳み込み処理を行って第2の特徴データを得る。第1の畳み込み処理と第2の畳み込み処理は同一な畳み込み処理であってよく、異なる畳み込み処理であってもよい。必要に応じて第1の畳み込み処理のパラメータと第2の畳み込み処理のパラメータを設置して、第1の画像の第1の畳み込み処理結果と第2の画像の第2の畳み込み処理結果を得てよい。
いくつかの実施例では、深層ニューラルネットワークを用いて、前記第1の画像と前記第2の画像に対してそれぞれ特徴抽出処理を行い、第1の特徴データと第2の特徴データを得てよい。前記深層ニューラルネットワークは少なくとも第1の畳み込み層と第2の畳み込み層を含み、前記第1の畳み込み層は第1の画像に対して第1の畳み込み処理を行って第1の畳み込み処理結果を得、前記第2の畳み込み層は第2の画像に対して第2の畳み込み処理を行って第2の畳み込み処理結果を得る。
いくつかの実施例では、前記深層ニューラルネットワークは2つのブランチを含んでよく、例えば、第1のブランチは複数の第1の畳み込み層を含んでよく、第2のブランチは複数の第2の畳み込み層を含んでよい。前記深層ニューラルネットワークは入力層、全結合層などを更に含んでよい。必要に応じて、複数の第1の畳み込み層と複数の第2の畳み込み層のパラメータは同一であってもよく、異なってもよい。トレーニング写真セットを用いて深層ニューラルネットワークをトレーニングしてよく、トレーニングプロセス中で、設置された損失関数により、深層ニューラルネットワークに対して逆伝播を行い、そのようにして、次回にトレーニングされる入力はパラメータを逆伝播により調整された深層ニューラルネットワークによって更に予想に合致するようになる。設定されたトレーニング条件を満たした場合に、例えば出力による損失が所定の閾値に達し、又は所定の回数トレーニングされた後、深層ニューラルネットワークが収束条件を満たすと考えられ、トレーニングを停止し、トレーニングされた深層ニューラルネットワークを得る。
いくつかの実施例では、前記第1の特徴データ又は第2の特徴データは、ローカルバイナリパターン特徴、スパースコーディングヒストグラム特徴、色特徴、全画像特徴、領域特徴、細部特徴のうちの1種又はそれらの任意の組合せを含む。
ローカルバイナリパターン(LBP、Local Binary Patterns)特徴は画像の局所の模様情報の計測と抽出を主な作用とし、光照射に対して不変性を有する。ローカルバイナリモデル特徴を利用することで、第1の画像又は第2の画像中の縁部の情報を強調することができる。例えば、紙写真の縁部とスクリーンの縁部を強調することができる。スパースコーディングヒストグラム(HSC、Histogram of Sparse Code)特徴はスパースコーディング原理を利用して画像特徴を抽出する方法を含み、スパースコーディングヒストグラム特徴を利用することで、第1の画像又は第2の画像中の光反射情報とボケ情報をより明らかに示すことができる。色(RGB、Red Green Blue)特徴は画像中の様々な色の特徴を含み、色特徴を利用することで、第1の画像又は第2の画像中の様々な目標物体の形状、輪郭などの情報を抽出できる。画像の全画像特徴は画像中の全領域の特徴を含み、全画像特徴に基づいて、第1の画像又は第2の画像中の各領域に存在可能な偽造情報を抽出できる。画像の領域特徴は画像から検出された顔部の所在する領域中の特徴を含み、領域特徴に基づいて、第1の画像又は第2の画像中の光反射、スクリーンモアレの縁部などの偽造情報を抽出できる。画像の細部特徴は画像における設定された細部領域又は形状を含み、細部特徴に基づいて、第1の画像又は第2の画像中の異なった細部部分の偽造情報を抽出できる。例を挙げると、第1の画像と第2の画像中に第1次元の偽造情報を含む時に、ローカルバイナリパターン、スパースコーディングヒストグラムなどの画像特徴により第1の画像と第2の画像中の縁部、光反射又は材質などの情報を抽出し、更に抽出された画像情報により第1の画像と第2の画像中の紙写真の縁部、紙の光反射及び紙写真の材質などの第1次元の偽造情報を識別することができる。異なった画像特徴方法を利用することで、第1の画像と第2の画像中の異なった偽造方式による偽造情報をより全面的に抽出できる。
ステップS62において、前記第1の特徴データと前記第2の特徴データに基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定する。
いくつかの実施例では、第1の畳み込み処理結果と第2の畳み込み処理結果は同様な偽造情報の識別に用いてもよく、異なった偽造情報の識別に用いてもよい。いくつかの実施例では、トレーニングされた深層ニューラルネットワークを利用して第1の画像と第2の画像に対して畳み込み処理を行い、畳み込み処理結果により第1の画像と第2の画像に存在可能な複数の次元の偽造情報を得、第1の画像と第2の画像に偽造情報が存在するか否かを判断することができる。
深層ニューラルネットワークの処理能力を利用することで、必要に応じて第1の画像と第2の画像中の複数種の偽造特徴を同時に抽出できる。深層ニューラルネットワークの強い記述能力を利用してモデル化して、大規模のデータトレーニング学習により、複数の次元の偽造特徴を学習でき、被撮影者との対話が必要とされない。
本願の実施例では、前記第1の画像と前記第2の画像からそれぞれ抽出された第1の特徴データと第2の特徴データにより、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定する。深層ニューラルネットワークの反復更新により、異なった場合の生体検出に速やかに対処でき、応用範囲が広く、判断結果が精確である。
いくつかの実施例では、前記の前記第1の特徴データと前記第2の特徴データに基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することには、以下を含む。
前記第1の特徴データと前記第2の特徴データに対して融合処理を行い、融合特徴を得る。
前記融合特徴に基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定する。
いくつかの実施例では、第1の畳み込み処理結果と第2の畳み込み処理結果はベクトルの形式であってよい。第1の畳み込み処理結果と第2の畳み込み処理結果に対して融合処理を行ってから融合特徴を得てよい。融合特徴は第1の画像と第2の画像中の偽造情報を含んでよい。第1の特徴データを得るための第1の畳み込み処理と第2の特徴データを得るための第2の畳み込み処理とが相違する時に、例えば、第1の畳み込み処理は第1の画像中の第1次元の偽造情報に対する畳み込み処理に利用可能であり、第2の畳み込み処理は第2の画像中の第2次元の偽造情報に対する畳み込み処理に利用可能である。第1の畳み込み処理結果と第2の畳み込み処理結果を融合して得られた融合特徴は、第1の画像と第2の画像の中に第1次元及び/又は第2次元の偽造情報が存在するか否かを判断するために利用可能である。第1の特徴データを得るための第1の畳み込み処理と第2の特徴データを得るための第2の畳み込み処理とが同様である時に、例えば、第1の畳み込み処理は第1の画像中の第1次元の偽造情報に対する畳み込み処理に利用可能であり、第2の畳み込み処理は第2の画像中の第1次元の偽造情報に対する畳み込み処理にも利用可能である。第1の畳み込み処理結果と第2の畳み込み処理結果を融合して得られた融合特徴は、第1の画像と第2の画像の中に第1次元の偽造情報が存在するか否かを判断するために利用可能である。第1の特徴データと第2の特徴データは相互に実証して、第1の画像と第2の画像中の第1次元の偽造情報をより精確に識別できる。
本願の実施例では、第1の特徴データと前記第2の特徴データを融合することにより、融合特徴を得る。融合特徴により第1の画像及び/又は第2の画像の中に偽造情報が存在するか否かをより全面的且つ精確に判断できる。
いくつかの実施例では、前記生体検出方法は前記第1の画像と前記第2の画像がフレーム選択条件を満たすか否かを確定することを更に含む。前記の前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることには、前記第1の画像と前記第2の画像がフレーム選択条件を満たしたと確定した場合に、前記第1の目標領域と前記第2の目標領域により、目標対象のキーポイント深度情報を得ることを含む。
いくつかの実施例では、前記フレーム選択条件は、
第1の画像と第2の画像のいずれからも前記目標対象が検出されたこと、
第1の画像の中で検出された目標対象が前記第1の画像の設定領域に位置し且つ前記第2の画像の中で検出された目標対象が前記第2の画像の設定領域に位置すること、
前記第1の画像と前記第2の画像の中で検出された目標対象の完全性が所定の条件を満たしたこと、
前記第1の画像の中で検出された目標対象の前記第1の画像に占める割合が割合閾値より大きく且つ前記第2の画像の中で検出された目標対象の前記第2の画像に占める割合が前記割合閾値より大きいこと、
第1の画像と第2の画像の鮮鋭度が鮮鋭度閾値より大きいこと、
第1の画像と第2の画像の露光度が露光度閾値より大きいことのうちの一つ又はそれらの任意の組合せを含む。
いくつかの実施例では、第1の画像と第2の画像の一方のみから目標対象が検出された時に、第1の画像と第2の画像がフレーム選択条件を満たしておらず、第1の目標領域と第2の目標領域を得るために第1の画像と第2の画像から目標対象を検出しない。
いくつかの実施例では、第1の画像と第2の画像の中で検出された目標対象の位置が設定された中心領域内に存在しない時に、又は検出された目標対象の完全性が設定された完全性閾値より小さい時に、例えば検出された目標対象には縁部の画像を含まなく、又は目標対象が画像で占める割合が2分の1より小さい時に、又は第1の画像と第2の画像の鮮鋭度が低過ぎる時に、又は第1の画像と第2の画像の露光度が低過ぎる時に、第1の画像と第2の画像がいずれもフレーム選択条件を満たさなく、第1の目標領域と第2の目標領域を得るために第1の画像と第2の画像から目標対象を検出しない。いくつかの実施例では、第1の画像と第2の画像がフレーム選択条件を満たした時に、第1の画像と第2の画像が要求に合致し、第1の画像と第2の画像の中で検出された目標対象も要求に合致したと考えられ、目標対象のキーポイント深度情報を得るために利用可能である。本願の実施例では、フレーム選択条件を満たした第1の画像と第2の画像を利用することで、より精確な目標対象のキーポイント深度情報を得て、より精確な生体検出の結果を得ることができる。
いくつかの実施例では、近赤外線カメラによりスクリーン中の画像情報を取得できない。従って、一方のカメラが近赤外線カメラであり、他方のカメラが可視光カメラである双眼撮像装置を利用してスクリーン中の画像を撮影する時に、可視光カメラにより撮影された画像から目標対象が検出されるが、近赤外線カメラにより撮影された画像から目標対象が検出されないことがある。暗光条件下のデュアルチャンネルカメラは近赤外線カメラと同様に、いずれもスクリーン中の画像情報を取得できない。双眼撮像装置中の一方のカメラが近赤外線カメラ又は暗光条件下のデュアルチャンネルカメラであり、他方のカメラが可視光カメラ又は光線が暗くない条件下のデュアルチャンネルカメラである時に、双眼撮像装置により得られた画像を直接生体検出に利用可能である。
いくつかの実施例では、双眼撮像装置は一方のカメラが近赤外線カメラ又は暗光条件下のデュアルチャンネルカメラであり、他方のカメラが可視光カメラ又は光線が暗くない条件下のデュアルチャンネルカメラであるものとならない時に、双眼撮像装置により同時に撮影されたビデオから一対のフレーム画像を切り出し、前記の一対のフレーム画像に対してそれぞれ目標対象検出を行い、その時に少なくとも1つのフレーム画像から目標対象が検出されなかった時に、この一対のフレーム画像を排除し、次の一対のフレーム画像に対する目標対象検出を継続する。設定数量を超えた複数対のフレーム画像からも目標対象が同時に検出されなかった場合に、目標対象が非生体であると判定するか又は生体検出を終了してよい。
いくつかの実施例では、前記生体検出方法は、前記第1の画像と前記第2の画像のうちの少なくとも1つの画像がフレーム選択条件を満たしていない場合に、ビデオストリーム中の次の画像ペアがフレーム選択条件を満たすか否かを確定することと、所定の期間又は所定の数量の画像ペアに達し且つ前記ビデオストリームからフレーム選択条件を満たした画像ペアが発見されなかった場合に、前記ビデオストリームを偽造ビデオストリームとして確定することと、を更に含む。
いくつかの実施例では、1つのビデオストリーム中の1つの画像ペアがフレーム選択条件を満たしていない時に、ビデオストリームから次の画像ペアを選択し、フレーム選択条件を満たすか否かを判断することを継続する。いくつかの実施例では、所定の期間に達したが1つのビデオストリームからフレーム選択条件を満たす画像が発見されなかった時に、ビデオストリームが偽造ビデオストリームであると考えられる。例えば、所定の期間をN秒とし、開始時刻からN秒目まで、ビデオストリームからフレーム選択条件を満たす画像ペアが発見されなかった時に、ビデオストリームを偽造ビデオストリームとして確定してよい。又はビデオストリーム中の所定のM対の画像からフレーム選択条件を満たす画像ペアが発見されなかった時に、ビデオストリームを偽造ビデオストリームとして確定してよい。
本願の実施例では、所定の期間又は所定の数量に達した画像ペアからフレーム選択条件を満たす画像ペアが発見されなかった時に、ビデオストリームを偽造ビデオストリームとして確定する。ビデオストリームの検出効率を高めることができる。
いくつかの実施例では、前記第1の画像センサ又は前記第2の画像センサは、可視光カメラ、近赤外線カメラ、デュアルチャンネルカメラのうちの1種を含む。可視光カメラは可視光を物体に照射してビデオ画像を形成するカメラである。近赤外線カメラは近赤外線を物体に照射してビデオ画像を形成するカメラである。デュアルチャンネルカメラはデュアルチャネル(Rチャネルを含む)結像原理を利用してビデオ画像を形成するカメラを含む。双眼撮像装置中の2つのカメラは同様なタイプのカメラであってもよく、異なったタイプのカメラであってもよい。例えば、双眼撮像装置Aの2つのカメラはいずれも可視光カメラであり、双眼撮像装置Bの2つのカメラはそれぞれ可視光カメラと近赤外線カメラであり、双眼撮像装置Cの2つのカメラはそれぞれ可視光カメラとデュアルチャンネルカメラであり、双眼撮像装置Dの2つのカメラはいずれもデュアルチャンネルカメラである。顔部偽造防止検出の要求に応じて、異なった型式のカメラを配置した双眼撮像装置を用いてもよい。
本願の実施例では、必要に応じて双眼撮像装置中の2つのカメラのタイプを選択してよく、2つのカメラのタイプは同様であってもよく、異なってもよく、適応範囲がより広く、拡張可能性がより高くなる。
いくつかの実施例では、前記生体検出方法は、前記第1の画像と前記第2の画像のうちの少なくとも1つの画像に対して、画像タイプ調整、サイズ調整、zスコア正規化処理、輝度調整のうちの1種又はそれらの任意の組合せを含む前処理を行うことを更に含む。
前記の前記第1の画像センサに撮影された第1の画像に対して目標対象検出を行い、第1の目標領域を得、前記第2の画像センサに撮影された第2の画像に対して目標対象検出を行い、第2の目標領域を得ることには、前記前処理後の第1の画像に対して目標対象検出を行い、第1の目標領域を得、前記前処理後の第2の画像に対して目標対象検出を行い、第2の目標領域を得ることを含む。
いくつかの実施例では、双眼撮像装置中の2つのカメラのタイプは異なってもよく、第1の画像と第2の画像のフォーマットは異なってもよい。例えば、カメラのタイプが可視光カメラである時に、撮影された画像のタイプが可視光画像となり、カメラのタイプが近赤外線カメラである時に、撮影された画像のタイプが近赤外画像となり、カメラのタイプがデュアルチャンネルカメラである時に、撮影された画像のタイプがデュアルチャンネル画像となる。カメラの型式によっては、可視光画像、近赤外画像及びデュアルチャンネル画像は様々な画像フォーマットを有してよい。第1の画像と第2の画像の画像フォーマットが異なった時に、第1の画像と第2の画像を同一な画像フォーマットに処理してよい。例えば、第1の画像と第2の画像をbmp形式、jpg形式などに処理する。第1の画像と第2の画像のサイズが同一になるように、第1の画像と第2の画像のサイズを調整してよく、本願の実施例の後続の処理ステップで、同一なサイズの第1の画像と第2の画像により、顔部検出をより精確に行うことができる。処理された第1の画像と第2の画像のデータが標準正規分布に合致し、後続の処理ステップでより精確な検出結果を得るように、第1の画像と第2の画像に対してZスコア(z−score)正規化処理を行ってよい。第1の画像と第2の画像に対して輝度調整を行ってよい。例えば、第1の画像及び/又は第2の画像の画像タイプが可視光画像である時に、輝度調整を行ってよい。第1の画像と第2の画像に対してヒストグラム平坦化に基づく暗光線改善処理を行ってよい。双眼撮像装置を用いる時に、被撮影者の被検出顔部が暗光条件にある可能性があり、暗光条件下の被検出顔部を撮影して得られた第1の画像と第2の画像の輝度値が低くて、顔部偽造防止検出結果の正確性に影響しやすい。輝度調整を行った画像は画像中の輝度分布を再度調整可能であり、そのように本来暗光条件下で撮影された第1の画像と第2の画像は、本願の実施例の顔部偽造防止検出方法の画像品質への要求を満たせるようになり、そのようにしてより精確な偽造防止検出結果を得る。輝度調整は強光条件下で撮影された第1の画像と第2の画像の輝度調整を更に含む。
本願で言及される上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて、組合せ後の実施例を形成することができることが理解され、紙数に限りがあるので、本願では詳細な説明を省略する。
以下、顔偽造防止に用いる場合を例として上記実施例で言及された生体検出を説明する。顔偽造防止は情報セキュリティ、偽造防止の技術分野の重要な課題となっている。現在、顔偽造防止技術を用いてID情報検証識別を行っており、一般的に顔偽造防止と対話型生体検出を組み合わせ、又は直接単眼カメラを用いて独立した偽造防止検出を行う。本願の実施例で提供される双眼カメラに基づく人顔偽造防止検出アルゴリズムにおいて、双眼カメラで撮った対応顔画像が取得され、2枚の顔画像中の視差情報により偽造顔であるか否かが判断され、ここで、双眼カメラは、可視光カメラと可視光カメラ、可視光カメラと近赤外線カメラ、可視光カメラとデュアルチャンネルカメラ、デュアルチャンネルカメラとデュアルチャンネルカメラなどを含むが、それらに限定されなく、該技術手段の拡張性が高く、様々なカメラタイプに適応可能である。
本願の実施例で提供される技術手段は以下の少なくとも1つの有用な効果を有する。(1)双眼カメラにより収集された2枚の画像の視差情報を用いて顔偽造判断を行って、双眼カメラにより得られた顔深度情報を効果的に利用して、顔偽造防止検出を支援することができ、例えば双眼カメラにより収集された左右画像から検出された人物の顔が一致しないという問題、単眼カメラによる2D及び2.5D偽造顔の判断精度が高くないという問題などの実際応用での様々な技術的難題を解決できる。(2)システムコマンドにより様々の複雑な動作を行う必要がある偽造防止検出方式と比べると、双眼に基づく顔偽造防止検出プロセスで対話が基本的に必要とされず、生体検出のフローが大幅に簡単化され、被検出者が双眼カメラに正対して光線と位置を好適に調整すればよい。(3)深層学習機構を用いた顔偽造特徴のモデル化により、偽造情報の識別がより精確になり、真実な人物の顔と偽造した人物の顔をより好適に区別でき、様々な偽造顔の攻撃を防御できる。深層学習機構を用いて顔の偽造防止の問題を解決するため、深層ニューラルネットワークの強い記述能力によりモデル化を行うことができ、大規模のデータトレーニングにより、人の目に観測可能な複数の次元の真実顔と偽造顔の間の差異を学習することができる。なお、深層学習により共通の顔偽造防止解決策を実現することで、反復更新をライムリに行うことができ、新しく現れる偽造状況に速やかに対処して偽造防止検出を行うことができる。(4)他の解決策と比べると、拡張性が高く、反復方式が容易であり、人物の顔の偽造情報の検出正確率を効果的に高めることができる。(5)本願の実施例では様々な偽造手がかりに対して複数の特徴を融合する方式が採用され、人の目に観測可能な異なる次元の偽造情報が検出され、1)紙の顔の縁部、紙表面の光反射、紙の材質などの2D次元の偽造情報、2)顔画像又はビデオ複製装置のスクリーン縁部、スクリーンの光反射、スクリーンモアレなどの2.5D次元の偽造情報、3)マスク、マネキン、彫塑類の顔偽造マスクと顔の継目又は滑らか過ぎる皮膚などの3D次元の偽造情報のような顔偽造情報(又は偽造特徴という)が検出され、それにより複数種の偽造攻撃を防御する。
本願の実施例で提供される方法、装置などは、実施される時にアプリケーション(Appと略称する)により実現可能である。実際の応用中で、ユーザが顔偽造防止検出により本人認証を行う時に、本願の実施例で提供される方法を実現可能なアプリケーションを動作させ、人物の顔が画面に存在するように双眼カメラに正対し、数秒間保持すれば、顔偽造防止検出を完成し合格することができる。ユーザが事前に用意した顔偽造ビデオ又は写真などを用いて本人認証を行い、双眼カメラに正対するようにビデオ又は写真をディスプレイスクリーンに放送する場合に、特定の時間内に顔偽造防止検出に合格できなく、偽造防止検出に失敗することになる。
図7Bは本願の実施例に係る人物の顔の生体検出方法の例示的なフローチャートを示す。
ステップS701において、被検出顔画像を取得し、取得された被検出顔画像に基づいて、被検出顔画像中の顔画像を得る。
該被検出顔画像は単独した顔画像又は顔の書類付き画像であり、本願の実施例では顔画像の具体的な実現は限定されない。また、被検出顔画像は静止画像又はビデオフレーム画像であってよく、ここで、被検出顔画像がビデオフレーム画像である場合に、ビデオフレームシーケンスに対してフレーム選択を行うことにより、被検出顔画像を得ることができ、本願の実施例では限定されない。
いくつかの実現形態では、ステップS701は、
双眼カメラにより撮影された被検出画像ペア又はビデオペアを取得し、前処理を行うステップS711と、
被検出画像に対して順に顔検出、顔キーポイント検出及び顔領域分割処理を行い、被検出画像中の顔領域画像を得るステップS712と、を含む。
実現する時に、双眼カメラにより現場にて撮影された複数枚の顔画像を取得してよい。ここで、入力ファイルのタイプが異なる場合に、入力インタフェースファイルのタイプを画像類ファイルに統一する必要がある。画像類ファイルに対して必須な画像前処理操作のみを行い、その後ネットワークに入力されることを待ち、ビデオ類ファイルに対して、フレーム選択操作を行う必要があり、フレーム選択操作により取得された画像に対して画像前処理操作を行い、その後ネットワークに入力されることを待つ。ここで、フレーム選択操作は一部のビデオから少なくとも一対の画像を選択して被検出画像とするために用いられ、該被検出画像として双眼カメラにより同時に撮影された一対の画像を選択することが要求され、選択された画像の品質が高く要求され、最後にこの少なくとも一対の被検出画像の中に偽造情報が存在するか否かを検出する。ここで、画像品質は、目標が画像中心に位置するか否か、例えば顔が完全に画像中に含まれるか否か、顔表面が画像面積で占めた割合、画像鮮鋭度、露光度などの標準の1つ又は複数により評価することができる。いくつかの実現形態では、選択された高品質の画像は、顔が画像中心に位置し、顔縁部が完全に画像中に含まれ、顔が画像で占めた割合が約1/2−3/4であり、画像鮮鋭度が高く、露光度が高い条件を満たすことができる。上記の選択に関しては、設定されたアルゴリズムにより、顔画像が向く方向、鮮鋭度、光線輝度などの指標を自動的に検出でき、特定された基準により、被検出ビデオ全体から指標が最も望ましい一対又は複数対の画像を選択し、又は別々の対話モジュールからそれぞれ一対又は複数対の画像を選択する。ここで、画像前処理操作はサイズ調整、z−score正規化、ヒストグラム平坦化に基づく暗光改善などの1種又は複数種を含む。前処理操作は主にネットワークに入力する画像のサイズを統一し、処理されたデータを標準正規分布に合致させる作用を果たす。また、ヒストグラム平坦化に基づく暗光改善前処理操作の主な作用に関しては、実際の顔偽造防止検出中で顔部が暗光条件にあることが可能であり、このような場合に顔偽造防止の正確性に影響しやすく、暗光改善をなされた画像は画像輝度分布を再度調整可能であり、そのように本来暗光条件下で撮影された画像は偽造防止検出の画像品質への要求を満たせるようになり、そのようにしてより精確な偽造防止検出結果が得られ、また、暗光改善操作は一般的に可視光カメラにより撮影された画像のみに用いられる。
いくつかの実施例では、画像前処理とフレーム選択操作などを行ってから取得された画像に対して更に以下の操作を行う必要がある。1)顔検出:双眼カメラから取得された左右の2枚の画像からそれぞれ顔領域位置を検出し、且つ顔領域矩形枠座標をフィードバックし、ここで、該顔検出は相対的に粗くて、検出された顔領域に更なる調整と微細化が必要とされる。2)顔キーポイント検出:上記顔検出で取得された顔画像から顔の所定の数量のキーポイントの座標を抽出し、例えば106又は240個のキーポイント座標を抽出する。3)顔領域分割:顔キーポイント座標を用いて具体的な顔位置領域を確定し、例えばキーポイントにより最小矩形を確定し、且つこの最小矩形を更に特定の倍数、例えば1/5〜2/3倍外へ拡張し、この拡張された矩形枠を最終的な顔領域とする。
2枚の画像中の顔領域を取得してから後続の顔偽造防止検出を行うことができる。
ステップS702において、顔画像に対して顔偽造防止事前検出を行う。
上記の処理で得られた2枚の顔画像を深層ニューラルネットワークに入力して顔偽造防止検出を行う前に、更に顔偽造防止事前検出を行う必要がある。いくつかの可能の実現形態で、該事前検出は、1)タイプが異なったカメラの特徴により事前検出を行うこと、2)双眼カメラにより同時に検出された顔画像に対して顔の一致性を判断すること、3)双眼カメラにより同時に取得された顔画像に対して顔深度情報抽出を行い、該深度情報を用いて偽造防止事前検出を行うことの少なくとも一項を含む。
この態様に適用されるカメラは、可視光カメラ、近赤外線カメラ、デュアルチャンネルカメラなどを含むが、それらに限定されない。異なったタイプのカメラに異なった特徴を有する。例えば、可視光カメラは、例えば、紙の顔の縁部、紙表面の光反射、紙の材質などの2D次元の偽造手がかり、顔画像又はビデオ複製装置のスクリーン縁部、スクリーンの光反射、スクリーンモアレなどの2.5D次元の偽造手がかり、マスク、マネキン、彫塑類の顔偽造マスクと顔の継目又は滑らか過ぎる皮膚などの3D次元の偽造手がかりのような人の目に観測可能な様々なタイプの偽造手がかり情報を撮ることができる。近赤外線カメラは暗光条件下で可視光カメラにより精確に取得できない顔部画像情報を撮ることができ、また近赤外線カメラはスクリーンから複製した顔画像情報を取得できなく、後続の検出フローで2.5Dの偽造手がかりの干渉を直接防止でき、それに基づいて顔偽造防止検出を行う。デュアルチャンネルカメラは強光条件下の可視光カメラ類の特徴と暗光条件下の近赤外線カメラ類の特徴を兼備し、暗光条件下で同様にスクリーンから複製した顔画像情報を取得できなく、後続の検出フローで2.5Dの偽造手がかりの干渉を直接防止でき、それに基づいて顔偽造防止検出を行う。
いくつかの実施例では、各種のカメラ特徴に基づいて顔画像に対して顔偽造防止事前検出を行うプロセスは図7Cに示すように、
双眼カメラにより撮影された画像を取得するステップS731と、
左右の2枚の画像に対してそれぞれ顔検出を行うステップS732と、を含む。少なくとも1枚の画像から人物の顔が検出されなかった場合に、ステップS733に移行し、左右の2枚の画像から全て人物の顔が検出された場合に、ステップS734に移行する。
ステップS733において、限定期間を超えても左右の2枚の画像から顔領域が同時に検出されなかった場合に、例えば「顔偽造防止事前検出に合格しなかった」又は「検出タイムアウト」などのような提示情報が出力される。
双眼カメラにより撮影された画像シーケンス又はビデオシークエンスを取得した後、画像シーケンス又はビデオシークエンスに含まれる同時に収集された左右の2枚の画像に対してそれぞれ顔検出を行い、その一方の画像から人物の顔が検出されなく又は2枚の画像のいずれからも人物の顔が検出されなかった場合に、フレーム選択を継続して顔検出を行い、限定期間を超えたが、依然として左右の2枚の画像から顔領域が同時に検出されなかった場合に、直接偽造顔であると判定したり、例えば「検出タイムアウト」のような提示情報を出力してよい。
ステップS734において、左右の顔画像の一致性判断を行う。左右顔画像が一致しなかった場合に、ステップS735に移行し、左右の顔画像が一致した場合に、ステップS736に移行する。選択可能に、更に顔偽造防止事前検出に合格したか否かの判定結果が出力されてもよい。
実際に応用する場合に、同一の画面に複数の真実の顔が現れ又は同一の画面に真実の顔と偽造した顔が同時に現れることがある。この時に、左右の画像から検出された顔領域が同一の顔に対応することを確保するために、顔偽造防止検出を行う前に、左右画像から検出された、偽造判断を待つ顔領域に対して一致性検証を行う必要がある。いくつかの実施例では、左右画像から検出された顔領域を取得した後、2つの顔領域に対して顔類似性判断を行って、2つの顔領域が同一の人物に対応するか否かを比較する。別の可能な実現形態では、左右画像から検出された顔領域に対してそれぞれ顔識別を行い、具体的に、2つの顔領域をそれぞれ基礎データベースに格納された顔見本と照合して、2枚の画像から検出された顔領域が同一の目標顔に対応するか否かを確定する。別の可能な実現形態では、他の方式を用いて顔一致性検証を行い、本願の実施例では限定されない。
ステップS735において、顔画像の一致性補正を行う。
いくつかの実施例では、顔領域をマッピングする方式により一致性補正を行う。具体的には、左右画像を取得した後、まず左図(又は右図)に対して顔検出と顔キーポイント検出を行って、顔キーポイントの位置情報を得、また、顔キーポイントの位置情報を用いて左図中の顔位置領域を確定し、一例において、キーポイントの位置情報により最小矩形を確定し、且つ該最小矩形を更に特定の倍数、例えば2/5〜2/3倍外へ拡張し、拡大された領域を得、そしてこの拡大された領域を右図中の領域範囲にマッピングして顔検出の目標領域とし、最後に、該マッピング領域から右図における左図から検出された顔領域に対応する顔画像を検出する。
別のいくつかの実施例では、キーポイントマッピングの方式により一致性補正を行う。具体的には、双眼カメラを定義し、特定のカメラ又は特定のバッチのカメラの内部パラメータと外部パラメータを取得し、そして特定のアルゴリズムにより左図(又は右図)から抽出された顔キーポイントの位置を右図(又は左図)にマッピングし、そのように右図(又は左図)にマッピングした顔キーポイントの位置が右図(又は左図)中の顔対応位置に合致するようになり、それにより一致性を有する左右顔領域が得られる。一例において、該特定のアルゴリズムについて式(2−1)〜式(2−9)の説明を参照する。
ステップS736において、顔キーポイントの深度情報抽出を行い、抽出された顔キーポイントの深度情報に基づいて偽造防止事前検出結果を確定する。このステップにおいて、顔キーポイントの深度情報の抽出アルゴリズムの説明についてステップS22の式(1−1)〜式(1−7)を参照してよい。
上記偽造防止事前検出において、深度情報を用いて、例えば紙の顔などの2D次元の偽造手がかり、携帯電話又はスクリーン複製などの2.5D次元の偽造手がかりのような偽造情報を直接検出して、このような顔偽造防止検出を効果的に行うことができる。顔キーポイントの深度情報の抽出アルゴリズムの説明についてステップS22の式(1−1)〜式(1−7)を参照してよい。
上記事前検出による偽造防止検出の効果は、主に、双眼カメラ中の少なくとも1つのカメラに近赤外線カメラを採用し又は暗光条件下で少なくとも1つのカメラにデュアルチャンネルカメラを採用した場合に、携帯電話又はコンピュータスクリーンから複製した偽造顔のような2.5D次元の偽造手がかりに対して効果的な顔偽造防止検出を行えることで高められる。
ステップS703において、顔偽造防止検出深層学習ネットワークにより偽造防止検出を行う。
具体的には、深層学習ネットワークを利用して左右の顔領域に偽造情報が存在するか否かを検出し、上記の被検出画像ペアに対して偽造防止検出を行う。顔偽造防止検出の実現において、深層学習ネットワークを用いて偽造情報特徴のモデル化と偽造情報特徴の判定を行う。判定プロセスで、まず上述した内容に従って取得された被検出画像に対して顔偽造防止事前検出を行い、顔偽造防止事前検出に合格しなかった場合に、例えば「顔偽造防止検出に合格しなかった」又は「検出タイムアウト」などの提示情報が出力され、顔偽造防止事前検出に合格した場合に、左右の顔の分割領域画像を得た後、深層学習ネットワークを用いて上記の顔領域画像に偽造情報が存在するか否かを検出して、上記の被検出画像に対して偽造防止検出を行う。三つの検出(2D、2.5D、3D)のいずれか1つで偽造手がかりが検出された場合に、被検出画像に偽造手がかりを含むと判定し、顔偽造防止検出に合格しなかたと出力する。逆には、顔偽造防止検出に合格した提示情報を出力し又はユーザに要求される操作を実行する。
いくつかの実現形態では、深度ネットワークを用いて被検出画像に対して特徴抽出を行い、且つ抽出された特徴に偽造情報を含むか否かを判断する。抽出された特徴は、ローカルバイナリパターン(LBP)特徴、スパースコーディングヒストグラム(HSC)特徴、色(RGB)特徴、パノラマグラム(LARGE)特徴、領域(SMALL)特徴、細部(TINY)特徴の任意の複数項を含むが、それらに限定されない。応用において、更に深層ニューラルネットワークモデルを予めトレーニングすることにより、抽出された特徴に上記偽造情報特徴が含まれるか否かの判断を学習することができ、その後、これらの偽造情報特徴を含む画像が深層ニューラルネットワークに入力された後いずれも検出される。抽出された特徴に上記の偽造情報特徴の1つ又は複数を含む場合に、被検出画像を偽造顔画像と判断してよく、逆には真実の顔画像とする。該特徴抽出及び判断操作は全て上記のトレーニングされた深層ニューラルネットワークにより完成される。上記の偽造特徴トレーニングを行った深層ニューラルネットワークにより少なくとも一対の被検出画像から分割した顔領域画像に対してそれぞれ総合特徴抽出と特徴融合を行う。該深層ニューラルネットワークは、より複雑なモデルを採用し、2つのブランチに分けて左右の顔領域情報に対してそれぞれ特徴のモデル化を行い、各部分の特徴をそれぞれ抽出した後、2つの特徴ベクトルを結合し、統一した偽造防止検出判別機構を構築し、上記結合後の特徴ベクトルを該判別機構に入力し、2つの画像から抽出された特徴に偽造情報を含むか否かの結果を同時を得る点で、単独して顔検出に用いる一般のネットワーク構成と異なっている。2つの画像のいずれか1つから偽造情報が検出された場合に、被検出画像に偽造情報を含むと判定し、顔偽造防止検出に合格しなかったと出力する。逆には、顔偽造防止検出に合格したと出力する。深層ニューラルネットワークは、抽出された総合特徴に複数種の偽造情報中のいずれか1種を含むか否かに応じて、被検出画像に偽造手がかりを含むか否かを検出し、被検出画像が偽造画像の顔の書類付き画像であるか否かの偽造防止検出結果を得る。例えば、入力された偽造顔画像がビデオ複製デバイによる顔画像であれば、深層ニューラルネットワークに基づいて抽出された特徴には顔画像又はビデオ複製デバイスのスクリーン縁部、スクリーンの光反射、スクリーンモアレなどの2.5D次元の偽造手がかりを含むSMALL特徴が含まれ、深層ニューラルネットワークに基づいて抽出された特徴は分類器により上記のいずれか1種の偽造特徴がないと判断された場合に、この場合に抽出された総合特徴に偽造情報を含まないと判断する。全ての被検出画像に何の偽造情報も存在しない場合に、被検出ビデオ又は画像が顔偽造防止検出に合格したとする。逆には、任意の一対の被検出画像に複数種の偽造情報中のいずれか1種又は複数種が存在する場合に、被検出ビデオ又は画像が顔偽造防止検出に合格しなかったとする。
本願の実施例で提供された技術手段において、双眼カメラにより収集された2枚の画像の視差情報を用いて顔偽造判断を行って、例えば双眼カメラにより収集された左右画像から検出された人物の顔が一致しないという問題、単眼カメラによる2D及び2.5D偽造顔の判断精度が高くないという問題などの実際応用での様々な技術的難題を解決できる。また、深層学習機構を用いて顔の偽造防止の問題を解決するため、深層ニューラルネットワークの強い記述能力によりモデル化を行うことができ、大規模のデータトレーニングにより、人の目に観測可能な複数の次元の真実顔と偽造顔の間の差異を学習することができ、それにより複数種の偽造顔の攻撃を防御し、少ない対話が必要とされる偽造顔検出のための解決策となる。
また、本願の実施例は画像処理装置、電子機器、コンピュータ可読記憶媒体及びプログラムを更に提供し、それらはいずれも本願の実施例で提供されるいずれか1種の画像処理方法を実現するために利用可能であり、それに対応する技術手段、説明及び参照方法部分に対応する記載をここで省略する。
図8は本願の実施例に係る生体検出装置の例示的なブロック図を示す。
目標領域確定モジュール10は、双眼撮像装置中の第1の画像センサにより収集された第1の画像に対して目標対象の検出を行い、第1の目標領域を得、前記双眼撮像装置中の第2の画像センサにより収集された第2の画像に対して前記目標対象の検出を行い、第2の目標領域を得るように構成され、キーポイント深度情報取得モジュール20は、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得るように構成され、第1の生体検出モジュール30は、前記目標対象のキーポイント深度情報に基づいて、前記目標対象が生体であるか否かを確定するように構成される。
図9は本願の実施例に係る生体検出装置の例示的なブロック図を示す。
前記キーポイント深度情報取得モジュール20は、前記第1の目標領域に対してキーポイントの検出を行い、前記第1の目標領域のキーポイント情報を得、前記第2の目標領域に対してキーポイントの検出を行い、前記第2の目標領域のキーポイント情報を得るように構成されるキーポイント検出サブモジュール21と、前記第1の目標領域のキーポイント情報と前記第2の目標領域のキーポイント情報により、前記目標対象のキーポイント深度情報を確定するように構成される第1のキーポイント深度情報取得サブモジュール22と、を含む。
いくつかの実施例では、前記生体検出モジュール30は、前記目標対象のキーポイント深度情報に基づいて、深度離散度を確定するように構成される離散度確定サブモジュール31と、前記深度離散度により、前記目標対象が生体であるか否かを確定するように構成される生体検出サブモジュール32と、を含む。いくつかの実施例では、前記装置は、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定するように構成される一致性確定モジュール40を更に含み、前記キーポイント深度情報取得モジュール20は、前記第1の目標領域と前記第2の目標領域とが一致すると確定した場合に、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得るように構成される第2のキーポイント深度情報取得サブモジュール23を更に含む。
いくつかの実施例では、前記一致性確定モジュール40は、基礎データベースから前記第1の目標領域に対応する第1の検索結果を検索し、前記基礎データベースから前記第2の目標領域に対応する第2の検索結果を検索するように構成される検索結果確定サブモジュールと、前記第1の検索結果と前記第2の検索結果に基づいて、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定するように構成される第1の一致性確定サブモジュールと、を含む。
いくつかの実施例では、前記一致性確定モジュール40は、前記第1の目標領域と前記第2の目標領域との類似度を確定するように構成される類似度確定サブモジュールと、前記類似度に基づいて、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定するように構成される第2の一致性確定サブモジュールと、を含む。
いくつかの実施例では、前記装置は、前記第1の目標領域と前記第2の目標領域とが一致しないと確定した場合に、前記第1の目標領域に基づいて、補正処理後の前記第2の目標領域を得るように構成される補正処理モジュール50を更に含み、前記キーポイント深度情報取得モジュール20は、前記第1の目標領域と補正処理後の前記第2の目標領域により、前記目標対象のキーポイント深度情報を得るように構成される第3のキーポイント深度情報取得サブモジュール24を含む。
いくつかの実施例では、前記補正処理モジュール50は、前記第2の画像の中で前記第1の目標領域の対応領域を確定するように構成される対応領域確定サブモジュールと、前記対応領域を前記補正処理後の前記第2の目標領域として確定するように構成される第1の補正処理サブモジュールと、を含む。
いくつかの実施例では、前記対応領域確定サブモジュールは、前記第1の目標領域のキーポイント情報により、前記第1の目標領域中のキー領域を確定するように構成されるキー領域確定サブモジュールと、前記キー領域に基づいて、前記第1の目標領域の第2の画像における対応領域を確定するように構成される第1の対応領域確定サブモジュールと、を含む。
いくつかの実施例では、前記キー領域確定サブモジュールは、前記第1の目標領域のキーポイント情報に基づいて、前記第1の目標領域中の少なくとも1つのキーポイントにより囲まれた最小領域を確定するように構成される最小領域確定サブモジュールと、前記最小領域を所定の倍数拡大し、前記キー領域を得るように構成される第1のキー領域確定サブモジュールと、を含む。
いくつかの実施例では、前記対応領域確定サブモジュールは、前記第1の目標領域中の少なくとも1つのキーポイントを前記第2の画像にマッピングし、前記少なくとも1つのキーポイントの前記第2の画像におけるマッピング位置情報を得るように構成されるマッピング位置情報確定サブモジュールと、前記少なくとも1つのキーポイントの前記第2の画像におけるマッピング位置情報により、前記第1の目標領域の前記第2の画像における対応領域を確定するように構成される第2の対応領域確定サブモジュールと、を含む。
いくつかの実施例では、前記装置は、前記目標対象のキーポイント深度情報に基づいて前記目標対象が生体であると確定した場合に、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定するように構成される偽造情報確定モジュール60と、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かに応じて、前記目標対象が生体であるか否かを確定するように構成される第2の生体検出モジュール70とを更に含む。
いくつかの実施例では、前記偽造情報は、結像媒体の縁部情報、光反射情報、材質情報、ディスプレイスクリーンの縁部情報、光反射情報、モアレ情報、マスク情報、彫塑情報、マネキン情報のうちの1種又はそれらの任意の組合せを含む。
いくつかの実施例では、前記偽造情報確定モジュール60は、前記第1の画像と前記第2の画像に対してそれぞれ特徴抽出処理を行い、第1の特徴データと第2の特徴データを得るように構成される特徴データ取得サブモジュール61と、前記第1の特徴データと前記第2の特徴データに基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定するように構成される偽造情報確定サブモジュール62と、を含む。
いくつかの実施例では、前記偽造情報確定サブモジュール62は、前記第1の特徴データと前記第2の特徴データに対して融合処理を行い、融合特徴を得るように構成される融合特徴取得サブモジュールと、前記融合特徴に基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定するように構成される第1の偽造情報確定サブモジュールと、を含む。いくつかの実施例では、前記第1の特徴データ又は第2の特徴データは、ローカルバイナリパターン特徴、スパースコーディングヒストグラム特徴、色特徴、全画像特徴、領域特徴、細部特徴のうちの1種又はそれらの任意の組合せを含む。いくつかの実施例では、前記装置は、前記第1の画像と前記第2の画像がフレーム選択条件を満たすか否かを確定するように構成されるフレーム選択モジュールを更に含み、前記キーポイント深度情報取得モジュールは、前記第1の画像と前記第2の画像がフレーム選択条件を満たしたと確定した場合に、前記第1の目標領域と前記第2の目標領域により、目標対象のキーポイント深度情報を得るように構成される第4のキーポイント深度情報取得サブモジュールを含む。
いくつかの実施例では、前記フレーム選択条件は、第1の画像と第2の画像のいずれからも前記目標対象が検出されたこと、第1の画像の中で検出された目標対象が前記第1の画像の設定領域に位置し且つ前記第2の画像の中で検出された目標対象が前記第2の画像の設定領域に位置すること、前記第1の画像と前記第2の画像の中で検出された目標対象の完全性が所定の条件を満たしたこと、前記第1の画像の中で検出された目標対象の前記第1の画像に占める割合が割合閾値より大きく且つ前記第2の画像の中で検出された目標対象の前記第2の画像に占める割合が前記割合閾値より大きいこと、第1の画像と第2の画像の鮮鋭度が鮮鋭度閾値より大きいこと、第1の画像と第2の画像の露光度が露光度閾値より大きいことのうちの一つ又はそれらの任意の組合せを含む。
いくつかの実施例では、前記装置は、前記第1の画像と前記第2の画像のうちの少なくとも1つの画像がフレーム選択条件を満たしていない場合に、ビデオストリーム中の次の画像ペアがフレーム選択条件を満たすか否かを確定するように構成される画像ペア確定モジュールと、所定の期間又は所定の数量の画像ペアに達し且つ前記ビデオストリームからフレーム選択条件を満たした画像ペアが発見されなかった場合に、前記ビデオストリームを偽造ビデオストリームとして確定するように構成される偽造ビデオストリーム確定モジュールと、を更に含む。いくつかの実施例では、前記第1の画像センサ又は前記第2の画像センサは、可視光カメラ、近赤外線カメラ、デュアルチャンネルカメラのうちの1種を含む。
いくつかの実施例では、前記装置は、前記第1の画像と前記第2の画像のうちの少なくとも1つの画像に対して、画像タイプ調整、サイズ調整、zスコア正規化処理、輝度調整のうちの1種又はそれらの任意の組合せを含む前処理を行うように構成される前処理モジュールを更に含み、前記目標領域確定モジュールは、前記前処理後の第1の画像に対して目標対象検出を行い、第1の目標領域を得、前記前処理後の第2の画像に対して目標対象検出を行い、第2の目標領域を得るように構成される目標領域確定サブモジュールを含む。
いくつかの実施例では、前記目標対象は人物の顔である。
図10は例示的な実施例により示された電子機器のブロック図である。電子装置は端末、サーバ又は他の形態のデバイスとして提供されてよい。例えば、電子機器は生体検出装置800であってよい。例えば、装置800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療機器、フィットネス器具、パーソナル・デジタル・アシスタントなどであってよい。
図10を参照すると、装置800は処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)のインタフェース812、センサコンポーネント814、および通信コンポーネント816の一つ以上を含むことができる。
処理コンポーネント802は通常、装置800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、上記方法の全てまたは一部のステップを完了するために、一つ以上のプロセッサ820を含んで命令を実行することができる。また、処理コンポーネント802は、他のコンポーネントとの対話のために、一つ以上のモジュールを含むことができる。例えば、処理コンポーネント802は、マルチメディアコンポーネント808との対話のために、マルチメディアモジュールを含むことができる。
メモリ804は装置800での動作をサポートするために様々なタイプのデータを記憶するように構成される。これらのデータの例は装置800において運用するためのあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどの様々なタイプの揮発性または非揮発性記憶機器またはそれらの組み合わせによって実現できる。電源コンポーネント806は装置800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および装置800のための電力生成、管理および配分に関連する他のコンポーネントを含むことができる。
マルチメディアコンポーネント808は前記装置800とユーザとの間で出力インタフェースを提供する画面を含む。いくつかの実施例では、画面は液晶ディスプレイ(LCD)およびタッチパネル(TP)を含むことができる。画面がタッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチ画面として実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを検知するために、一つ以上のタッチセンサを含む。前記タッチセンサはタッチまたはスライド動きの境界を検知するのみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出することもできる。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラおよび/または後面カメラを含む。装置800が動作モード、例えば撮影モードまたは撮像モードになる場合、前面カメラおよび/または後面カメラは外部のマルチメディアデータを受信することができる。各前面カメラおよび後面カメラは固定された光学レンズ系または焦点距離および光学ズーム能力を有するものであってもよい。オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、装置800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成されたマイク(MIC)を含む。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。I/Oインタフェース812は処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含むことができるが、これらに限定されない。センサコンポーネント814は装置800に各面での状態評価を提供するための一つ以上のセンサを含む。例えば、センサコンポーネント814は装置800のオン/オフ状態、コンポーネントの相対的位置決め、例えば前記コンポーネントが装置800の表示装置およびキーパッドであることを検出でき、センサコンポーネント814はさらに、装置800または装置800のあるコンポーネントの位置の変化、ユーザと装置800との接触の有無、装置800の方位または加減速および装置800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するために用いられるように構成された近接センサを含む。センサコンポーネント814はさらに、CMOS又はCCDイメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含むことができる。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサまたは温度センサを含むことができる。
通信コンポーネント816は装置800と他の機器との間の有線または無線通信を実現するように配置される。装置800は通信規格に基づく無線ネットワーク、例えばWiFi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルによって外部の放送管理システムの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールでは無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)技術および他の技術によって実現できる。
例示的な実施例では、装置800は一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現し、上記方法を実行するために用いることができる。例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は装置800のプロセッサ820によって実行して上記方法を完了することができる。
図11は例示的実施例により示された生体検出装置のブロック図である。例えば装置1900はサーバとして提供できる。図11を参照すると、装置1900は、さらに一つ以上のプロセッサを含む処理コンポーネント1922、および、処理コンポーネント1922によって実行可能な命令、例えばアプリケーションプログラムを記憶するための、メモリ1932を代表とするメモリ資源を含む。メモリ1932に記憶されたアプリケーションプログラムはそれぞれが1グループの命令に対応する一つ以上のモジュールを含むことができる。また、処理コンポーネント1922は命令を実行し、それによって上記方法を実行するように構成される。装置1900はさらに、装置1900の電源管理を実行するように構成された電源コンポーネント1926、装置1900をネットワークにアクセスするように構成された有線または無線ネットワークインタフェース1950、および入出力(I/O)インタフェース1958を含むことができる。装置1900はメモリ1932に記憶されたオペレーティングシステム、例えばWindows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTMまたは類似するものに基づいて動作できる。例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ1932が提供され、上記コンピュータプログラム命令は装置1900の処理コンポーネント1922によって実行して上記方法を完了することができる。
本開示の実施例はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の実施例の各態様を実現させるためのコンピュータ読み取り可能プログラム命令がロードされているコンピュータ読み取り可能記憶媒体を含むことができる。コンピュータ読み取り可能記憶媒体は命令実行機器により使用される命令を保存および記憶可能な有形機器であってもよい。コンピュータ読み取り可能記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能記憶媒体のさらに具体的な例(非包括的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、機械的符号化装置、例えば命令が記憶されているせん孔カードまたはスロット内突起構造、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能記憶媒体は瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ読み取り可能プログラム命令はコンピュータ読み取り可能記憶媒体から各計算/処理機器にダウンロードされてもよいし、またはネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークによって外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含むことができる。各計算/処理機器内のネットワークアダプタカードまたはネットワークインタフェースはネットワークからコンピュータ読み取り可能プログラム命令を受信し、該コンピュータ読み取り可能プログラム命令を転送し、各計算/処理機器内のコンピュータ読み取り可能記憶媒体に記憶する。
本開示の実施例の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含む一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズすることで、該電子回路はコンピュータ読み取り可能プログラム命令を実行し、それにより本開示の実施例の各態様を実現できるようになる。
なお、ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各態様を説明しが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能プログラム命令によって実現できることを理解すべきである。
これらのコンピュータ読み取り可能プログラム命令は、機械を製造するために、共通コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供されてもよく、それにより、これらの命令はコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行され、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する手段を創出する。また、これらのコンピュータ読み取り可能プログラム命令は、コンピュータ読み取り可能記憶媒体に記憶し、それによってコンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよく、それにより、中に保存された命令を有するコンピュータ読み取り可能記憶媒体は、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各態様を実現する命令を含む製品を備える。
コンピュータ読み取り可能プログラムはコンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードすることにより、コンピュータ実施プロセスを生成するように、コンピュータ、他のプログラマブルデータ処理装置または他の機器において一連の動作ステップを実行させるようにしてもよく、それにより、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令はフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうちフローチャートおよびブロック図は本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの置換としての実現形態では、ブロックに表記される機能は図面に付したものと異なる順序で実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、それらは逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことに注意すべきである。
上記、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または市場における技術への技術的改善を好適に解釈するか、または他の当業者に本文に披露された各実施例を理解させるためのものである。

Claims (21)

  1. 双眼撮像装置中の第1の画像センサにより収集された第1の画像に対して目標対象の検出を行い、第1の目標領域を得、前記双眼撮像装置中の第2の画像センサにより収集された第2の画像に対して前記目標対象の検出を行い、第2の目標領域を得ることと、
    前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することと、
    前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることと、
    前記目標対象のキーポイント深度情報に基づいて、前記目標対象が生体であるか否かを確定することと、を含み、
    前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることは、
    前記第1の目標領域と前記第2の目標領域とが一致すると確定した場合に、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることを含む、
    生体検出方法。
  2. 前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることには、
    前記第1の目標領域に対してキーポイントの検出を行い、前記第1の目標領域のキーポイント情報を得、前記第2の目標領域に対してキーポイントの検出を行い、前記第2の目標領域のキーポイント情報を得ることと、
    前記第1の目標領域のキーポイント情報と前記第2の目標領域のキーポイント情報により、前記目標対象のキーポイント深度情報を確定することと、を含む請求項1に記載の方法。
  3. 前記目標対象のキーポイント深度情報に基づいて、前記目標対象が生体であるか否かを確定することには、
    前記目標対象のキーポイント深度情報に基づいて、深度離散度を確定することと、
    前記深度離散度により、前記目標対象が生体であるか否かを確定することと、を含む請求項1又は2に記載の方法。
  4. 前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することには、
    基礎データベースから前記第1の目標領域に対応する第1の検索結果を検索することと、
    前記基礎データベースから前記第2の目標領域に対応する第2の検索結果を検索することと、
    前記第1の検索結果と前記第2の検索結果に基づいて、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することと、を含む請求項に記載の方法。
  5. 前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することには、
    前記第1の目標領域と前記第2の目標領域との類似度を確定することと、
    前記類似度に基づいて、前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定することと、を含む請求項に記載の方法。
  6. 前記第1の目標領域と前記第2の目標領域とが一致しないと確定した場合に、前記第1の目標領域に基づいて、補正処理後の前記第2の目標領域を得ることを更に含み、
    前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることには、
    前記第1の目標領域と補正処理後の前記第2の目標領域により、前記目標対象のキーポイント深度情報を得ることを含む請求項1〜5のいずれか一項に記載の方法。
  7. 前記第1の目標領域に基づいて、補正処理後の前記第2の目標領域を得ることには、
    前記第2の画像の中で前記第1の目標領域の対応領域を確定することと、
    前記対応領域を前記補正処理後の前記第2の目標領域として確定することと、を含む請求項に記載の方法。
  8. 前記第2の画像の中で前記第1の目標領域の対応領域を確定することには、
    前記第1の目標領域のキーポイント情報により、前記第1の目標領域中のキー領域を確定することと、
    前記キー領域に基づいて、前記第1の目標領域の第2の画像における対応領域を確定することと、を含む請求項に記載の方法。
  9. 前記第1の目標領域のキーポイント情報により、前記第1の目標領域中のキー領域を確定することには、
    前記第1の目標領域のキーポイント情報に基づいて、前記第1の目標領域中の少なくとも1つのキーポイントにより囲まれた最小領域を確定することと、
    前記最小領域を所定の倍数拡大し、前記キー領域を得ることと、を含む請求項に記載の方法。
  10. 前記第2の画像の中で前記第1の目標領域の対応領域を確定することには、
    前記第1の目標領域中の少なくとも1つのキーポイントを前記第2の画像にマッピングし、前記少なくとも1つのキーポイントの前記第2の画像におけるマッピング位置情報を得ることと、
    前記少なくとも1つのキーポイントの前記第2の画像におけるマッピング位置情報により、前記第1の目標領域の前記第2の画像における対応領域を確定することと、を含む請求項に記載の方法。
  11. 前記目標対象のキーポイント深度情報に基づいて前記目標対象が生体であると確定した場合に、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することと、
    前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かに応じて、前記目標対象が生体であるか否かを確定することと、を更に含む請求項1〜10のいずれか一項に記載の方法。
  12. 前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することには、
    前記第1の画像と前記第2の画像に対してそれぞれ特徴抽出処理を行い、第1の特徴データと第2の特徴データを得ることと、
    前記第1の特徴データと前記第2の特徴データに基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することと、を含む請求項11に記載の方法。
  13. 前記第1の特徴データと前記第2の特徴データに基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することには、
    前記第1の特徴データと前記第2の特徴データに対して融合処理を行い、融合特徴を得ることと、
    前記融合特徴に基づいて、前記第1の画像と前記第2の画像の中に偽造情報が存在するか否かを確定することと、を含む請求項12に記載の方法。
  14. 前記第1の画像と前記第2の画像がフレーム選択条件を満たすか否かを確定することを更に含み、
    前記第1の目標領域と前記第2の目標領域により、目標対象のキーポイント深度情報を得ることには、
    前記第1の画像と前記第2の画像がフレーム選択条件を満たしたと確定した場合に、前記第1の目標領域と前記第2の目標領域により、目標対象のキーポイント深度情報を得ることを含む請求項1〜13のいずれか一項に記載の方法。
  15. 前記フレーム選択条件は、
    第1の画像と第2の画像のいずれからも前記目標対象が検出されたこと、
    第1の画像の中で検出された目標対象が前記第1の画像の設定領域に位置し且つ前記第2の画像の中で検出された目標対象が前記第2の画像の設定領域に位置すること、
    前記第1の画像と前記第2の画像の中で検出された目標対象の完全性が所定の条件を満たしたこと、
    前記第1の画像の中で検出された目標対象の前記第1の画像に占める割合が割合閾値より大きく且つ前記第2の画像の中で検出された目標対象の前記第2の画像に占める割合が前記割合閾値より大きいこと、
    第1の画像と第2の画像の鮮鋭度が鮮鋭度閾値より大きいこと、
    第1の画像と第2の画像の露光度が露光度閾値より大きいことのうちの一つ又はそれらの任意の組合せを含む請求項14に記載の方法。
  16. 前記第1の画像と前記第2の画像のうちの少なくとも1つの画像がフレーム選択条件を満たしていない場合に、ビデオストリーム中の次の画像ペアがフレーム選択条件を満たすか否かを確定することと、
    所定の期間又は所定の数量の画像ペアに達し且つ前記ビデオストリームからフレーム選択条件を満たした画像ペアが発見されなかった場合に、前記ビデオストリームを偽造ビデオストリームとして確定することと、を更に含む請求項1〜15のいずれか一項に記載の方法。
  17. 前記第1の画像センサ又は前記第2の画像センサは、可視光カメラ、近赤外線カメラ、デュアルチャンネルカメラのうちの1種を含む請求項1〜16のいずれか一項に記載の方法。
  18. 双眼撮像装置中の第1の画像センサにより収集された第1の画像に対して目標対象の検出を行い、第1の目標領域を得、前記双眼撮像装置中の第2の画像センサにより収集された第2の画像に対して前記目標対象の検出を行い、第2の目標領域を得るように構成される目標領域確定モジュールと、
    前記第1の目標領域と前記第2の目標領域とが一致するか否かを確定するように構成される一致性確定モジュールと、
    前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得るように構成されるキーポイント深度情報取得モジュールと、
    前記目標対象のキーポイント深度情報に基づいて、前記目標対象が生体であるか否かを確定するように構成される第1の生体検出モジュールと、を含み、
    前記キーポイント深度情報取得モジュールは、前記第1の目標領域と前記第2の目標領域とが一致すると確定した場合に、前記第1の目標領域と前記第2の目標領域により、前記目標対象のキーポイント深度情報を得るように構成される第2のキーポイント深度情報取得サブモジュールを更に含む、
    生体検出装置。
  19. 請求項1〜17のいずれか一項に記載の方法を実行するように構成されるプロセッサと、
    プロセッサ実行可能コマンドを記憶するように構成されるメモリと、を含む電子機器。
  20. コンピュータプログラムコマンドを記憶したコンピュータ可読記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に請求項1〜17のいずれか一項に記載の方法を実現するコンピュータ可読記憶媒体。
  21. コンピュータ可読コードを含むコンピュータプログラムであって、前記コンピュータ可読コードが電子機器で実行される時に、前記電子機器中のプロセッサにより請求項1〜17のいずれか一項に記載の方法を実行することを特徴とするコンピュータプログラム。
JP2019565559A 2018-05-18 2018-11-14 生体検出方法及び装置、電子機器並びに記憶媒体 Active JP6844038B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810481863.3A CN108764091B (zh) 2018-05-18 2018-05-18 活体检测方法及装置、电子设备和存储介质
CN201810481863.3 2018-05-18
PCT/CN2018/115500 WO2019218621A1 (zh) 2018-05-18 2018-11-14 活体检测方法及装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2020523665A JP2020523665A (ja) 2020-08-06
JP6844038B2 true JP6844038B2 (ja) 2021-03-17

Family

ID=64008357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019565559A Active JP6844038B2 (ja) 2018-05-18 2018-11-14 生体検出方法及び装置、電子機器並びに記憶媒体

Country Status (3)

Country Link
JP (1) JP6844038B2 (ja)
CN (1) CN108764091B (ja)
WO (1) WO2019218621A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764091B (zh) * 2018-05-18 2020-11-17 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质
US10956714B2 (en) 2018-05-18 2021-03-23 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for detecting living body, electronic device, and storage medium
CN111444744A (zh) * 2018-12-29 2020-07-24 北京市商汤科技开发有限公司 活体检测方法、装置以及存储介质
CN109800699A (zh) * 2019-01-15 2019-05-24 珠海格力电器股份有限公司 图像识别方法、***及装置
CN111488756B (zh) 2019-01-25 2023-10-03 杭州海康威视数字技术股份有限公司 基于面部识别的活体检测的方法、电子设备和存储介质
CN110110582A (zh) * 2019-03-14 2019-08-09 广州市金其利信息科技有限公司 结合3d结构光、红外光及可见光的人脸识别方法及***
CN109934195A (zh) * 2019-03-21 2019-06-25 东北大学 一种基于信息融合的反欺骗三维人脸识别方法
CN111723626B (zh) * 2019-03-22 2024-05-07 北京地平线机器人技术研发有限公司 用于活体检测的方法、装置和电子设备
CN110059579B (zh) * 2019-03-27 2020-09-04 北京三快在线科技有限公司 用于活体检验的方法和装置,电子设备和存储介质
CN110059590B (zh) * 2019-03-29 2023-06-30 努比亚技术有限公司 一种人脸活体验证方法、装置、移动终端及可读存储介质
CN110059607B (zh) * 2019-04-11 2023-07-11 深圳华付技术股份有限公司 活体多重检测方法、装置、计算机设备及存储介质
CN110223338A (zh) * 2019-06-11 2019-09-10 中科创达(重庆)汽车科技有限公司 基于图像提取的深度信息计算方法、装置及电子设备
CN110472487B (zh) * 2019-07-03 2024-05-10 平安科技(深圳)有限公司 活体用户检测方法、装置、计算机设备和存储介质
CN110532957B (zh) * 2019-08-30 2021-05-07 北京市商汤科技开发有限公司 人脸识别方法及装置、电子设备和存储介质
CN110555930B (zh) * 2019-08-30 2021-03-26 北京市商汤科技开发有限公司 门锁控制方法及装置、电子设备和存储介质
KR20210050684A (ko) * 2019-10-29 2021-05-10 에스케이하이닉스 주식회사 이미지 처리 시스템
CN110942032B (zh) * 2019-11-27 2022-07-15 深圳市商汤科技有限公司 活体检测方法及装置、存储介质
CN112991188B (zh) * 2019-12-02 2023-06-27 RealMe重庆移动通信有限公司 图像处理方法及装置、存储介质、电子设备
CN111160178B (zh) * 2019-12-19 2024-01-12 深圳市商汤科技有限公司 图像处理方法及装置、处理器、电子设备及存储介质
CN113573038A (zh) * 2020-04-29 2021-10-29 思特威(上海)电子科技股份有限公司 双目***及深度图获取方法
CN111368944B (zh) * 2020-05-27 2020-09-08 支付宝(杭州)信息技术有限公司 翻拍图像、证件照识别、模型训练方法、装置及电子设备
CN111914785B (zh) * 2020-08-10 2023-12-05 北京小米松果电子有限公司 一种提高人脸图像清晰度的方法、装置及存储介质
CN112183271A (zh) * 2020-09-18 2021-01-05 海宁奕斯伟集成电路设计有限公司 一种图像处理的方法及装置
CN112200057B (zh) * 2020-09-30 2023-10-31 汉王科技股份有限公司 人脸活体检测方法、装置、电子设备及存储介质
CN112200056B (zh) * 2020-09-30 2023-04-18 汉王科技股份有限公司 人脸活体检测方法、装置、电子设备及存储介质
CN112347916B (zh) * 2020-11-05 2023-11-17 安徽继远软件有限公司 基于视频图像分析的电力现场作业安全监控方法及装置
CN114596599A (zh) * 2020-11-20 2022-06-07 中移动信息技术有限公司 一种人脸识别活体检测方法、装置、设备及计算机存储介质
CN112651327A (zh) * 2020-12-22 2021-04-13 平安普惠企业管理有限公司 一种无感的活体检测方法、装置、计算机设备及存储介质
CN112580621B (zh) * 2020-12-24 2022-04-29 成都新希望金融信息有限公司 身份证翻拍识别方法、装置、电子设备及存储介质
CN112528949B (zh) * 2020-12-24 2023-05-26 杭州慧芯达科技有限公司 一种基于多波段光的双目人脸识别方法和***
CN112766175B (zh) * 2021-01-21 2024-05-28 宠爱王国(北京)网络科技有限公司 活体检测方法、装置及非易失性存储介质
CN112949467B (zh) * 2021-02-26 2024-03-08 北京百度网讯科技有限公司 人脸检测方法、装置、电子设备和存储介质
CN112927307A (zh) * 2021-03-05 2021-06-08 深圳市商汤科技有限公司 一种标定方法、装置、电子设备及存储介质
CN113052035B (zh) * 2021-03-15 2024-07-12 上海商汤智能科技有限公司 活体检测方法、装置、电子设备及存储介质
CN113191286B (zh) * 2021-05-08 2023-04-25 重庆紫光华山智安科技有限公司 图像数据质量检测调优方法、***、设备及介质
CN113255512B (zh) * 2021-05-21 2023-07-28 北京百度网讯科技有限公司 用于活体识别的方法、装置、设备以及存储介质
CN113344782B (zh) * 2021-05-31 2023-07-18 浙江大华技术股份有限公司 图像拼接方法、装置、存储介质及电子装置
CN113221842B (zh) * 2021-06-04 2023-12-29 第六镜科技(北京)集团有限责任公司 模型训练方法、图像识别方法、装置、设备及介质
CN113345000A (zh) * 2021-06-28 2021-09-03 北京市商汤科技开发有限公司 深度检测方法及装置、电子设备和存储介质
CN113822160B (zh) * 2021-08-20 2023-09-19 西安交通大学 深度伪造检测模型的评测方法、***及设备
CN114355627B (zh) * 2022-01-05 2023-06-30 北京蜂巢世纪科技有限公司 一种镜腿长度调整方法、装置、电子设备及存储介质
CN114742885B (zh) * 2022-06-13 2022-08-26 山东省科学院海洋仪器仪表研究所 一种双目视觉***中的目标一致性判定方法
CN117994865B (zh) * 2024-04-01 2024-07-02 杭州海康威视数字技术股份有限公司 一种双目面部匹配方法、装置、电子设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178306A (ja) * 2001-12-12 2003-06-27 Toshiba Corp 個人認証装置および個人認証方法
JP2006099614A (ja) * 2004-09-30 2006-04-13 Toshiba Corp 生体判別装置および生体判別方法
US8989455B2 (en) * 2012-02-05 2015-03-24 Apple Inc. Enhanced face detection using depth information
CN102622588B (zh) * 2012-03-08 2013-10-09 无锡中科奥森科技有限公司 双验证人脸防伪方法及装置
CN103530599B (zh) * 2013-04-17 2017-10-24 Tcl集团股份有限公司 一种真实人脸和图片人脸的区别方法和***
WO2016107638A1 (en) * 2014-12-29 2016-07-07 Keylemon Sa An image face processing method and apparatus
CN105023010B (zh) * 2015-08-17 2018-11-06 中国科学院半导体研究所 一种人脸活体检测方法及***
CN105205458A (zh) * 2015-09-16 2015-12-30 北京邮电大学 人脸活体检测方法、装置及***
CN105335722B (zh) * 2015-10-30 2021-02-02 商汤集团有限公司 一种基于深度图像信息的检测***及方法
CN108229279B (zh) * 2017-04-14 2020-06-02 深圳市商汤科技有限公司 人脸图像处理方法、装置和电子设备
CN108764091B (zh) * 2018-05-18 2020-11-17 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN108764091B (zh) 2020-11-17
CN108764091A (zh) 2018-11-06
WO2019218621A1 (zh) 2019-11-21
JP2020523665A (ja) 2020-08-06

Similar Documents

Publication Publication Date Title
JP6844038B2 (ja) 生体検出方法及び装置、電子機器並びに記憶媒体
US10956714B2 (en) Method and apparatus for detecting living body, electronic device, and storage medium
TWI766201B (zh) 活體檢測方法、裝置以及儲存介質
US12014571B2 (en) Method and apparatus with liveness verification
US11776307B2 (en) Arrangement for generating head related transfer function filters
JP7026225B2 (ja) 生体検出方法、装置及びシステム、電子機器並びに記憶媒体
EP3236391B1 (en) Object detection and recognition under out of focus conditions
CN112052831B (zh) 人脸检测的方法、装置和计算机存储介质
CN110569808A (zh) 活体检测方法、装置及计算机设备
CN108830892B (zh) 人脸图像处理方法、装置、电子设备及计算机可读存储介质
CN111598065B (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
JP2024056955A (ja) 光学式捕捉によるパーソナライズされたhrtf
KR20150080728A (ko) 얼굴 구성요소 거리를 이용한 홍채인식용 이미지 획득 장치 및 방법
JP2004192378A (ja) 顔画像処理装置およびその方法
CN110602379A (zh) 一种拍摄证件照的方法、装置、设备及存储介质
KR101510312B1 (ko) 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법
TW201220253A (en) Image calculation method and apparatus
US11783192B2 (en) Hybrid deep learning method for recognizing facial expressions
CN112802081A (zh) 一种深度检测方法、装置、电子设备及存储介质
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
WO2022068931A1 (zh) 非接触指纹识别方法、装置、终端及存储介质
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
CN114140839A (zh) 用于人脸识别的图像发送方法、装置、设备及存储介质
CN113632137A (zh) 用于基于二维面部图像的两个或更多个输入自适应地构建三维面部模型的***和方法
EP4010843A1 (en) Techniques for detecting a three-dimensional face during facial recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210224

R150 Certificate of patent or registration of utility model

Ref document number: 6844038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250