JP7159242B2 - 顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体 - Google Patents

顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体 Download PDF

Info

Publication number
JP7159242B2
JP7159242B2 JP2020088097A JP2020088097A JP7159242B2 JP 7159242 B2 JP7159242 B2 JP 7159242B2 JP 2020088097 A JP2020088097 A JP 2020088097A JP 2020088097 A JP2020088097 A JP 2020088097A JP 7159242 B2 JP7159242 B2 JP 7159242B2
Authority
JP
Japan
Prior art keywords
image
detected
living
reliability
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020088097A
Other languages
English (en)
Other versions
JP2020191089A (ja
Inventor
ツァィフォン マー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2020191089A publication Critical patent/JP2020191089A/ja
Application granted granted Critical
Publication of JP7159242B2 publication Critical patent/JP7159242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Collating Specific Patterns (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Description

本開示の実施例は、コンピュータ技術の分野に関し、特に、顔生体の検出方法及び装置、電子機器、並びにコンピュータ読み取り可能な媒体に関する。
現在、顔認識技術は、セキュリティ、金融などの身分認証が必要な分野に応用されており、顔認識時に顔生体の検出技術を導入する必要があり、すなわち、取得された顔情報に基づいて、ターゲット対象が真の顔であるか、偽造された顔攻撃であるかを判断する必要がある。
本開示の実施例は、顔生体の検出方法及び装置、電子機器、コンピュータ読み取り可能な媒体を提供する。
第1の態様では、本開示の実施例は、被検出対象が参照光源によって光照射されていない場合、前記被検出対象の被検出領域の画像を採取し、第1の画像を取得するステップであって、前記被検出領域は、少なくとも被検出対象の眼部を含むステップと、参照光源を用いて前記被検出対象を光照射し、前記被検出対象の前記被検出領域の画像を採取し、第2の画像を取得するステップであって、前記第2の画像を採取する時に前記被検出対象が存在する位置は、前記第1の画像を採取する時に前記被検出対象が存在する位置と同じであるステップと、第1の画像と第2の画像との差に基づいて、前記被検出対象の角膜反射による輝点が存在するか否かを判断し、判断結果に基づいて前記被検出対象が非生体であるか否かを決定するステップと、を含む顔生体の検出方法を提供する。
いくつかの実施例では、前記判断結果に基づいて前記被検出対象が非生体であるか否かを決定するステップが、前記第1の画像と第2の画像との差に基づいて、前記輝点が存在しないと判断された場合、前記被検出対象が非生体であると決定するステップを含む。
いくつかの実施例では、前記第1の画像と第2の画像との差に基づいて、前記輝点が存在すると判断された場合、前記方法が、前記被検出対象の被検出領域の所定期間におけるビデオを採取するステップと、前記ビデオに基づいて前記輝点の位置の変動の程度を決定するステップと、前記輝点の位置の変動の程度に基づいて第1の信頼度を生成するステップと、前記第1の信頼度が第1の閾値より小さいか否かを判断し、小さい場合、前記被検出対象が非生体であると決定するステップと、を含む。
いくつかの実施例では、前記第1の信頼度が前記第1の閾値以上である場合、前記方法が、前記被検出対象の瞳孔がスクリーン上のガイド物体に追従して移動するように、前記ガイド物体を制御して移動させるステップと、前記ガイド物体の移動中の前記被検出対象の瞳孔の移動軌跡を取得するステップと、前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度が第2の閾値より小さいか否かを判断し、小さい場合、前記被検出対象が非生体であると決定するステップと、を含む。
いくつかの実施例では、前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度が前記第2の閾値以上である場合、前記方法が、前記ガイド物体の移動中の前記輝点の位置の変動の程度を決定するステップと、前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度、及び前記ガイド物体の移動中の前記輝点の位置の変動の程度に基づいて、第2の信頼度を生成するステップと、前記第1の信頼度と、前記第2の信頼度と、予め設定された閾値とに基づいて、前記被検出対象が生体であるか否かを判断するステップと、を含む。
いくつかの実施例では、前記予め設定された閾値が第3の閾値を含み、前記第1の信頼度と、前記第2の信頼度と、予め設定された閾値とに基づいて、前記被検出対象が生体であるか否かを判断するステップが、前記第1の信頼度と予め設定された第1の重み、及び前記第2の信頼度と予め設定された第2の重みに基づいて、総合信頼度を算出するステップと、前記総合信頼度が前記第3の閾値より大きいか否かを判断し、大きい場合、前記被検出対象が生体であると決定し、大きくない場合、前記被検出対象が非生体であると決定するステップと、を含む。
いくつかの実施例では、前記輝点は、プルキンエ画像(Purkinje image)である。
第2の態様では、本開示の実施例は、被検出対象に向かって発光するように構成される参照光源と、前記参照光源のオン及びオフを制御するように構成される光源制御モジュールと、被検出対象が参照光源によって光照射されていない場合、前記被検出対象の被検出領域の画像を採取し、第1の画像を取得し、前記被検出対象が前記参照光源によって光照射されている場合、前記被検出対象の前記被検出領域の画像を採取し、第2の画像を取得するように構成される画像採取モジュールであって、前記被検出領域は、少なくとも被検出対象の眼部を含み、前記第2の画像を採取する時に前記被検出対象が存在する位置は、前記第1の画像を採取する時に前記被検出対象が存在する位置と同じである画像採取モジュールと、
第1の画像と第2の画像との差に基づいて、前記被検出対象の角膜反射による輝点が存在するか否かを判断し、判断結果に基づいて前記被検出対象が非生体であるか否かを決定するように構成される第1の判断モジュールと、を備える顔生体の検出装置を提供する。
いくつかの実施例では、前記第1の判断モジュールが、具体的には、前記第1の画像と第2の画像との差に基づいて、前記輝点が存在しないと判断した場合、前記被検出対象が非生体であると決定するように構成される。
いくつかの実施例では、前記装置が、前記第1の判断モジュールが、前記輝点が存在すると判断した場合、前記被検出対象の被検出領域の所定期間におけるビデオを採取するように構成されるビデオ採取モジュールと、前記ビデオに基づいて前記輝点の変動の程度を決定するように構成される第1の決定モジュールと、前記輝点の位置の変動の程度に基づいて第1の信頼度を生成するように構成される第1の信頼度生成モジュールと、前記第1の信頼度が第1の閾値より小さいか否かを判断し、小さい場合、前記被検出対象が非生体であると決定するように構成される第2の判断モジュールと、を備える。
いくつかの実施例では、前記装置が、前記第2の判断モジュールが、前記第1の信頼度が前記第1の閾値以上であると判断した場合、前記被検出対象の瞳孔がスクリーン上のガイド物体に追従して移動するように、前記ガイド物体を制御して移動させるように構成される表示制御モジュールと、前記ガイド物体の移動中の前記被検出対象の瞳孔の移動軌跡を取得するように構成される取得モジュールと、前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度が第2の閾値より小さいか否かを判断し、小さい場合、前記被検出対象が非生体であると決定するように構成される第3の判断モジュールと、を備える。
いくつかの実施例では、前記装置が、前記第3の判断モジュールが、前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度が前記第2の閾値以上であると判断した場合、前記ガイド物体の移動中の前記輝点の位置の変動の程度を決定するように構成される第2の決定モジュールと、前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度、及び前記ガイド物体の移動中の前記輝点の位置の変動の程度に基づいて、第2の信頼度を生成するように構成される第2の信頼度生成モジュールと、前記第1の信頼度と、前記第2の信頼度と、予め設定された閾値とに基づいて、前記被検出対象が生体であるか否かを判断するように構成される第4の判断モジュールと、を備える。
いくつかの実施例では、前記予め設定された閾値が第3の閾値を含み、前記第4の判断モジュールが、前記第1の信頼度と予め設定された第1の重み、及び前記第2の信頼度と予め設定された第2の重みに基づいて、総合信頼度を算出するように構成される算出ユニットと、前記総合信頼度が前記第3の閾値より大きいか否かを判断し、大きい場合、前記被検出対象が生体であると決定し、大きくない場合、前記被検出対象が非生体であると決定するように構成される判断ユニットと、を備える。
いくつかの実施例では、前記輝点は、プルキンエ画像である。
第3の態様では、本開示の実施例は、一つ又は複数のプロセッサと、一つ又は複数のプログラムが記憶されている記憶装置と、を備える電子機器であって、前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合に、前記一つ又は複数のプロセッサが、上記の実施例に記載の方法を実現する電子機器を提供する。
第4の態様では、本開示の実施例は、コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体を提供し、前記プログラムがプロセッサによって実行される場合に、上記の実施例に記載の方法が実現される。
本開示の実施例により提供される顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体は、被検出対象の光照射される前後の画像間の差に基づいて、被検出対象の角膜反射による輝点が発生したか否かを判断し、判断結果に基づいて被検出対象が非生体であるか否かを決定する。角膜上の輝点は、生体顔の角膜が光照射されて発生されるため、被検出対象の光照射される前後の画像差に基づいて、輝点が発生したか否かを判断することによって、非生体をできる限り認識することができ、顔認識時に悪意の攻撃を受けることを減少又は防止することができる。また、本実施例における方法は、計算量が小さく、実現が容易である。
図面は、本開示の実施例に対するさらなる理解を提供し、且つ明細書の一部を構成し、本開示の実施例とともに本開示を解釈するために用いられ、本開示を限定するものではない。図面を参照して詳細な例示的な実施例を説明することによって、上記及び他の特徴や利点は、当業者にとってさらに明らかになる。
本開示の実施例により提供される顔生体の検出方法のフローチャートである。 本開示のステップS3の選択可能な一実現形態のフローチャートである。 本開示のステップS32の選択可能な一実現形態のフローチャートである。 本開示のステップS325の選択可能な一実現形態のフローチャートである。 本開示のステップS3254の選択可能な一実現形態のフローチャートである。 本開示のステップS32543の選択可能な一実現形態のフローチャートである。 本開示の実施例により提供される第1の顔生体の検出装置の概略構成図である。 本開示の実施例により提供される別の顔生体の検出装置の概略構成図である。 本開示の実施例により提供されるさらに別の顔生体の検出装置の概略構成図である。 本開示の実施例により提供されるさらに別の顔生体の検出装置の概略構成図である。 本開示の第4の判断モジュールの選択可能な一実現形態の構成図である。
当業者が本発明の技術案をより良く理解できるようにするために、本発明により提供される顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体を、図面を合わせて以下に詳細に説明する。
以下では、図面を参照して例示的な実施例をさらに十分に説明するが、前記例示的な実施例は、異なる形態で現すことができ、本明細書で説明される実施例に限定されると解釈されるべきではない。逆に、これらの実施例を提供する目的は、本開示を明白且つ完全にし、当業者に本開示の範囲を十分に理解させることである。
本明細書で使用される「及び/又は」という用語は、1つ又は複数の関連する列挙項目のいずれか及びすべての組み合わせを含む。
本明細書で使用される用語は、特定の実施例の説明のみに用いられ、本開示を限定することを意図しない。本明細書で使用されるように、文脈で別途に明確に指摘されていない限り、単数形式の「一つ」と「当該」も複数の形式を含むことを意図している。また、本明細書で「含む」及び/又は「~によって構成される」とう用語が使用される場合、前記特徴、全体、ステップ、操作、素子、及び/又はコンポーネントが存在することを示すが、1つまたは複数の他の特徴、全体、ステップ、操作、素子、コンポーネント及び/又はグループの存在または追加を排除しないことを理解されたい。
本明細書の実施例は、本願の理想的な概略図を通じて平面図及び/又は断面図を参照して説明することができる。したがって、製造技術及び/又は許容範囲によって例示的な図面を修正することができる。したがって、実施例は、図面に示す実施例に限定されなく、製造プロセスによって形成される構成の変更を含む。したがって、図面に示す領域は、概略的な属性を有し、図面に示す領域の形状は、素子の領域の具体的な形状を示すが、限定することを意図しているわけではない。
他の限定がない限り、本明細書で使用されるすべての用語(技術及び科学用語を含む)の意味は、当業者が通常に理解している意味と同じである。また、一般的な辞書に限定されている用語らは、関連技術及び本開示の背景における意味と一致する意味を有すると解釈されるべきであり、本明細書では明確な限定がない限り、理想化又は過度の形式上の意味を有すると解釈されないことを理解されたい。
図1は、本開示の実施例により提供される顔生体の検出方法のフローチャートである。当該方法は、顔生体の検出装置によって実行することができ、当該装置は、ソフトウェア及び/又はハードウェアの形態で実現することができ、当該装置は、電子機器に統合することができる。図1に示すように、当該方法は、具体的には、以下のステップS1~ステップS3を含む。
ステップS1において、被検出対象が参照光源によって光照射されていない場合、被検出対象の被検出領域の画像を採取し、第1の画像を取得する。被検出領域は、少なくとも被検出対象の眼部を含む。
ここで、被検出対象とは、顔生体の検出を行う対象を指し、当該被検出対象は、生体対象、すなわち、真の顔であってもよいし、印刷された顔画像、電子機器のスクリーン内の顔のデジタル画像、3D顔エミュレーションモデルなどの悪意ある偽造された顔攻撃のような非生体対象であってもよい。眼部領域は、少なくとも白黒目を含む領域である。
顔画像の採取プロセスは、カメラなどの画像採取デバイスによって実行されてもよく、顔画像を採取する時には、顔全体を取得してもよいし、顔の、眼部を含む一部の領域を取得してもよい。
参照光源は、カメラの周囲の一定の距離に設置され、且つ位置が固定された光源であり、当該参照光源がオンになる場合、その光線は、被検出対象に照射することができ、被検出対象が真の顔である場合、被検出対象眼部の角膜に輝点が発生することができる。ここで、参照光源は、赤外線光源であってもよい。
ステップS2において、参照光源を用いて被検出対象を光照射し、被検出対象の被検出領域の画像を採取し、第2の画像を取得する。第2の画像を採取する時に被検出対象が存在する位置は、第1の画像を採取する時に被検出対象が存在する位置と同じである。
本実施例のいくつかの選択可能な一実現形態では、ステップS1の前に、第1の注意情報を生成して、被検出対象に頭部を動かさないように注意することができる。当該第1の注意情報は、音声注意情報及び/又は文字注意情報を含むことができる。
ステップS3において、第1の画像と第2の画像との差に基づいて、被検出対象の角膜反射による輝点が存在するか否かを判断し、判断結果に基づいて被検出対象が非生体であるか否かを決定する。
ここで、輝点は、輝度が大きい輝点である。第1の画像と第2の画像との差は、各画素点の画素値の差であってもよい。第1の画像と第2の画像とは、グレースケール画像であってもよく、この場合、画素値は、画素点のグレースケール値であってもよい。この場合、輝点は、具体的には、黒目上の一定のグレースケール値(例えば120)より大きい輝点であってもよい。もちろん、第1の画像と第2の画像とは、カラー画像であってもよく、この場合、画素値は、画素点のR値、B値、G値の重み付けた和であってもよい。
輝点は、参照光源から瞳孔に入った光線が角膜表面で反射して生成される。したがって、被検出対象が生体である場合、参照光源によって光照射されていない時、眼部に輝点が発生しないか、又は輝点が弱く、この時、第1の画像における眼部に対応する領域に亮点が発生しない。一方、被検出対象が参照光源によって光照射されている場合には、眼部に輝点が発生する。被検出対象が印刷写真、デジタル顔画像、3D顔モデルなどの非生体である場合、これらの非生体の眼部位置自体に薄色の輝点(例えば、画像処理によってデジタル顔画像の眼部領域に増加された輝点)が存在する場合、被検出対象が光照射される前後に、輝点が常に存在し、この時、第1の画像と第2の画像との差は、輝点を特定するのに不十分である(すなわち、ステップS3の判断結果は、被検出対象の角膜反射による輝点が存在しない)。上記の非生体の眼部位置自体に薄色の輝点が存在しない場合、被検出対象が光照射される前後に、いずれも輝点が発生しなく、この時、第1の画像と第2の画像との差は、被検出対象の角膜反射による輝点を特定するのに不十分である。
本実施例では、角膜上の輝点は、生体顔の眼球が光照射されて発生されるため、被検出対象の光照射される前後の画像の差に基づいて、輝点が発生したか否かを判断することにより、非生体をできる限り認識することができ、顔認識時に悪意の攻撃を受けることを減少又は防止することができる。また、本実施例における方法は、計算量が小さく、実現が容易である。
本開示のいくつかの選択可能な一実現形態では、被検出対象の角膜反射による輝点は、プルキンエ画像である。
図2は、本開示のステップS3の選択可能な一実現形態のフローチャートである。図2に示すように、ステップS3は、具体的には、以下のステップ31とステップ32とを含む。
ステップS31において、第1の画像と第2の画像との差に基づいて、輝点が存在するか否かを判断し、前記輝点が存在しないと判断された場合、前記被検出対象が非生体であると決定し、輝点が存在すると判断された場合、ステップS32を実行する。
本実施例のいくつかの選択可能な一実現形態では、第1の画像と第2の画像との差に基づいて、輝点が存在するか否かを判断するステップは、第1の画像と第2の画像との差分画像を算出し、差分画像に画素値が予め設定された画素値より大きく且つ瞳孔領域間の距離が予め設定された距離値より小さい画素点が存在するか否かを判断し、存在する場合、輝点が存在すると決定し、存在しない場合、輝点が存在しないと決定する。
ここで、予め設定された画素値及び予め設定された距離値は、実際のニーズに応じて設定することができる。例えば、差分画像はグレースケール画像であり、予め設定された画素値は100から150までの間の任意の値であり、予め設定された距離値は黒目半径の2/3である。
被検出対象が生体である場合、差分画像における輝点に対応する画素点の画素値が大きいが、眼球の輝点以外の領域の画素値は小さいので、画素値が予め設定された画素値より大きい場合、眼球に輝度の大きい輝点が存在することを示す。また、実際の検出中にノイズ光源(例えば、被検出対象の頭頂に位置する光源)が発生した場合、これらの光源は、眼球上でも反射光点(すなわち、ノイズ輝点)が発生することができ、これらのノイズ輝点は、瞳孔の位置から遠く、したがって、差分画像に画素値が予め設定された画素値より大きく且つ瞳孔領域間の距離が予め設定された距離値より小さい画素点が存在するか否かを判断することによって、ノイズ輝点をフィルタリングすることができる。
ステップS32において、さらなる判断を行う。
図3は、本開示のステップS32の選択可能な一実現形態のフローチャートである。図3に示すように、ステップS32は、具体的には、以下のステップS321~ステップS325を含む。
ステップS321において、被検出対象の被検出領域の所定期間におけるビデオを採取する。
ここで、被検出領域の所定期間におけるビデオは、大きい採取頻度(例えば、毎秒10~60回)で被検出領域の画像を採取して取得された連続する複数フレームの画像であってもよい。
なお、ステップS321及びその後のステップにおいて、参照光源は、被検出対象を光照射することを維持する。
ステップS322において、ビデオに基づいて輝点の位置の変動の程度を決定する。
ここで、輝点の位置は、ビデオの各フレーム画像において、輝点領域(すなわち、画像中の輝点に対応する領域)の中心の座標である。
ビデオの各フレーム画像において、輝点と周囲領域との画素情報の差に基づいて、輝点の位置を決定することができる。例えば、ある領域における画素点の画素値が第1の予め設定された画素値(例えば、グレースケールが200である)より大きく、且つ当該領域の周囲の一定の範囲内の画素点の画素値がいずれも第2の予め設定された画素値(例えば、グレースケールが50である)より小さい場合、当該領域は輝点領域である。又は、人の目の輪郭特徴に基づいて黒目領域を決定することができ、黒目領域における画素値が第1の予め設定された画素値より大きい画素点の位置を検出し、これらの画素点によって構成された領域は、輝点領域である。
輝点の位置の変動の程度は、輝点の位置の変化の大きさを表す。変動の程度が大きいほど、輝点の各顔画像における位置の変化が大きくいことを表し、変動の程度が小さいほど、輝点の各顔画像における位置の変化が小さいことを表す。
輝点の位置の変動の程度は、輝点の位置が変動した時に形成された変動領域の面積と黒目面積との比、又は、距離が最も遠い二つの位置間のユークリッド距離というパラメータで表すことができる。もちろん、他のパラメータで表すこともできる。
ステップS323において、輝点の位置の所定期間における変動の程度に基づいて第1の信頼度を生成する。
ここで、第1の信頼度は0~1の間の値であり、且つ輝点の位置の所定期間における変動の程度と逆相関する。
ステップS324において、第1の信頼度が第1の閾値より小さいか否かを判断し、小さい場合、被検出対象が非生体であると決定し、小さくない場合、ステップS325を実行する。
ステップS325において、さらなる判断を行う。
ここで、第1の閾値は、実際の状況に応じて決定することができる。例えば、輝点の変動領域の面積と黒目の面積との比(Aで表し、Aは0.05~1にある)を輝点の位置の変動の程度とし、第1の信頼度を1/(20*A)とし、第1の閾値を0.5とする。
生体顔の角膜によって反射して形成された輝点(すなわち、プルキンエ画像)の移動軌跡の特徴は、カメラ、参照光源、顔の位置が相対的に変化しない場合、人の目の注視方向の変化に伴って、瞳孔と眼球との位置もそれに応じて変化するが、輝点の位置は相対的に変化しない。したがって、輝点の位置の変動の程度が大きすぎる(すなわち、第1の信頼度が小さすぎる)場合、被検出対象が非生体であると決定することができるため、非生体対象をできる限り認識することが可能となり、検出精度がさらに向上する。
図4は、本開示のステップS325の選択可能な一実現形態のフローチャートである。図4に示すように、ステップS325は、具体的には、ステップS3251~S3254を含む。
ステップS3251において、被検出対象の瞳孔がスクリーン上のガイド物体に追従して移動するように、ガイド物体を制御して移動させる。
ここで、スクリーンを参照光源とカメラとに近い位置に設置し、且つスクリーンの向きを参照光源の向きと同じにすることにより、被検出対象が参照光源によって照射されている場合、スクリーン上に表示されるガイド物体が見えるようになる。
また、ガイド物体は、固定された軌跡に沿って移動することができるし、ランダムに設定された軌跡に沿って移動することもできる。
また、ステップS3251では、スクリーン上のガイド物体を制御して移動させるとともに、頭部が動かず且つ目がスクリーン上のガイド物体を見るように被検出対象に注意するように第2の注意情報を生成する。当該第2の注意情報は、音声注意情報及び/又は文字注意情報を含むことができる。
ステップS3252において、ガイド物体の移動中の被検出対象の瞳孔の移動軌跡を取得する。
ここで、瞳孔の移動軌跡は、既存のターゲット追跡方法によって取得することができる。
ステップS3253において、瞳孔の移動軌跡とガイド物体の移動軌跡とのフィッティング度が第2の閾値より小さいか否かを判断し、小さい場合、被検出対象が非生体であると決定し、小さくない場合、ステップS3254を実行する。
瞳孔の移動軌跡とガイド物体の移動軌跡とのフィッティング度とは、瞳孔の移動軌跡とガイド物体の移動軌跡との類似度を指す。第2の閾値は、実際の状況に応じて決定することができる、例えば、50%である。
ステップS3254において、さらなる判断を行う。
本実施例に係る顔生体の検出方法は、被検出対象の角膜が光によって照射されて輝点が発生する否かによって生体検出を行うだけでなく、被検出対象の瞳孔がスクリーンガイド物体に追従して移動することができるか否かによって、非生体対象をできる限り認識することが可能となり、検出精度がさらに向上する。
図5は、本開示のステップS3254の選択可能な一実現形態のフローチャートである。図5に示すように、ステップS3254は、具体的には、以下のステップS32541~ステップS32543を含む。
ステップS32541において、ガイド物体の移動中の輝点の位置の変動の程度を決定する。
ステップS32542において、瞳孔の移動軌跡とガイド物体の移動軌跡とのフィッティング度、及びガイド物体の移動中の輝点の位置の変動の程度に基づいて、第2の信頼度を生成する。
ここで、第2の信頼度は、ガイド物体の移動中の輝点の位置の変動の程度と逆相関し、瞳孔の移動軌跡とガイド物体の移動軌跡とのフィッティング度と、正相関する。
ステップS32543において、第1の信頼度と、第2の信頼度と、予め設定された閾値とに基づいて、被検出対象が生体であるか否かを判断する。
本実施例のいくつかの選択可能な一実現形態では、予め設定された閾値は、第3の閾値を含む。
図6は、本開示のステップS32543の選択可能な一実現形態のフローチャートである。図6に示すように、ステップS32543は、以下のステップS32544とステップS32545とを含む。
ステップS32544において、第1の信頼度と予め設定された第1の重み、及び第2の信頼度と予め設定された第2の重みに基づいて、総合信頼度を算出する。
ここで、第2の重みは、第1の重みより大きい。
ステップS32545において、総合信頼度が第3の閾値より大きいか否かを判断し、大きい場合、被検出対象が生体であると決定し、大きくない場合、被検出対象が非生体であると決定する。
もちろん、ステップS32543では、他の方式を採用して、検出対象が生体であるか否かを判断することもできる。例えば、予め設定された閾値は、それぞれ第1の信頼度及び第2の信頼度に対応する二つの閾値を含み、第1の信頼度及び第2の信頼度がそれぞれに対応する閾値より大きい場合、被検出対象が生体であると決定し、大きくない場合、被検出対象が非生体であると決定する。
本実施例の方法は、第1の信頼度と第2の信頼度とに基づいて生体検出を行うことによって、非生体対象をさらに認識することができ、検出精度をさらに向上させることができる。また、方法全体は、計算量が少なく、ロバスト性に優れ、実現が容易である。
図7は、本開示の実施例により提供される第1の顔生体の検出装置の概略構成図である。当該装置は、上記の各実施例により提供される顔生体の検出方法を実現することができる。図7に示すように、当該装置は、参照光源1と、光源制御モジュール2と、画像採取モジュール3と、第1の判断モジュール4とを備える。
ここで、参照光源1は、被検出対象に向かって発光するように構成される。
光源制御モジュール2は、参照光源1のオン及びオフを制御するように構成される。
画像採取モジュール3は、被検出対象が参照光源によって光照射されていない場合(すなわち、光源制御モジュール2が参照光源1を制御してオフにする場合)、被検出対象の被検出領域の画像を採取し、第1の画像を取得し、被検出対象が参照光源1によって光照射されている場合(すなわち、光源制御モジュール2が参照光源1を制御してオンにする場合)、被検出対象の被検出領域の画像を採取し、第2の画像を取得するように構成される。ここで、被検出領域は、少なくとも被検出対象の眼部を含む。第2の画像を採取する時に被検出対象が存在する位置は、第1の画像を採取する時に被検出対象が存在する位置と同じである。
第1の判断モジュール4は、第1の画像と第2の画像との差に基づいて、被検出対象の角膜反射による輝点が存在するか否かを判断し、判断結果に基づいて被検出対象が非生体であるか否かを決定するように構成される。
本開示のいくつかの選択可能な一実現形態では、被検出対象の角膜反射による輝点は、プルキンエ画像である。
ここで、第1の判断モジュール4は、具体的には、第1の画像と第2の画像との差に基づいて、輝点(すなわち、プルキンエ画像)が存在しないと判断した場合、被検出対象が非生体であると決定するように構成される。
図8は、本開示の実施例により提供される別の顔生体の検出装置の概略構成図である。図8に示すように、上記の実施例と異なるのは、当該装置が、ビデオ採取モジュール5と、第1の決定モジュール6と、第1の信頼度生成モジュール7と、第2の判断モジュール8と、をさらに備える。
ここで、ビデオ採取モジュール5は、第1の判断モジュール4が輝点が存在すると判断した場合、被検出対象の被検出領域の所定期間におけるビデオを採取するように構成される。ここで、ビデオ採取モジュール5と画像採取モジュール3とは、一体に統合されてもよい。
第1の決定モジュール6は、ビデオに基づいて輝点の位置の変動の程度を決定するように構成される。
第1の信頼度生成モジュール7は、輝点の位置の変動の程度に基づいて第1の信頼度を生成するように構成される。
本実施例のいくつかの選択可能な一実現形態では、第1の信頼度は、輝点の位置の所定期間における変動の程度と逆相関する。
第2の判断モジュール8は、第1の信頼度が第1の閾値より小さいか否かを判断し、小さい場合、被検出対象が非生体であると決定するように構成される。
図9は、本開示の実施例により提供されるさらに別の顔生体の検出装置の概略構成図である。図9に示すように、上記の実施例と異なるのは、当該装置が、表示制御モジュール9と、取得モジュール10と、第3の判断モジュール11と、をさらに備える。
ここで、表示制御モジュール9は、第2の判断モジュール8が、第1の信頼度が第1の閾値以上であると判断した場合、被検出対象の瞳孔がスクリーン上のガイド物体に追従して移動するように、ガイド物体を制御して移動させるように構成される。
取得モジュール10は、ガイド物体の移動中の被検出対象の瞳孔の移動軌跡を取得するように構成される。
第3の判断モジュール11は、瞳孔の移動軌跡とガイド物体の移動軌跡とのフィッティング度が第2の閾値より小さいか否かを判断し、小さい場合、被検出対象が非生体であると決定するように構成される。
図10は、本開示の実施例により提供されるさらに別の顔生体の検出装置の概略構成図である。図10に示すように、上記の実施例と異なるのは、当該装置が、第2の決定モジュール12と、第2の信頼度生成モジュール13と、第4の判断モジュール14と、をさらに備える。
第2の決定モジュール12は、第3の判断モジュール11が、瞳孔の移動軌跡とガイド物体の移動軌跡とのフィッティング度が第2の閾値以上であると判断した場合、ガイド物体の移動中の輝点の位置の変動の程度を決定するように構成される。
第2の信頼度生成モジュール13は、瞳孔の移動軌跡とガイド物体の移動軌跡とのフィッティング度、及びガイド物体の移動中の輝点の位置の変動の程度に基づいて、第2の信頼度を生成するように構成される。
本実施例のいくつかの選択可能な一実現形態では、第2の信頼度は、ガイド物体の移動中の輝点の位置の変動の程度と逆相関し、瞳孔の移動軌跡とガイド物体の移動軌跡とのフィッティング度と正相関する。
第4の判断モジュール14は、第1の信頼度と第2の信頼度とに基づいて、被検出対象が生体であるか否かを判断するように構成される。
図11は、本開示の第4の判断モジュールの選択可能な一実現形態の構成図である。図11に示すように、第4の判断モジュール14は、算出ユニット14aと判断ユニット14bとを備える。
ここで、算出ユニット14aは、第1の信頼度と予め設定された第1の重み、及び第2の信頼度と予め設定された第2の重みに基づいて、総合信頼度を算出するように構成される。
判断ユニット14bは、総合信頼度が第3の閾値より大きいか否かを判断し、大きい場合、被検出対象が生体であると決定し、大きくない場合、被検出対象が非生体であると決定するように構成される。
上記の各モジュール及びユニットの実現の詳細と技術的効果の説明は、上記の方法の実施例の説明を参照することができ、ここでは詳細に説明しない。
本開示の実施例は、電子機器をさらに提供し、当該電子機器は、一つ又は複数のプロセッサと、一つ又は複数のプログラムが記憶されている記憶装置と、を備え、上記の一つ又は複数のプログラムが上記の一つ又は複数のプロセッサによって実行される場合に、上記の一つ又は複数のプロセッサが上記の各実施例により提供される顔生体の検出方法を実現する。
本開示の実施例は、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体をさらに提供し、当該コンピュータプログラムが実行される場合に、上記の各実施例により提供される顔生体の検出方法が実現される。
当業者であれば、上記で開示された方法のすべて又はいくつかのステップ、システム、装置における機能モジュール/ユニットは、ソフトウェア、ファームウェア、ハードウェア、及び適切な組み合わせとして実施されてもよいことを理解されたい。ハードウェア実施形態において、上記の説明で提出した機能モジュール/ユニットの間の区分は、必ずしも物理コンポーネントの区分に対応するものではなく、例えば、1つの物理コンポーネントは、複数の機能を有してもよく、または1つの機能又はステップは、複数の物理コンポーネントによって連携して実行されてもよい。いくつかの物理コンポーネント又はすべての物理コンポーネントは、中央処理装置、デジタル信号プロセッサ、又はマイクロプロセッサなどのプロセッサによって実行されるソフトウェアとして実施されてもよく、又はハードウェアとして実施されてもよく、又は特定用途向け集積回路のような集積回路に実施されてもよい。このようなソフトウェアは、コンピュータ読み取り可能な媒体に配置されてもよく、コンピュータ読み取り可能な媒体は、コンピュータ記憶媒体(又は非一時的な媒体)と通信媒体(又は一時的な媒体)を含むことができる。当業者の周知の通り、用語であるコンピュータ記憶媒体は、情報(例えばコンピュータ読み取り可能なコマンド、データ構造、プログラムモジュール、又は他のデータ)を記憶するための任意の方法又は技術において実施される揮発性と非揮発性、リムーバブル媒体と非リムーバブル媒体を含む。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリ又は他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)又は他の光ディスクメモリ、マグネットボックス、デープ、ディスクストレージ又は他の磁気メモリ装置、又は所望の情報を記憶し、コンピュータによってアクセスされることができる他の任意の媒体を含むことができるが、これらに限定されない。また、当業者が周知であることは、通信媒体は、通常、コンピュータ読み取り可能な媒体、データ構造、プログラムモジュール、又は例えば搬送波や他の伝送方式などの変調データ信号における他のデータを含み、且つ任意の情報配信媒体を含むことができる。
本明細書では、既に例示的な実施例が開示され、また具体的な用語が使用されているが、それらが単に一般的な説明的な意味として解釈されるべきであり、限定を目的として解釈されるべきではない。いくつかの実施例において、特に明確に指摘されない限り、特定の実施例と組み合わせて説明された特徴、特性及び/又は要素が単独に使用されてもよく、または他の実施例と組み合わせて説明された特徴、特性及び/又は要素と組み合わせて使用されてもよいことは、当業者にとって明らかである。したがって、当業者は、添付された請求項によって開示された本願の範囲を逸脱することなく、様々な形式および詳細を変更することができる。

Claims (16)

  1. 被検出対象が参照光源によって光照射されていない場合、前記被検出対象の被検出領域の画像を採取し、第1の画像を取得するステップであって、前記被検出領域は、少なくとも被検出対象の眼部を含むステップと、
    参照光源を用いて前記被検出対象を光照射し、前記被検出対象の前記被検出領域の画像を採取し、第2の画像を取得するステップであって、前記第2の画像を採取する時に前記被検出対象が存在する位置は、前記第1の画像を採取する時に前記被検出対象が存在する位置と同じであるステップと、
    第1の画像と第2の画像との差に基づいて、前記被検出対象の角膜反射による輝点が存在するか否かを判断し、判断結果に基づいて前記被検出対象が非生体であるか否かを決定するステップと、
    を含み、
    前記第1の画像と第2の画像との差に基づいて、輝点が存在するか否かを判断するステップが、第1の画像と第2の画像との差分画像を算出するステップと、前記差分画像に画素値が予め設定された画素値よりも大きく且つ瞳孔領域からの距離が予め設定された距離値よりも小さい画素点が存在するか否かを判断し、存在する場合に、輝点が存在すると決定し、存在しない場合に、輝点が存在しないと決定するステップと、を含む顔生体の検出方法。
  2. 前記判断結果に基づいて前記被検出対象が非生体であるか否かを決定するステップが、前記第1の画像と第2の画像との差に基づいて、前記輝点が存在しないと判断された場合、前記被検出対象が非生体であると決定するステップを含む請求項1に記載の方法。
  3. 前記第1の画像と第2の画像との差に基づいて、前記輝点が存在すると判断された場合、前記方法が、
    前記被検出対象の被検出領域の所定期間におけるビデオを採取するステップと、
    前記ビデオに基づいて前記輝点の位置の変動の程度を決定するステップと、
    前記輝点の位置の変動の程度に基づいて第1の信頼度を生成するステップと、
    前記第1の信頼度が第1の閾値より小さいか否かを判断し、小さい場合、前記被検出対象が非生体であると決定するステップと、
    を含む請求項1に記載の方法。
  4. 前記第1の信頼度が前記第1の閾値以上である場合、前記方法が、
    前記被検出対象の瞳孔がスクリーン上のガイド物体に追従して移動するように、前記ガイド物体を制御して移動させるステップと、
    前記ガイド物体の移動中の前記被検出対象の瞳孔の移動軌跡を取得するステップと、
    前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度が第2の閾値より小さいか否かを判断し、小さい場合、前記被検出対象が非生体であると決定するステップと、
    を含む請求項3に記載の方法。
  5. 前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度が前記第2の閾値以上である場合、前記方法が、
    前記ガイド物体の移動中の前記輝点の位置の変動の程度を決定するステップと、
    前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度、及び前記ガイド物体の移動中の前記輝点の位置の変動の程度に基づいて、第2の信頼度を生成するステップと、
    前記第1の信頼度と、前記第2の信頼度と、予め設定された閾値とに基づいて、前記被検出対象が生体であるか否かを判断するステップと、
    を含む請求項4に記載の方法。
  6. 前記予め設定された閾値が第3の閾値を含み、
    前記第1の信頼度と、前記第2の信頼度と、予め設定された閾値とに基づいて、前記被検出対象が生体であるか否かを判断するステップが、
    前記第1の信頼度と予め設定された第1の重み、及び前記第2の信頼度と予め設定された第2の重みに基づいて、総合信頼度を算出するステップと、
    前記総合信頼度が前記第3の閾値より大きいか否かを判断し、大きい場合、前記被検出対象が生体であると決定し、大きくない場合、前記被検出対象が非生体であると決定するステップと、
    を含む請求項5に記載の方法。
  7. 前記輝点はプルキンエ画像である請求項1から6のいずれか一項に記載の方法。
  8. 被検出対象に向かって発光するように構成される参照光源と、
    前記参照光源のオン及びオフを制御するように構成される光源制御モジュールと、
    被検出対象が参照光源によって光照射されていない場合、前記被検出対象の被検出領域の画像を採取し、第1の画像を取得し、前記被検出対象が前記参照光源によって光照射されている場合、前記被検出対象の前記被検出領域の画像を採取し、第2の画像を取得するように構成される画像採取モジュールであって、前記被検出領域は、少なくとも被検出対象の眼部を含み、前記第2の画像を採取する時に前記被検出対象が存在する位置は、前記第1の画像を採取する時に前記被検出対象が存在する位置と同じである画像採取モジュールと、
    第1の画像と第2の画像との差に基づいて、前記被検出対象の角膜反射による輝点が存在するか否かを判断し、判断結果に基づいて、前記被検出対象が非生体であるか否かを決定するように構成される第1の判断モジュールと、
    を備え、
    前記第1の判断モジュールが、第1の画像と第2の画像との差分画像を算出し、前記差分画像に画素値が予め設定された画素値よりも大きく且つ瞳孔領域からの距離が予め設定された距離値よりも小さい画素点が存在するか否かを判断し、存在する場合に、輝点が存在すると決定し、存在しない場合に、輝点が存在しないと決定する顔生体の検出装置。
  9. 前記第1の判断モジュールが、具体的には、前記第1の画像と第2の画像との差に基づいて、前記輝点が存在しないと判断した場合、前記被検出対象が非生体であると決定するように構成される請求項8に記載の装置。
  10. 前記装置が、
    前記第1の判断モジュールが、前記輝点が存在すると判断した場合、前記被検出対象の被検出領域の所定期間におけるビデオを採取するように構成されるビデオ採取モジュールと、
    前記ビデオに基づいて前記輝点の位置の変動の程度を決定するように構成される第1の決定モジュールと、
    前記輝点の位置の変動の程度に基づいて第1の信頼度を生成するように構成される第1の信頼度生成モジュールと、
    前記第1の信頼度が第1の閾値より小さいか否かを判断し、小さい場合、前記被検出対象が非生体であると決定するように構成される第2の判断モジュールと、
    を備える請求項8に記載の装置。
  11. 前記装置が、
    前記第2の判断モジュールが、前記第1の信頼度が前記第1の閾値以上であると判断した場合、前記被検出対象の瞳孔がスクリーン上のガイド物体に追従して移動するように、前記ガイド物体を制御して移動させるように構成される表示制御モジュールと、
    前記ガイド物体の移動中の前記被検出対象の瞳孔の移動軌跡を取得するように構成される取得モジュールと、
    前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度が第2の閾値より小さいか否かを判断し、小さい場合、前記被検出対象が非生体であると決定するように構成される第3の判断モジュールと、
    を備える請求項10に記載の装置。
  12. 前記装置が、
    前記第3の判断モジュールが、前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度が前記第2の閾値以上であると判断した場合、前記ガイド物体の移動中の前記輝点の位置の変動の程度を決定するように構成される第2の決定モジュールと、
    前記瞳孔の移動軌跡と前記ガイド物体の移動軌跡とのフィッティング度、及び前記ガイド物体の移動中の前記輝点の位置の変動の程度に基づいて、第2の信頼度を生成するように構成される第2の信頼度生成モジュールと、
    前記第1の信頼度と、前記第2の信頼度と、予め設定された閾値とに基づいて、前記被検出対象が生体であるか否かを判断するように構成される第4の判断モジュールと、
    を備える請求項11に記載の装置。
  13. 前記予め設定された閾値が第3の閾値を含み、
    前記第4の判断モジュールが、
    前記第1の信頼度と予め設定された第1の重み、及び前記第2の信頼度と予め設定された第2の重みに基づいて、総合信頼度を算出するように構成される算出ユニットと、
    前記総合信頼度が前記第3の閾値より大きいか否かを判断し、大きい場合、前記被検出対象が生体であると決定し、大きくない場合、前記被検出対象が非生体であると決定するように構成される判断ユニットと、
    を備える請求項12に記載の装置。
  14. 前記輝点はプルキンエ画像である請求項8から13のいずれか一項に記載の装置。
  15. 一つ又は複数のプロセッサと、
    一つ又は複数のプログラムが記憶されている記憶装置と、を備える電子機器であって、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合に、前記一つ又は複数のプロセッサが、請求項1から7のいずれか一項に記載の方法を実現する電子機器。
  16. コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体であって、
    前記プログラムがプロセッサによって実行される場合に、請求項1から7のいずれか一項に記載の方法が実現されるコンピュータ読み取り可能な媒体。
JP2020088097A 2019-05-20 2020-05-20 顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体 Active JP7159242B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910419412.1A CN110135370B (zh) 2019-05-20 2019-05-20 人脸活体检测的方法及装置、电子设备、计算机可读介质
CN201910419412.1 2019-05-20

Publications (2)

Publication Number Publication Date
JP2020191089A JP2020191089A (ja) 2020-11-26
JP7159242B2 true JP7159242B2 (ja) 2022-10-24

Family

ID=67571750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020088097A Active JP7159242B2 (ja) 2019-05-20 2020-05-20 顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体

Country Status (4)

Country Link
US (1) US11188771B2 (ja)
JP (1) JP7159242B2 (ja)
KR (1) KR102442220B1 (ja)
CN (1) CN110135370B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274928B (zh) * 2020-01-17 2023-04-07 腾讯科技(深圳)有限公司 一种活体检测方法、装置、电子设备和存储介质
CN111402480A (zh) * 2020-02-29 2020-07-10 深圳壹账通智能科技有限公司 访客信息管理方法、装置、***、设备和存储介质
CN111523438B (zh) * 2020-04-20 2024-02-23 支付宝实验室(新加坡)有限公司 一种活体识别方法、终端设备和电子设备
CN112906619A (zh) * 2021-03-09 2021-06-04 福建库克智能科技有限公司 活体检测方法、装置、电子设备及存储介质
CN112926497B (zh) * 2021-03-20 2024-07-05 杭州知存智能科技有限公司 基于多通道数据特征融合的人脸识别活体检测方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072861A (ja) 2005-09-08 2007-03-22 Omron Corp なりすまし検出装置及び顔認証装置
JP2014078052A (ja) 2012-10-09 2014-05-01 Sony Corp 認証装置および方法、並びにプログラム
US20170061251A1 (en) 2015-08-28 2017-03-02 Beijing Kuangshi Technology Co., Ltd. Liveness detection method, liveness detection system, and liveness detection device
JP2018504703A (ja) 2014-12-31 2018-02-15 モルフォトラスト・ユーエスエー・リミテッド ライアビリティ カンパニーMorphotrust Usa,Llc 顔の生体性検出
CN108280392A (zh) 2017-01-06 2018-07-13 望墨科技(武汉)有限公司 一种虹膜识别过程中检测欺骗的方法和***
JP2019519859A (ja) 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0316631D0 (en) * 2003-07-16 2003-08-20 Omniperception Ltd Facial liveness assessment system
GB2495324B (en) * 2011-10-07 2018-05-30 Irisguard Inc Security improvements for Iris recognition systems
CN102572217B (zh) * 2011-12-29 2014-08-20 华为技术有限公司 基于视觉关注的多媒体处理方法及装置
CN103390152B (zh) * 2013-07-02 2017-02-08 华南理工大学 基于sopc的适合人机交互的视线跟踪***
US9767358B2 (en) * 2014-10-22 2017-09-19 Veridium Ip Limited Systems and methods for performing iris identification and verification using mobile devices
US9672341B2 (en) * 2014-10-30 2017-06-06 Delta ID Inc. Systems and methods for spoof detection in iris based biometric systems
WO2016090379A2 (en) * 2014-12-05 2016-06-09 Texas State University Detection of print-based spoofing attacks
US9928603B2 (en) * 2014-12-31 2018-03-27 Morphotrust Usa, Llc Detecting facial liveliness
US10192109B2 (en) * 2015-04-16 2019-01-29 Tobii Ab Identification and/or authentication of a user using gaze information
WO2017000116A1 (zh) * 2015-06-29 2017-01-05 北京旷视科技有限公司 活体检测方法、活体检测***以及计算机程序产品
US10546183B2 (en) * 2015-08-10 2020-01-28 Yoti Holding Limited Liveness detection
CN105184277B (zh) * 2015-09-29 2020-02-21 杨晴虹 活体人脸识别方法以及装置
US10445606B2 (en) * 2015-10-08 2019-10-15 Microsoft Technology Licensing, Llc Iris recognition
CN105354545A (zh) * 2015-10-28 2016-02-24 广东欧珀移动通信有限公司 虹膜信息的采集方法及采集***
KR102358677B1 (ko) * 2016-03-07 2022-02-03 매직 립, 인코포레이티드 생체 인증 보안을 위한 청색 광 조정
CN105912986B (zh) * 2016-04-01 2019-06-07 北京旷视科技有限公司 一种活体检测方法和***
CN105955465A (zh) * 2016-04-25 2016-09-21 华南师范大学 一种桌面便携式视线跟踪方法及装置
CN106821301B (zh) * 2017-01-24 2019-03-15 周凌云 一种基于计算机的眼球运动距离及双眼运动一致性偏差检测装置及方法
CN107273794A (zh) * 2017-04-28 2017-10-20 北京建筑大学 一种人脸识别过程中的活体鉴别方法及装置
CN107169429A (zh) * 2017-04-28 2017-09-15 北京小米移动软件有限公司 活体识别方法和装置
JP6930223B2 (ja) * 2017-05-31 2021-09-01 富士通株式会社 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
CN108875469A (zh) * 2017-06-14 2018-11-23 北京旷视科技有限公司 活体检测与身份认证的方法、装置及计算机存储介质
CN108958577B (zh) * 2018-06-14 2020-09-11 北京七鑫易维信息技术有限公司 基于可穿戴设备的窗口操作方法、装置、穿戴设备及介质
CN109063674A (zh) * 2018-08-22 2018-12-21 深圳先牛信息技术有限公司 一种基于眼球上光斑的虹膜活体检测方法及检测装置
CN109657531A (zh) * 2018-09-18 2019-04-19 深圳先牛信息技术有限公司 一种基于眼球上光斑的人脸活体检测方法及检测装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072861A (ja) 2005-09-08 2007-03-22 Omron Corp なりすまし検出装置及び顔認証装置
JP2014078052A (ja) 2012-10-09 2014-05-01 Sony Corp 認証装置および方法、並びにプログラム
JP2018504703A (ja) 2014-12-31 2018-02-15 モルフォトラスト・ユーエスエー・リミテッド ライアビリティ カンパニーMorphotrust Usa,Llc 顔の生体性検出
US20170061251A1 (en) 2015-08-28 2017-03-02 Beijing Kuangshi Technology Co., Ltd. Liveness detection method, liveness detection system, and liveness detection device
JP2019519859A (ja) 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法
CN108280392A (zh) 2017-01-06 2018-07-13 望墨科技(武汉)有限公司 一种虹膜识别过程中检测欺骗的方法和***

Also Published As

Publication number Publication date
KR20200134160A (ko) 2020-12-01
KR102442220B1 (ko) 2022-09-08
US11188771B2 (en) 2021-11-30
US20200372272A1 (en) 2020-11-26
JP2020191089A (ja) 2020-11-26
CN110135370B (zh) 2022-09-09
CN110135370A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
JP7159242B2 (ja) 顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体
JP6577454B2 (ja) 軸上視線追跡システム及び方法
CN107748869B (zh) 3d人脸身份认证方法与装置
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
CN107633165B (zh) 3d人脸身份认证方法与装置
CN103870796B (zh) 一种人眼视线估计的方法与装置
CN112487921B (zh) 一种用于活体检测的人脸图像预处理方法及***
EP2632322A1 (en) Method of determining reflections of light
US11163994B2 (en) Method and device for determining iris recognition image, terminal apparatus, and storage medium
KR20120006819A (ko) 시선 추적 방법 및 이를 적용하는 장치
TWI533234B (zh) 基於眼部動作的控制方法及其應用之裝置
CN111860394A (zh) 一种基于姿态估计和动作检测的动作活体识别方法
KR20160009972A (ko) 허위 안면 이미지 분류가 가능한 홍채 인식 장치
CN106557752A (zh) 一种基于虹膜识别的安防控制***及其方法
CN105279764B (zh) 眼睛图像处理设备和方法
JP2004192552A (ja) 開閉眼判定装置
CN110598635B (zh) 一种针对连续视频帧中的人脸检测与瞳孔定位方法及***
KR20200049936A (ko) 생체 인식 장치 및 방법
CN113093907B (zh) 人机交互方法、***、设备及存储介质
CN113128320A (zh) 基于tof相机的人脸活体检测方法、检测装置及电子设备
Xu et al. Eye detection and tracking using rectangle features and integrated eye tracker by web camera
CN110909704A (zh) 一种活体检测方法、装置、电子设备及存储介质
CN117894047A (zh) 面部属性的级联检测
CN116563375A (zh) 基于摄像头的瞳孔追踪方法
CN117037241A (zh) 一种基于补光灯控制的人脸活体检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7159242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150