JP2022551139A - 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム - Google Patents
生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022551139A JP2022551139A JP2022521013A JP2022521013A JP2022551139A JP 2022551139 A JP2022551139 A JP 2022551139A JP 2022521013 A JP2022521013 A JP 2022521013A JP 2022521013 A JP2022521013 A JP 2022521013A JP 2022551139 A JP2022551139 A JP 2022551139A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- facial
- initial
- light irradiation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 217
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 claims abstract description 102
- 230000001815 facial effect Effects 0.000 claims description 338
- 239000011159 matrix material Substances 0.000 claims description 34
- 230000009466 transformation Effects 0.000 claims description 33
- 238000005286 illumination Methods 0.000 claims description 14
- 238000013473 artificial intelligence Methods 0.000 abstract description 14
- 239000000463 material Substances 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 32
- 238000005516 engineering process Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000007667 floating Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 210000001097 facial muscle Anatomy 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/63—Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2020年1月17日に中国国家知識産権局に提出された、出願番号が第202010055343.3号で、出願の名称が「生体顔検出方法、関連装置、機器及び記憶媒体」である中国特許出願の優先権を主張するものであり、その全ての内容は、参照により本願に組み込まれるものとする。
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するステップであって、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数である、ステップと、
初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するステップと、
N個の差分画像及びN個の光照射方向に基づいて、法線マップ及び反射率マップを生成するステップであって、法線マップは、各画素点に対応する法線に基づいて構成された画像であり、反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、ステップと、
N個の差分画像、法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するステップと、を含む。
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュールであって、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
取得モジュールがさらに、初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するために用いられ、N個の差分画像のうちの各差分画像は、初期顔画像及び顔画像に基づいて取得されたものである、取得モジュールと、
取得モジュールにより取得されたN個の差分画像に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュールであって、法線マップは、各画素点に対応する法線が異なるチャネルを表す画像であり、反射率マップは、各画素点に対応する反射率が異なるチャネルを表す画像である、生成モジュールと、
取得モジュールにより取得されたN個の差分画像、生成モジュールにより生成された法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュールと、を含む。
メモリは、プログラムを記憶するために用いられ、
プロセッサは、メモリにおけるプログラムを実行することにより、上記各態様の方法を実現するために用いられ、
バスシステムは、メモリ及びプロセッサを接続することにより、メモリ及びプロセッサに通信させるために用いられる。
初期顔画像を取得するステップと、
目標時間内の第1の時刻に、第1の顔画像を取得するステップと、
目標時間内の第2の時刻に、第2の顔画像を取得するステップであって、ここで、第2の時刻は第1の時刻とは異なる時刻である、ステップと、
目標時間内の第3の時刻に、第3の顔画像を取得するステップであって、ここで、第3の時刻は第1の時刻とは異なる時刻であり、かつ第3の時刻は第2の時刻とは異なる時刻である、ステップと、を含んでよい。
初期顔画像を取得するステップと、
第1の光照射方向で第1の顔画像を取得するステップと、
第2の光照射方向で第2の顔画像を取得するステップと、
第3の光照射方向で第3の顔画像を取得するステップと、を含んでよい。
端末機器の第1の画面領域が点灯するときに、第1の光照射方向で第1の顔画像を収集するステップを含んでよく、ここで、第1の画面領域は、第1の光源位置に位置し、第1の光照射方向は、第1の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で第2の顔画像を取得するステップは、
端末機器の第2の画面領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップを含んでよく、ここで、第2の画面領域は、第2の光源位置に位置し、第2の光照射方向は、第2の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第3の光照射方向で第3の顔画像を取得するステップは、
端末機器の第3の画面領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップを含んでよく、ここで、第3の画面領域は、第3の光源位置に位置し、第3の光照射方向は、第3の画面領域が点灯するときに認識対象の顔を照射する対応する方向である。
第1の発光ダイオードの発光領域が点灯するときに、第1の光照射方向で第1の顔画像を収集するステップを含み、ここで、第1の発光領域は、第1の光源位置に位置し、第1の光照射方向は、第1の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で第2の顔画像を取得するステップは、
第2の発光領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップを含み、ここで、第2の発光領域は、第2の光源位置に位置し、第2の光照射方向は、第2の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第3の光照射方向で第3の顔画像を取得するステップは、
第3の発光領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップを含み、ここで、第3の発光領域は、第3の光源位置に位置し、第3の光照射方向は、第3の発光領域が点灯するときに認識対象の顔を照射する対応する方向である。
初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を含んでよい。
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するステップと、
第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するステップと、
第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量がいずれもオフセット閾値より小さければ、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するステップと、をさらに含んでよい。
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の変換行列を決定するステップと、
第1の変換行列及び初期顔画像に基づいて、第1の顔画像をアラインメントし、アラインメント後の第1の顔画像を取得するステップと、
アラインメント後の第1の顔画像と初期顔画像とに基づいて、第1の差分画像を生成するステップと、を含んでよく、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップは、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の変換行列を決定するステップと、
第2の変換行列及び初期顔画像に基づいて、第2の顔画像をアラインメントし、アラインメント後の第2の顔画像を取得するステップと、
アラインメント後の第2の顔画像と初期顔画像とに基づいて、第2の差分画像を生成するステップと、を含んでよく、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップは、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の変換行列を決定するステップと、
第3の変換行列及び初期顔画像に基づいて、第3の顔画像をアラインメントし、アラインメント後の第3の顔画像を取得するステップと、
アラインメント後の第3の顔画像と初期顔画像とに基づいて、第3の差分画像を生成するステップと、を含んでよい。
第1の差分画像、第2の差分画像及び第3の差分画像に基づいて、法線及び反射率を計算して取得するステップと、
法線に基づいて法線マップを生成するステップと、
反射率に基づいて反射率マップを生成するステップと、を含んでよい。
第1の差分画像における目標画素点に基づいて、第1の方程式を決定するステップと、
第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、ここで、第1の差分画像における目標画素点、第2の差分画像における目標画素点及び第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
第1の方程式、第2の方程式、第3の方程式及び第4の方程式に基づいて、目標画素点の法線及び目標画素点の反射率を計算して取得するステップであって、ここで、第4の方程式は法線に対応する3つの方向分類の関係を表す、ステップと、を含んでよく、
法線に基づいて法線マップを生成するステップは、
目標画素点の法線に基づいて、目標画素点に対応する法線マップを生成するステップを含んでよく、
反射率に基づいて反射率マップを生成するステップは、
目標画素点の反射率に基づいて、目標画素点に対応する反射率マップを生成するステップを含んでよい。
N個の差分画像、法線マップ及び反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得するステップであって、ここで、認識対象の顔は初期顔画像及び顔画像集合に含まれる、ステップと、
認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップと、を含んでよい。
サーバにN個の差分画像、法線マップ及び反射率マップを送信することにより、サーバが、N個の差分画像、法線マップ及び反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得し、かつ認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップであって、ここで、認識対象の顔は初期顔画像及び顔画像集合に含まれる、ステップと、
サーバから送信される生体顔検出結果を受信するステップと、を含んでよい。
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュール201であって、ここで、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
取得モジュール201がさらに、初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するために用いられる、取得モジュール201と、
N個の差分画像及びN個の光照射方向に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュール202であって、ここで、法線マップは、各画素点に対応する法線に基づいて構成された画像であり、反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、生成モジュール202と、
取得モジュールにより取得されたN個の差分画像、生成モジュールにより生成された法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュール203と、を含む。
取得モジュール201は、具体的に、初期顔画像を取得するステップと、
目標時間内の第1の時刻に、第1の顔画像を取得するステップと、
目標時間内の第2の時刻に、第2の顔画像を取得するステップであって、ここで、第2の時刻は第1の時刻とは異なる時刻である、ステップと、
目標時間内の第3の時刻に、第3の顔画像を取得するステップであって、ここで、第3の時刻は第1の時刻とは異なる時刻であり、かつ第3の時刻は第2の時刻とは異なる時刻である、ステップと、を実行するために用いられる。
N個の光照射方向は、少なくとも第1の光照射方向、第2の光照射方向及び第3の光照射方向を含み、かつ第1の光照射方向、第2の光照射方向及び第3の光照射方向は、異なる方向における光照射であり、
取得モジュール201は、具体的に、初期顔画像を取得するステップと、
第1の光照射方向で第1の顔画像を取得するステップと、
第2の光照射方向で第2の顔画像を取得するステップと、
第3の光照射方向で第3の顔画像を取得するステップと、を実行するために用いられる。
端末機器の第2の画面領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップであって、ここで、第2の画面領域は、第2の光源位置に位置し、第2の光照射方向は、第2の画面領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、
端末機器の第3の画面領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップであって、ここで、第3の画面領域は、第3の光源位置に位置し、第3の光照射方向は、第3の画面領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、を実行するために用いられる。
第2の発光領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップであって、ここで、第2の発光領域は、第2の光源位置に位置し、第2の光照射方向は、第2の発光領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、
第3の発光領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップであって、ここで、第3の発光領域は、第3の光源位置に位置し、第3の光照射方向は、第3の発光領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、を実行するために用いられる。
取得モジュール201は、具体的に、初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を実行するために用いられる。
計算モジュール204は、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するために用いられ、
計算モジュール204は、さらに、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するために用いられ、
計算モジュール204は、さらに、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するために用いられ、
表示モジュール205は、第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するために用いられ、
実行モジュール206は、第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量がいずれもオフセット閾値より小さければ、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するために用いられる。
取得モジュール201は、具体的に、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の変換行列を決定し、
第1の変換行列及び初期顔画像に基づいて、第1の顔画像をアラインメントし、アラインメント後の第1の顔画像を取得し、
アラインメント後の第1の顔画像と初期顔画像とに基づいて、第1の差分画像を生成するために用いられ、
取得モジュール201は、具体的に、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の変換行列を決定し、
第2の変換行列及び初期顔画像に基づいて、第2の顔画像をアラインメントし、アラインメント後の第2の顔画像を取得し、
アラインメント後の第2の顔画像と初期顔画像とに基づいて、第2の差分画像を生成するために用いられ、
取得モジュール201は、具体的に、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の変換行列を決定し、
第3の変換行列及び初期顔画像に基づいて、第3の顔画像をアラインメントし、アラインメント後の第3の顔画像を取得し、
アラインメント後の第3の顔画像と初期顔画像とに基づいて、第3の差分画像を生成するために用いられる。
法線に基づいて法線マップを生成し、
反射率に基づいて反射率マップを生成するために用いられる。
第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、ここで、第1の差分画像における目標画素点、第2の差分画像における目標画素点及び第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
第1の方程式、第2の方程式、第3の方程式及び第4の方程式に基づいて、目標画素点の法線及び目標画素点の反射率を計算して取得するステップであって、ここで、第4の方程式は法線に対応する3つの方向分類の関係を表す、ステップと、を実行するために用いられ、
生成モジュール202は、具体的に、目標画素点の法線に基づいて、目標画素点に対応する法線マップを生成するために用いられ、
生成モジュール202は、具体的に、目標画素点の反射率に基づいて、目標画素点に対応する反射率マップを生成するために用いられる。
認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップと、を実行するために用いられる。
サーバから送信される生体顔検出結果を受信するステップと、を実行するために用いられる。
メモリ内のプログラムを実行することにより、前述の図3~図13に示される実施例に説明された生体顔検出方法を実現する機能をさらに有する。
201 取得モジュール
202 生成モジュール
203 決定モジュール
204 計算モジュール
205 表示モジュール
206 実行モジュール
310 RF回路
320 メモリ
330 入力ユニット
331 タッチパネル
332 入力装置
340 表示ユニット
341 表示パネル
350 センサー
360 オーディオ回路
361 スピーカ
362 マイクロホン
370 WiFiモジュール
380 プロセッサ
390 電源
初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、第1の顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、第2の顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、第3の顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を含んでよい。
Claims (16)
- 端末機器又はサーバにより実行される生体顔検出方法であって、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するステップであって、前記顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の前記光照射方向は互いに異なる光照射方向であり、かつN個の前記光照射方向はN個の光源位置に対応し、N個の前記光源位置は同一の直線上に位置せず、Nは3以上の整数である、ステップと、
前記初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得するステップと、
N個の前記差分画像及びN個の前記光照射方向に基づいて、法線マップ及び反射率マップを生成するステップであって、前記法線マップは、各画素点に対応する法線に基づいて構成された画像であり、前記反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、ステップと、
N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップと、を含む方法。 - 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、初期顔画像及びN個の光照射方向に対応する顔画像集合を取得する前記ステップは、
前記初期顔画像を取得するステップと、
目標時間内の第1の時刻に、前記第1の顔画像を取得するステップと、
前記目標時間内の第2の時刻に、前記第2の顔画像を取得するステップであって、前記第2の時刻は前記第1の時刻とは異なる時刻である、ステップと、
前記目標時間内の第3の時刻に、前記第3の顔画像を取得するステップであって、前記第3の時刻は前記第1の時刻とは異なる時刻であり、かつ前記第3の時刻は前記第2の時刻とは異なる時刻である、ステップと、を含む請求項1に記載の方法。 - 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
N個の前記光照射方向は、少なくとも第1の光照射方向、第2の光照射方向及び第3の光照射方向を含み、かつ前記第1の光照射方向、前記第2の光照射方向及び前記第3の光照射方向は、異なる方向における光照射であり、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得する前記ステップは、
前記初期顔画像を取得するステップと、
前記第1の光照射方向で前記第1の顔画像を取得するステップと、
前記第2の光照射方向で前記第2の顔画像を取得するステップと、
前記第3の光照射方向で前記第3の顔画像を取得するステップと、を含む請求項1に記載の方法。 - N個の前記光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ前記第1の光源位置、前記第2の光源位置及び前記第3の光源位置は、同一の直線上に位置せず、
第1の光照射方向で前記第1の顔画像を取得する前記ステップは、
端末機器の第1の画面領域が点灯するときに、前記第1の光照射方向で前記第1の顔画像を収集するステップを含み、前記第1の画面領域は、前記第1の光源位置に位置し、前記第1の光照射方向は、前記第1の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で前記第2の顔画像を取得する前記ステップは、
前記端末機器の第2の画面領域が点灯するときに、前記第2の光照射方向で前記第2の顔画像を収集するステップを含み、前記第2の画面領域は、前記第2の光源位置に位置し、前記第2の光照射方向は、前記第2の画面領域が点灯するときに前記認識対象の顔を照射する対応する方向であり、
第3の光照射方向で前記第3の顔画像を取得する前記ステップは、
前記端末機器の第3の画面領域が点灯するときに、前記第3の光照射方向で前記第3の顔画像を収集するステップを含み、前記第3の画面領域は、前記第3の光源位置に位置し、前記第3の光照射方向は、前記第3の画面領域が点灯するときに前記認識対象の顔を照射する対応する方向である、請求項3に記載の方法。 - N個の前記光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ前記第1の光源位置、前記第2の光源位置及び前記第3の光源位置は、同一の直線上に位置せず、
第1の光照射方向で前記第1の顔画像を取得する前記ステップは、
第1の発光領域が点灯するときに、前記第1の光照射方向で前記第1の顔画像を収集するステップを含み、前記第1の発光領域は、前記第1の光源位置に位置し、前記第1の光照射方向は、前記第1の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で前記第2の顔画像を取得する前記ステップは、
第2の発光領域が点灯するときに、前記第2の光照射方向で前記第2の顔画像を収集するステップを含み、前記第2の発光領域は、前記第2の光源位置に位置し、前記第2の光照射方向は、前記第2の発光領域が点灯するときに前記認識対象の顔を照射する対応する方向であり、
第3の光照射方向で前記第3の顔画像を取得する前記ステップは、
第3の発光領域が点灯するときに、前記第3の光照射方向で前記第3の顔画像を収集するステップを含み、前記第3の発光領域は、前記第3の光源位置に位置し、前記第3の光照射方向は、前記第3の発光領域が点灯するときに前記認識対象の顔を照射する対応する方向である、請求項3に記載の方法。 - 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得する前記ステップは、
前記初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、前記初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
前記第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、前記初期顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
前記第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、前記初期顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
前記第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、前記初期顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、前記第1の差分画像はN個の前記差分画像のうちの1つの差分画像である、ステップと、
前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、前記第2の差分画像はN個の前記差分画像のうちの、前記第1の差分画像とは異なる1つの差分画像である、ステップと、
前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、前記第3の差分画像はN個の前記差分画像のうちの、前記第1の差分画像及び前記第2の差分画像とは異なる1つの差分画像であるステップと、を含む請求項1に記載の方法。 - 前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するステップと、
前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するステップと、
前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するステップと、
前記第1のキーポイントオフセット量、前記第2のキーポイントオフセット量及び前記第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するステップと、
前記第1のキーポイントオフセット量、前記第2のキーポイントオフセット量及び前記第3のキーポイントオフセット量がいずれも前記オフセット閾値より小さければ、前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するステップと、をさらに含む請求項6に記載の方法。 - 初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の差分画像を生成する前記ステップは、
前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の変換行列を決定するステップと、
前記第1の変換行列及び前記初期顔画像に基づいて、前記第1の顔画像を位置合わせして、アラインメント後の第1の顔画像を取得するステップと、
前記アラインメント後の第1の顔画像と前記初期顔画像とに基づいて、前記第1の差分画像を生成するステップと、を含み、
初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成する前記ステップは、
前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の変換行列を決定するステップと、
前記第2の変換行列及び前記初期顔画像に基づいて、前記第2の顔画像を位置合わせして、アラインメント後の第2の顔画像を取得するステップと、
前記アラインメント後の第2の顔画像と前記初期顔画像とに基づいて、前記第2の差分画像を生成するステップと、を含み、
前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップは、
前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の変換行列を決定するステップと、
前記第3の変換行列及び前記初期顔画像に基づいて、前記第3の顔画像を位置合わせして、アラインメント後の第3の顔画像を取得するステップと、
前記アラインメント後の第3の顔画像と前記初期顔画像とに基づいて、前記第3の差分画像を生成するステップと、を含む請求項6に記載の方法。 - N個の前記差分画像に基づいて、法線マップ及び反射率マップを生成する前記ステップは、
前記第1の差分画像、前記第2の差分画像及び前記第3の差分画像に基づいて、法線及び反射率を計算して取得するステップと、
前記法線に基づいて、前記法線マップを生成するステップと、
前記反射率に基づいて、前記反射率マップを生成するステップと、を含む請求項6に記載の方法。 - 前記第1の差分画像、前記第2の差分画像及び前記第3の差分画像に基づいて、法線及び反射率を計算して取得する前記ステップは、
前記第1の差分画像における目標画素点に基づいて、第1の方程式を決定するステップと、
前記第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
前記第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、前記第1の差分画像における目標画素点、前記第2の差分画像における目標画素点及び前記第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
前記第1の方程式、前記第2の方程式、前記第3の方程式及び第4の方程式に基づいて、前記目標画素点の法線及び前記目標画素点の反射率を計算して取得するステップであって、前記第4の方程式は前記法線に対応する3つの方向分類の関係を表す、ステップと、を含み、
前記法線に基づいて、前記法線マップを生成する前記ステップは、
前記目標画素点の法線に基づいて、前記目標画素点に対応する法線マップを生成するステップを含み、
前記反射率に基づいて、前記反射率マップを生成する前記ステップは、
前記目標画素点の反射率に基づいて、前記目標画素点に対応する反射率マップを生成するステップを含む請求項9に記載の方法。 - N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップは、
N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得するステップであって、前記認識対象の顔は前記初期顔画像及び前記顔画像集合に含まれる、ステップと、
前記認識対象の顔に対応する生体確率に基づいて、前記認識対象の顔に対応する前記生体顔検出結果を決定するステップと、を含む請求項1~10のいずれか一項に記載の方法。 - N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップは、
サーバにN個の前記差分画像、前記法線マップ及び前記反射率マップを送信することにより、前記サーバが、N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得し、かつ前記認識対象の顔に対応する生体確率に基づいて、前記認識対象の顔に対応する前記生体顔検出結果を決定するステップであって、前記認識対象の顔は前記初期顔画像及び前記顔画像集合に含まれる、ステップと、
前記サーバから送信される前記生体顔検出結果を受信するステップと、を含む請求項1~10のいずれか一項に記載の方法。 - 生体顔検出装置であって、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュールであって、前記顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の前記光照射方向は互いに異なる光照射方向であり、かつN個の前記光照射方向はN個の光源位置に対応し、N個の前記光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
前記取得モジュールがさらに、前記初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得するために用いられる、取得モジュールと、
N個の前記差分画像及びN個の前記光照射方向に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュールであって、前記法線マップは各画素点に対応する法線に基づいて構成された画像であり、前記反射率マップは各画素点に対応する反射率に基づいて構成された画像である、生成モジュールと、
前記取得モジュールにより取得されたN個の前記差分画像、前記生成モジュールにより生成された前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュールと、を含む生体顔検出装置。 - メモリ、送受信機、プロセッサ及びバスシステムを含み、
前記メモリは、プログラムを記憶するために用いられ、
前記プロセッサは、前記メモリにおけるプログラムを実行することにより、上記請求項1~12のいずれか一項に記載の方法を実現するために用いられ、
前記バスシステムは、前記メモリ及び前記プロセッサを接続することにより、前記メモリ及び前記プロセッサに通信させるために用いられる、電子機器。 - 請求項1~12のいずれか一項に記載の方法を実行するために用いられるコンピュータプログラムを記憶するために用いられる、記憶媒体。
- コンピュータ上で実行されると、前記コンピュータに請求項1~12のいずれか一項に記載の方法を実行させる、命令を含むコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010055343.3A CN111310575B (zh) | 2020-01-17 | 2020-01-17 | 一种人脸活体检测的方法、相关装置、设备及存储介质 |
CN202010055343.3 | 2020-01-17 | ||
PCT/CN2020/120105 WO2021143216A1 (zh) | 2020-01-17 | 2020-10-10 | 一种人脸活体检测的方法和相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022551139A true JP2022551139A (ja) | 2022-12-07 |
JP7286208B2 JP7286208B2 (ja) | 2023-06-05 |
Family
ID=71156332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022521013A Active JP7286208B2 (ja) | 2020-01-17 | 2020-10-10 | 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11854310B2 (ja) |
EP (1) | EP4012607A4 (ja) |
JP (1) | JP7286208B2 (ja) |
CN (1) | CN111310575B (ja) |
WO (1) | WO2021143216A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310575B (zh) | 2020-01-17 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测的方法、相关装置、设备及存储介质 |
CN111680675B (zh) * | 2020-08-14 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、***、装置、计算机设备和存储介质 |
CN112804447B (zh) * | 2020-12-30 | 2023-01-17 | 北京石头创新科技有限公司 | 一种检测近场物体的方法、装置、介质和电子设备 |
CN113869253A (zh) * | 2021-09-29 | 2021-12-31 | 北京百度网讯科技有限公司 | 活体检测方法、训练方法、装置、电子设备及介质 |
CN113849314B (zh) * | 2021-09-30 | 2024-07-09 | 支付宝(杭州)信息技术有限公司 | 一种数据处理模型部署方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170046563A1 (en) * | 2015-08-10 | 2017-02-16 | Samsung Electronics Co., Ltd. | Method and apparatus for face recognition |
US20180173979A1 (en) * | 2015-06-29 | 2018-06-21 | Beijing Kuangshi Technology Co., Ltd. | Living body detection method, living body detection system, and computer program product |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9123116B2 (en) * | 2011-04-19 | 2015-09-01 | University Of Southern California | Multiview face capture using polarized spherical gradient illumination |
US8224018B2 (en) * | 2006-01-23 | 2012-07-17 | Digimarc Corporation | Sensing data from physical objects |
US8493178B2 (en) * | 2008-12-02 | 2013-07-23 | Electronics And Telecommunications Research Institute | Forged face detecting method and apparatus thereof |
CN105320947B (zh) * | 2015-11-04 | 2019-03-01 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105488486B (zh) * | 2015-12-07 | 2018-10-30 | 清华大学 | 防止照片攻击的人脸识别方法及装置 |
CN105574509B (zh) * | 2015-12-16 | 2019-01-15 | 天津科技大学 | 一种基于光照的人脸识别***回放攻击检测方法及应用 |
CN106203305B (zh) * | 2016-06-30 | 2020-02-04 | 北京旷视科技有限公司 | 人脸活体检测方法和装置 |
CN106778518B (zh) * | 2016-11-24 | 2021-01-08 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN107992794B (zh) * | 2016-12-30 | 2019-05-28 | 腾讯科技(深圳)有限公司 | 一种活体检测方法、装置和存储介质 |
US10922395B2 (en) * | 2018-01-05 | 2021-02-16 | Stmicroelectronics, Inc. | Facial authentication systems and methods utilizing time of flight sensing |
US11410458B2 (en) * | 2018-04-12 | 2022-08-09 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Face identification method and apparatus, mobile terminal and storage medium |
CN110110597B (zh) | 2019-04-02 | 2021-08-27 | 北京旷视科技有限公司 | 活体检测方法、装置及活体检测终端 |
CN111310575B (zh) * | 2020-01-17 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测的方法、相关装置、设备及存储介质 |
-
2020
- 2020-01-17 CN CN202010055343.3A patent/CN111310575B/zh active Active
- 2020-10-10 WO PCT/CN2020/120105 patent/WO2021143216A1/zh unknown
- 2020-10-10 EP EP20914529.1A patent/EP4012607A4/en active Pending
- 2020-10-10 JP JP2022521013A patent/JP7286208B2/ja active Active
-
2022
- 2022-01-20 US US17/580,548 patent/US11854310B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180173979A1 (en) * | 2015-06-29 | 2018-06-21 | Beijing Kuangshi Technology Co., Ltd. | Living body detection method, living body detection system, and computer program product |
US20170046563A1 (en) * | 2015-08-10 | 2017-02-16 | Samsung Electronics Co., Ltd. | Method and apparatus for face recognition |
Non-Patent Citations (1)
Title |
---|
J. MATIAS DI MARTINO ET AL.: "Liveness Detection Using Implicit 3D Features", [ONLINE], JPN6023016028, 18 April 2018 (2018-04-18), ISSN: 0005043584 * |
Also Published As
Publication number | Publication date |
---|---|
US20220148336A1 (en) | 2022-05-12 |
EP4012607A1 (en) | 2022-06-15 |
CN111310575A (zh) | 2020-06-19 |
US11854310B2 (en) | 2023-12-26 |
JP7286208B2 (ja) | 2023-06-05 |
EP4012607A4 (en) | 2022-12-07 |
WO2021143216A1 (zh) | 2021-07-22 |
CN111310575B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7286208B2 (ja) | 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム | |
CN110163048B (zh) | 手部关键点的识别模型训练方法、识别方法及设备 | |
CN110348543B (zh) | 眼底图像识别方法、装置、计算机设备及存储介质 | |
CN109034102B (zh) | 人脸活体检测方法、装置、设备及存储介质 | |
WO2019101021A1 (zh) | 图像识别方法、装置及电子设备 | |
CN111079576B (zh) | 活体检测方法、装置、设备及存储介质 | |
CN108594997B (zh) | 手势骨架构建方法、装置、设备及存储介质 | |
WO2020224479A1 (zh) | 目标的位置获取方法、装置、计算机设备及存储介质 | |
CN107833219B (zh) | 图像识别方法及装置 | |
CN112036331B (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN111541907B (zh) | 物品显示方法、装置、设备及存储介质 | |
CN111242090B (zh) | 基于人工智能的人脸识别方法、装置、设备及介质 | |
CN110570460B (zh) | 目标跟踪方法、装置、计算机设备及计算机可读存储介质 | |
CN110544272A (zh) | 脸部跟踪方法、装置、计算机设备及存储介质 | |
CN112749613B (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
CN113591517A (zh) | 一种活体检测方法及相关设备 | |
CN111597922A (zh) | 细胞图像的识别方法、***、装置、设备及介质 | |
CN111062248A (zh) | 图像检测的方法、装置、电子设备及介质 | |
CN112115748B (zh) | 证件图像识别方法、装置、终端及存储介质 | |
CN111598896A (zh) | 图像检测方法、装置、设备及存储介质 | |
CN114333031A (zh) | 活体检测模型的漏洞检测方法、装置及存储介质 | |
CN112818733B (zh) | 信息处理方法、装置、存储介质及终端 | |
CN113743186A (zh) | 医学图像的处理方法、装置、设备及存储介质 | |
CN113298040A (zh) | 关键点检测方法、装置、电子设备及计算机可读存储介质 | |
CN114663929A (zh) | 基于人工智能的脸部识别方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220406 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286208 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |