JP7270114B2 - 顔キーポイントの検出方法、装置及び電子機器 - Google Patents

顔キーポイントの検出方法、装置及び電子機器 Download PDF

Info

Publication number
JP7270114B2
JP7270114B2 JP2022539761A JP2022539761A JP7270114B2 JP 7270114 B2 JP7270114 B2 JP 7270114B2 JP 2022539761 A JP2022539761 A JP 2022539761A JP 2022539761 A JP2022539761 A JP 2022539761A JP 7270114 B2 JP7270114 B2 JP 7270114B2
Authority
JP
Japan
Prior art keywords
keypoint
face
information
detected
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022539761A
Other languages
English (en)
Other versions
JP2023508704A (ja
Inventor
グオ,ハンギ
ホン,ジビン
カン,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023508704A publication Critical patent/JP2023508704A/ja
Application granted granted Critical
Publication of JP7270114B2 publication Critical patent/JP7270114B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本開示は、ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドが2020年5月15日付に提出した、発明の名称が「顔キーポイントの検出方法、装置及び電子機器」であり、中国特許出願番号が「202010415188.1」である特許出願の優先権を主張する。
本開示は、画像処理技術の分野に関し、具体的には、深層学習とコンピュータビジョンの技術分野に関し、特に、顔キーポイントの検出方法、装置及び電子機器に関する。
深層学習技術の発展とコンピュータ演算能力の急速な向上に伴い、人工知能、コンピュータビジョンおよび画像処理などの分野は急速に発展し、その中で、コンピュータビジョンの分野における古典的な課題として、顔認識技術は優れた研究可能性と応用価値を持っている。顔認識技術は、目や口にそれぞれ対応するキーポイントなど、顔画像内の各顔キーポイントを検出し、検出された各顔キーポイントに基づいて顔認識を行うことができる。現在の顔キーポイント検出技術は、通常、ディープニューラルネットワークモデルを確立し、ディープニューラルネットワーク学習モデルを通じて顔キーポイントの分布の統計的特徴を学習することにより、任意の顔画像のキーポイント検出機能を実現するが、顔の一部が遮蔽される場合、顔キーポイントの分布の統計的特徴が干渉されたり、破壊されたりして、顔キーポイントを正確に検出できなくなる。
関連技術では、一般的に教師あり学習方法によって、遮蔽された顔を含む画像における顔キーポイントを検出し、この方法では、遮蔽されるキーポイントが遮蔽されているか否かの追加ラベルをトレーニングセットに追加することにより、検出アルゴリズムが各キーポイントが遮蔽されているか否かを認識し、さらに遮蔽されたキーポイントを効果的に認識することができるが、この方法では追加の人手によるラベリングが必要であり、コストが高く、時間がかかり、精度が悪い。
本開示は、顔キーポイントの検出方法、装置、電子機器及び記憶媒体を提供する。
第1の態様によれば、顔キーポイントの検出方法を提供し、検出対象の顔画像を取得し、前記検出対象の顔画像の検出キーポイント情報を抽出するステップと、テンプレート顔画像のテンプレートキーポイント情報を取得するステップと、前記検出キーポイント情報と前記テンプレートキーポイント情報を組み合わせて、前記検出対象の顔画像と前記テンプレート顔画像との顔キーポイントマッピング関係を決定するステップと、前記顔キーポイントマッピング関係と前記テンプレートキーポイント情報とに基づいて、前記検出キーポイント情報を選別して、前記検出対象の顔画像のターゲットキーポイント情報を生成するステップであって、前記ターゲットキーポイント情報におけるターゲット顔キーポイントは、前記検出対象の顔画像の非遮蔽領域の顔キーポイントであるステップと、を含む。
第2の態様によれば、顔キーポイントの検出装置を提供し、検出対象の顔画像を取得する第1の取得モジュールと、前記検出対象の顔画像の検出キーポイント情報を抽出する抽出モジュールと、テンプレート顔画像のテンプレートキーポイント情報を取得する第2の取得モジュールと、前記検出キーポイント情報と前記テンプレートキーポイント情報を組み合わせて、前記検出対象の顔画像と前記テンプレート顔画像との顔キーポイントマッピング関係を決定する決定モジュールと、前記顔キーポイントマッピング関係と前記テンプレートキーポイント情報とに基づいて、前記検出キーポイント情報を選別して、前記検出対象の顔画像のターゲットキーポイント情報を生成する処理モジュールであって、前記ターゲットキーポイント情報におけるターゲット顔キーポイントは、前記検出対象の顔画像の非遮蔽領域の顔キーポイントである処理モジュールと、を含む。
第3の態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリとを含み、前記メモリには、前記少なくとも1つのプロセッサによって実行される命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが前記顔キーポイントの検出方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第4の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、コンピュータに前記顔キーポイントの検出方法を実行させる。
第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される場合、前記顔キーポイントの検出方法が実現される。
本開示の技術によれば、追加の人手によるラベリングが必要でなく、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報を正確に認識することができ、コストを節約し、時間を短縮することができる。
なお、この部位に記載の内容は、本開示の実施例の肝心または重要な特徴を特定することを意図しておらず、本開示の範囲を限定することも意図していない。本出願の他の特徴は下記の明細書の記載を通して理解しやすくなる。
図面は、本出願をより良く理解するためのものであり、本開示を限定するものではない。
本開示の第1の実施例に係る模式図である。 検出対象の顔画像の検出キーポイント情報の模式図である。 テンプレート顔画像のテンプレートキーポイント情報の模式図である。 本開示の第2の実施例に係る模式図である。 本開示の第3の実施例に係る模式図である。 検出対象の顔画像の各顔キーポイントの評価位置情報の模式図である。 本開示の第4の実施例に係る模式図である。 本開示の第5の実施例に係る模式図である。 本開示の実施例の顔キーポイント検出の方法を実現するための電子機器のブロック図である。
以下、図面と組み合わせて本開示の例示的な実施例を説明する。理解を容易にするために、その中には本開示の実施例の様々な詳細が含まれ、それらは単なる例示と見なされるべきである。したがって、当業者は、本発明の範囲及び精神から逸脱することなく、本明細書に記載の実施例に対して様々な変更及び修正を行うことができる。また、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
本開示は、関連技術において、教師あり学習方法によって、遮蔽された顔を含む画像における顔キーポイントを検出するという方式が、トレーニングデータに対して追加の人手によるラベリングが必要であり、コストが高く、時間がかかり、精度が悪いという問題に対して、顔キーポイントの検出方法を提供する。
本開示によって提供される顔キーポイントの検出方法は、まず、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出し、テンプレート顔画像のテンプレートキーポイント情報を取得し、そして、検出対象の顔画像の検出キーポイント情報とテンプレート顔画像のテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定し、ひいては顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲットキーポイント情報を生成し、ここで、ターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の非遮蔽領域の顔キーポイントである。これにより、追加の人手によるラベリングが必要でなく、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報を正確に認識することができ、コストを節約し、時間を短縮することができる。
以下、図面を参照して、本開示の実施例に係る顔キーポイントの検出方法、装置、電子機器及び記憶媒体を説明する。
図1は本開示の第1の実施例に係る模式図である。ここで、本実施例によって提供される顔キーポイントの検出方法の実行主体は、顔キーポイントの検出装置であり、顔キーポイントの検出装置は、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報を検出するように、電子機器に配置され得る。ここで、電子機器は、データ処理が可能な任意の端末デバイスまたはサーバーなどであってもよく、本開示はこれを限定しない。
図1に示すように、顔キーポイントの検出方法は、以下のステップを含むことができる。
ステップ101では、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出する。
ここで、検出対象の顔画像は、顔を含み、かつ顔領域の一部が遮蔽されている任意の画像であってもよい。例えば、検出対象の顔画像は、顔を含み、かつ顔の片方の目が遮蔽されているか、または顔の口の半分が遮蔽されている画像であってもよい。
なお、本開示の実施例の顔キーポイントの検出方法は、顔が遮蔽されていない検出対象の顔画像にも適用可能であり、即ち、検出対象の顔画像は、顔全体が遮蔽されていない画像であってもよく、この場合、本開示の実施例の方法により、検出対象の顔画像の生成されたターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の顔領域全体のすべての顔キーポイントであり、これらの顔キーポイントの検出位置情報は正確である。
顔キーポイントは、目、口、鼻、輪郭、目尻、および目尻の輪郭上の特徴点など、顔の任意の位置にある特徴点を含み得る。
検出キーポイント情報は、検出対象の顔画像の複数の顔キーポイントの検出位置情報を含み得る。
例示的な実施例では、検出対象の顔画像の検出キーポイント情報を様々な方法で抽出することができる。
例えば、事前にディープラーニングの方法によって、キーポイント検出モデルをレーニングし、検出対象の顔画像を事前にトレーニングされたキーポイント検出モデルに入力することで、検出対象の顔画像の検出キーポイント情報を抽出することができる。ここで、キーポイント検出モデルは、畳み込みニューラルネットワークモデル、リカレントニューラルネットワークモデルなどの任意のディープニューラルネットワークモデル、または他のタイプのデータ処理モデルにすることができ、本開示はこれを限定しない。
または、検出対象の顔画像の検出キーポイント情報は、関連技術の他の任意の顔キーポイント検出方法によって抽出されてもよく、本開示は、検出対象の顔画像の検出キーポイント情報を抽出する方法を限定しない。
ステップ102では、テンプレート顔画像のテンプレートキーポイント情報を取得する。
ここで、テンプレート顔画像は、顔を含み、かつ顔のすべての領域が遮蔽されていない任意の画像であってもよく、テンプレート顔画像の顔は、任意の人物の顔であってもよい。なお、テンプレート顔画像の顔のポーズは、検出対象の顔画像の顔のポーズと同じであってもよいし、異なっていてもよく、本開示はこれを限定しない。例えば、検出対象の顔画像の顔は笑顔で左側に少し傾いているが、テンプレート顔画像の顔は無表情の正面の顔であってもよい。
テンプレートキーポイント情報は、テンプレート顔画像の複数の顔キーポイントのテンプレート位置情報を含んでもよい。
例示的な実施例では、テンプレート顔画像のテンプレートキーポイント情報は、様々な方法で抽出することができる。
例えば、事前にディープラーニングの方法によって、キーポイント検出モデルをレーニングし、テンプレート顔画像を事前にトレーニングされたキーポイント検出モデルに入力することで、テンプレート顔画像のテンプレートキーポイント情報を抽出することができる。ここで、キーポイント検出モデルは、畳み込みニューラルネットワークモデル、リカレントニューラルネットワークモデルなどの任意のディープニューラルネットワークモデル、または他のタイプのデータ処理モデルにすることができ、本開示はこれを限定しない。
または、テンプレート顔画像のテンプレートキーポイント情報は、関連技術の他の任意の顔キーポイント検出方法によって抽出されてもよく、本開示は、テンプレート顔画像のテンプレートキーポイント情報を抽出する方法を限定しない。
なお、本開示の実施例では、検出対象の顔画像の検出キーポイント情報を取得する方法は、テンプレート顔画像のテンプレートキーポイント情報を取得する方法と同じであってもよいし、異なっていてもよく、本開示はこれを限定しない。
本開示の実施例では、抽出された検出対象の顔画像の検出キーポイント情報は、取得されたテンプレート顔画像のテンプレートキーポイント情報と1対1で対応していることに留意されたい。ここで、検出キーポイント情報とテンプレートキーポイント情報との1対1の対応とは、検出キーポイント情報における顔キーポイントの数がテンプレートキーポイント情報における顔キーポイントの数と同じであり、かつ検出キーポイント情報における各顔キーポイントとテンプレートキーポイント情報における各顔キーポイントが、それぞれ顔の同じ部位に対応することを意味する。
本開示の実施例では、同じ部位の顔キーポイントは、同じ認識子で一意にマークすることができ、例えば、人間の左目の左隅の認識子は1であり、人間の左目の右隅の認識子は2であり、人間の右目の左隅の認識子は3である。なお、検出キーポイント情報における顔キーポイント及びテンプレートキーポイント情報における顔キーポイントの数は、必要に応じて設定することができ、本開示ではその数は一例として68である。
例えば、図2および図3に示すように、図2は、検出対象の顔画像の検出キーポイント情報の模式図であり、図3は、テンプレート顔画像のテンプレートキーポイント情報の模式図であり、図2および図3に示すように、テンプレートキーポイント情報には68個の顔キーポイントが含まれ、検出キーポイント情報にも68個の顔キーポイントが含まれ、ここで、人間の左目の左隅が顔キーポイント1に対応し、人間の左目の右隅が顔キーポイント2に対応し、人間の右目の左隅が顔キーポイント3に対応する。
例示的な実施例では、事前にトレーニングされたキーポイント検出モデルを使用してキーポイント情報抽出を行うことを例にとると、特定の場所のキーポイント及び特定の数のキーポイントを検出できるキーポイント検出モデルを事前にトレーニングすることができ、事前にトレーニングされたキーポイント検出モデルを使用することにより、1対1で対応している検出対象の顔画像の検出キーポイント情報及びテンプレート顔画像のテンプレートキーポイント情報を取得することができる。
なお、テンプレート顔画像は遮蔽されていない顔画像であるため、テンプレート顔画像のテンプレートキーポイント情報には、顔のすべてのキーポイントのテンプレート位置情報が含まれる。一方、検出対象の顔画像は、一部が遮蔽された顔を含む画像であるため、検出対象の顔画像の検出キーポイント情報は、遮蔽領域の顔キーポイントの検出位置情報と非遮蔽領域の顔キーポイントの検出位置情報とを含むが、遮蔽領域の顔キーポイントからなる形状が大きく変形する可能性がある。
例えば、引き続き図2と図3を参照し、テンプレート顔画像が遮蔽されていない顔画像であるため、テンプレート顔画像のテンプレートキーポイント情報に含まれる顔キーポイントは、顔のすべての顔キーポイントであり、即ち68個の顔キーポイントであるが、検出対象の顔画像では、人間の右目が遮蔽されているため、ステップ101で検出対象の顔画像の検出キーポイント情報を抽出することができるが、抽出された遮蔽領域の顔キーポイントからなる形状が完全に変形であり、これらの遮蔽領域の顔キーポイントの検出位置情報は完全に間違っている。
ステップ103では、検出キーポイント情報とテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定する。
ここで、顔キーポイントマッピング関係は、検出対象の顔画像の非遮蔽領域の顔キーポイントの検出位置情報と、テンプレート顔画像の同じ顔位置に対応する顔キーポイントのテンプレート位置情報とのマッピング関係である。
ステップ104では、顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲットキーポイント情報を生成する。
ここで、ターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の非遮蔽領域の顔キーポイントである。
なお、本開示の実施例では、顔キーポイントマッピング関係は、検出対象の顔画像の非遮蔽領域の顔キーポイントの検出位置情報と、テンプレート顔画像の同じ顔位置に対応する顔キーポイントのテンプレート位置情報とのマッピング関係であるが、非遮蔽領域の顔キーポイントの検出位置情報はほぼ正しいであり、即ち顔キーポイントマッピング関係は、同じ部位の顔キーポイントのテンプレート位置情報とほぼ正しい検出位置情報とのマッピング関係であるため、顔キーポイントマッピング関係が決定された後、顔キーポイントマッピング関係と、テンプレート顔画像のテンプレートキーポイント情報における各顔キーポイントのテンプレート位置情報とに基づいて、検出対象の顔画像におけるテンプレート顔画像の部位と同じ顔キーポイントの実際位置を予測することができる。
具体的には、顔キーポイントマッピング関係と、テンプレート顔画像のテンプレートキーポイント情報における各顔キーポイントのテンプレート位置情報とに基づいて、検出対象の顔画像におけるテンプレート顔画像の部位と同じ顔キーポイントの実際位置を予測することで、検出対象の顔画像におけるテンプレート顔画像の部位と同じ顔キーポイントの評価位置情報を決定することができる。非遮蔽領域の顔キーポイントの検出位置情報がほぼ正しいであるため、非遮蔽領域の顔キーポイントの検出位置情報は、決定された対応する部位の顔キーポイントの評価位置情報と一致し、本開示の実施例では、検出対象の顔画像の各顔キーポイントに対して、決定されたこの顔キーポイントの評価位置情報とこの顔キーポイントの検出位置情報とを比較することで、この顔キーポイントの評価位置情報が検出位置情報と一致しているか否かを決定することができ、検出対象の顔画像の特定の顔キーポイントの検出位置情報が評価位置情報と一致する場合、この顔キーポイントを非遮蔽領域の顔キーポイント、即ちターゲット顔キーポイントとして決定することができる。これにより、検出対象の顔画像の検出キーポイント情報から、非遮蔽領域のターゲット顔キーポイントを選別することができ、ひいては検出キーポイント情報における非遮蔽領域の顔キーポイントに対応する検出位置情報に基づいて、検出対象の顔画像のターゲットキーポイント情報を生成することができる。
本開示によって提供される顔キーポイントの検出方法は、検出対象の顔画像の検出キーポイント情報とテンプレート顔画像のテンプレートキーポイント情報が取得された後、検出キーポイント情報とテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定し、ひいては顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲット顔キーポイント情報を生成し、ここで、ターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の非遮蔽領域の顔キーポイントであり、顔キーポイントマッピング関係は、同じ部位の顔キーポイントのテンプレート位置情報とほぼ正しい検出位置情報とのマッピング関係であるため、顔キーポイントマッピング関係を使用することにより、検出対象の顔画像の顔キーポイントの評価位置情報を正確にを決定することができ、さらに、ターゲットキーポイント情報を正確に選別して生成することができ、顔キーポイントマッピング関係を使用することにより、検出対象の顔画像の非遮蔽領域の顔キーポイントを決定することができ、さらに、非遮蔽領域の顔キーポイントの検出位置情報に基づいて検出対象の顔画像のターゲットキーポイント情報を生成することができ、これによって、キーポイント検出モデルのトレーニングなどを実行する必要のある必要なデータラベリングに加えて、追加の人手によるラベリングが必要でないため、人手によるラベリングにかかるコストと時間を節約することができる。
本開示の実施例の顔キーポイントの検出方法は、まず、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出し、テンプレート顔画像のテンプレートキーポイント情報を取得し、そして、検出対象の顔画像の検出キーポイント情報とテンプレート顔画像のテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定し、ひいては顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲットキーポイント情報を生成し、ここで、ターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の非遮蔽領域の顔キーポイントである。これにより、追加の人手によるラベリングが必要でなく、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報を正確に認識することができ、コストを節約し、時間を短縮することができる。
上記の分析から分かるように、本開示では、検出対象の顔画像の検出キーポイント情報及びテンプレート顔画像のテンプレートキーポイント情報が取得された後、検出キーポイント情報とテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定し、ひいては顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像の非遮蔽領域の顔キーポイント情報を生成することができ、以下、図4と組み合わせて、本開示の実施例における検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を生成するプロセスを詳細に説明する。
図4は、本開示の第2の実施例に係る模式図である。図4に示すように、本開示によって提供される顔キーポイントの検出方法は、以下のステップを含むことができる。
ステップ201では、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出する。
ステップ202では、テンプレート顔画像のテンプレートキーポイント情報を取得する。
ここで、上記のステップ201-202の具体的な実現プロセス及び原理は、上記実施例の詳細な説明を参照することができ、ここでは説明を省略する。
ステップ203では、テンプレートキーポイント情報と検出キーポイント情報とに基づいて、顔キーポイントマッピング関係の確率密度関数を構築する。
ここで、確率密度関数は、検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報と、非遮蔽領域の顔キーポイントマッピング関係の分布情報から決定することができる。
なお、本開示の実施例では、検出対象の顔画像が遮蔽領域と非遮蔽領域を含む顔画像である場合、テンプレートキーポイント情報と検出キーポイント情報とに基づいて、遮蔽領域の顔キーポイントの検出位置情報と、テンプレートキーポイント情報における同じ部位にある顔キーポイントのテンプレート位置情報との顔キーポイントマッピング関係、即ち遮蔽領域の顔キーポイントマッピング関係を構築し、非遮蔽領域の顔キーポイントの検出位置情報とテンプレートキーポイント情報における同じ部位にある顔キーポイントのテンプレート位置情報との顔キーポイントマッピング関係、即ち非遮蔽領域の顔キーポイントマッピング関係を構築し、遮蔽領域の顔キーポイントマッピング関係の分布情報と、非遮蔽領域の顔キーポイントマッピング関係の分布情報とに基づいて、確率密度関数を構築することができる。
例示的な実施例では、検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報は、均一な分布情報であってもよく、検出対象の顔画像の非遮蔽領域の顔キーポイントマッピング関係の分布情報は、混合ガウス分布情報であってもよい。
例示的な実施例では、確率密度関数の計算式は式(1)であってもよい。
Figure 0007270114000001
ここで、xは、検出対象の顔画像の検出キーポイント情報を表し、ωは、検出対象の顔画像の遮蔽領域の割合を表し、
Figure 0007270114000002
ステップ204では、確率密度関数に基づいて、顔キーポイントマッピング関係の目的関数及び期待関数を構築する。
ステップ205では、期待関数の最尤推定を行い、推定結果に基づいて確率密度関数及び目的関数を再決定し、目的関数が予め設定された収束条件を満たすまで、期待関数を再決定して最尤推定を行う。
ステップ206では、予め設定された収束条件が満たされているときの確率密度関数に基づいて、顔キーポイントマッピング関係を決定する。
ここで、収束条件は、必要に応じて設定することができる。
なお、本開示の実施例では、顔キーポイントマッピング関係を解くことは、上記の確率密度関数を解くプロセスである。
具体的に実施する場合、まず、確率密度関数に基づいて、顔キーポイントマッピング関係の目的関数を構築し、確率密度関数と目的関数とに基づいて、期待関数を構築することができる。そして、期待関数の最尤推定を行って、目的関数のパラメータ値を決定し、決定されたパラメータ値に基づいて、確率密度関数及び目的関数を再決定し、期待関数を再決定し、目的関数が予め設定された収束条件を満たすまで、再決定された期待関数の最尤推定を実行し続け、これにより、目的関数が予め設定された収束関数を満たしているときの確率密度関数に基づいて、顔キーポイントマッピング関係を決定することができる。
例示的な実施例では、最尤推定を実行する場合、尤度関数を最大化することで実現してもよいし、負の対数尤度関数を最小化することで実現してもよく、本開示はこれを限定しない。
例示的な実施例では、テンプレートキーポイント情報における顔キーポイントのテンプレート位置情報と、検出キーポイント情報における顔キーポイントの評価位置情報との対応関係は、アフィン変換で表すことができ、これによって、本開示における顔キーポイントマッピング関係の目的関数は、式(2)の形をとることができる。
Figure 0007270114000003
Figure 0007270114000004
ここで、R、t、sはアフィン変換パラメータであり、Rは回転行列を表し、tは変位行列を表し、sはスケーリング行列を表し、σはガウス分布の分散を表し、Poldは前回の反復パラメータを使用して計算された混合ガウスモデルの事後確率を表し、Nは顔キーポイントの数を表し、Nは混合ガウス分布を表し、xは検出キーポイント情報におけるk番目の顔キーポイントの検出位置情報を表し、yは検出キーポイント情報におけるk番目の顔キーポイントと同じ部位の顔キーポイントのテンプレート位置情報を表し、
Figure 0007270114000005
は検出キーポイント情報におけるk番目の顔キーポイントの評価位置情報を表す。
例示的な実施例では、期待関数は、下記の式(3)の形態であり得る。
Figure 0007270114000006
例示的な実施例では、確率密度関数、目的関数および期待関数が、それぞれ上記の式(1)、(2)および(3)の形式である場合、ステップ205は、具体的に以下の方法で実施することができる。
まず、B=I、t=0、0<ω<1のように初期化する。ここで、B=sRであり、ここで、Iは単位行列である。
ひいては、B=I、t=0、0<ω<1の場合、式(3)に示す期待関数の最尤推定を行い、B、tおよびσを解く。
Figure 0007270114000007
さらに、計算されたB、tおよびσに基づいて、確率密度関数及び目的関数を再決定し、期待関数を再決定し、再決定された期待関数の最尤推定を行って、B、tおよびσを再度解き、確率密度関数及び目的関数を再決定し、期待関数を再決定し、再決定された期待関数の最尤推定を行い、目的関数が予め設定された収束条件を満たすまで、上記のプロセスを繰り返す。
ひいては、目的関数が予め設定された収束条件を満たすときのアフィン変換パラメータR、tおよびsに基づいて、顔キーポイントマッピング関係を取得することができる。
なお、本開示は、テンプレートキーポイント情報と検出キーポイント情報とに基づいて、顔キーポイントマッピング関係の確率密度関数を構築し、ここで、確率密度関数は、検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報及び非遮蔽領域の顔キーポイントマッピング関係の分布情報によって決定され、再確率密度関数に基づいて、顔キーポイントマッピング関係の目的関数及び期待関数を構築し、ひいては期待関数の最尤推定を行うことにより、顔キーポイントマッピング関係を決定し、最尤推定は、最も確率の高い顔キーポイントマッピング関係が発生したときのアフィン変換パラメータを決定し、かつ、本開示は、目的関数が収束したときの確率密度関数に基づいて顔キーポイントマッピング関係を決定するため、上記のように決定された本開示の顔キーポイントマッピング関係は正確で信頼できるものである。そして、検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報と、非遮蔽領域の顔キーポイントマッピング関係の分布情報がそれぞれ異なるタイプの分布情報に対応するように設定することで、遮蔽領域の顔キーポイントマッピング関係の分布情報と非遮蔽領域の顔キーポイントマッピング関係の分布情報にそれぞれ対応する異なるタイプの分布情報によって決定される確率密度関数に基づいて、顔キーポイントマッピング関係を決定することにより、決定された顔キーポイントマッピング関係の正確性と信頼性をさらに向上させることができる。
ステップ207では、顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲットキーポイント情報を生成する。
ここで、ターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の非遮蔽領域の顔キーポイントである。
ここで、上記のステップ207の具体的な実現プロセス及び原理は、上記実施例の関連する説明を参照することができ、ここでは説明を省略する。
なお、本開示で決定された顔キーポイントマッピング関係は正確かつ信頼でき、顔画像のターゲットキーポイント情報は、顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて検出キーポイント情報を選別することによって生成されるため、生成された検出対象の顔画像のターゲットキーポイント情報の正確性と信頼性を向上させることができる。
本開示によって提供される顔キーポイントの検出方法は、まず、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出し、テンプレート顔画像のテンプレートキーポイント情報を取得し、次に、テンプレートキーポイント情報と検出キーポイント情報とに基づいて、顔キーポイントマッピング関係の確率密度関数を構築し、確率密度関数に基づいて、顔キーポイントマッピング関係の目的関数及び期待関数を構築し、そして、期待関数の最尤推定を行い、推定結果に基づいて確率密度関数及び目的関数を再決定し、目的関数が予め設定された収束条件を満たすまで、期待関数を再決定して最尤推定を行い、予め設定された収束条件が満たされているときの確率密度関数に基づいて、顔キーポイントマッピング関係を決定し、ひいては顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲットキーポイント情報を生成する。これにより、追加の人手によるラベリングが必要でなく、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報を正確に認識することができ、コストを節約し、時間を短縮することができる。
上記の分析から分かるように、本開示の実施例では、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係が決定された後、顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像の非遮蔽領域の顔キーポイント情報を生成することができ、以下に、図5と組み合わせて、本開示の実施例における顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像の非遮蔽領域の顔キーポイント情報を生成するプロセスを詳細に説明する。
図5は本開示の第3の実施例に係る模式図である。図5に示すように、本開示によって提供される顔キーポイントの検出方法は、以下のステップを含むことができる。
ステップ301では、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出する。
ステップ302では、テンプレート顔画像のテンプレートキーポイント情報を取得する。
ステップ303では、検出キーポイント情報とテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定する。
ここで、上記のステップ301-303の具体的な実現プロセス及び原理は、上記の実施例の説明を参照することができ、ここでは説明を省略する。
ステップ304では、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントマッピング関係、テンプレートキーポイント情報における顔キーポイントのテンプレート位置情報、及び検出キーポイント情報における顔キーポイントの検出位置情報に基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを決定する。
具体的に、顔キーポイントマッピング関係は、同じ部位の顔キーポイントのテンプレート位置情報と、ほぼ正しい検出位置情報とのマッピング関係であるため、顔キーポイントマッピング関係とテンプレートキーポイント情報における顔キーポイントのテンプレート位置情報とに基づいて、検出対象の顔画像におけるテンプレート顔画像の部位と同じ顔キーポイントの実際位置を予測することができる。
具体的に、顔キーポイントマッピング関係と、テンプレート顔画像のテンプレートキーポイント情報における各顔キーポイントのテンプレート位置情報とに基づいて、検出対象の顔画像におけるテンプレート顔画像の部位と同じ顔キーポイントの実際位置を予測することで、検出対象の顔画像におけるテンプレート顔画像の顔部位と同じ顔キーポイントの評価位置情報を決定することができる。また、テンプレート顔画像のテンプレートキーポイント情報と検出対象の顔画像の検出キーポイント情報が1対1で対応するため、検出キーポイント情報における各顔キーポイントの検出位置情報と各顔キーポイントの評価位置情報は、それぞれ同じ顔位置の顔キーポイントに対応し、ひいては検出キーポイント情報における各顔キーポイントに対して、顔キーポイントの評価位置情報と検出位置情報とに基づいて、この顔キーポイントがターゲットキーポイントであるか否かを決定することができる。
即ち、ステップ304は、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントのテンプレート位置情報と、顔キーポイントマッピング関係とに基づいて、顔キーポイントの評価位置情報を決定するステップと、評価位置情報と顔キーポイントの検出位置情報とに基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを決定するステップと、を含む。
なお、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントのテンプレート位置情報と、顔キーポイントマッピング関係とに基づいて、顔キーポイントの評価位置情報を決定することができるため、本開示の実施例では、検出対象の顔画像の非遮蔽領域の顔キーポイントの評価位置情報を決定することができ、検出対象の顔領域における遮蔽領域の顔キーポイントの評価位置情報も決定することができる。
具体的に実施する場合、ターゲット顔キーポイントは検出対象の顔画像の非遮蔽領域の顔キーポイントであるが、検出キーポイント情報における非遮蔽領域の顔キーポイントの検出位置情報はほぼ正しいであるため、非遮蔽領域の顔キーポイントの検出位置情報は、同じ部位の顔キーポイントの評価位置情報と一致している。そして、本開示の実施例では、検出対象の顔画像の検出キーポイント情報からターゲットキーポイント情報を選別して生成するために、各顔キーポイントの評価位置情報が決定された後、検出キーポイント情報における各顔キーポイントに対して、この顔キーポイントの評価位置情報がこの顔キーポイントの検出位置情報と一致しているか否かを決定することができ、この顔キーポイントの検出位置情報が評価位置情報と一致している場合、この顔キーポイントはターゲット顔キーポイントと見なされ、、一致していない場合、この顔キーポイントは非ターゲット顔キーポイントと見なされる。
これにより、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントのテンプレート位置情報と顔キーポイントマッピング関係とに基づいて、顔キーポイントの評価位置情報を決定することで、検出対象の顔画像の非遮蔽領域の顔キーポイントの評価位置情報を決定することができ、遮蔽領域の顔キーポイントの評価位置情報も決定することができ、また、検出対象の顔画像の各顔キーポイントに対して、顔キーポイントの評価位置情報と検出位置情報とに基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを決定することにより、検出対象の顔画像の非遮蔽領域のターゲット顔キーポイントを正確に選別することができる。
具体的に実施する場合、距離閾値を事前に設定することができ、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントの検出位置情報と評価位置情報との距離が予め設定された距離閾値以下であるか否かに基づいて、この顔キーポイントの検出位置情報が評価位置情報と一致しているか否かを判断し、特定の顔キーポイントの検出位置情報と評価位置情報との距離が予め設定された距離閾値以下である場合、この顔キーポイントの検出位置情報は評価位置情報と一致していると見なされ、ひいてはこの顔キーポイントがターゲット顔キーポイントであると決定し、特定の顔キーポイントの検出位置情報と評価位置情報との距離が予め設定された距離閾値よりも大きい場合、この顔キーポイントの検出位置情報は評価位置情報と一致していないと見なされ、ひいてはこの顔キーポイントが非ターゲット顔キーポイントであると決定する。
即ち、評価位置情報と顔キーポイントの検出位置情報とに基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを決定するステップは、評価位置情報と顔キーポイントの検出位置情報との距離を決定するステップと、距離が予め設定された距離閾値以下である場合、顔キーポイントがターゲット顔キーポイントであると決定するステップと、距離が予め設定された距離閾値よりも大きい場合、顔キーポイントが非ターゲット顔キーポイントであると決定するステップと、を含む。
ここで、評価位置情報と検出位置情報との距離は、ユークリッド距離や余弦距離など、2点間の距離を表すことができる任意の距離タイプを採用することができる。
予め設定された距離閾値は、必要に応じて設定することができ、予め設定された距離閾値が小いほど、検出キーポイント情報から選別して生成された検出対象の顔画像のターゲットキーポイント情報が正確になるため、実際の応用では、生成されたターゲットキーポイント情報の精度要件に応じて、予め設定された距離閾値を柔軟に設定することができる。
例えば、引き続き図2と図3を参照し、図2は、検出対象の顔画像の検出キーポイント情報の模式図であり、図3は、テンプレート顔画像のテンプレートキーポイント情報の模式図であり、本開示の実施例では、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントのテンプレート位置情報と、顔キーポイントマッピング関係とに基づいて、顔キーポイントの評価位置情報を決定することができる。図6は検出対象の顔画像の各顔キーポイントの評価位置情報の模式図であると仮定すると、検出キーポイント情報における各顔キーポイントに対して、評価位置情報と検出位置情報との距離を決定し、距離と予め設定された距離閾値とを比較することができる。人間の左目の左隅の顔キーポイント1を例にとると、図6に示すような顔キーポイント1の評価位置情報と図2に示すような顔キーポイント1の検出位置情報との距離を、予め設定された距離閾値と比較して、顔キーポイント1の評価位置情報と検出位置情報との距離が予め設定された距離閾値よりも小さいという結果を取得し、検出対象の顔画像の検出キーポイント情報における顔キーポイント1がターゲットキーポイントであると決定する。人目の右目の左隅の顔キーポイント3を例にとると、図6に示すような顔キーポイント3の評価位置情報と図2に示すような顔キーポイント3の検出位置情報との距離を、予め設定された距離閾値とを比較して、顔キーポイント3の評価位置情報と検出位置情報との距離が予め設定された距離閾値よりも大きいという結果を取得し、検出対象の顔画像の検出キーポイント情報における顔キーポイント3が非ターゲットキーポイントであると決定する。これにより、検出キーポイント情報における各顔キーポイントがターゲットキーポイントであるか否かを決定することができる。
予め設定された距離閾値を設定し、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントの評価位置情報と検出位置情報との間の距離と、予め設定された距離閾値との関係に基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを判断することにより、検出対象の顔画像の検出キーポイント情報における顔キーポイントがターゲット顔キーポイントであるか否かを正確に判断することができる。
ステップ305では、検出キーポイント情報におけるターゲット顔キーポイントの検出位置情報に基づいて、検出対象の顔画像のターゲットキーポイント情報を生成する。
具体的には、検出キーポイント情報における各顔キーポイントがターゲット顔キーポイントであるか否かが決定された後、検出キーポイント情報から、ターゲット顔キーポイントの検出位置情報を選別し、ターゲット顔キーポイントの検出位置情報に基づいて、検出対象の顔画像のターゲットキーポイント情報を生成することができる。
検出キーポイント情報における各顔キーポイントに対して、顔キーポイントマッピング関係、テンプレートキーポイント情報における顔キーポイントのテンプレート位置情報、及び検出キーポイント情報における顔キーポイントの検出位置情報に基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを決定し、ひいては検出キーポイント情報におけるターゲット顔キーポイントの検出位置情報に基づいて、検出対象の顔画像のターゲットキーポイント情報を生成することにより、検出対象の顔画像の非遮蔽領域の顔キーポイント、その位置および数などの情報を正確に決定することができ、プロセス全体では、追加の人手によるラベリングが必要でなく、コストを節約し、時間を短縮することができる。
なお、検出対象の顔画像のターゲットキーポイント情報が生成された後、ターゲットキーポイント情報を使用して、検出対象の顔画像の顔認識などの機能を実現することができる。即ち、ステップ305の後に、ステップ306をさらに含むことができる。
ステップ306では、検出対象の顔画像のターゲットキーポイント情報に基づいて、検出対象の顔画像に対して顔認識を行って、認識結果を取得する。
なお、本開示の実施例において決定された検出対象の顔画像のターゲットキーポイント情報は、顔認識に加えて、様々なシナリオに適用することができる。
例えば、本開示の実施例において生成された検出対象の顔画像のターゲットキーポイント情報に基づいて、検出対象の顔画像の特定のターゲットキーポイントの特殊効果又は編集処理を実施することができ、例えば、検出対象の顔画像のターゲットキーポイント情報に基づいて、目に対応する各ターゲットキーポイントの位置を決定し、さらに、目にメガネの特殊効果を適用するか、または目を拡大し、検出対象の顔画像のターゲットキーポイント情報に基づいて、眉毛に対応する各ターゲットキーポイントの位置を決定し、さらに、眉毛が太くなるように処理する。
なお、検出対象の顔画像のターゲットキーポイント情報に基づいて、検出対象の顔画像に対して顔認識を行って、認識結果を取得することにより、決定された検出対象の顔画像のターゲットキーポイント情報を使用して顔認識機能を実現することができ、本開示の顔キーポイントの検出方法によれば、生成されたターゲットキーポイント情報は正確で信頼性が高いため、この方法で生成されたターゲットキーポイント情報を使用して顔認識を行う場合、認識結果もより正確で信頼性が高くなる。
本開示によって提供される顔キーポイントの検出方法は、まず、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出し、テンプレート顔画像のテンプレートキーポイント情報を取得し、そして、検出キーポイント情報とテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定し、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントマッピング関係、テンプレートキーポイント情報における顔キーポイントのテンプレート位置情報、及び検出キーポイント情報における顔キーポイントの検出位置情報に基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを決定し、検出キーポイント情報におけるターゲット顔キーポイントの検出位置情報に基づいて、検出対象の顔画像のターゲットキーポイント情報を生成し、ひいては検出対象の顔画像のターゲットキーポイント情報に基づいて、検出対象の顔画像に対して顔認識を行って、認識結果を取得する。これにより、追加の人手によるラベリングが必要でなく、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報を正確に認識することができ、ひいては非遮蔽領域の顔キーポイント情報に基づいて検出対象の顔画像の顔認識を実現し、コストを節約し、時間を短縮することができる。
図1~図6に記載された実施例を実現するために、本開示の実施例は、顔キーポイントの検出装置をさらに提供する。
図7は、本開示の第4の実施例に係る模式図である。図7に示すように、この顔キーポイントの検出装置10は、第1の取得モジュール11と、抽出モジュール12と、第2の取得モジュール13と、決定モジュール14と、処理モジュール15とを含む。
具体的には、本開示によって提供される顔キーポイントの検出装置は、本開示の上記の実施例によって提供される顔キーポイントの検出方法を実行することができ、この顔キーポイントの検出装置は、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報の検出を実現するように、電子機器に配置され得る。ここで、電子機器は、データ処理が可能な任意の端末デバイスまたはサーバーなどであってもよく、本開示はこれを限定しない。
ここで、第1の取得モジュール11は、検出対象の顔画像を取得し、抽出モジュール12は、検出対象の顔画像の検出キーポイント情報を抽出し、第2の取得モジュール13は、テンプレート顔画像のテンプレートキーポイント情報を取得し、決定モジュール14は、検出キーポイント情報とテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定し、処理モジュール15は、顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲットキーポイント情報を生成し、ターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の非遮蔽領域の顔キーポイントである。
なお、上記の実施例における顔キーポイントの検出方法の説明は、本開示の実施例における顔キーポイントの検出装置10にも適用可能であり、ここでは説明を省略する。
本開示の実施例の顔キーポイントの検出装置は、まず、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出し、テンプレート顔画像のテンプレートキーポイント情報を取得し、そして、検出対象の顔画像の検出キーポイント情報とテンプレート顔画像のテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定し、ひいては顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲットキーポイント情報を生成し、ここで、ターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の非遮蔽領域の顔キーポイントである。これにより、追加の人手によるラベリングが必要でなく、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報を正確に認識することができ、コストを節約し、時間を短縮することができる。
図8は本開示の第5の実施例に係る模式図である。
図8に示すように、図7に示されることに基づいて、本開示によって提供される顔キーポイントの検出装置10における決定モジュール14は、具体的に、テンプレートキーポイント情報と検出キーポイント情報とに基づいて、顔キーポイントマッピング関係の確率密度関数を構築する第1の構築ユニット141であって、確率密度関数は、検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報及び非遮蔽領域の顔キーポイントマッピング関係の分布情報によって決定される第1の構築ユニット141と、確率密度関数に基づいて、顔キーポイントマッピング関係の目的関数及び期待関数を構築する第2の構築ユニット142と、期待関数の最尤推定を行い、推定結果に基づいて確率密度関数及び目的関数を再決定し、目的関数が予め設定された収束条件を満たすまで、期待関数を再決定して最尤推定を行う処理ユニット143と、予め設定された収束条件が満たされているときの確率密度関数に基づいて、顔キーポイントマッピング関係を決定する第1の決定ユニット144と、を含む。
例示的な実施例では、検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報は、均一な分布情報であり、検出対象の顔画像の非遮蔽領域の顔キーポイントマッピング関係の分布情報は、混合ガウス分布情報である。
Figure 0007270114000008
Figure 0007270114000009
例示的な実施例では、図8に示すように、処理モジュール15は、具体的に、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントマッピング関係、テンプレートキーポイント情報における顔キーポイントのテンプレート位置情報、及び検出キーポイント情報における顔キーポイントの検出位置情報に基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを決定する第2の決定ユニット151と、検出キーポイント情報におけるターゲット顔キーポイントの検出位置情報に基づいて、検出対象の顔画像のターゲットキーポイント情報を生成する生成ユニット152とを含む。
例示的な実施例では、上記の第2の決定ユニット151は、検出キーポイント情報における各顔キーポイントに対して、顔キーポイントのテンプレート位置情報と、顔キーポイントマッピング関係とに基づいて、顔キーポイントの評価位置情報を決定する第1の決定サブユニットと、評価位置情報と顔キーポイントの検出位置情報とに基づいて、顔キーポイントがターゲット顔キーポイントであるか否かを決定する第2の決定サブユニットとを含む。
例示的な実施例では、上記の第2の決定サブユニットは、具体的に、評価位置情報と顔キーポイントの検出位置情報との距離を決定し、距離が予め設定された距離閾値以下である場合、顔キーポイントがターゲット顔キーポイントであると決定し、距離が予め設定された距離閾値よりも大きい場合、顔キーポイントが非ターゲット顔キーポイントであると決定する。
例示的な実施例では、図8に示すように、図7に示されることに基づいて、本開示によって提供される顔キーポイントの検出装置10は、検出対象の顔画像のターゲットキーポイント情報に基づいて、検出対象の顔画像に対して顔認識を行って、認識結果を取得する認識モジュール16をさらに含み得る。
なお、上記の実施例における顔キーポイントの検出方法の説明は、本開示の実施例における顔キーポイントの検出装置10にも適用可能であり、ここでは説明を省略する。
本開示の実施例の顔キーポイントの検出装置は、まず、検出対象の顔画像を取得し、検出対象の顔画像の検出キーポイント情報を抽出し、テンプレート顔画像のテンプレートキーポイント情報を取得し、そして、検出対象の顔画像の検出キーポイント情報とテンプレート顔画像のテンプレートキーポイント情報を組み合わせて、検出対象の顔画像とテンプレート顔画像との顔キーポイントマッピング関係を決定し、ひいては顔キーポイントマッピング関係とテンプレートキーポイント情報とに基づいて、検出キーポイント情報を選別して、検出対象の顔画像のターゲットキーポイント情報を生成し、ここで、ターゲットキーポイント情報におけるターゲット顔キーポイントは、検出対象の顔画像の非遮蔽領域の顔キーポイントである。これにより、追加の人手によるラベリングが必要でなく、検出対象の顔画像の非遮蔽領域のターゲットキーポイント情報を正確に認識することができ、コストを節約し、時間を短縮することができる。
本開示の実施例によれば、本開示は、電子機器および読み取り可能な記憶媒体をさらに提供する。
本開示の実施例によれば、本開示は、コンピュータプログラムをさらに提供し、前記コンピュータプログラムがプロセッサによって実行される場合、顔キーポイントの検出方法が実現される。
図9は、本開示の実施例に係る顔キーポイントの検出方法のための電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及びその他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルアシスタント、セルラー電話、スマートフォン、ウェアラブルデバイス、及びその他の類似のコンピュータデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本開示に記載されているコンポーネント、それらの接続関係、及び機能は例示的なものに過ぎず、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
図9に示すように、当該電子機器は、1つ又は複数のプロセッサ901と、メモリ902と、高速インターフェース及び低速インターフェースを含む、各コンポーネントを接続するためのインターフェースとを含む。各コンポーネントは、異なるバスで互いに接続され、共通のマザーボードに取り付けられてもよいし、必要に応じて他の方法で取り付けられてもよい。プロセッサは、外部入力/出力デバイス(例えば、インターフェースに接続された表示デバイスなど)にグラフィックユーザインターフェースを表示するためにメモリまたはメモリ上に記憶されている命令を含む、電子機器内で実行される命令を処理することができる。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバスを複数のメモリとともに使用することができる。同様に、複数の電子機器を接続してもよく、各デバイスは、一部の必要な動作(例えば、サーバアレイ、ブレードサーバのセット、またはマルチプロセッサシステムとして)を提供する。図9においてプロセッサ901を例とする。
メモリ902は、本開示によって提供される非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、メモリには、少なくとも1つのプロセッサが本開示に係る顔キーポイントの検出方法を実行するように、少なくとも1つのプロセッサによって実行される命令が格納されている。本開示の非一時的なコンピュータ読み取り可能な記憶媒体には、本開示によって提供される顔キーポイントの検出方法をコンピュータに実行させる命令が記憶されている。
メモリ902は、非一時的なコンピュータ読み取り可能な記憶媒体として、本開示の実施例における顔キーポイントの検出方法に対応するプログラム命令/モジュール(例えば、図7に示す第1の取得モジュール11、抽出モジュール12、第2の取得モジュール13、決定モジュール14、処理モジュール15、図8に示す認識モジュール16)のような、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能プログラム及びモジュールを格納することができる。プロセッサ901は、メモリ902に格納された非一時的なソフトウェアプログラム、命令およびモジュールを実行することにより、サーバの各種機能アプリケーションおよびデータ処理を実行し、すなわち上記方法の実施例における顔キーポイントの検出方法を実現する。
メモリ902は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションを記憶できるプログラム記憶領域、および顔キーポイントの検出方法を実行する電子機器の使用に作成されるデータ等を記憶できるデータ記憶領域を備えてもよい。また、メモリ602は高速ランダムアクセスメモリを含むことができ、また少なくとも1つの磁気ディスク記憶装置、フラッシュメモリデバイスまたはその他の非一時的なソリッドステート記憶装置などの非一時的なメモリを含み得る。いくつかの実施形態において、メモリ602はプロセッサ601に対して遠隔に設置されたメモリを選択的に含み、これらのリモートメモリはネットワークを介して顔キーポイントの検出方法を実行する電子機器に接続することができる。上記ネットワークとしては、例えば、インターネット、企業イントラネット、ローカルエリアネットワーク、移動体通信網およびこれらの組み合わせなどが挙げられるが、それらに限定されない。
顔キーポイントの検出方法を実行する電子機器は、さらに入力装置903および出力装置904を含んでもよい。プロセッサ901、メモリ902、入力装置903および出力装置904は、バスまたはその他の方式で接続されていてもよく、図9ではバスで接続されている例を示している。
入力装置903は、入力された数字や文字情報を受信でき、顔キーポイントの検出方法を実行する電子機器のユーザ設定および機能制御に関するキー信号入力を生成することができ、例えばタッチパネル、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングデバイス、1つまたは複数のマウスボタン、トラックボール、ジョイスティック等である。出力装置904は表示装置、補助照明装置(例えば、LED)および触覚フィードバック装置(例えば、振動モータ)等を含むことができる。該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイおよびプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態において、表示装置はタッチパネルであってもよい。
ここで記述されるシステムおよび技術の各実施形態はデジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実装され得る。これらの各実施形態は、1つまたは複数のコンピュータプログラムに実装され、該1つまたは複数のコンピュータプログラムは少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行および/または解釈することができ、該プログラマブルプロセッサは専用または汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置および少なくとも1つの出力装置からデータおよび命令を受信することができ、且つデータおよび命令を該記憶システム、該少なくとも1つの入力装置および該少なくとも1つの出力装置に伝送することを含み得る。
これらのコンピュータプログラムは、プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとも呼ばれ、プログラマブルプロセッサの機械命令を含み、且つ高度プロセスおよび/またはオブジェクト指向のプログラミング言語、および/またはアセンブリ言語/機械語により実装され得る。ここで、「機械読み取り可能な媒体」および「コンピュータ読み取り可能な媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサに供給するための任意のコンピュータプログラム製品、機器、および/または装置(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに供給するための任意の信号を意味する。
ユーザとのインタラクションを提供するために、ここで記述されるシステムと技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、キーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)とを備え、ユーザが該キーボードおよび該ポインティングデバイスを介してコンピュータに入力を提供できる。他の種類の装置もユーザとのインタラクションを提供することに用いることができる。例えば、ユーザに提供されるフィードバックは、いかなる形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、且ついかなる形態(音響入力、音声入力若しくは触覚入力を含む)でユーザからの入力を受信してもよい。
ここで記述したシステムおよび技術は、バックグラウンドコンポーネントを含むコンピューティングシステム(例えば、データサーバ)に実施されてもよく、またはミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)に実施されてもよく、またはフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェースまたはウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)に実施されてもよく、またはこのようなバックグラウンドコンポーネント、ミドルウェアコンポーネントまたはフロントエンドコンポーネントのいずれかの組み合わせを含むコンピューティングシステムに実施されてもよい。システムの各コンポーネントの間は、通信ネットワーク等の任意の形態または媒体を介してデジタルデータ通信(例えば通信ネットワーク)により接続されていてもよい。通信ネットワークとしては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)およびインターネットなどを含む。
コンピュータシステムは、クライアントとサーバとを含んでもよい。クライアントとサーバは、通常、互いに離れており、通信ネットワークを介してインタラクションする。クライアントとサーバとの関係は、互いにクライアント-サーバの関係を有するコンピュータプログラムをそれぞれのコンピュータ上で動作することによって生成される。
上記の様々な態様のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本開示で記載された各ステップは、並列に実行しても良いし、順次に実行しても良いし、異なる順序で実行しても良い。本開示で開示された技術案が所望する結果を実現することができれば、本開示では限定しない。
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者にとって、設計要件やその他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができることは、明らかである。本開示の要旨及び原理内で行われる任意の修正、同等の置換及び改善などは、すべて本開示の保護範囲に含まれるべきである。

Claims (19)

  1. 顔キーポイントの検出方法であって、
    検出対象の顔画像を取得し、前記検出対象の顔画像の検出キーポイント情報を抽出するステップと、
    テンプレート顔画像のテンプレートキーポイント情報を取得するステップと、
    前記検出キーポイント情報と前記テンプレートキーポイント情報を組み合わせて、前記検出対象の顔画像と前記テンプレート顔画像との顔キーポイントマッピング関係を決定するステップと、
    前記顔キーポイントマッピング関係と前記テンプレートキーポイント情報とに基づいて、前記検出キーポイント情報を選別して、前記検出対象の顔画像のターゲットキーポイント情報を生成するステップであって、前記ターゲットキーポイント情報におけるターゲット顔キーポイントは、前記検出対象の顔画像の非遮蔽領域の顔キーポイントであるステップと、を含む、
    ことを特徴とする顔キーポイントの検出方法。
  2. 前記検出キーポイント情報と前記テンプレートキーポイント情報を組み合わせて、前記検出対象の顔画像と前記テンプレート顔画像との顔キーポイントマッピング関係を決定するステップは、
    前記テンプレートキーポイント情報と前記検出キーポイント情報とに基づいて、顔キーポイントマッピング関係の確率密度関数を構築するステップであって、前記確率密度関数は、検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報及び非遮蔽領域の顔キーポイントマッピング関係の分布情報によって決定されるステップと、
    確率密度関数に基づいて、顔キーポイントマッピング関係の目的関数及び期待関数を構築するステップと、
    期待関数の最尤推定を行い、推定結果に基づいて前記確率密度関数及び前記目的関数を再決定し、前記目的関数が予め設定された収束条件を満たすまで、前記期待関数を再決定して最尤推定を行うステップと、
    予め設定された収束条件が満たされているときの確率密度関数に基づいて、顔キーポイントマッピング関係を決定するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記顔キーポイントマッピング関係と前記テンプレートキーポイント情報とに基づいて、前記検出キーポイント情報を選別して、前記検出対象の顔画像のターゲットキーポイント情報を生成するステップは、
    前記検出キーポイント情報における各顔キーポイントに対して、前記顔キーポイントマッピング関係、前記テンプレートキーポイント情報における前記顔キーポイントのテンプレート位置情報、及び前記検出キーポイント情報における前記顔キーポイントの検出位置情報に基づいて、前記顔キーポイントがターゲット顔キーポイントであるか否かを決定するステップと、
    前記検出キーポイント情報における前記ターゲット顔キーポイントの検出位置情報に基づいて、前記検出対象の顔画像のターゲットキーポイント情報を生成するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記検出キーポイント情報における各顔キーポイントに対して、前記顔キーポイントマッピング関係、前記テンプレートキーポイント情報における前記顔キーポイントのテンプレート位置情報、及び前記検出キーポイント情報における前記顔キーポイントの検出位置情報に基づいて、前記顔キーポイントがターゲット顔キーポイントであるか否かを決定するステップは、
    前記検出キーポイント情報における各顔キーポイントに対して、前記顔キーポイントのテンプレート位置情報と、前記顔キーポイントマッピング関係とに基づいて、前記顔キーポイントの評価位置情報を決定するステップと、
    前記評価位置情報と前記顔キーポイントの検出位置情報とに基づいて、前記顔キーポイントがターゲット顔キーポイントであるか否かを決定するステップと、を含む、
    ことを特徴とする請求項3に記載の方法。
  5. 前記評価位置情報と前記顔キーポイントの検出位置情報とに基づいて、前記顔キーポイントがターゲット顔キーポイントであるか否かを決定するステップは、
    前記評価位置情報と前記顔キーポイントの検出位置情報との距離を決定するステップと、
    前記距離が予め設定された距離閾値以下である場合、前記顔キーポイントがターゲット顔キーポイントであると決定するステップと、
    前記距離が予め設定された距離閾値よりも大きい場合、前記顔キーポイントが非ターゲット顔キーポイントであると決定するステップと、を含む、
    ことを特徴とする請求項4に記載の方法。
  6. 前記顔キーポイントマッピング関係と前記テンプレートキーポイント情報とに基づいて、前記検出キーポイント情報を選別して、前記検出対象の顔画像のターゲットキーポイント情報を生成するステップの後に、
    前記検出対象の顔画像のターゲットキーポイント情報に基づいて、前記検出対象の顔画像に対して顔認識を行って、認識結果を取得するステップをさらに含む、
    ことを特徴とする請求項1に記載の方法。
  7. 前記検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報は、均一な分布情報であり、
    前記検出対象の顔画像の非遮蔽領域の顔キーポイントマッピング関係の分布情報は、混合ガウス分布情報である、
    ことを特徴とする請求項2に記載の方法。
  8. 前記確率密度関数の計算式は、
    Figure 0007270114000010
    であり、
    xは、検出対象の顔画像の検出キーポイント情報を表し、ωは、検出対象の顔画像の遮蔽領域の割合を表し、
    Figure 0007270114000011
    は、均一な分布情報を表し、p(x|k)は、ガウス分布情報を表す、
    ことを特徴とする請求項7に記載の方法。
  9. 顔キーポイントの検出装置であって、
    検出対象の顔画像を取得する第1の取得モジュールと、
    前記検出対象の顔画像の検出キーポイント情報を抽出する抽出モジュールと、
    テンプレート顔画像のテンプレートキーポイント情報を取得する第2の取得モジュールと、
    前記検出キーポイント情報と前記テンプレートキーポイント情報を組み合わせて、前記検出対象の顔画像と前記テンプレート顔画像との顔キーポイントマッピング関係を決定する決定モジュールと、
    前記顔キーポイントマッピング関係と前記テンプレートキーポイント情報とに基づいて、前記検出キーポイント情報を選別して、前記検出対象の顔画像のターゲットキーポイント情報を生成する処理モジュールであって、前記ターゲットキーポイント情報におけるターゲット顔キーポイントは、前記検出対象の顔画像の非遮蔽領域の顔キーポイントである処理モジュールと、を含む、
    ことを特徴とする顔キーポイントの検出装置。
  10. 前記決定モジュールが、
    前記テンプレートキーポイント情報と前記検出キーポイント情報とに基づいて、顔キーポイントマッピング関係の確率密度関数を構築する第1の構築ユニットであって、前記確率密度関数は、検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報及び非遮蔽領域の顔キーポイントマッピング関係の分布情報によって決定される第1の構築ユニットと、
    確率密度関数に基づいて、顔キーポイントマッピング関係の目的関数及び期待関数を構築する第2の構築ユニットと、
    期待関数の最尤推定を行い、推定結果に基づいて前記確率密度関数及び前記目的関数を再決定し、前記目的関数が予め設定された収束条件を満たすまで、前記期待関数を再決定して最尤推定を行う処理ユニットと、
    予め設定された収束条件が満たされているときの確率密度関数に基づいて、顔キーポイントマッピング関係を決定する第1の決定ユニットと、を含む、
    ことを特徴とする請求項9に記載の装置。
  11. 前記処理モジュールが、
    前記検出キーポイント情報における各顔キーポイントに対して、前記顔キーポイントマッピング関係、前記テンプレートキーポイント情報における前記顔キーポイントのテンプレート位置情報、及び前記検出キーポイント情報における前記顔キーポイントの検出位置情報に基づいて、前記顔キーポイントがターゲット顔キーポイントであるか否かを決定する第2の決定ユニットと、
    前記検出キーポイント情報における前記ターゲット顔キーポイントの検出位置情報に基づいて、前記検出対象の顔画像のターゲットキーポイント情報を生成する生成ユニットと、を含む、
    ことを特徴とする請求項9に記載の装置。
  12. 前記第2の決定ユニットが、
    前記検出キーポイント情報における各顔キーポイントに対して、前記顔キーポイントのテンプレート位置情報と、前記顔キーポイントマッピング関係とに基づいて、前記顔キーポイントの評価位置情報を決定する第1の決定サブユニットと、
    前記評価位置情報と前記顔キーポイントの検出位置情報とに基づいて、前記顔キーポイントがターゲット顔キーポイントであるか否かを決定する第2の決定サブユニットと、を含む、
    ことを特徴とする請求項11に記載の装置。
  13. 前記第2の決定サブユニットが、
    前記評価位置情報と前記顔キーポイントの検出位置情報との距離を決定し、
    前記距離が予め設定された距離閾値以下である場合、前記顔キーポイントがターゲット顔キーポイントであると決定し、
    前記距離が予め設定された距離閾値よりも大きい場合、前記顔キーポイントが非ターゲット顔キーポイントであると決定する、
    ことを特徴とする請求項12に記載の装置。
  14. 前記検出対象の顔画像のターゲットキーポイント情報に基づいて、前記検出対象の顔画像に対して顔認識を行って、認識結果を取得する認識モジュールをさらに含む、
    ことを特徴とする請求項9~13のいずれかに記載の装置。
  15. 前記検出対象の顔画像の遮蔽領域の顔キーポイントマッピング関係の分布情報は、均一な分布情報であり、
    前記検出対象の顔画像の非遮蔽領域の顔キーポイントマッピング関係の分布情報は、混合ガウス分布情報である、
    ことを特徴とする請求項10に記載の装置。
  16. 前記確率密度関数の計算式は、
    Figure 0007270114000012
    であり、
    xは、検出対象の顔画像の検出キーポイント情報を表し、ωは、検出対象の顔画像の遮蔽領域の割合を表し、
    Figure 0007270114000013
    は、均一な分布情報を表し、p(x|k)は、ガウス分布情報を表す、
    ことを特徴とする請求項15に記載の装置。
  17. 電子機器であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行される命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1~8のいずれかに記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
    ことを特徴とする電子機器。
  18. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1~8のいずれかに記載の方法を実行させる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  19. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサによって実行される場合、請求項1~8のいずれかに記載の方法が実現される、
    ことを特徴とするコンピュータプログラム。
JP2022539761A 2020-05-15 2020-09-23 顔キーポイントの検出方法、装置及び電子機器 Active JP7270114B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010415188.1A CN111709288B (zh) 2020-05-15 2020-05-15 人脸关键点检测方法、装置以及电子设备
CN202010415188.1 2020-05-15
PCT/CN2020/116994 WO2021227333A1 (zh) 2020-05-15 2020-09-23 人脸关键点检测方法、装置以及电子设备

Publications (2)

Publication Number Publication Date
JP2023508704A JP2023508704A (ja) 2023-03-03
JP7270114B2 true JP7270114B2 (ja) 2023-05-09

Family

ID=72537161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022539761A Active JP7270114B2 (ja) 2020-05-15 2020-09-23 顔キーポイントの検出方法、装置及び電子機器

Country Status (5)

Country Link
US (1) US20230196825A1 (ja)
JP (1) JP7270114B2 (ja)
KR (1) KR20220113830A (ja)
CN (1) CN111709288B (ja)
WO (1) WO2021227333A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112883777B (zh) * 2021-01-04 2024-03-29 北京地平线信息技术有限公司 人脸关键点模板的生成及人脸矫正方法、装置、设备、介质
CN117237547B (zh) * 2023-11-15 2024-03-01 腾讯科技(深圳)有限公司 图像重建方法、重建模型的处理方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068719A (ja) 2010-09-21 2012-04-05 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
JP2012118927A (ja) 2010-12-03 2012-06-21 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
WO2015146101A1 (ja) 2014-03-28 2015-10-01 日本電気株式会社 顔照合装置、方法、及び、記録媒体
CN104992148A (zh) 2015-06-18 2015-10-21 江南大学 基于随机森林的atm终端部分遮挡人脸关键点检测方法
WO2019003973A1 (ja) 2017-06-26 2019-01-03 日本電気株式会社 顔認証装置、顔認証方法およびプログラム記録媒体
CN109584276A (zh) 2018-12-04 2019-04-05 北京字节跳动网络技术有限公司 关键点检测方法、装置、设备及可读介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120321134A1 (en) * 2011-06-15 2012-12-20 Samsung Electornics Co., Ltd Face tracking method and device
CN106778574A (zh) * 2016-12-06 2017-05-31 广州视源电子科技股份有限公司 用于人脸图像的检测方法和装置
US10565433B2 (en) * 2017-03-30 2020-02-18 George Mason University Age invariant face recognition using convolutional neural networks and set distances
CN107016370B (zh) * 2017-04-10 2019-10-11 电子科技大学 一种基于数据增强的部分遮挡人脸识别方法
CN107622240B (zh) * 2017-09-21 2023-10-13 百度在线网络技术(北京)有限公司 人脸检测方法和装置
CN107590482A (zh) * 2017-09-29 2018-01-16 百度在线网络技术(北京)有限公司 信息生成方法和装置
CN108121972A (zh) * 2017-12-25 2018-06-05 北京航空航天大学 一种局部遮挡条件下的目标识别方法
CN107909065B (zh) * 2017-12-29 2020-06-16 百度在线网络技术(北京)有限公司 用于检测人脸遮挡的方法及装置
CN109359575B (zh) * 2018-09-30 2022-05-10 腾讯科技(深圳)有限公司 人脸检测方法、业务处理方法、装置、终端及介质
CN110163080A (zh) * 2019-04-02 2019-08-23 腾讯科技(深圳)有限公司 人脸关键点检测方法及装置、存储介质和电子设备
CN110147744B (zh) * 2019-05-09 2024-05-14 腾讯科技(深圳)有限公司 一种人脸图像质量评估方法、装置及终端
CN110175558B (zh) * 2019-05-24 2021-02-05 北京达佳互联信息技术有限公司 一种人脸关键点的检测方法、装置、计算设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068719A (ja) 2010-09-21 2012-04-05 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
JP2012118927A (ja) 2010-12-03 2012-06-21 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
WO2015146101A1 (ja) 2014-03-28 2015-10-01 日本電気株式会社 顔照合装置、方法、及び、記録媒体
CN104992148A (zh) 2015-06-18 2015-10-21 江南大学 基于随机森林的atm终端部分遮挡人脸关键点检测方法
WO2019003973A1 (ja) 2017-06-26 2019-01-03 日本電気株式会社 顔認証装置、顔認証方法およびプログラム記録媒体
CN109584276A (zh) 2018-12-04 2019-04-05 北京字节跳动网络技术有限公司 关键点检测方法、装置、设备及可读介质

Also Published As

Publication number Publication date
CN111709288A (zh) 2020-09-25
WO2021227333A1 (zh) 2021-11-18
CN111709288B (zh) 2022-03-01
KR20220113830A (ko) 2022-08-16
US20230196825A1 (en) 2023-06-22
JP2023508704A (ja) 2023-03-03

Similar Documents

Publication Publication Date Title
CN111259751B (zh) 基于视频的人体行为识别方法、装置、设备及存储介质
US11756332B2 (en) Image recognition method, apparatus, device, and computer storage medium
US11816915B2 (en) Human body three-dimensional key point detection method, model training method and related devices
CN111968203B (zh) 动画驱动方法、装置、电子设备及存储介质
CN110795569B (zh) 知识图谱的向量表示生成方法、装置及设备
KR20210077655A (ko) 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
CN111462174B (zh) 多目标跟踪方法、装置以及电子设备
CN110659600B (zh) 物体检测方法、装置及设备
JP7270114B2 (ja) 顔キーポイントの検出方法、装置及び電子機器
CN111832396B (zh) 文档布局的解析方法、装置、电子设备和存储介质
CN111931591A (zh) 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质
CN111861955A (zh) 构建图像编辑模型的方法以及装置
JP2021119535A (ja) 画像処理方法、装置、電子機器及び記憶媒体
CN111709875B (zh) 图像处理方法、装置、电子设备及存储介质
CN112149634A (zh) 图像生成器的训练方法、装置、设备以及存储介质
CN111815595A (zh) 图像语义分割方法、装置、设备和可读存储介质
CN111265879B (zh) 虚拟形象生成方法、装置、设备及存储介质
CN111523467B (zh) 人脸跟踪方法和装置
CN116403083A (zh) 图像的处理方法、装置、电子设备及存储介质
JP7242812B2 (ja) 画像認識方法、装置及び電子機器
CN111783644B (zh) 检测方法、装置、设备和计算机存储介质
CN110889392B (zh) 人脸图像处理的方法及装置
CN112381927A (zh) 图像生成的方法、装置、设备以及存储介质
CN114820867B (zh) 字形生成方法、字形生成模型的训练方法及装置
CN113269213B (zh) 训练集的获取方法、装置及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7270114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150