JP6073858B2 - 顔の位置検出 - Google Patents

顔の位置検出 Download PDF

Info

Publication number
JP6073858B2
JP6073858B2 JP2014506970A JP2014506970A JP6073858B2 JP 6073858 B2 JP6073858 B2 JP 6073858B2 JP 2014506970 A JP2014506970 A JP 2014506970A JP 2014506970 A JP2014506970 A JP 2014506970A JP 6073858 B2 JP6073858 B2 JP 6073858B2
Authority
JP
Japan
Prior art keywords
image
images
face
face position
surface model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014506970A
Other languages
English (en)
Other versions
JP2014517380A (ja
JP2014517380A5 (ja
Inventor
ブレー カール カタリナ ファン
ブレー カール カタリナ ファン
ルート フルッテルス
ルート フルッテルス
ドミトリー ニコラーエヴィチ ズナメンスキー
ドミトリー ニコラーエヴィチ ズナメンスキー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2014517380A publication Critical patent/JP2014517380A/ja
Publication of JP2014517380A5 publication Critical patent/JP2014517380A5/ja
Application granted granted Critical
Publication of JP6073858B2 publication Critical patent/JP6073858B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、顔を含む場面の3次元の表面モデルを生成する測定値から、顔の位置を決めるためのシステム及び方法に関する。
米国特許番号US 7,436,988号は、2次元画像を使用して3次元モデルを形成する顔認証及び認識方法、並びにこの3次元モデルと基準データとの比較による個人の身元の確認を説明している。顔の輪郭線は、顔の対称面と前記3Dモデルとの交差から抽出され、この輪郭線の特性が個人の身元の確認に用いられる。前記対称面は、3Dモデルのミラーバージョンを形成し、元々の3Dモデルと前記ミラーバージョンとが最もぴったり合うように互いに関連して位置決めることにより見つけられる。この対称面をそれとなく見つけるための手順は、モデル化した空間において顔が唯一の略対称的な物体であると仮定し、顔の位置に関する情報を決める。しかしながら、米国特許番号US 7,736,988号は、位置決定の問題を論じていない。
顔認識及び顔の位置決定は、異なる考慮事項を含む別々のタスクである。顔認識は本質的に個人の特定、つまり顔認識の本質は、他の人間は区別されるべきであることである。他方、顔の位置決定は好ましくは個人に依存しない、つまり顔の位置は、顔の固有の個人的特徴とは無関係に決められるべきである。
とりわけ、本目的は、顔を含む場面の3次元モデルから顔の位置を決めるためのシステム及び方法を提供することである。
請求項1による方法が提供される。ここで、顔を含んでいる場面の3Dの表面モデルが顔の位置特定、すわなち、場面における顔の位置の決定のための出発点として使用される。この3Dの表面モデルは、例えば2Dの光学撮像から得られてもよい。モデル化した3D表面の法線と仮想の光源の方向に従う入射方向との間の角度からなる2Dの角度データ画像は、3Dの表面モデルから生成され、このデータ画像は角度データを表す。この角度データ画像は、2Dの顔の位置アルゴリズムの実行時に用いられる。
このように、利用可能な及び試験済みの2Dの顔の位置アルゴリズムは、3Dモデルにおいて顔の位置を決めるのに使用されることができる。顔の光学的な表面特性の信頼できる測定値は必要ない。3Dの表面モデルが2Dの光学画像から得られたとしても、この3Dの表面モデルの使用は、顔の位置の検出を、表面の反射特性及び色の影響に対しさらにロバスト(robust)にさせる。好ましくは、生成される2D画像のピクセル値は、非幾何学的な光学特性を使用せずに、前記生成される2D画像の夫々のピクセル位置で見えている3Dの点における、前記モデル化した3D表面に関する幾何学情報からのみで決められる。
ある実施例において、夫々の異なる仮想の照明方向の角度データを持つ複数の夫々の2D画像が生成され、前記顔の位置検出アルゴリズムが前記夫々の2D画像の各々に適用される。結果生じる位置検出が結合され、検出した顔の位置を提供する。これら結果生じる位置検出は、例えば任意で異常値を取り除いた後、異なる方向に対する検出した位置の平均をとること、又は異なる方向に対する前記検出した位置の中央値若しくは他の代表値を選択することにより融合されてもよい。結合は、位置の検出を選択したクラスタに割り当て、位置の検出をクラスタ内に融合させることを含むクラスタリングステップを含んでもよい。
ある実施例において、前記夫々の方向に対する同じ視方向(viewing direction)の複数の2D画像が生成される。このように、前記方法はさらにロバストとなる。その上、2D画像において顔の位置の平均を決めることも可能となる。代わりに、前記夫々の方向に対する視方向の任意の結合が使用されてもよい。ある実施例において、複数の異なる視方向の画像が生成される。これは、前記方法を顔の回転の変動に対しロバストにさせる。
ある実施例において、前記2Dの顔の位置特定アルゴリズムは、画像の夫々の範囲にわたり複数の角度データの合計を決め、これら合計をしきい値と比較し、及び前記比較の結果を結合することを有する。
2次元画像から顔の位置を決めるための良好なアルゴリズムは、Viola他著、タイトル"Robust Real-Time Face Detection"International Journal of Computer Vision 57(2), 2004発行、137-154頁による文献から知られている。Viola他は、顔の位置を決めるために、様々な矩形の画像領域におけるピクセル値の合計の結合を使用する。矩形の画像領域の結合は、コンピュータ学習を用いて設定される。学習段階において、システムは、顔の膨大な具体例及び反例、並びに使用される異なるサイズ及び位置の膨大な矩形を提示される。アダブースト(AdaBoost)コンピュータ学習技術は、ロバストな結果を与える矩形の結合を選択するのに使用される。Viola他により説明されるアルゴリズムは、例えば新しい訓練手続きを経る必要が無く、2D画像の訓練結果を用いて、使用されてもよい。
3Dの表面モデルは、この表面モデルが生成した後に保存される記憶装置から得られてもよい。ある実施例において、場面から入力した光の1つ以上の2D画像からの情報は、3Dの表面モデルを得るのに用いられる。構造化光(structured light)は、場面を照明するのに使用される。最初にこの情報を3Dの表面モデルに変換し、次いで直接ではない表面方位の光学画像特性が使用される2D画像に戻す変換をすることにより、前記方法は、顔の光学的な表面特性に関する信頼できる情報を得ることを不要にさせる。代わりに、他の測定技術、例えば3D断層撮影法は、例えば3Dの体積モデルから間接的に3D表面を得るのに使用されてもよい。
図1は、顔のデータ処理システムを示す。 図2は、顔の位置決定のフローチャートを示す。 図3は、処理構造を示す。
これら及び他の目的並びに有利な態様は、以下の図面を用いて、例示的な実施例の記載から明らかとなるだろう。
図1は、構造化光源10、カメラ12及び処理器14を有する顔のデータ処理システムを示す。構造化光源10及びカメラ12は、処理器14に結合されている。構造化光源10及びカメラ12が例として示されていたとしても、当然のことながら、3Dの幾何学的情報を収集するために他の装置が用いられてもよい。この構造化光源10は、物体上にドット又はストライプのアレイを投影する、すなわち相互に離間した光線方向のアレイ、又は相互に離間した光線面においてのみ光を伝達するように構成される。構造化光源10は、方向のパターンに沿った動的走査により又は例えば静的マスク(static mask)を介した投影を用いて、前記投影を実現するように構成される。
動作構成が示され、ここで構造化光源10及びカメラ12は、顔16を含む場面に向けられている。作動中、構造化光源10は、場面を構造化光のパターンで照らし、カメラ12は、構造化光源10により照らされている間、この場面の画像を取り込む。構造化光源10は、1つ以上の結果生じる画像を表す情報を処理器14に供給する。
処理器14は前記画像を処理し、前記場面の3Dの表面モデルを形成する。そうするための方法自体は知られている。処理器14は、処理器14に行わせるためのコンピュータプログラムを有するプログラム可能な処理器でもよい。処理器14は実際には、処理器14が行うように構成されるタスクの別々の部分を行う複数のコンピュータを有する処理システムでもよい。本明細書では、処理器14がこの処理器14に動作を行わせるプログラムを持つとき、処理器14はこれら動作を行うように構成されると考えられる。しかしながら、処理器14が前記動作を行うように設計された専用の回路を含む場合、処理器14は前記動作を行うように構成されるとも考えられる。
処理器14は、構造化光源10からの光により照らされる、場面における表面の点が見ることができるピクセル位置を検出するように構成されてもよい。さらに処理器14は、上記ピクセルの各々に対し、構造化光源10からの構造化光のパターン内における照明光の位置を特定するように構成される。カメラの姿勢及び構造化光源10の形状を与えると、前記パターンにおける位置及びピクセル位置は各々、3D空間における光線の方向を定め、これらの方向は照らされる物点で交差している。処理器14は、前記ピクセル位置及びパターンにおける位置から前記物点の3D座標を計算する。
処理器14は、計算した位置の間を補間する、例えば隣接する検出した点の間にある表面を平坦な三角形として近似することにより物体の表面を近似する。このような補間から、如何なる表面の点の補間した3D座標が、これらの表面の点の面法線と同様に、決定されることができる。このような決定は、カメラ12により取り込まれた画像のピクセルに適用されるが、他のカメラの姿勢から得ることができる仮想画像にも適用される。処理器14は、この情報を用いて、3D空間における顔の位置を決定するように構成される。
図2は、顔の位置を決めるための処理のフローチャートを示す。このフローチャートは、処理器14により行われる行動に関して説明される。処理器14は、これらの行動を行うように"構成される"と理解すべきである。第1のステップ21において、処理器14は、第1の方向を3Dモデルに対して選択する。この選択した第1の方向は、仮想のカメラ方向と呼ばれる。ある実施例において、この第1の方向は、カメラ12の方向に一致している。
第2のステップ22において、処理器14は、ピクセルのアレイを有する画像を定める。このピクセルのアレイは、前記選択した第1の方向に対し定められる方向を持つ光線路のアレイと関連付けられる。処理器14は、構造化光から得られる3Dの表面モデルを使用して、各ピクセルに対し、そのピクセルの光線路と3D表面とが交差する3Dの点、及びその3Dの点における表面の法線を決定する。
第3のステップ23において、処理器14は、第2の方向を前記3Dモデルに対して選択する。この選択した第2の方向は、仮想の光源方向と呼ばれる(仮想の光源方向という言葉は、単にこの方向の表示として使用されることが強調されるべきであり、仮想の光源が画像を生成するのに使用されなければならないこと、すなわち生成した画像が特定の光源を用いて得られた画像を示していることを意味しているのではない)。
第4のステップ24において、処理器14は、第2の方向と夫々のピクセルの法線との間の角度を決める、若しくは少なくとも処理器14は、前記角度の関数、例えば角度の余弦である分量を決める。角度又はその角度の関数である分量は、角度データと呼ばれる。画像における夫々の位置と関連付けられる角度データが角度データ画像を形成する。ある実施例において、第2の方向と全て同じである前記得られる方向との角度が前記画像の位置の各々に用いられ、無限遠にある仮想の照明源からの光線との角度をシミュレーションする。代わりに、第2の方向から間接的に得られる方向との角度が決められてもよい。これらの得られる方向は、例えば第2の方向に沿った前記場面からの線分上に源点を仮定する、その原点から2Dの画像面における夫々の位置で見ることができる夫々の3Dの点までの線分を決める、及びこれらの線分の方向を前記得られた方向として使用することにより決められる。一般的に、前記角度データは角度を示しているので、これら角度は、光学的な表面特性の知識を必要とせず、前記角度データから決められることができる。
第5のステップ25において、処理器14は、2Dの顔の位置検出アルゴリズムを前記角度データに適用する。(光強度を示す)通常の2Dのカメラ画像において、訓練により選択された検出器の矩形の結合を使用して、従来のアルゴリズム、例えばViola他により開示されるアルゴリズムが使用される。2Dのカメラ画像を用いて検出アルゴリズムを訓練することにより利用可能である、検出器の矩形の標準的な結合が利用可能である。つまり、2Dの顔の位置検出アルゴリズムは、画像おける既定の検出器の矩形の組において、各検出器の矩形の角度データの夫々の合計を決定するステップを有する。これら夫々の合計は、夫々のピクセル位置に対する連続する標準合計を増加的に決めることにより計算され、各ピクセル位置に対する標準合計は、そのピクセル位置が持つ矩形及びはす向かいの角として画像の角におけるピクセル値の合計である。前記標準合計の決定は、検出器の矩形の角(LL=下左からUR=右上まで)に対する標準合計値V(LL)、V(LR)、V(UL)、V(UR)を選択し、これら検出器の矩形のはす向かいの角の対に対する標準合計値の合計を引くことが続く。ある具体例が矩形に与えられているが、当然のことながら、異なる形状を用いて、ピクセル位置から画像の角までの他の形状に対する基準合計を用いることにより、他の形状、例えば平行四辺形の範囲に同様の技術が適用されることができる。処理器14は次いで、検出器の三角形に対する合計を(訓練により得た)夫々の既定のしきい値と比較し、この比較の結果を結合して検出結果を形成する。この検出結果は、もしあれば少なくとも画像において検出した顔の2Dの中央ピクセル位置を示す。
第3から第5のステップ23−25は、第2の方向の他の選択のために繰り返される。第6のステップ26において、処理器14は、既定数の第2の方向が選択されたかを判断する。選択されていない場合、処理器14は新しい第2の方向のために第3のステップ23から繰り返す。これらステップが既定数の第2の方向に対し行われたとき、処理器14は第7のステップ27に進む。
第7のステップ27において、処理器14は、異なる第2の方向に対し得られた結果を結合する。この結合は、これら結果の融合により達成される。ある実施例において、融合は、異なる第2の方向に対し決定した2Dの中央ピクセル位置の中央値を決定し、この中央値を融合した検出結果として使用することを含む。代わりに、任意に異常値を取り除いた後、平均が計算されてもよい。同じ測定パラメタに対する複数の結果を融合するためのこれら及び他の技術自体は知られている。この場合、検出結果の結合は、中央若しくは平均ピクセル位置である公称ピクセル位置、又は複数の2Dの位置及び矩形サイズを結合する同様の結果を生み出す。結果として、処理器14は、公称ピクセル位置と関連付けられた3Dの位置を決定する。他の実施例において、夫々の3Dの位置は、第2の画像に対し異なる個々の第2の方向を用いて決められ、これら夫々の3Dの位置は、公称の3Dの位置を決めるのに使用されてもよい。第7のステップ27の結合は、クラスタリング(clustering)を含んでもよい。クラスタリング技術、例えばk平均(k-means)アルゴリズムは、それ自身は既知であり、夫々のクラスタに対し複数の公称の顔の位置を決定するステップ、各々検出した顔の位置を最も近くにある公称の顔の位置を持つクラスタに割り当てるステップ、及び同じクラスタに割り当てた前記検出した顔の位置を融合して結合結果を生み出すステップを含んでもよい。
図2のフローチャートを用いて説明される方法において、3Dの顔の位置は好ましくは、2Dの位置決定に関する(光強度及び物体の反射率に依存する)従来の画像情報を用いることなく決められる。3Dの表面モデルは、純然たる幾何学モデルでもよく、このモデルは空間位置及び方向ベクトルのみを定める。この3Dモデルにおける方向ベクトルは測定値の結果でもよいし、又はこれらベクトルは補間により定められてもよい。この3Dモデルが(例えば、反射係数、場合によっては散乱或いは鏡面的な光の反射の波長の関数として)光反射率の情報を含んでいる場合、この情報は2Dの顔の位置検出のために2D画像の生成において無視される。
もちろん、光強度及び物体の反射率は、構造化光を用いた照射中、カメラ画像の形成において役割を果たすが、この情報は、第2から第4のステップ22−24において使用される3Dの表面モデルでは失われ、ここでは幾何学情報のみが使用される。このような従来の画像情報の使用を避けることは、顔の位置検出を例えば顔色のような個々の顔の間における違いとより無関係にさせる。顔認識とは異なり、個性の抑制は、顔の位置検出には有利である。同時に、角度データの画像の使用は、従来の2Dの顔の位置検出アルゴリズムを博識にすることなく使用することができ、複数の第2の方向の使用は、前記方法を顔の回転の影響に対しロバストにさせる。
処理器14は、例えばコンピュータプログラムの制御下で、説明したステップを行うように設計した電子回路を使用することにより、若しくはコンピュータプログラム及び回路の混合体を使用して、これらステップの夫々の部分を行うことにより、前記ステップを行うように構成される。
複数の第1及び/又は第2の方向に対する複数の2D画像が生成され、顔の位置検出に使用されている実施例が説明されたとしても、当然のことながら、特定の第1及び第2の方向に対する単一の2D画像から顔の位置の検出は十分である。この場合、検出した2Dの顔の位置は、この検出した2Dの顔の位置の画像であった3Dの表面モデルの点に関する情報を用いて3Dの位置に変換されることができる。複数の仮想の照明方向の使用は、前記方法を仮想の照明方向への依存に対しロバストにさせる。
図3は、3Dの表面モデル生成器30、2D画像生成器32、2Dの顔の位置検出器34、データ結合器36、2D−3D変換器38及び制御モジュール39を有する処理器14の構造の実施例を示す。3Dの表面モデル生成器30は、カメラ(図示せず)から2Dの画像データを受信するための入力部及び3Dの表面モデルデータを供給するための出力部を持つ。2D画像生成器32は、前記3Dの表面モデル生成器30の出力部に結合される入力部、並びに2Dの角度データ画像及び3D座標の2D画像(又は深度データ)を出力するための出力部を持つ。2Dの顔の位置検出器34は、前記2Dの角度データ画像のための出力部に結合される入力部を持つ。2Dの顔の位置検出器34は、直列に接続される合計器340、比較器342及び結合モジュール344を有する実施例が示される。
2Dの顔の位置検出器23は、検出結果を表す情報を出力するための出力部を持ち、この検出結果は、入力画像における検出した顔の位置及び/又は顔の範囲を示す情報を含んでいる。データ結合器36は、前記検出した顔の位置及び/又は顔の範囲を示す情報を受信するための入力部、並びに公称の位置及び/又は範囲を示す情報を出力するための出力部を持つ。データ結合器36はデータの融合でもよい。融合は、本明細書では、パラメタの値を決めるために、同じパラメタに関する異なるデータを結合する如何なる動作でもあり、例えば検出した顔の位置及び/又は顔の範囲の位置を平均化するステップを含む(平均は、本明細書では広義に用いられ、平均値、中央値又は異常値を削除した後に得られる平均値を含む)。データ結合器はモジュールであり、例えばこのようにデータを結合するプログラムモジュールである。単一の第1及び第2の方向が使用される実施例において、データ結合器36は省略される。
2D−3D変換器は、平均的な検出した顔の位置及び/又は顔の範囲を示す情報を出力するための出力部、並びに3D座標の2D画像(又は深度データ)を出力するための2D画像生成器32の出力部に結合される入力部を持つ。制御モジュール39は、3Dの表面モデル生成器30、2D画像生成器32、2Dの顔の位置検出器34、平均化モジュール36及び2D−3D変換器に結合されている。制御モジュール39は、2D画像生成器32に、同じ3Dの表面モデルから複数の角度に対する画像を生成させる、及び平均化モジュール36に、前記複数の角度に対する2Dの顔の検出結果から平均(すなわち平均値又は中央値)を決めさせるように構成される。説明したように、前記構造の様々な要素は、プログラム可能な処理器より実施されるソフトウェアモジュール又は電子回路若しくはそれらの組み合わせでもよい。前記要素は、図2のフローチャートのステップを行う、つまり制御モジュール39が第1、第3及び第6のステップ21、23、26を行い、2D画像生成器32が第2及び第4のステップ22、24を行い、2Dの顔の位置検出器34が第5のステップ25を行い、データ結合器36が第7のステップ27を行う。全てのステップが同じ装置で行われる必要はない。例えば3Dの表面モデル生成器30は、2D画像の取り込み中、ある装置においてオンラインで行われ、次いでその装置から図3の他の要素を含む、オフラインで処理するためのもう1つの装置に供給されてもよい。
ある実施例において、第5から第7のステップ21−27は、複数の異なる選択した第1の方向に対し繰り返される。このように、異なる第2の方向に対する公称のピクセル位置と関連付けられる複数の3Dの位置が決められる。これら3Dの位置から、公称の3Dの位置(例えば、異なる第1の方向に対する3Dの位置の中央又は平均)が決められてもよい。ある実施例において、同じ第1の方向は、前記画像の位置の各々に用いられ、無限遠にある仮想のカメラをシミュレーションする。代わりに、前記第1の方向から得られる派生した第1の方向が使用されてもよい。この得られる方向は、例えば第1の方向に沿った前記場面からの線分上に視点を仮定して、撮像面におけるその視点から2Dの位置までの線分を決め、及びこれらの線分とモデル化した3D表面との交差を表面点として使用することにより決められる。
同じ第2の方向を用いて得られた複数の2D画像に対して、公称の検出した顔の位置から3Dの位置が決められるとき、この公称の検出した顔の位置は、この公称の2Dの表面位置と関連付けられる3Dの表面位置を決める前に2Dで決められてもよい。3Dの位置が個々の3D画像に対する顔の位置の検出から決められ、前記公称の位置が結果として3Dで決められるとき、同じ第2の方向を用いて得られた2D画像の組を持つ必要はない、つまり第1及び第3のステップ21、23は、何らかの第1及び第2の方向の対を選択するために結合されてもよい。
ある実施例において、顔が検出された2Dの画像範囲の表示の形式で、検出した顔の位置を出力する2Dの顔の位置検出アルゴリズムが第5のステップ25に用いられる。2Dの画像範囲の表示は、例えば検出した顔の上側、下側、左側及び右側に縁を持つ矩形を示す。本実施例において、処理器14は、前記矩形の中心点を検出した顔の位置として使用するように構成される。これら矩形は各々、単一の検出した顔の位置として使用されてもよい。
その上、処理器14は、例えば示される2D画像範囲内にあるピクセル位置と関連付けられる3D座標から、又は示される2Dの画像範囲の境界に沿ったピクセル位置と関連付けられる3D座標から、顔が検出された3Dの表面範囲を決めるために、2D画像範囲の表示を使用するように構成される。ある実施例において、処理器14は、例えば矩形範囲の縁の位置の中央若しくは平均値を決めること、又は公称の中心位置から、境界までの距離の中央又は平均をとることにより、夫々の第2の方向を用いて得られた前記示される2Dの画像範囲から、検出した顔に対する公称の2D画像を決めるように構成される。
説明されるステップは、顔の向き、境界及び/又はサイズを決めるための他のステップが続いてもよい。処理器14は、例えば鼻、口及び目のような顔の造作の位置の検索を行うための検索範囲を決めるために、他のステップにおいて前記3Dの顔の位置を使用するように構成されてもよい。このような造作の位置は、顔の向き及び/又はサイズを決めるのに使用される。
例示的な実施例は、図面及び上述した説明において詳細に説明及び開示されているのに対し、このような説明及び開示は、説明的及び例示的であると考え、制限的であるとは考えるべきではない、つまり本発明は開示した実施例に限定されない。
構造化光が3Dの表面モデルを得るのに使用される実施例が示されていたとしても、当然のことながら、このようなモデルを得るのに他の技術が使用されてもよい。例えば、異なる位置にある複数のカメラからの画像が使用される立体技術が使用されもよいし、又は移動する同じカメラからの複数の画像が3Dの表面モデルを得るのに使用されるSLAM技術が使用されてもよい。複数の方向が夫々のピクセルに一致している場合、TOF(time of flight)測定に基づいて画像を形成するように構成される深度撮像カメラ(距離カメラ)が使用される。非光学技術、例えば核磁気撮像、超音波検査、X線断層撮影が代わりに使用されてもよい。体積測定法(volumetric technique)が使用されるとき、結果生じる体積モデルは3Dの表面モデルを得るのに使用されてもよい。3Dの表面モデルが2Dのカメラ画像から得られる実施例において、1つ以上の2Dのカメラ画像の視方向に等しい第1の方向が選択される。この場合、3Dの表面モデルにより定められる法線との角度は、同じ視方向から観測される光強度の本来の2Dのカメラ画像の代わりに又はそれに加えて、顔の位置検出のための画像を生成するのに使用される。
3Dの表面モデルは、記憶装置(例えば磁気ディスク又は半導体メモリ)に記憶され、説明した顔の位置検出のために表面モデルを得るために、この表面モデルがこの記憶装置から読み取られる。代わりに、顔の位置検出が行われるとき、3Dの表面モデルが測定値から直接得られてもよいし、又は顔の位置検出が行われるとき、2D画像若しくは体積モデルから前記3Dの表面モデルを得ることにより取得されてもよい。
所望するアプリケーションに依存して、結果生じる検出される3Dの顔の位置は色々な方法で用いられる。例えば、3Dの表面モデルから個人の身元を確認又は見つけるための顔認識アルゴリズムを行うのに用いられてもよい。もう1つの例として、顔の上にフィットするマスクの形状の決定及び既定のマスクの組から適切なマスクの選択又はこのようなマスクの製造の制御のような、3Dの表面モデルをさらに処理するための入力としても役立つ。もう1つの例として、例えばNMI画像のような体積データの処理を制御する、例えば測定値が得られる体積モデルにおける3D範囲の位置を制御するのに使用されてもよい。
説明される実施例以外の変更例は、図面、明細書及び特許請求の範囲の研究により、請求する本発明を行う当業者により理解及びもたらされることができる。請求項において、"有する"という言葉は、それ以外の要素又はステップを排除するものではなく、複数で示されていないことが、それらが複数あることを排除するものでもない。1つの処理器又は他のユニットが請求項に挙げられる幾つかのアイテムの機能を果たしてもよい。ある方法が相互に異なる従属請求項に列挙されているという事実は、これらの方法の組み合わせが有利に使用されることができないことを示しているのではない。コンピュータプログラムは、適切な媒体、例えば光学記憶媒体又は他のハードウェアと一緒に又はその一部として供給されるソリッドステート媒体に記憶/分配されてもよいが、他の形式、例えばインターネット又は他の有線若しくはワイヤレス電話通信システムを介して分配されてもよい。請求項における如何なる参照符号も本発明の範囲を限定するとは考えるべきではない。

Claims (16)

  1. 顔の位置が検出される画像処理方法において、
    場面の測定値から3Dの表面モデルを得るステップ、
    前記3Dの表面モデルから角度データの2D画像を生成するステップであり、前記2D画像は角度データを表し、前記2D画像における夫々の像点に対する前記角度データは、仮想の照明方向から得られる入射方向と、前記像点において前記2D画像で見られる、3D表面上の点における当該3D表面の法線との間の角度に依存して選択されている、前記生成するステップ、及び
    前記2D画像に2Dの顔の位置検出アルゴリズムを適用するステップ、
    を有する方法。
  2. 夫々の仮想の照明方向に対する前記角度データを夫々表す複数の夫々の2D画像を前記3Dの表面モデルから生成するステップ、
    前記夫々の2D画像に前記2Dの顔の位置検出アルゴリズムを適用するステップ、及び
    前記夫々の2D画像から検出される顔の位置を結合するステップ、
    を有する請求項1に記載の方法。
  3. 前記夫々の仮想の照明方向に対し、同じ視方向に対する複数の前記夫々の2D画像を生成するステップを有する、請求項2に記載の方法。
  4. 異なる視方向から、夫々複数の前記夫々の2D画像を生成するステップであり、前記夫々複数とは複数の互いに異なる夫々の仮想の照明方向に対する夫々の2D画像を有する、請求項3に記載の方法。
  5. 前記複数の夫々の2D画像に対する平均的な検出される2Dの位置を決めるステップ、及び前記3Dの表面モデルに従って、前記平均的な検出される2Dの位置と関連付けられる3D表面の位置を決めるステップ、を有する請求項3に記載の方法。
  6. 前記2Dの顔の位置検出アルゴリズムを適用するステップは、
    前記画像の夫々の範囲にわたり複数の前記角度の合計を決めるステップ、
    前記合計をしきい値と比較するステップ、及び
    前記比較の結果を結合するステップ
    を有する請求項1に記載の方法。
  7. 夫々の検出される2Dの顔の位置と関連付けられる夫々の3D表面の位置を、前記3Dの表面モデルに従って決めるステップ、及び前記夫々の3D表面の位置の平均を決めるステップ、を有する請求項2に記載の方法。
  8. 前記3Dの表面モデルは、前記場面から入力される光からなる1つ以上の他の2D画像からの情報を用いて得られる、請求項1に記載の方法。
  9. 構造化光を用いて前記場面を照明するステップを有する請求項8に記載の方法。
  10. 前記夫々の2D画像は、前記場面から入力される光からなる前記1つ以上の他の2D画像の視方向に一致する視方向に対し生成される、請求項8に記載の方法。
  11. 前記夫々の2D画像は、もしあれば前記3D表面上の点と関連付けられる光反射特性とは関係なく生成される、請求項8に記載の方法。
  12. 前記検出した顔の位置に見ることができる3D表面上の点の3D位置を決めるために、前記2Dの顔の位置検出アルゴリズム及び前記3Dの表面モデルにより検出される顔の位置を使用するステップ、を有する請求項1に記載の方法。
  13. プログラム可能な処理器により実施されるとき、請求項1乃至12の何れか一項に記載の方法を前記プログラム可能な処理器に行わせる、前記プログラム可能な処理器への命令からなるプログラムを有する、コンピュータプログラム。
  14. ある場面に対し得られる3Dの表面モデルから2D画像を生成するように構成される2D画像生成器であり、前記2D画像は角度データを表し、前記2D画像における夫々の像点に対する角度データは、仮想の照明方向から得られる入射方向と、前記像点において前記画像で見られる、3D表面上の点における当該3D表面の法線との間の角度に依存して選択されている、2D画像生成器、及び
    前記夫々の2D画像に2Dの顔の位置検出アルゴリズムを適用するように構成される2Dの顔の位置検出器、
    を有する画像処理システム。
  15. 請求項14に記載の画像処理システムにおいて、
    前記2D画像生成器は、前記3Dの表面モデルから複数の夫々の2D画像を生成するように構成され、前記夫々の2D画像は夫々の仮想の照明方向に対する前記角度データを夫々表し、前記画像処理システムは、前記複数の夫々の2D画像から2Dの顔の位置検出器により検出された顔の位置の検出結果を結合するように構成されるデータ結合器を有する、画像処理システム。
  16. カメラと、当該カメラからの画像データを用いて前記3Dの表面モデルを生成するように構成される3Dモデル生成器とを有する、請求項14に記載の画像処理システム。
JP2014506970A 2011-04-28 2012-04-23 顔の位置検出 Active JP6073858B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11164162.7 2011-04-28
EP11164162 2011-04-28
PCT/IB2012/052038 WO2012147027A1 (en) 2011-04-28 2012-04-23 Face location detection

Publications (3)

Publication Number Publication Date
JP2014517380A JP2014517380A (ja) 2014-07-17
JP2014517380A5 JP2014517380A5 (ja) 2015-05-21
JP6073858B2 true JP6073858B2 (ja) 2017-02-01

Family

ID=46062679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014506970A Active JP6073858B2 (ja) 2011-04-28 2012-04-23 顔の位置検出

Country Status (6)

Country Link
US (2) US9582706B2 (ja)
EP (1) EP2702533A1 (ja)
JP (1) JP6073858B2 (ja)
CN (1) CN103562934B (ja)
AU (3) AU2012247147A1 (ja)
WO (1) WO2012147027A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9396587B2 (en) 2012-10-12 2016-07-19 Koninklijke Philips N.V System for accessing data of a face of a subject
JP6297675B2 (ja) 2013-05-10 2018-03-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3d患者インターフェイスデバイス選択システム及び方法
US9020213B1 (en) 2013-10-17 2015-04-28 Daon Holdings Limited Methods and systems for detecting biometric characteristics in an image
KR101619661B1 (ko) * 2014-12-08 2016-05-10 현대자동차주식회사 운전자의 얼굴 방향 검출 방법
JP6669444B2 (ja) * 2015-06-29 2020-03-18 株式会社ミツトヨ 造形装置、及び造形方法
US10586379B2 (en) 2017-03-08 2020-03-10 Ebay Inc. Integration of 3D models
WO2019192744A1 (en) * 2018-04-06 2019-10-10 Siemens Aktiengesellschaft Object recognition from images using cad models as prior
US11727656B2 (en) 2018-06-12 2023-08-15 Ebay Inc. Reconstruction of 3D model with immersive experience
CN109146962B (zh) * 2018-09-07 2020-06-09 百度在线网络技术(北京)有限公司 检测脸部角度的方法、装置、存储介质和终端设备
KR102151851B1 (ko) * 2018-09-12 2020-09-03 한양대학교 산학협력단 적외선 영상 기반 얼굴 인식 방법 및 이를 위한 학습 방법
US11051001B2 (en) * 2019-05-29 2021-06-29 Avigilon Corporation Method and system for generating a two-dimensional and a three-dimensional image stream

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL113496A (en) 1995-04-25 1999-09-22 Cognitens Ltd Apparatus and method for recreating and manipulating a 3d object based on a 2d projection thereof
US6137896A (en) 1997-10-07 2000-10-24 National Research Council Of Canada Method of recognizing faces using range images
US7660444B2 (en) * 2000-02-24 2010-02-09 Nokia Corporation Method and apparatus for user recognition using CCD cameras
US7155036B2 (en) * 2000-12-04 2006-12-26 Sony Corporation Face detection under varying rotation
US7221809B2 (en) 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
JP3627058B2 (ja) * 2002-03-01 2005-03-09 独立行政法人科学技術振興機構 ロボット視聴覚システム
US6947579B2 (en) 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
EP1590762A4 (en) * 2003-01-16 2007-07-25 Intelitrac Inc METHOD AND / OR SYSTEM FOR AUTOMATED FACE RECOGNITION AND AUTOMATED FACE COMPARISON USING MULTIPLE 2D FACE PICTURES PAINTED FROM A RECORDED 3D FACE IMAGE
US20040223631A1 (en) 2003-05-07 2004-11-11 Roman Waupotitsch Face recognition based on obtaining two dimensional information from three-dimensional face shapes
EP1510973A3 (en) 2003-08-29 2006-08-16 Samsung Electronics Co., Ltd. Method and apparatus for image-based photorealistic 3D face modeling
KR100816607B1 (ko) * 2003-10-21 2008-03-24 닛본 덴끼 가부시끼가이샤 화상 대조 시스템, 화상 대조 방법 및 컴퓨터로 판독가능한 기록 매체
US7436988B2 (en) 2004-06-03 2008-10-14 Arizona Board Of Regents 3D face authentication and recognition based on bilateral symmetry analysis
SE528068C2 (sv) 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
US8660319B2 (en) 2006-05-05 2014-02-25 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
WO2008130906A1 (en) 2007-04-17 2008-10-30 Mikos, Ltd. System and method for using three dimensional infrared imaging to provide psychological profiles of individuals
JP4946730B2 (ja) 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP4655235B2 (ja) * 2008-03-14 2011-03-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2010277242A (ja) * 2009-05-27 2010-12-09 Mitsubishi Electric Corp 画像処理装置
US9390317B2 (en) * 2011-03-21 2016-07-12 Hewlett-Packard Development Company, L.P. Lip activity detection

Also Published As

Publication number Publication date
CN103562934A (zh) 2014-02-05
JP2014517380A (ja) 2014-07-17
US9582706B2 (en) 2017-02-28
AU2019203928A1 (en) 2019-06-27
US9740914B2 (en) 2017-08-22
US20140056510A1 (en) 2014-02-27
EP2702533A1 (en) 2014-03-05
US20170132454A1 (en) 2017-05-11
AU2019203928B2 (en) 2020-08-20
CN103562934B (zh) 2017-05-10
WO2012147027A1 (en) 2012-11-01
AU2017206169A1 (en) 2017-09-07
AU2012247147A1 (en) 2013-12-12

Similar Documents

Publication Publication Date Title
JP6073858B2 (ja) 顔の位置検出
JP4284664B2 (ja) 三次元形状推定システム及び画像生成システム
JP6799155B2 (ja) 情報処理装置、情報処理システム、および被写体情報特定方法
JP2008537190A (ja) 赤外線パターンを照射することによる対象物の三次元像の生成
JP2008198193A (ja) 顔認証システム、方法及びプログラム
JP6799154B2 (ja) 情報処理装置および材質特定方法
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
US20220277512A1 (en) Generation apparatus, generation method, system, and storage medium
Hernandez et al. Near laser-scan quality 3-D face reconstruction from a low-quality depth stream
JP6762570B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP5419757B2 (ja) 顔画像合成装置
US20130194254A1 (en) Image processing apparatus, image processing method and program
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP5419773B2 (ja) 顔画像合成装置
JP5419777B2 (ja) 顔画像合成装置
KR102538685B1 (ko) 다시점 정보를 이용하여 3d 정보를 복원하는 방법 및 이를 위한 장치
JP2006227739A (ja) 画像処理装置及び画像処理方法
WO2019016879A1 (ja) 物体検出装置、及び、物体検出手法
JP5865092B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4623320B2 (ja) 三次元形状推定システム及び画像生成システム
WO2022213364A1 (zh) 图像处理方法、图像处理装置、终端及可读存储介质
WO2014017095A1 (en) Low cost, non-intrusive, high accuracy head tracking apparatus and method
Wang Quality enhancement of 3D models reconstructed by RGB-D camera systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170105

R150 Certificate of patent or registration of utility model

Ref document number: 6073858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250