JP5703068B2 - 顔検出方法および顔検出装置、ならびに、プログラム - Google Patents

顔検出方法および顔検出装置、ならびに、プログラム Download PDF

Info

Publication number
JP5703068B2
JP5703068B2 JP2011043202A JP2011043202A JP5703068B2 JP 5703068 B2 JP5703068 B2 JP 5703068B2 JP 2011043202 A JP2011043202 A JP 2011043202A JP 2011043202 A JP2011043202 A JP 2011043202A JP 5703068 B2 JP5703068 B2 JP 5703068B2
Authority
JP
Japan
Prior art keywords
mouth
difference
face
face detection
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011043202A
Other languages
English (en)
Other versions
JP2012181629A (ja
Inventor
二見 聡
聡 二見
健宏 馬渕
健宏 馬渕
央智 牛島
央智 牛島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2011043202A priority Critical patent/JP5703068B2/ja
Publication of JP2012181629A publication Critical patent/JP2012181629A/ja
Application granted granted Critical
Publication of JP5703068B2 publication Critical patent/JP5703068B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像データから顔を検出する顔検出方法および顔検出装置、ならびに、プログラムに関する。
従来、監視システムなどにおいて、監視カメラで撮像された画像データから顔を検出して、顔認証や不審者の検出などを行っている。例えば、画像データから目や口の両端といった顔器官の特徴点を抽出することで顔を検出し、その特徴点の位置関係から顔の認識を行う。
ここで、各顔器官の位置関係は、人物の表情などにより変動する。特許文献1では、登録画像における目、鼻、口などの顔器官の位置に主成分分析を適用し、その結果得られた主成分を用いて認証対象顔画像における顔器官の位置を評価する技術が開示されている。
図12は、特許文献1による顔器官の位置評価の方法の例を示す。図12(a)は、真顔の状態の位置評価、図12(b)は、笑顔の状態の位置評価の例を示す。この例では、顔器官のうち瞳、眉の先端、鼻および口(両端、中央)の位置を検出し、検出された各位置の位置関係を数値化して評価する。図12(a)および図12(b)を比較すると、表情によって顔器官の位置関係が変化することが分かる。例えば閾値判定を用いて、この変化が同一人物の変動の範囲内か否かを判定することで、顔の認証精度を高めることができる。
このように、特許文献1によれば、認証対象顔画像における顔器官を、表情の変化に伴う対象人物固有の顔の動きに応じて評価することができ、表情が変化しても正確に顔を認証できる。
特許文献1の方法では、顔認識の対象人物が目を瞑っていたり、サングラスやマスクで目や口を覆っており顔器官の位置を正しく検出できないような場合に、誤認識してしまうおそれがある。特許文献2には、画像に対してエッジ検出を行って顔の輪郭を決定し、輪郭内にある顔器官を検出することで、対象人物がサングラスやマスクを装着しているか否かを判定する技術が開示されている。すなわち、特許文献2では、顔認識の対象人物における顔器官が抽出できない場合に、当該対象人物がサングラスやマスクを装着していると見做している。
特開2007−156944号公報 特開平5−35992号公報
しかしながら、特許文献2では、顔認識の対象人物が口を開けていたり、マスクなどで口を覆っている状態において、誤検出してしまうおそれがあるという問題点があった。例えば、対象人物がマスクなど非着用でも、口を開けていることによりマスク着用と誤検出されてしまう可能性がある。また、対象人物がマスクなどを着用して口元を隠している場合であっても、マスクの皺などを口の輪郭であると誤検出してしまう可能性がある。
本発明は、上記に鑑みてなされたものであって、顔検出の検出結果に基づき対象人物が口を覆う用具を装着しているか否かを判定可能とすることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、顔検出手段が、画像から顔を検出する顔検出ステップと、特徴点抽出手段が、顔検出ステップにより検出された顔から口の特徴点を抽出すると共に、顔検出ステップにより検出された顔の向きが所定の範囲内に入っているか否かを特徴点に基づき判定する特徴点抽出ステップと、算出手段が、顔の向きが所定の範囲内に入っていると判定された場合に、特徴点抽出ステップにより抽出された口の特徴点から口の縦幅および横幅を求め、口の縦幅と口について予め求められた標準の縦幅との第1の差分と、口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出ステップと、判定手段が、算出ステップにより算出された第1の差分および第2の差分に基づき、顔検出ステップにより検出された顔内の口が覆われた状態か否かを判定する判定ステップとを有することを特徴とする。
また、本発明は、画像から顔を検出する顔検出手段と、顔検出手段により検出された顔から口の特徴点を抽出すると共に、顔検出手段により検出された顔の向きが所定の範囲内に入っているか否かを特徴点に基づき判定する特徴点抽出手段と、顔の向きが所定の範囲内に入っていると判定された場合に、特徴点抽出手段により抽出された口の特徴点から口の縦幅および横幅を求め、口の縦幅と口について予め求められた標準の縦幅との第1の差分と、口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出手段と、算出手段により算出された第1の差分および第2の差分に基づき、顔検出手段により検出された顔内の口が覆われた状態か否かを判定する判定手段とを有することを特徴とする。
また、本発明は、画像から顔を検出する顔検出ステップと、顔検出ステップにより検出された顔から口の特徴点を抽出すると共に、顔検出ステップにより検出された顔の向きが所定の範囲内に入っているか否かを特徴点に基づき判定する特徴点抽出ステップと、顔の向きが所定の範囲内に入っていると判定された場合に、特徴点抽出ステップにより抽出された口の特徴点から口の縦幅および横幅を求め、口の縦幅と口について予め求められた標準の縦幅との第1の差分と、口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出ステップと、算出ステップにより算出された第1の差分および第2の差分に基づき、顔検出ステップにより検出された顔内の口が覆われた状態か否かを判定する判定ステップとをコンピュータに実行させるためのプログラムである。
本発明によれば、顔検出の検出結果に基づき対象人物が口を覆う用具を装着しているか否かが判定可能となるという効果を奏する。
図1は、本発明の実施形態による顔検出装置の一例の機能を示す機能ブロック図である。 図2は、本発明の実施形態による顔検出方法の一例の処理を示すフローチャートである。 図3は、本発明の実施形態による特徴点抽出を説明するための略線図である。 図4は、正規化に顔領域を示す矩形の対角線の長さを用いることを説明するための略線図である。 図5は、閾値を設定する際に係数を乗じることを説明するための略線図である。 図6は、本発明の実施形態による逸脱度合mouthDeviancyに対する閾値判定について説明するための略線図である。 図7は、本発明の実施形態による逸脱度合mouthDeviancyに対する閾値判定について説明するための略線図である。 図8は、本発明の実施形態による逸脱度合mouthDeviancyに対する閾値判定について説明するための略線図である。 図9は、本発明の実施形態による逸脱度合mouthDeviancyに対する閾値判定について説明するための略線図である。 図10は、口周辺の輝度に基づく判定について説明するための略線図である。 図11は、本発明の実施形態による顔検出装置を適用可能なハードウェアとしての情報処理装置の一例の構成を示すブロック図である。 図12は、従来技術による顔器官の位置評価の方法の例を示す略線図である。
以下に添付図面を参照して、本発明に係る顔検出装置の一実施形態を詳細に説明する。図1は、本実施形態による顔検出装置1の一例の機能を示す機能ブロック図である。顔検出装置1は、画像入力部100、顔検出部101、特徴点抽出部102、算出部103および判定部104を含む。これら顔検出装置1を構成する各部は、CPU(Central Processing Unit)上で動作するプログラムにより構成することができる。これに限らず、これら各部の一部または全部をハードウェアにより構成してもよい。
顔検出装置1において、画像データが画像入力部100に入力される。画像入力部100には、ビデオカメラなどで撮像された画像データを入力することができる。これに限らず、HDD(ハードディスクドライブ)などの記憶媒体に予め格納した画像データを画像入力部100に対して入力してもよい。また、画像入力部100に入力される画像データは、動画および静止画の何れであってもよい。以下では、ビデオカメラで撮像された動画による画像データが画像入力部100に入力されるものとする。画像入力部100は、入力された画像データから、例えば1フレームの画像データをキャプチャして、顔検出部101に供給する。
顔検出部101は、供給された画像データを解析して、当該画像データから顔を検出する。画像データからの顔(顔領域および目、鼻、口などの顔器官)の検出は、既知の方法を用いて行うことができる。例えば、顔辞書とパターンマッチングを用いた部分空間法により、顔領域および各顔器官の検出を行うことが考えられる。顔検出部101による検出出力は、特徴点抽出部102に供給される。なお、顔検出部101は、画像データから顔が検出されなかった場合に、画像入力部100に対して次の画像データを要求することができる。
特徴点抽出部102は、顔検出部101で検出された顔の特徴点を抽出する。例えば、特徴点抽出部102は、顔における目、鼻、口などの各顔器官について、特徴点を抽出する。特徴点の抽出には、既知の技術を用いることができる。例えば、顔検出部101で検出された顔領域に対して特徴点数の多い顔グラフを適用し、顔グラフの平行移動、拡大/縮小、回転などにより、さらに類似度の高い特徴点を抽出する方法を用いることが考えられる。
本実施形態では、抽出された顔の特徴点のうち、口に関する特徴点に注目し、口の縦幅および横幅を計測するための特徴点を抽出する。特徴点抽出部102で抽出された口の特徴点の位置を示す情報は、算出部103に供給される。
特徴点抽出部102は、さらに、顔検出部101で検出された顔の向きを解析する。そして、顔の向きが上下左右それぞれの方向に対して予め決められた範囲内に収まっているか否かを判定する。例えば、特徴点抽出部102は、顔の特徴点の位置を示す情報に基づき顔の向きを推測する。なお、特徴点抽出部102は、顔の向きが所定範囲内に入っていないと判定した場合に、画像入力部100に対して次の画像データを要求することができる。
算出部103は、特徴点抽出部102から供給された口の特徴点の位置を示す情報に基づき、口の縦幅および横幅を算出する。ここで、算出部103は、口の縦幅および横幅について、予め多数のサンプルから算出された、標準のデータを持っている。算出部103は、顔検出の結果に基づき算出された口の縦幅および横幅と、標準の口の縦幅および横幅とを比較する。そして、比較結果に基づき、顔検出で検出された口の縦幅および横幅それぞれの、標準の口の縦幅および横幅に対する逸脱度合を算出する。算出された口の縦幅および横幅それぞれの逸脱度合は、判定部104に供給される。
判定部104は、算出部103から供給された、口の縦幅および横幅それぞれの逸脱度合に基づき、顔検出部101で検出された顔内の口が、口を覆う用具(例えばマスク)に覆われているか否かを判定する。判定部104は、口周辺の領域について測定された輝度を、さらに判定に用いてもよい。
図2は、本実施形態による顔検出方法の一例の処理を示すフローチャートである。ステップS100で、顔検出装置1に入力された画像データが画像入力部100にキャプチャされる。顔検出部101は、キャプチャされた画像データに対して既知の方法を用いて顔検出処理を施し、画像データから顔が検出されたか否かを判定する(ステップS101)。若し、顔が検出されていないと判定された場合は、画像入力部100に対して例えば次のフレームの画像データを要求し、処理をステップS100に戻す。
一方、ステップS101で、顔が検出されたと判定された場合、処理がステップS102に移行される。ステップS102では、特徴点抽出部102が、顔検出部101による顔検出結果を用いて顔の特徴点を検出する。
上述したように、本実施形態では、特徴点抽出部102は、各顔器官のうち、口に注目して特徴点を抽出する。より具体的には、図3に例示されるように、口10における唇の両端、ならびに、唇の左右方向の中点における上下端(以下、単に唇の上下端のように呼ぶ)の位置を、特徴点として検出する。以下では、唇の右端および左端の位置をそれぞれ位置P1およびP2とし、唇の上端および下端をそれぞれ位置P3およびP4とする。
特徴点抽出部102は、さらに、画像データにおける顔の向きを推定する。例えば、特徴点抽出部102は、顔検出結果を用いて抽出された各顔器官の特徴点の位置関係から、顔の向きを推定する。そして、ステップS103で、特徴点抽出部102は、推定された顔の向きが、上下について予め定められた範囲内に収まっているか否かを判定する。若し、当該範囲内に収まっていないと判定した場合、画像入力部100に対して例えば次のフレームの画像データを要求し、処理をステップS100に戻す。一方、顔の向きが当該範囲内に収まっていると判定した場合、次のステップS104で、推定された顔の向きが左右について予め定められた範囲内に収まっているか否かを判定する。若し、当該範囲内に収まっていないと判定した場合、画像入力部100に対して例えば次のフレームの画像データを要求し、処理をステップS100に戻す。なお、ステップS103およびステップS104の順序は、逆でもよい。
ステップS104で、特徴点抽出部102は、推定された顔の向きが左右について予め定められた範囲内に収まっていると判定したら、ステップS102で抽出した口の特徴点の位置P1〜P4を示す情報を算出部103に渡し、処理をステップS105に移行させる。
ステップS105で、算出部103は、特徴点抽出部102から渡された口の特徴点の位置P1〜P4を示す情報を用いて、口10の縦幅および横幅を算出する。このとき、図4に例示されるように、顔検出部101による顔検出結果から得られる顔領域を示す矩形20、例えば顔検出に用いた各顔器官を含む矩形20の対角線の長さを用い、顔の大きさに基づき正規化した値として、縦幅および横幅を算出する。顔の大きさとして矩形20の対角線の長さを用いるのは、矩形20が正方形ではない場合に対応させるためである。
具体的には、算出部103は、口10の縦幅mouthYおよび横幅mouthXを、例えばそれぞれ式(1)および式(2)に従い算出する。なお、式(1)および式(2)において、値Fxおよび値Fyは、それぞれ正規化に用いる顔領域の矩形20の横幅および縦幅を示す。また、値Pnxおよび値Pnx(nは1〜4)は、それぞれ位置P1〜P4のx座標およびy座標を示す。各値の単位は、例えば画像データの画素とする。
Figure 0005703068
Figure 0005703068
次のステップS106で、算出部103は、ステップS105で算出した口10の縦幅mouthYおよび横幅mouthXと、予め算出した、口の標準の縦幅および横幅との差分subNormalXおよびsubNormalYとを算出し、顔検出部101で検出された顔に含まれる口の縦幅および横幅の、標準の縦幅および横幅に対する逸脱度合を求める。
口の標準の縦幅および横幅の算出は、例えば次のようにして行う。口10について、予め、多数のサンプルについて上述した式(1)に従い縦幅mouthYを算出し、代表値(平均値など)を求めて口10の標準の縦幅normalYとする。同様にして、口10の横幅について、予め、多数のサンプルについて上述した式(2)に従い横幅mouthXを算出し、代表値を求めて口10の標準の横幅normalXとする。これら標準の縦幅normalYおよびnormalXは、例えば顔検出装置1が有する、図示されないHDDなどの不揮発性の記憶媒体に記憶される。
逸脱度合mouthDeviancyの算出方法について、口10の縦幅mouthYを例にとって、当該縦幅mouthYに対する逸脱度合mouthYDeviancyを算出する場合について説明する。なお、以下に説明する逸脱度合mouthYDeviancyの算出方法は、口10の横幅mouthXについても同様に適用できる。また、横幅mouthXに対応する逸脱度合mouthDeviancyを、逸脱度合mouthXDeviancyとする。
先ず、式(3)に従い、特徴点の位置から求めた口10の縦幅mouthYと、口の標準の縦幅normalYとの差分subNormalYを算出する。
subNormalY=abs(mouthY−normalY) …(3)
ここで、「abs()」は、括弧内の計算結果に対して絶対値を取ることを意味する。式(3)で減算結果の絶対値を差分subNormalYとして用いるのは、口は通常、閉じており、標準の口の縦幅も、閉じた状態で計測されると考えられ、顔検出結果に基づく口の例えば縦幅mouthYと、標準の口の縦幅との差分を計算した場合に、正負は大きな意味を持たないためである。なお、口の横幅mouthXについても同様に、標準の口の縦幅に対する差分の絶対値を取り、差分subNormalXとする。
式(3)の結果得られた差分subNormalYに対して、口の縦幅に対して予め定められた係数pixelsToMouthYDeviancyを乗じて、口10の縦幅mouthYの逸脱度合mouthYDeviancyを算出する。
mouthYDeviancy=subNormalY×pixelsToMouthYDeviancy …(4)
ここで、係数pixelsToMouthYDeviancyは、判定部104における判定処理に用いる閾値の設定を容易にするために、差分subNormalYに対して乗じられる。口10の縦幅mouthYを例に取り、図5を用いて、係数pixelsToMouthYDeviancyの意味について説明する。顔検出によって得られた特徴点に基づく口10の縦幅mouthYと、口の標準の縦幅normalYとの差分subNormalYを取った場合、差分subNormalYの頻度分布は、例えば図5(a)に例示されるように、差分subNormalY=0を中心とする正規分布的なものとなる。
本実施形態では、後述するように、この差分subNormalYを閾値判断することで、検出された口が口を覆う用具に覆われているか否かを判定する。このとき、閾値を少し、例えば閾値Th10から閾値Th11にずらしただけで、対応する頻度が大きく変化し、頻度が少ない状態も許容してしまうおそれがある。そこで、差分subNormalYに対して1を超える係数pixelsToMouthYDeviancyを乗じた値を逸脱度合mouthYDeviancyとし、この逸脱度合mouthYDeviancyに対して閾値を設定することで、閾値の細かい設定が容易となる。
図5(b)の例では、係数pixelsToMouthYDeviancy≒2として、頻度分布をx方向に略2倍に拡張している。これにより、閾値設定に対する精度が略2倍となり、閾値を図5(a)と同じだけずらした場合(閾値Th10から閾値Th12)の、頻度の変化が図5(a)に比べて小さくなり、閾値の設定が容易となる。
なお、ここでは、縦幅mouthYに対する係数pixelsToMouthYDeviancyについて説明したが、この係数は、口10の横幅mouthXに対しても設定される。このとき、係数pixelsToMouthYDeviancyと、口10の横幅mouthXに対して設定される係数pixelsToMouthXDeviancyとは、互いに異なる値とすることができる。
係数pixelsToMouthYDeviancyおよび係数pixelsToMouthXDeviancyの値は、実験的に予め決められる。例えば、係数pixelsToMouthYDeviancyとして、1000を超える値を用いることができる。この場合、逸脱度合mouthYDeviancyの値も大きな値、例えば1000を超える値を取る可能性がある。この場合、逸脱度合mouthYDeviancyの値に閾値として設定する値よりも大きな値を上限(例えば1000)として設け、逸脱度合mouthYDeviancyの値がこの上限を超えた場合には、逸脱度合mouthYDeviancyの値を強制的にこの上限値に設定してもよい。
また、差分に対する係数の乗算に限らず、例えば設定される閾値近傍をx方向に拡大するような関数を用いることもできる。さらに、ステップS106において差分に対する係数の乗算を省略(または係数=1)し、差分そのものを逸脱度合として用いることもできる。
ステップS106で、口10の縦幅mouthYおよび横幅mouthXの、標準の縦幅normalYおよび横幅normalXに対する逸脱度合mouthYDeviancyおよびmouthXDeviancyが求められると、処理はステップS107に移行される。ステップS107、ならびに、ステップS108およびステップS110では、口10の逸脱度合mouthYDeviancyおよびmouthXDeviancyに対する閾値判定が行われる。なお、以下で用いる閾値Th1、Th2およびTh3は、それぞれ実験的に求めた値である。
ステップS107で、判定部104は、口10の縦幅mouthYの逸脱度合mouthYDeviancyが第1の閾値Th1を超えるか否かを判定する。超えると判定した場合、口10が口を覆う用具で覆われている可能性があると判断できる。この場合、処理をステップS110に移行させる。一方、逸脱度合mouthYDeviancyが閾値Th1以下であると判定したら、判定部104は、処理をステップS108に移行させる。
図6および図7を用いて、ステップS107での判定処理について、より具体的に説明する。なお、ここでは、縦幅の逸脱度合mouthYDeviancyの代わりに、係数pixelsToMouthYDeviancyを乗ずる前の差分subNormalYを用いて説明を行う。
図6(a)は、口10がマスクなど口を覆う用具で覆われていない例を示す。この例では、口10において、口の標準の縦幅normalYよりもやや大きな値で縦幅mouthYが算出されている。式(3)に従い、口10の縦幅mouthYと、口の標準の縦幅normalYとの差分subNormalYが算出される。その結果、図6(b)に示されるように、差分subNormalYの値が第1の閾値Th1より小さい値となっている。したがって、判定部104は、顔検出の結果に基づき算出された縦幅mouthYの値の変動が口10の正常な変動であると判定し、処理をステップS108に移行させる。
図7(a)は、口10がマスク11に覆われている例を示す。この例では、マスク11により口10の特徴点の位置が定まらず、顔検出結果に基づく特徴点抽出においてマスク11の皺12を口10の特徴点として誤検出してしまい、口10の上下端の特徴点が、実際の口10の縦幅より広い位置に抽出されている。そのため、図7(b)に示されるように、口10の縦幅mouthYから算出した差分subNormalYが第1の閾値Th1よりも大きな値となっている。これは、顔検出の結果に基づき算出された縦幅mouthYの値の変動が口10の正常な変動ではない、すなわち、口10が検出されたものではないと判定でき、判定部104は、処理をステップS110に移行させる。
ステップS108で、判定部104は、口10の横幅mouthXの逸脱度合mouthXDeviancyが第2の閾値Th2を超えるか否かを判定する。超えると判定した場合、口10が口を覆う用具で覆われている可能性があると判断できる。この場合、処理をステップS111に移行させる。一方、逸脱度合mouthXDeviancyが閾値Th2以下であると判定したら、判定部104は、処理をステップS109に移行させ、口が口を覆う用具で覆われていないと判定する。
図8および図9を用いて、ステップS108での判定処理について、より具体的に説明する。なお、ここでは、縦幅の逸脱度合mouthXDeviancyの代わりに、係数pixelsToMouthXDeviancyを乗ずる前の差分subNormalXを用いて説明を行う。
図8(a)は、口10がマスクなど口を覆う用具で覆われていない例を示す。この例では、口10において、口の標準の横幅normalXよりもやや大きな値で横幅mouthXが算出されている。式(3)に従い、口10の横幅mouthXと、口の標準の横幅normalXとの差分subNormalXが算出される。その結果、図8(b)に示されるように、差分subNormalXの値が第1の閾値Th2より小さい値となっている。したがって、判定部104は、顔検出の結果に基づき算出された横幅mouthXの値の変動が口10の正常な変動であると判定し、処理をステップS109に移行させる。
図9(a)は、口10がマスク11に覆われている例を示す。この例では、マスク11により口10の特徴点の位置が定まらず、顔検出結果に基づく特徴点抽出においてマスク11の皺13を口10の特徴点として誤検出してしまい、口10の両端の特徴点が実際の口10の横幅よりも狭い位置に抽出されている。そのため、図9(b)に示されるように、口10の横幅mouthXから算出した差分subNormalXが第2の閾値Th2よりも大きな値となっている。これは、顔検出の結果に基づき算出された横幅mouthXの値の変動が口10の正常な変動ではない、すなわち、口10が検出されたものではないと判定でき、判定部104は、処理をステップS111に移行させる。
上述したように、ステップS107で、判定部104は、口10の縦幅mouthYの逸脱度合mouthYDeviancyが第1の閾値Th1を超えると判定した場合、処理をステップS110に移行させる。ステップS110で、判定部104は、口10の横幅mouthXの逸脱度合mouthXDeviancyが、第3の閾値Th3を超え、且つ、閾値Th2以下であるか否かが判定される。若し、これらの条件を満たすと判定された場合、判定部104は、処理をステップS109に移行させて、口が口を覆う用具で覆われていないと判定する。
すなわち、処理がステップS107からステップS110を経てステップS109に移行した場合とは、顔検出部101において検出された口10の縦幅mouthYが標準の縦幅より大きく、横幅mouthXが標準の横幅と略等しいか、若しくはやや小さい場合である。これは、開いた状態の口が検出されたと考えることができる。
一方、ステップS110で、上述の条件を満たしていないと判定した場合、すなわち、逸脱度合mouthXDeviancyが第3の閾値Th3以下であるか、または、第2の閾値Th2を超える場合、処理をステップS111に移行させる。この場合、口10が口を覆う用具に覆われていると判断できる。例えば、逸脱度合mouthXDeviancyが第3の閾値Th3以下の場合、例えば口を覆う用具(マスクなど)の皺を口の端として誤検出している可能性がある。また、逸脱度合mouthXDeviancyが第2の閾値Th2を超える場合は、口10の両端のサイズよりも大きいもので、口10が覆われていると判断できる。
ステップS111で、判定部104は、口10の周辺部の輝度に基づいた閾値判定を行う。一例として、図10に示されるように、顔30について顔検出結果により得られた顔領域を示す矩形32を例えばM×Nの領域に分割し、口31を含む分割領域を求める。そして、求められた分割領域を含む所定範囲の分割領域を、口周辺領域として定める。この口周辺領域の画素の輝度値の例えば平均値を算出し、口周辺領域の輝度とする。この輝度に対して、口31が口を覆う用具で覆われているか否かを判定するための閾値Th4を予め設定する。
閾値Th4は、例えば、多数のサンプルを用いて予め求めた、口31がマスクなど口を覆う用具で覆われていない状態、すなわち肌が露出した状態での口周辺領域の輝度と、マスクなどで覆われている状態での口周辺領域の輝度とに基づき設定することが考えられる。
ステップS111で、判定部104は、口周辺領域の輝度が閾値Th4以上であるか否かを判定する。若し、当該輝度が閾値Th4以上であると判定した場合、判定部104は、処理をステップS112に移行させ、口10が口を覆う用具で覆われていると判定する。一方、当該輝度が閾値Th4未満であると判定した場合、判定部104は、処理をステップS109に移行させ、口10が口を覆う用具で覆われていないと判定する。
なお、ステップS110の輝度による判定は、省略することができる。この場合、判定部104は、ステップS108で口10の横幅mouthXの逸脱度合mouthXDeviancyが第2の閾値Th2を超えると判定した場合、または、ステップS110で逸脱度合mouthXDeviancyが第3の閾値Th3以下であるか、または、第2の閾値Th2を超えると判定した場合に、処理をステップS112に移行させ、口10が口を覆う用具に覆われていると判定する。ステップS111の輝度値による判定をさらに行うことで、より高精度な判定結果を得ることができる。
以上説明したように、本実施形態によれば、顔検出を行い抽出した口の特徴点に基づき求めた口の縦幅および横幅を、口の標準の縦幅および横幅と比較することで、口がマスクのようなもので覆われている状態を検出することを可能としている。したがって、本実施形態を警備システムに適用した場合、顔の認識をより高精度に行うことが可能となると共に、不審者の検出も容易となる。
なお、上述では、本発明が、口が口を覆う用具に覆われているか否かを判定する場合に適用するように説明したが、これはこの例に限定されない。例えば、本発明による、実測値と標準の値との差分に基づく判定方法を応用することで、目が目を覆う用具(サングラスなど)に覆われているか否かの判定を行うことも可能である。
図11は、本実施形態による顔検出装置1を適用可能なハードウェアとしての情報処理装置200の一例の構成を示す。情報処理装置200において、バス201に対してCPU210、ROM211、RAM212、表示制御部213およびキャプチャ部214が接続される。さらに、バス201に対して、ハードディスクドライブ(HDD)215、入力I/F216、ドライブ装置217および通信I/F218が接続される。
キャプチャ部214は、例えば、ビデオカメラ220で撮像された動画像データが入力され、入力された動画像データから、フレーム単位で画像データを取得する。取得された画像データは、例えばバス201を介してCPU210に供給される。HDD215は、CPU210が動作するためのプログラムや、口の標準的な縦幅および横幅のデータが予め記憶される。HDD215に対して、キャプチャ部214で取得された画像データなどを記憶させてもよい。
CPU210は、ROM211やHDD215に予め記憶されたプログラムに従い、RAM212をワークメモリとして用いて、この情報処理装置200の全体の動作を制御する。例えば、図1を用いて説明した、画像入力部100、顔検出部101、特徴点抽出部102、算出部103および判定部104それぞれの機能は、CPU210上で動作するプログラムによって実現される。
表示制御部213は、CPU210によりプログラムに従い生成された表示制御信号に基づき、ディスプレイ221が表示可能な表示信号を生成し、ディスプレイ221に供給する。また、入力I/F216は、キーボード216aや、マウスなどのポインティングデバイス216bが接続され、ユーザ入力を受け付け、ユーザ入力に応じた制御信号を出力し、CPU210に供給する。また、入力I/F216は、USB(Universal Serial Bus)などのデータ通信入出力216cにも対応できる。
ドライブ装置217は、CD(Compact Disk)やDVD(Digital Versatile Disk)、フレキシブルディスク、不揮発性メモリなどの記憶媒体からのデータの読み出しを行う。通信I/F218は、LAN(Local Area Network)やインターネットといったネットワークに対する通信を制御する。
このような構成による情報処理装置200で実行される顔検出プログラムは、インストール可能な形式または実行可能な形式のファイルでCD、DVD、フレキシブルディスク、不揮発性メモリなどのコンピュータで読み取り可能な記憶媒体に記録されて提供される。ドライブ装置217により、この記憶媒体から顔検出プログラムを読み出し、例えばHDD215に対して所定の方法でインストールする。
また、本実施形態の情報処理装置200で実行される顔検出プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の情報処理装置200で実行される顔検出プログラムを、インターネットなどのネットワーク経由で提供または配布するように構成してもよい。
また、本実施形態の情報処理装置200で実行される顔検出プログラムを、ROM211などに予め組み込んで提供するように構成してもよい。
本実施形態の情報処理装置200で実行される顔検出プログラムは、上述した各部(画像入力部100、顔検出部101、特徴点抽出部102、算出部103および判定部104)を含むモジュール構成となっており、実際のハードウェアとしてはCPU210が上述の記憶媒体や、HDD215から顔検出プログラムを読み出して実行することにより、各部が主記憶装置(例えばRAM212)上にロードされ、画像入力部100、顔検出部101、特徴点抽出部102、算出部103および判定部104が主記憶装置上に生成されるようになっている。
1 顔検出装置
10 口
11 マスク
20 矩形
100 画像入力部
101 顔検出部
102 特徴点抽出部
103 算出部
104 判定部

Claims (10)

  1. 顔検出手段が、画像から顔を検出する顔検出ステップと、
    特徴点抽出手段が、前記顔検出ステップにより検出された顔から口の特徴点を抽出すると共に、前記顔検出ステップにより検出された顔の向きが所定の範囲内に入っているか否かを該特徴点に基づき判定する特徴点抽出ステップと、
    算出手段が、前記顔の向きが前記所定の範囲内に入っていると判定された場合に、前記特徴点抽出ステップにより抽出された前記口の特徴点から該口の縦幅および横幅を求め、該口の縦幅と口について予め求められた標準の縦幅との第1の差分と、該口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出ステップと、
    判定手段が、前記算出ステップにより算出された前記第1の差分および前記第2の差分に基づき、前記顔検出ステップにより検出された顔内の口が覆われた状態か否かを判定する判定ステップと
    を有する
    ことを特徴とする顔検出方法。
  2. 前記判定ステップは、
    前記第1の差分が第1の閾値以下であり、且つ、前記第2の差分が第2の閾値以下である場合に、前記口が覆われていない状態であると判定する
    ことを特徴とする請求項1に記載の顔検出方法。
  3. 前記判定ステップは、
    前記第1の差分が第1の閾値以下であり、且つ、前記第2の差分が前記第2の閾値を超える場合で、前記口を含む予め定められた範囲の輝度が該輝度に対して定められた閾値未満である場合に、前記口が覆われていない状態であると判定する
    ことを特徴とする請求項2に記載の顔検出方法。
  4. 前記判定ステップは、
    前記第1の差分が前記第1の閾値を超える場合、さらに、前記第2の差分を第3の閾値と比較し、該第2の差分が前記第2の閾値以下であり、且つ、該第3の閾値を超える場合に、前記口が覆われていない状態であると判定する
    ことを特徴とする請求項2に記載の顔検出方法。
  5. 前記判定ステップは、
    前記第2の差分を前記第3の閾値と比較した結果、前記第2の差分が前記第3の閾値以下または前記第2の閾値を超え、且つ、前記口を含む予め定められた範囲の輝度が該輝度に対して定められた閾値未満である場合に、前記口が覆われていない状態であると判定する
    ことを特徴とする請求項4に記載の顔検出方法。
  6. 前記算出ステップは、
    前記第1の差分として、前記口の縦幅から前記標準の縦幅を減じた値の絶対値を取った値を用いる
    ことを特徴とする請求項1乃至請求項5の何れか1項に記載の顔検出方法。
  7. 前記算出ステップは、
    前記第1の差分および前記第2の差分口の縦幅および横幅についてそれぞれ算出された前記差分に対して1を超える係数を乗じ、
    前記判定ステップは、
    それぞれ前記係数を乗じられた前記第1の差分および前記第2の差分に基づき前記判定を行う
    ことを特徴とする請求項1乃至請求項6の何れか1項に記載の顔検出方法。
  8. 前記顔検出ステップは、
    前記画像から矩形領域として前記顔を検出し、
    前記算出ステップは、
    前記矩形領域の対角線の長さで正規化した前記口の横幅および縦幅を用いて前記第1の差分および前記第2の差分をそれぞれ求める
    ことを特徴とする請求項1乃至請求項7の何れか1項に記載の顔検出方法。
  9. 画像から顔を検出する顔検出手段と、
    前記顔検出手段により検出された顔から口の特徴点を抽出すると共に、前記顔検出手段により検出された顔の向きが所定の範囲内に入っているか否かを該特徴点に基づき該判定する特徴点抽出手段と、
    前記顔の向きが前記所定の範囲内に入っていると判定された場合に、前記特徴点抽出手段により抽出された前記口の特徴点から該口の縦幅および横幅を求め、該口の縦幅と口について予め求められた標準の縦幅との第1の差分と、該口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出手段と、
    前記算出手段により算出された前記第1の差分および前記第2の差分に基づき、前記顔検出手段により検出された顔内の口が覆われた状態か否かを判定する判定手段と
    を有する
    ことを特徴とする顔検出装置。
  10. 画像から顔を検出する顔検出ステップと、
    前記顔検出ステップにより検出された顔から口の特徴点を抽出すると共に、前記顔検出ステップにより検出された顔の向きが所定の範囲内に入っているか否かを該特徴点に基づき判定する特徴点抽出ステップと、
    前記顔の向きが前記所定の範囲内に入っていると判定された場合に、前記特徴点抽出ステップにより抽出された前記口の特徴点から該口の縦幅および横幅を求め、該口の縦幅と口について予め求められた標準の縦幅との第1の差分と、該口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出ステップと、
    前記算出ステップにより算出された前記第1の差分および前記第2の差分に基づき、前記顔検出ステップにより検出された顔内の口が覆われた状態か否かを判定する判定ステップと
    をコンピュータに実行させるためのプログラム。
JP2011043202A 2011-02-28 2011-02-28 顔検出方法および顔検出装置、ならびに、プログラム Active JP5703068B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011043202A JP5703068B2 (ja) 2011-02-28 2011-02-28 顔検出方法および顔検出装置、ならびに、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011043202A JP5703068B2 (ja) 2011-02-28 2011-02-28 顔検出方法および顔検出装置、ならびに、プログラム

Publications (2)

Publication Number Publication Date
JP2012181629A JP2012181629A (ja) 2012-09-20
JP5703068B2 true JP5703068B2 (ja) 2015-04-15

Family

ID=47012784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011043202A Active JP5703068B2 (ja) 2011-02-28 2011-02-28 顔検出方法および顔検出装置、ならびに、プログラム

Country Status (1)

Country Link
JP (1) JP5703068B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6468755B2 (ja) * 2014-08-22 2019-02-13 国立大学法人静岡大学 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
WO2019073732A1 (ja) * 2017-10-10 2019-04-18 株式会社 資生堂 ストレスの評価方法
SG10202000146SA (en) * 2020-01-07 2021-08-30 Nec Asia Pacific Pte Ltd A method and an apparatus for determining if an event relates to an unauthorized subject
JP7409172B2 (ja) 2020-03-12 2024-01-09 大日本印刷株式会社 画像生成システム
CN111523476B (zh) * 2020-04-23 2023-08-22 北京百度网讯科技有限公司 口罩佩戴识别方法、装置、设备和可读存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2648054B2 (ja) * 1991-07-26 1997-08-27 シャープ株式会社 警報装置
JP2000242659A (ja) * 1999-02-22 2000-09-08 Nippon Telegr & Teleph Corp <Ntt> 類似検索における特徴量の正規化方法及び装置及び類似検索特徴量正規化プログラムを格納した記憶媒体
JP4149126B2 (ja) * 2000-12-05 2008-09-10 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像処理方法、画像処理装置および画像撮影装置
JP2004318501A (ja) * 2003-04-16 2004-11-11 Victor Co Of Japan Ltd 人物認証装置
JP2007094588A (ja) * 2005-09-27 2007-04-12 Fujifilm Corp 顔認証システム
JP4756589B2 (ja) * 2005-12-07 2011-08-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP5054349B2 (ja) * 2006-09-27 2012-10-24 綜合警備保障株式会社 入場規制装置、入場規制方法および入場規制プログラム
JP5109922B2 (ja) * 2008-10-16 2012-12-26 株式会社デンソー ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP5359266B2 (ja) * 2008-12-26 2013-12-04 富士通株式会社 顔認識装置、顔認識方法及び顔認識プログラム
JP2010244090A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物情報抽出装置、人物情報抽出方法、及び人物情報抽出プログラム

Also Published As

Publication number Publication date
JP2012181629A (ja) 2012-09-20

Similar Documents

Publication Publication Date Title
JP6630999B2 (ja) 画像認識装置、画像認識方法、および、画像認識プログラム
TWI380223B (en) Image processing apparatus and image processing method
JP4410732B2 (ja) 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
US20140270374A1 (en) Systems, Methods, and Software for Detecting an Object in an Image
Pamplona Segundo et al. Continuous 3D face authentication using RGB-D cameras
JP5703068B2 (ja) 顔検出方法および顔検出装置、ならびに、プログラム
JP5787845B2 (ja) 画像認識装置、方法、及びプログラム
JP6906717B2 (ja) 状態判定装置、状態判定方法、及び状態判定プログラム
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
KR20160029629A (ko) 얼굴 인식 방법 및 장치
JP6601513B2 (ja) 情報処理装置
JP5787686B2 (ja) 顔認識装置、及び顔認識方法
US10360441B2 (en) Image processing method and apparatus
WO2010126120A1 (ja) 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
JP5061563B2 (ja) 検出装置、生体判定方法、およびプログラム
JP4507679B2 (ja) 画像認識装置、画像抽出装置、画像抽出方法及びプログラム
KR20160053833A (ko) 개선된 데이터 비교 방법
KR101455666B1 (ko) 인증 장치 및 그 인증 방법
JP2005275935A (ja) 端末装置
US20120076418A1 (en) Face attribute estimating apparatus and method
JP2010020594A (ja) 瞳画像認識装置
EP3958208A1 (en) Image processing device, image processing method, and image processing program
WO2019142787A1 (ja) 人体部位推定装置、人体部位推定方法、及びコンピュータ読み取り可能な記録媒体
JP6798285B2 (ja) 生体認証装置、生体認証方法及びプログラム
EP2793102A2 (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150223

R150 Certificate of patent or registration of utility model

Ref document number: 5703068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250