JP2012181629A - Face detection method, face detection device, and program - Google Patents
Face detection method, face detection device, and program Download PDFInfo
- Publication number
- JP2012181629A JP2012181629A JP2011043202A JP2011043202A JP2012181629A JP 2012181629 A JP2012181629 A JP 2012181629A JP 2011043202 A JP2011043202 A JP 2011043202A JP 2011043202 A JP2011043202 A JP 2011043202A JP 2012181629 A JP2012181629 A JP 2012181629A
- Authority
- JP
- Japan
- Prior art keywords
- mouth
- difference
- face
- face detection
- width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 86
- 238000000605 extraction Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 20
- 239000000284 extract Substances 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 32
- 230000001815 facial effect Effects 0.000 description 19
- 210000000056 organ Anatomy 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 230000010365 information processing Effects 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000004886 process control Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像データから顔を検出する顔検出方法および顔検出装置、ならびに、プログラムに関する。 The present invention relates to a face detection method, a face detection apparatus, and a program for detecting a face from image data.
従来、監視システムなどにおいて、監視カメラで撮像された画像データから顔を検出して、顔認証や不審者の検出などを行っている。例えば、画像データから目や口の両端といった顔器官の特徴点を抽出することで顔を検出し、その特徴点の位置関係から顔の認識を行う。 2. Description of the Related Art Conventionally, in a surveillance system or the like, a face is detected from image data captured by a surveillance camera to perform face authentication, suspicious person detection, or the like. For example, a face is detected by extracting feature points of facial organs such as eyes and both ends of the mouth from image data, and the face is recognized from the positional relationship of the feature points.
ここで、各顔器官の位置関係は、人物の表情などにより変動する。特許文献1では、登録画像における目、鼻、口などの顔器官の位置に主成分分析を適用し、その結果得られた主成分を用いて認証対象顔画像における顔器官の位置を評価する技術が開示されている。
Here, the positional relationship of each facial organ varies depending on the facial expression of the person. In
図12は、特許文献1による顔器官の位置評価の方法の例を示す。図12(a)は、真顔の状態の位置評価、図12(b)は、笑顔の状態の位置評価の例を示す。この例では、顔器官のうち瞳、眉の先端、鼻および口(両端、中央)の位置を検出し、検出された各位置の位置関係を数値化して評価する。図12(a)および図12(b)を比較すると、表情によって顔器官の位置関係が変化することが分かる。例えば閾値判定を用いて、この変化が同一人物の変動の範囲内か否かを判定することで、顔の認証精度を高めることができる。
FIG. 12 shows an example of a method for evaluating the position of a facial organ according to
このように、特許文献1によれば、認証対象顔画像における顔器官を、表情の変化に伴う対象人物固有の顔の動きに応じて評価することができ、表情が変化しても正確に顔を認証できる。
As described above, according to
特許文献1の方法では、顔認識の対象人物が目を瞑っていたり、サングラスやマスクで目や口を覆っており顔器官の位置を正しく検出できないような場合に、誤認識してしまうおそれがある。特許文献2には、画像に対してエッジ検出を行って顔の輪郭を決定し、輪郭内にある顔器官を検出することで、対象人物がサングラスやマスクを装着しているか否かを判定する技術が開示されている。すなわち、特許文献2では、顔認識の対象人物における顔器官が抽出できない場合に、当該対象人物がサングラスやマスクを装着していると見做している。
In the method of
しかしながら、特許文献2では、顔認識の対象人物が口を開けていたり、マスクなどで口を覆っている状態において、誤検出してしまうおそれがあるという問題点があった。例えば、対象人物がマスクなど非着用でも、口を開けていることによりマスク着用と誤検出されてしまう可能性がある。また、対象人物がマスクなどを着用して口元を隠している場合であっても、マスクの皺などを口の輪郭であると誤検出してしまう可能性がある。
However, in
本発明は、上記に鑑みてなされたものであって、顔検出の検出結果に基づき対象人物が口を覆う用具を装着しているか否かを判定可能とすることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to make it possible to determine whether or not the target person is wearing a tool covering the mouth based on the detection result of face detection.
上述した課題を解決し、目的を達成するために、本発明は、顔検出手段が、画像から顔を検出する顔検出ステップと、特徴点抽出手段が、顔検出ステップにより検出された顔から口の特徴点を抽出する特徴点抽出ステップと、算出手段が、特徴点抽出ステップにより抽出された口の特徴点から口の縦幅および横幅を求め、口の縦幅と口について予め求められた標準の縦幅との第1の差分と、口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出ステップと、判定手段が、算出ステップにより算出された第1の差分および第2の差分に基づき、顔検出ステップにより検出された顔内の口が覆われた状態か否かを判定する判定ステップとを有することを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a face detection step in which the face detection means detects a face from an image, and a feature point extraction means in the mouth detected from the face detected in the face detection step. The feature point extracting step for extracting the feature points of the mouth, and the calculating means obtains the length and width of the mouth from the feature points of the mouth extracted by the feature point extracting step, and the standard obtained in advance for the length and width of the mouth A calculating step for calculating a first difference between the vertical width of the mouth and a second difference between the width of the mouth and the standard width previously obtained for the mouth; And a determination step of determining whether or not the mouth in the face detected by the face detection step is covered based on the difference and the second difference.
また、本発明は、画像から顔を検出する顔検出手段と、顔検出手段により検出された顔から口の特徴点を抽出する特徴点抽出手段と、特徴点抽出手段により抽出された口の特徴点から口の縦幅および横幅を求め、口の縦幅と口について予め求められた標準の縦幅との第1の差分と、口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出手段と、算出手段により算出された第1の差分および第2の差分に基づき、顔検出手段により検出された顔内の口が覆われた状態か否かを判定する判定手段とを有することを特徴とする。 Further, the present invention provides a face detection means for detecting a face from an image, a feature point extraction means for extracting a mouth feature point from the face detected by the face detection means, and a mouth feature extracted by the feature point extraction means. The vertical and horizontal widths of the mouth are obtained from the points, and the first difference between the vertical width of the mouth and the standard vertical width obtained in advance for the mouth, and the width of the mouth and the standard horizontal width obtained in advance for the mouth And calculating means for calculating the difference between the two, and determining whether the mouth in the face detected by the face detecting means is covered based on the first difference and the second difference calculated by the calculating means And determining means for performing the processing.
また、本発明は、画像から顔を検出する顔検出ステップと、顔検出ステップにより検出された顔から口の特徴点を抽出する特徴点抽出ステップと、特徴点抽出ステップにより抽出された口の特徴点から口の縦幅および横幅を求め、口の縦幅と口について予め求められた標準の縦幅との第1の差分と、口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出ステップと、算出ステップにより算出された第1の差分および第2の差分に基づき、顔検出ステップにより検出された顔内の口が覆われた状態か否かを判定する判定ステップとをコンピュータに実行させるためのプログラムである。 The present invention also provides a face detection step for detecting a face from an image, a feature point extraction step for extracting a mouth feature point from the face detected by the face detection step, and a mouth feature extracted by the feature point extraction step. The vertical and horizontal widths of the mouth are obtained from the points, and the first difference between the vertical width of the mouth and the standard vertical width obtained in advance for the mouth, and the width of the mouth and the standard horizontal width obtained in advance for the mouth A calculation step for calculating the difference between the two, and whether or not the mouth in the face detected by the face detection step is covered based on the first difference and the second difference calculated by the calculation step This is a program for causing a computer to execute the determination step.
本発明によれば、顔検出の検出結果に基づき対象人物が口を覆う用具を装着しているか否かが判定可能となるという効果を奏する。 According to the present invention, it is possible to determine whether or not the target person is wearing a tool that covers the mouth based on the detection result of the face detection.
以下に添付図面を参照して、本発明に係る顔検出装置の一実施形態を詳細に説明する。図1は、本実施形態による顔検出装置1の一例の機能を示す機能ブロック図である。顔検出装置1は、画像入力部100、顔検出部101、特徴点抽出部102、算出部103および判定部104を含む。これら顔検出装置1を構成する各部は、CPU(Central Processing Unit)上で動作するプログラムにより構成することができる。これに限らず、これら各部の一部または全部をハードウェアにより構成してもよい。
Hereinafter, an embodiment of a face detection apparatus according to the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a functional block diagram showing functions of an example of the
顔検出装置1において、画像データが画像入力部100に入力される。画像入力部100には、ビデオカメラなどで撮像された画像データを入力することができる。これに限らず、HDD(ハードディスクドライブ)などの記憶媒体に予め格納した画像データを画像入力部100に対して入力してもよい。また、画像入力部100に入力される画像データは、動画および静止画の何れであってもよい。以下では、ビデオカメラで撮像された動画による画像データが画像入力部100に入力されるものとする。画像入力部100は、入力された画像データから、例えば1フレームの画像データをキャプチャして、顔検出部101に供給する。
In the
顔検出部101は、供給された画像データを解析して、当該画像データから顔を検出する。画像データからの顔(顔領域および目、鼻、口などの顔器官)の検出は、既知の方法を用いて行うことができる。例えば、顔辞書とパターンマッチングを用いた部分空間法により、顔領域および各顔器官の検出を行うことが考えられる。顔検出部101による検出出力は、特徴点抽出部102に供給される。なお、顔検出部101は、画像データから顔が検出されなかった場合に、画像入力部100に対して次の画像データを要求することができる。 The face detection unit 101 analyzes the supplied image data and detects a face from the image data. Detection of a face (a face region and facial organs such as eyes, nose, mouth) from image data can be performed using a known method. For example, it is conceivable to detect a face region and each facial organ by a subspace method using a face dictionary and pattern matching. The detection output from the face detection unit 101 is supplied to the feature point extraction unit 102. Note that the face detection unit 101 can request the next image data from the image input unit 100 when no face is detected from the image data.
特徴点抽出部102は、顔検出部101で検出された顔の特徴点を抽出する。例えば、特徴点抽出部102は、顔における目、鼻、口などの各顔器官について、特徴点を抽出する。特徴点の抽出には、既知の技術を用いることができる。例えば、顔検出部101で検出された顔領域に対して特徴点数の多い顔グラフを適用し、顔グラフの平行移動、拡大/縮小、回転などにより、さらに類似度の高い特徴点を抽出する方法を用いることが考えられる。 The feature point extraction unit 102 extracts the feature points of the face detected by the face detection unit 101. For example, the feature point extraction unit 102 extracts feature points for each facial organ such as eyes, nose, and mouth in the face. Known techniques can be used to extract feature points. For example, a method of applying a face graph having a large number of feature points to the face area detected by the face detection unit 101 and extracting feature points with higher similarity by parallel movement, enlargement / reduction, rotation, etc. of the face graph Can be considered.
本実施形態では、抽出された顔の特徴点のうち、口に関する特徴点に注目し、口の縦幅および横幅を計測するための特徴点を抽出する。特徴点抽出部102で抽出された口の特徴点の位置を示す情報は、算出部103に供給される。 In the present embodiment, among the extracted facial feature points, attention is paid to feature points related to the mouth, and feature points for measuring the vertical and horizontal widths of the mouth are extracted. Information indicating the position of the mouth feature point extracted by the feature point extraction unit 102 is supplied to the calculation unit 103.
特徴点抽出部102は、さらに、顔検出部101で検出された顔の向きを解析する。そして、顔の向きが上下左右それぞれの方向に対して予め決められた範囲内に収まっているか否かを判定する。例えば、特徴点抽出部102は、顔の特徴点の位置を示す情報に基づき顔の向きを推測する。なお、特徴点抽出部102は、顔の向きが所定範囲内に入っていないと判定した場合に、画像入力部100に対して次の画像データを要求することができる。 The feature point extraction unit 102 further analyzes the orientation of the face detected by the face detection unit 101. Then, it is determined whether or not the face orientation is within a predetermined range with respect to each of the up, down, left, and right directions. For example, the feature point extraction unit 102 estimates the face direction based on information indicating the position of the feature point of the face. Note that the feature point extraction unit 102 can request the next image data from the image input unit 100 when determining that the face orientation is not within the predetermined range.
算出部103は、特徴点抽出部102から供給された口の特徴点の位置を示す情報に基づき、口の縦幅および横幅を算出する。ここで、算出部103は、口の縦幅および横幅について、予め多数のサンプルから算出された、標準のデータを持っている。算出部103は、顔検出の結果に基づき算出された口の縦幅および横幅と、標準の口の縦幅および横幅とを比較する。そして、比較結果に基づき、顔検出で検出された口の縦幅および横幅それぞれの、標準の口の縦幅および横幅に対する逸脱度合を算出する。算出された口の縦幅および横幅それぞれの逸脱度合は、判定部104に供給される。 The calculation unit 103 calculates the vertical width and the horizontal width of the mouth based on the information indicating the position of the mouth feature point supplied from the feature point extraction unit 102. Here, the calculation unit 103 has standard data calculated in advance from a large number of samples with respect to the vertical width and the horizontal width of the mouth. The calculation unit 103 compares the vertical and horizontal widths of the mouth calculated based on the face detection result with the standard vertical and horizontal widths of the mouth. Then, based on the comparison result, the deviation degrees of the vertical width and horizontal width of the mouth detected by the face detection with respect to the standard vertical width and horizontal width of the mouth are calculated. The calculated deviation degrees of the vertical and horizontal widths of the mouth are supplied to the determination unit 104.
判定部104は、算出部103から供給された、口の縦幅および横幅それぞれの逸脱度合に基づき、顔検出部101で検出された顔内の口が、口を覆う用具(例えばマスク)に覆われているか否かを判定する。判定部104は、口周辺の領域について測定された輝度を、さらに判定に用いてもよい。 The determination unit 104 covers the mouth in the face detected by the face detection unit 101 with a tool (for example, a mask) covering the mouth based on the deviation degrees of the vertical and horizontal widths of the mouth supplied from the calculation unit 103. It is determined whether or not The determination unit 104 may further use the luminance measured for the area around the mouth for determination.
図2は、本実施形態による顔検出方法の一例の処理を示すフローチャートである。ステップS100で、顔検出装置1に入力された画像データが画像入力部100にキャプチャされる。顔検出部101は、キャプチャされた画像データに対して既知の方法を用いて顔検出処理を施し、画像データから顔が検出されたか否かを判定する(ステップS101)。若し、顔が検出されていないと判定された場合は、画像入力部100に対して例えば次のフレームの画像データを要求し、処理をステップS100に戻す。
FIG. 2 is a flowchart illustrating an example of the face detection method according to the present embodiment. In step S <b> 100, the image data input to the
一方、ステップS101で、顔が検出されたと判定された場合、処理がステップS102に移行される。ステップS102では、特徴点抽出部102が、顔検出部101による顔検出結果を用いて顔の特徴点を検出する。 On the other hand, if it is determined in step S101 that a face has been detected, the process proceeds to step S102. In step S <b> 102, the feature point extraction unit 102 detects a face feature point using the face detection result by the face detection unit 101.
上述したように、本実施形態では、特徴点抽出部102は、各顔器官のうち、口に注目して特徴点を抽出する。より具体的には、図3に例示されるように、口10における唇の両端、ならびに、唇の左右方向の中点における上下端(以下、単に唇の上下端のように呼ぶ)の位置を、特徴点として検出する。以下では、唇の右端および左端の位置をそれぞれ位置P1およびP2とし、唇の上端および下端をそれぞれ位置P3およびP4とする。
As described above, in this embodiment, the feature point extraction unit 102 extracts feature points by paying attention to the mouth among the facial organs. More specifically, as illustrated in FIG. 3, the positions of the upper and lower ends (hereinafter simply referred to as the upper and lower ends of the lips) at both ends of the lips in the
特徴点抽出部102は、さらに、画像データにおける顔の向きを推定する。例えば、特徴点抽出部102は、顔検出結果を用いて抽出された各顔器官の特徴点の位置関係から、顔の向きを推定する。そして、ステップS103で、特徴点抽出部102は、推定された顔の向きが、上下について予め定められた範囲内に収まっているか否かを判定する。若し、当該範囲内に収まっていないと判定した場合、画像入力部100に対して例えば次のフレームの画像データを要求し、処理をステップS100に戻す。一方、顔の向きが当該範囲内に収まっていると判定した場合、次のステップS104で、推定された顔の向きが左右について予め定められた範囲内に収まっているか否かを判定する。若し、当該範囲内に収まっていないと判定した場合、画像入力部100に対して例えば次のフレームの画像データを要求し、処理をステップS100に戻す。なお、ステップS103およびステップS104の順序は、逆でもよい。 The feature point extraction unit 102 further estimates the face orientation in the image data. For example, the feature point extraction unit 102 estimates the face direction from the positional relationship between the feature points of each facial organ extracted using the face detection result. In step S103, the feature point extraction unit 102 determines whether the estimated face orientation is within a predetermined range in the vertical direction. If it is determined that it does not fall within the range, the image input unit 100 is requested for image data of the next frame, for example, and the process returns to step S100. On the other hand, if it is determined that the face orientation is within the range, it is determined in the next step S104 whether the estimated face orientation is within a predetermined range for the left and right. If it is determined that it does not fall within the range, the image input unit 100 is requested for image data of the next frame, for example, and the process returns to step S100. Note that the order of step S103 and step S104 may be reversed.
ステップS104で、特徴点抽出部102は、推定された顔の向きが左右について予め定められた範囲内に収まっていると判定したら、ステップS102で抽出した口の特徴点の位置P1〜P4を示す情報を算出部103に渡し、処理をステップS105に移行させる。 In step S104, if the feature point extraction unit 102 determines that the estimated face orientation is within a predetermined range for the left and right, the mouth feature point positions P 1 to P 4 extracted in step S102. Is transferred to the calculation unit 103, and the process proceeds to step S105.
ステップS105で、算出部103は、特徴点抽出部102から渡された口の特徴点の位置P1〜P4を示す情報を用いて、口10の縦幅および横幅を算出する。このとき、図4に例示されるように、顔検出部101による顔検出結果から得られる顔領域を示す矩形20、例えば顔検出に用いた各顔器官を含む矩形20の対角線の長さを用い、顔の大きさに基づき正規化した値として、縦幅および横幅を算出する。顔の大きさとして矩形20の対角線の長さを用いるのは、矩形20が正方形ではない場合に対応させるためである。
In step S <b> 105, the calculation unit 103 calculates the vertical width and the horizontal width of the
具体的には、算出部103は、口10の縦幅mouthYおよび横幅mouthXを、例えばそれぞれ式(1)および式(2)に従い算出する。なお、式(1)および式(2)において、値Fxおよび値Fyは、それぞれ正規化に用いる顔領域の矩形20の横幅および縦幅を示す。また、値Pnxおよび値Pnx(nは1〜4)は、それぞれ位置P1〜P4のx座標およびy座標を示す。各値の単位は、例えば画像データの画素とする。
Specifically, the calculation unit 103 calculates the vertical width mouthY and the horizontal width mouthX of the
次のステップS106で、算出部103は、ステップS105で算出した口10の縦幅mouthYおよび横幅mouthXと、予め算出した、口の標準の縦幅および横幅との差分subNormalXおよびsubNormalYとを算出し、顔検出部101で検出された顔に含まれる口の縦幅および横幅の、標準の縦幅および横幅に対する逸脱度合を求める。
In the next step S106, the calculation unit 103 calculates the vertical width mouthY and the horizontal width mouthX of the
口の標準の縦幅および横幅の算出は、例えば次のようにして行う。口10について、予め、多数のサンプルについて上述した式(1)に従い縦幅mouthYを算出し、代表値(平均値など)を求めて口10の標準の縦幅normalYとする。同様にして、口10の横幅について、予め、多数のサンプルについて上述した式(2)に従い横幅mouthXを算出し、代表値を求めて口10の標準の横幅normalXとする。これら標準の縦幅normalYおよびnormalXは、例えば顔検出装置1が有する、図示されないHDDなどの不揮発性の記憶媒体に記憶される。
The standard vertical and horizontal widths of the mouth are calculated as follows, for example. For the
逸脱度合mouthDeviancyの算出方法について、口10の縦幅mouthYを例にとって、当該縦幅mouthYに対する逸脱度合mouthYDeviancyを算出する場合について説明する。なお、以下に説明する逸脱度合mouthYDeviancyの算出方法は、口10の横幅mouthXについても同様に適用できる。また、横幅mouthXに対応する逸脱度合mouthDeviancyを、逸脱度合mouthXDeviancyとする。
As a method of calculating the deviation degree mouthDeviancy, a case where the deviation degree mouthYDeviancy for the vertical width mouthY is calculated will be described by taking the vertical width mouthY of the
先ず、式(3)に従い、特徴点の位置から求めた口10の縦幅mouthYと、口の標準の縦幅normalYとの差分subNormalYを算出する。
subNormalY=abs(mouthY−normalY) …(3)
First, according to Expression (3), a difference subNormalY between the vertical width mouthY of the
subNormalY = abs (mouthY−normalY) (3)
ここで、「abs()」は、括弧内の計算結果に対して絶対値を取ることを意味する。式(3)で減算結果の絶対値を差分subNormalYとして用いるのは、口は通常、閉じており、標準の口の縦幅も、閉じた状態で計測されると考えられ、顔検出結果に基づく口の例えば縦幅mouthYと、標準の口の縦幅との差分を計算した場合に、正負は大きな意味を持たないためである。なお、口の横幅mouthXについても同様に、標準の口の縦幅に対する差分の絶対値を取り、差分subNormalXとする。 Here, “abs ()” means to take an absolute value for the calculation result in parentheses. The reason why the absolute value of the subtraction result is used as the difference subNormalY in equation (3) is that the mouth is normally closed and the vertical width of the standard mouth is considered to be measured in the closed state, and is based on the face detection result. This is because, for example, when the difference between the vertical width mouthY of the mouth and the vertical width of the standard mouth is calculated, positive and negative are not significant. Similarly, for the mouth mouth width mouthX, the absolute value of the difference with respect to the normal mouth height is taken as the difference subNormalX.
式(3)の結果得られた差分subNormalYに対して、口の縦幅に対して予め定められた係数pixelsToMouthYDeviancyを乗じて、口10の縦幅mouthYの逸脱度合mouthYDeviancyを算出する。
mouthYDeviancy=subNormalY×pixelsToMouthYDeviancy …(4)
The deviation degree mouthYDeviancy of the vertical width mouthY of the
mouthYDeviancy = subNormalY × pixelsToMouthYDeviancy… (4)
ここで、係数pixelsToMouthYDeviancyは、判定部104における判定処理に用いる閾値の設定を容易にするために、差分subNormalYに対して乗じられる。口10の縦幅mouthYを例に取り、図5を用いて、係数pixelsToMouthYDeviancyの意味について説明する。顔検出によって得られた特徴点に基づく口10の縦幅mouthYと、口の標準の縦幅normalYとの差分subNormalYを取った場合、差分subNormalYの頻度分布は、例えば図5(a)に例示されるように、差分subNormalY=0を中心とする正規分布的なものとなる。
Here, the coefficient pixelsToMouthYDeviancy is multiplied by the difference subNormalY in order to facilitate the setting of a threshold value used in the determination process in the determination unit 104. Taking the vertical width mouthY of the
本実施形態では、後述するように、この差分subNormalYを閾値判断することで、検出された口が口を覆う用具に覆われているか否かを判定する。このとき、閾値を少し、例えば閾値Th10から閾値Th11にずらしただけで、対応する頻度が大きく変化し、頻度が少ない状態も許容してしまうおそれがある。そこで、差分subNormalYに対して1を超える係数pixelsToMouthYDeviancyを乗じた値を逸脱度合mouthYDeviancyとし、この逸脱度合mouthYDeviancyに対して閾値を設定することで、閾値の細かい設定が容易となる。 In this embodiment, as will be described later, this difference subNormalY is determined as a threshold to determine whether or not the detected mouth is covered with a tool that covers the mouth. At this time, even if the threshold value is slightly shifted, for example, from the threshold value Th 10 to the threshold value Th 11 , the corresponding frequency changes greatly, and there is a possibility that a low frequency state is allowed. Therefore, a value obtained by multiplying the difference subNormalY by a coefficient pixelsToMouthYDeviancy exceeding 1 is set as a deviation degree mouthYDeviancy, and setting a threshold value for the deviation degree mouthYDeviancy facilitates fine setting of the threshold value.
図5(b)の例では、係数pixelsToMouthYDeviancy≒2として、頻度分布をx方向に略2倍に拡張している。これにより、閾値設定に対する精度が略2倍となり、閾値を図5(a)と同じだけずらした場合(閾値Th10から閾値Th12)の、頻度の変化が図5(a)に比べて小さくなり、閾値の設定が容易となる。 In the example of FIG. 5B, the frequency distribution is expanded approximately twice in the x direction with the coefficient pixelsToMouthYDeviancy≈2. As a result, the accuracy with respect to the threshold setting is approximately doubled, and when the threshold is shifted by the same amount as in FIG. 5A (threshold Th 10 to threshold Th 12 ), the frequency change is smaller than that in FIG. Thus, the threshold value can be easily set.
なお、ここでは、縦幅mouthYに対する係数pixelsToMouthYDeviancyについて説明したが、この係数は、口10の横幅mouthXに対しても設定される。このとき、係数pixelsToMouthYDeviancyと、口10の横幅mouthXに対して設定される係数pixelsToMouthXDeviancyとは、互いに異なる値とすることができる。
Although the coefficient pixelsToMouthYDeviancy for the vertical width mouthY has been described here, this coefficient is also set for the horizontal width mouthX of the
係数pixelsToMouthYDeviancyおよび係数pixelsToMouthXDeviancyの値は、実験的に予め決められる。例えば、係数pixelsToMouthYDeviancyとして、1000を超える値を用いることができる。この場合、逸脱度合mouthYDeviancyの値も大きな値、例えば1000を超える値を取る可能性がある。この場合、逸脱度合mouthYDeviancyの値に閾値として設定する値よりも大きな値を上限(例えば1000)として設け、逸脱度合mouthYDeviancyの値がこの上限を超えた場合には、逸脱度合mouthYDeviancyの値を強制的にこの上限値に設定してもよい。 The values of the coefficient pixelsToMouthYDeviancy and the coefficient pixelsToMouthXDeviancy are predetermined experimentally. For example, a value exceeding 1000 can be used as the coefficient pixelsToMouthYDeviancy. In this case, the deviation degree mouthYDeviancy may also take a large value, for example, a value exceeding 1000. In this case, the value of the deviation degree mouthYDeviancy is set as an upper limit (for example, 1000) that is larger than the value set as the threshold, and if the value of the deviation degree mouthYDeviancy exceeds this upper limit, the value of the deviation degree This upper limit value may be set.
また、差分に対する係数の乗算に限らず、例えば設定される閾値近傍をx方向に拡大するような関数を用いることもできる。さらに、ステップS106において差分に対する係数の乗算を省略(または係数=1)し、差分そのものを逸脱度合として用いることもできる。 In addition to the multiplication of the coefficient by the difference, for example, a function that enlarges the vicinity of the set threshold value in the x direction can also be used. Furthermore, in step S106, multiplication of the coefficient by the difference can be omitted (or coefficient = 1), and the difference itself can be used as the deviation degree.
ステップS106で、口10の縦幅mouthYおよび横幅mouthXの、標準の縦幅normalYおよび横幅normalXに対する逸脱度合mouthYDeviancyおよびmouthXDeviancyが求められると、処理はステップS107に移行される。ステップS107、ならびに、ステップS108およびステップS110では、口10の逸脱度合mouthYDeviancyおよびmouthXDeviancyに対する閾値判定が行われる。なお、以下で用いる閾値Th1、Th2およびTh3は、それぞれ実験的に求めた値である。
When the deviation degrees mouthYDeviancy and mouthXDeviancy with respect to the standard vertical width normalY and horizontal width normalX of the vertical width mouthY and the horizontal width mouthX of the
ステップS107で、判定部104は、口10の縦幅mouthYの逸脱度合mouthYDeviancyが第1の閾値Th1を超えるか否かを判定する。超えると判定した場合、口10が口を覆う用具で覆われている可能性があると判断できる。この場合、処理をステップS110に移行させる。一方、逸脱度合mouthYDeviancyが閾値Th1以下であると判定したら、判定部104は、処理をステップS108に移行させる。
In step S107, the determination unit 104 determines whether more than a threshold Th 1 departing degree mouthYDeviancy the vertical width mouthY the
図6および図7を用いて、ステップS107での判定処理について、より具体的に説明する。なお、ここでは、縦幅の逸脱度合mouthYDeviancyの代わりに、係数pixelsToMouthYDeviancyを乗ずる前の差分subNormalYを用いて説明を行う。 The determination process in step S107 will be described more specifically with reference to FIGS. Here, description will be made using the difference subNormalY before multiplication by the coefficient pixelsToMouthYDeviancy instead of the vertical deviation degree mouthYDeviancy.
図6(a)は、口10がマスクなど口を覆う用具で覆われていない例を示す。この例では、口10において、口の標準の縦幅normalYよりもやや大きな値で縦幅mouthYが算出されている。式(3)に従い、口10の縦幅mouthYと、口の標準の縦幅normalYとの差分subNormalYが算出される。その結果、図6(b)に示されるように、差分subNormalYの値が第1の閾値Th1より小さい値となっている。したがって、判定部104は、顔検出の結果に基づき算出された縦幅mouthYの値の変動が口10の正常な変動であると判定し、処理をステップS108に移行させる。
FIG. 6A shows an example in which the
図7(a)は、口10がマスク11に覆われている例を示す。この例では、マスク11により口10の特徴点の位置が定まらず、顔検出結果に基づく特徴点抽出においてマスク11の皺12を口10の特徴点として誤検出してしまい、口10の上下端の特徴点が、実際の口10の縦幅より広い位置に抽出されている。そのため、図7(b)に示されるように、口10の縦幅mouthYから算出した差分subNormalYが第1の閾値Th1よりも大きな値となっている。これは、顔検出の結果に基づき算出された縦幅mouthYの値の変動が口10の正常な変動ではない、すなわち、口10が検出されたものではないと判定でき、判定部104は、処理をステップS110に移行させる。
FIG. 7A shows an example in which the
ステップS108で、判定部104は、口10の横幅mouthXの逸脱度合mouthXDeviancyが第2の閾値Th2を超えるか否かを判定する。超えると判定した場合、口10が口を覆う用具で覆われている可能性があると判断できる。この場合、処理をステップS111に移行させる。一方、逸脱度合mouthXDeviancyが閾値Th2以下であると判定したら、判定部104は、処理をステップS109に移行させ、口が口を覆う用具で覆われていないと判定する。
In step S108, the determination unit 104 determines whether the deviation degree mouthXDeviancy
図8および図9を用いて、ステップS108での判定処理について、より具体的に説明する。なお、ここでは、縦幅の逸脱度合mouthXDeviancyの代わりに、係数pixelsToMouthXDeviancyを乗ずる前の差分subNormalXを用いて説明を行う。 The determination process in step S108 will be described more specifically with reference to FIGS. Here, the description will be made using the difference subNormalX before being multiplied by the coefficient pixelsToMouthXDeviancy instead of the vertical deviation degree mouthXDeviancy.
図8(a)は、口10がマスクなど口を覆う用具で覆われていない例を示す。この例では、口10において、口の標準の横幅normalXよりもやや大きな値で横幅mouthXが算出されている。式(3)に従い、口10の横幅mouthXと、口の標準の横幅normalXとの差分subNormalXが算出される。その結果、図8(b)に示されるように、差分subNormalXの値が第1の閾値Th2より小さい値となっている。したがって、判定部104は、顔検出の結果に基づき算出された横幅mouthXの値の変動が口10の正常な変動であると判定し、処理をステップS109に移行させる。
FIG. 8A shows an example in which the
図9(a)は、口10がマスク11に覆われている例を示す。この例では、マスク11により口10の特徴点の位置が定まらず、顔検出結果に基づく特徴点抽出においてマスク11の皺13を口10の特徴点として誤検出してしまい、口10の両端の特徴点が実際の口10の横幅よりも狭い位置に抽出されている。そのため、図9(b)に示されるように、口10の横幅mouthXから算出した差分subNormalXが第2の閾値Th2よりも大きな値となっている。これは、顔検出の結果に基づき算出された横幅mouthXの値の変動が口10の正常な変動ではない、すなわち、口10が検出されたものではないと判定でき、判定部104は、処理をステップS111に移行させる。
FIG. 9A shows an example in which the
上述したように、ステップS107で、判定部104は、口10の縦幅mouthYの逸脱度合mouthYDeviancyが第1の閾値Th1を超えると判定した場合、処理をステップS110に移行させる。ステップS110で、判定部104は、口10の横幅mouthXの逸脱度合mouthXDeviancyが、第3の閾値Th3を超え、且つ、閾値Th2以下であるか否かが判定される。若し、これらの条件を満たすと判定された場合、判定部104は、処理をステップS109に移行させて、口が口を覆う用具で覆われていないと判定する。
As described above, in step S107, the determination unit 104, if the deviation degree mouthYDeviancy vertical
すなわち、処理がステップS107からステップS110を経てステップS109に移行した場合とは、顔検出部101において検出された口10の縦幅mouthYが標準の縦幅より大きく、横幅mouthXが標準の横幅と略等しいか、若しくはやや小さい場合である。これは、開いた状態の口が検出されたと考えることができる。
That is, the process proceeds from step S107 through step S110 to step S109 when the vertical width mouthY of the
一方、ステップS110で、上述の条件を満たしていないと判定した場合、すなわち、逸脱度合mouthXDeviancyが第3の閾値Th3以下であるか、または、第2の閾値Th2を超える場合、処理をステップS111に移行させる。この場合、口10が口を覆う用具に覆われていると判断できる。例えば、逸脱度合mouthXDeviancyが第3の閾値Th3以下の場合、例えば口を覆う用具(マスクなど)の皺を口の端として誤検出している可能性がある。また、逸脱度合mouthXDeviancyが第2の閾値Th2を超える場合は、口10の両端のサイズよりも大きいもので、口10が覆われていると判断できる。
On the other hand, if it is determined in step S110 that the above condition is not satisfied, that is, if the deviation degree mouthXDeviancy is equal to or smaller than the third threshold Th 3 or exceeds the second threshold Th 2 , the process is performed. The process proceeds to S111. In this case, it can be determined that the
ステップS111で、判定部104は、口10の周辺部の輝度に基づいた閾値判定を行う。一例として、図10に示されるように、顔30について顔検出結果により得られた顔領域を示す矩形32を例えばM×Nの領域に分割し、口31を含む分割領域を求める。そして、求められた分割領域を含む所定範囲の分割領域を、口周辺領域として定める。この口周辺領域の画素の輝度値の例えば平均値を算出し、口周辺領域の輝度とする。この輝度に対して、口31が口を覆う用具で覆われているか否かを判定するための閾値Th4を予め設定する。
In step S <b> 111, the determination unit 104 performs threshold determination based on the luminance of the peripheral part of the
閾値Th4は、例えば、多数のサンプルを用いて予め求めた、口31がマスクなど口を覆う用具で覆われていない状態、すなわち肌が露出した状態での口周辺領域の輝度と、マスクなどで覆われている状態での口周辺領域の輝度とに基づき設定することが考えられる。
The threshold value Th 4 is determined in advance using, for example, a large number of samples, in a state where the
ステップS111で、判定部104は、口周辺領域の輝度が閾値Th4以上であるか否かを判定する。若し、当該輝度が閾値Th4以上であると判定した場合、判定部104は、処理をステップS112に移行させ、口10が口を覆う用具で覆われていると判定する。一方、当該輝度が閾値Th4未満であると判定した場合、判定部104は、処理をステップS109に移行させ、口10が口を覆う用具で覆われていないと判定する。
In step S111, the determination unit 104 determines whether the brightness of the mouth peripheral region is the threshold value Th 4 or more. If it is determined that the luminance is greater than or equal to the threshold Th 4 , the determination unit 104 shifts the process to step S112 and determines that the
なお、ステップS110の輝度による判定は、省略することができる。この場合、判定部104は、ステップS108で口10の横幅mouthXの逸脱度合mouthXDeviancyが第2の閾値Th2を超えると判定した場合、または、ステップS110で逸脱度合mouthXDeviancyが第3の閾値Th3以下であるか、または、第2の閾値Th2を超えると判定した場合に、処理をステップS112に移行させ、口10が口を覆う用具に覆われていると判定する。ステップS111の輝度値による判定をさらに行うことで、より高精度な判定結果を得ることができる。
Note that the determination based on the luminance in step S110 can be omitted. In this case, the determination unit 104, if the deviation degree mouthXDeviancy
以上説明したように、本実施形態によれば、顔検出を行い抽出した口の特徴点に基づき求めた口の縦幅および横幅を、口の標準の縦幅および横幅と比較することで、口がマスクのようなもので覆われている状態を検出することを可能としている。したがって、本実施形態を警備システムに適用した場合、顔の認識をより高精度に行うことが可能となると共に、不審者の検出も容易となる。 As described above, according to the present embodiment, by comparing the vertical and horizontal widths of the mouth determined based on the extracted feature points of the mouth with the standard vertical and horizontal widths of the mouth, It is possible to detect a state that is covered with something like a mask. Therefore, when this embodiment is applied to a security system, face recognition can be performed with higher accuracy and suspicious persons can be easily detected.
なお、上述では、本発明が、口が口を覆う用具に覆われているか否かを判定する場合に適用するように説明したが、これはこの例に限定されない。例えば、本発明による、実測値と標準の値との差分に基づく判定方法を応用することで、目が目を覆う用具(サングラスなど)に覆われているか否かの判定を行うことも可能である。 In the above description, the present invention has been described so as to be applied when it is determined whether or not the mouth is covered with a tool that covers the mouth, but this is not limited to this example. For example, by applying a determination method based on the difference between an actual measurement value and a standard value according to the present invention, it is also possible to determine whether or not the eye is covered with a tool (such as sunglasses) that covers the eye. is there.
図11は、本実施形態による顔検出装置1を適用可能なハードウェアとしての情報処理装置200の一例の構成を示す。情報処理装置200において、バス201に対してCPU210、ROM211、RAM212、表示制御部213およびキャプチャ部214が接続される。さらに、バス201に対して、ハードディスクドライブ(HDD)215、入力I/F216、ドライブ装置217および通信I/F218が接続される。
FIG. 11 shows an exemplary configuration of an
キャプチャ部214は、例えば、ビデオカメラ220で撮像された動画像データが入力され、入力された動画像データから、フレーム単位で画像データを取得する。取得された画像データは、例えばバス201を介してCPU210に供給される。HDD215は、CPU210が動作するためのプログラムや、口の標準的な縦幅および横幅のデータが予め記憶される。HDD215に対して、キャプチャ部214で取得された画像データなどを記憶させてもよい。
The
CPU210は、ROM211やHDD215に予め記憶されたプログラムに従い、RAM212をワークメモリとして用いて、この情報処理装置200の全体の動作を制御する。例えば、図1を用いて説明した、画像入力部100、顔検出部101、特徴点抽出部102、算出部103および判定部104それぞれの機能は、CPU210上で動作するプログラムによって実現される。
The
表示制御部213は、CPU210によりプログラムに従い生成された表示制御信号に基づき、ディスプレイ221が表示可能な表示信号を生成し、ディスプレイ221に供給する。また、入力I/F216は、キーボード216aや、マウスなどのポインティングデバイス216bが接続され、ユーザ入力を受け付け、ユーザ入力に応じた制御信号を出力し、CPU210に供給する。また、入力I/F216は、USB(Universal Serial Bus)などのデータ通信入出力216cにも対応できる。
The
ドライブ装置217は、CD(Compact Disk)やDVD(Digital Versatile Disk)、フレキシブルディスク、不揮発性メモリなどの記憶媒体からのデータの読み出しを行う。通信I/F218は、LAN(Local Area Network)やインターネットといったネットワークに対する通信を制御する。
The
このような構成による情報処理装置200で実行される顔検出プログラムは、インストール可能な形式または実行可能な形式のファイルでCD、DVD、フレキシブルディスク、不揮発性メモリなどのコンピュータで読み取り可能な記憶媒体に記録されて提供される。ドライブ装置217により、この記憶媒体から顔検出プログラムを読み出し、例えばHDD215に対して所定の方法でインストールする。
The face detection program executed by the
また、本実施形態の情報処理装置200で実行される顔検出プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の情報処理装置200で実行される顔検出プログラムを、インターネットなどのネットワーク経由で提供または配布するように構成してもよい。
Further, the face detection program executed by the
また、本実施形態の情報処理装置200で実行される顔検出プログラムを、ROM211などに予め組み込んで提供するように構成してもよい。
Further, the face detection program executed by the
本実施形態の情報処理装置200で実行される顔検出プログラムは、上述した各部(画像入力部100、顔検出部101、特徴点抽出部102、算出部103および判定部104)を含むモジュール構成となっており、実際のハードウェアとしてはCPU210が上述の記憶媒体や、HDD215から顔検出プログラムを読み出して実行することにより、各部が主記憶装置(例えばRAM212)上にロードされ、画像入力部100、顔検出部101、特徴点抽出部102、算出部103および判定部104が主記憶装置上に生成されるようになっている。
The face detection program executed by the
1 顔検出装置
10 口
11 マスク
20 矩形
100 画像入力部
101 顔検出部
102 特徴点抽出部
103 算出部
104 判定部
DESCRIPTION OF
Claims (10)
特徴点抽出手段が、前記顔検出ステップにより検出された顔から口の特徴点を抽出する特徴点抽出ステップと、
算出手段が、前記特徴点抽出ステップにより抽出された前記口の特徴点から該口の縦幅および横幅を求め、該口の縦幅と口について予め求められた標準の縦幅との第1の差分と、該口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出ステップと、
判定手段が、前記算出ステップにより算出された前記第1の差分および前記第2の差分に基づき、前記顔検出ステップにより検出された顔内の口が覆われた状態か否かを判定する判定ステップと
を有する
ことを特徴とする顔検出方法。 A face detection step in which the face detection means detects a face from the image;
A feature point extracting means for extracting a feature point of the mouth from the face detected by the face detecting step;
A calculating means obtains a vertical width and a horizontal width of the mouth from the feature points of the mouth extracted by the feature point extracting step, and calculates a first vertical width and a standard vertical width obtained in advance for the mouth. A calculation step for calculating a difference and a second difference between the width of the mouth and a standard width previously obtained for the mouth;
A determining step for determining whether or not the mouth in the face detected by the face detecting step is covered based on the first difference and the second difference calculated by the calculating step. A face detection method characterized by comprising:
前記第1の差分が第1の閾値以下であり、且つ、前記第2の差分が第2の閾値以下である場合に、前記口が覆われていない状態であると判定する
ことを特徴とする請求項1に記載の顔検出方法。 The determination step includes
When the first difference is equal to or less than a first threshold value and the second difference is equal to or less than a second threshold value, it is determined that the mouth is not covered. The face detection method according to claim 1.
前記第1の差分が第1の閾値以下であり、且つ、前記第2の差分が前記第2の閾値を超える場合で、前記口を含む予め定められた範囲の輝度が該輝度に対して定められた閾値未満である場合に、前記口が覆われていない状態であると判定する
ことを特徴とする請求項2に記載の顔検出方法。 The determination step includes
When the first difference is less than or equal to a first threshold and the second difference exceeds the second threshold, the luminance of a predetermined range including the mouth is determined with respect to the luminance The face detection method according to claim 2, wherein the face is determined to be in a state in which the mouth is not covered when the threshold is less than the threshold value.
前記第1の差分が前記第1の閾値を超える場合、さらに、前記第2の差分を第3の閾値と比較し、該第2の差分が前記第2の閾値以下であり、且つ、該第3の閾値を超える場合に、前記口が覆われていない状態であると判定する
ことを特徴とする請求項2に記載の顔検出方法。 The determination step includes
If the first difference exceeds the first threshold, the second difference is further compared with a third threshold, the second difference is less than or equal to the second threshold, and the second difference The face detection method according to claim 2, wherein when the threshold value of 3 is exceeded, it is determined that the mouth is not covered.
前記第2の差分を前記第3の閾値と比較した結果、前記第2の差分が前記第3の閾値以下または前記第2の閾値を超え、且つ、前記口を含む予め定められた範囲の輝度が該輝度に対して定められた閾値未満である場合に、前記口が覆われていない状態であると判定する
ことを特徴とする請求項4に記載の顔検出方法。 The determination step includes
As a result of comparing the second difference with the third threshold, the second difference is equal to or less than the third threshold or exceeds the second threshold, and the luminance within a predetermined range including the mouth 5. The face detection method according to claim 4, wherein when the threshold value is less than a threshold value determined for the luminance, it is determined that the mouth is not covered.
前記第1の差分として、前記口の縦幅から前記標準の縦幅を減じた値の絶対値を取った値を用いる
ことを特徴とする請求項1乃至請求項5の何れか1項に記載の顔検出方法。 The calculating step includes:
6. The value according to claim 1, wherein a value obtained by taking an absolute value of a value obtained by subtracting the standard vertical width from the vertical width of the mouth is used as the first difference. Face detection method.
前記第1の差分および前記第2の差分口の縦幅および横幅についてそれぞれ算出された前記差分に対して1を超える係数を乗じ、
前記判定ステップは、
それぞれ前記係数を乗じられた前記第1の差分および前記第2の差分に基づき前記判定を行う
ことを特徴とする請求項1乃至請求項6の何れか1項に記載の顔検出方法。 The calculating step includes:
Multiplying the difference calculated for the vertical width and the horizontal width of the first difference and the second difference port by a coefficient greater than 1, respectively;
The determination step includes
The face detection method according to claim 1, wherein the determination is performed based on the first difference and the second difference each multiplied by the coefficient.
前記画像から矩形領域として前記顔を検出し、
前記算出ステップは、
前記矩形領域の対角線の長さで正規化した前記口の横幅および縦幅を用いて前記第1の差分および前記第2の差分をそれぞれ求める
ことを特徴とする請求項1乃至請求項7の何れか1項に記載の顔検出方法。 The face detection step includes
Detecting the face as a rectangular area from the image;
The calculating step includes:
8. The first difference and the second difference are respectively obtained by using the width and height of the mouth normalized by the diagonal length of the rectangular area. The face detection method according to claim 1.
前記顔検出手段により検出された顔から口の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された前記口の特徴点から該口の縦幅および横幅を求め、該口の縦幅と口について予め求められた標準の縦幅との第1の差分と、該口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出手段と、
前記算出手段により算出された前記第1の差分および前記第2の差分に基づき、前記顔検出手段により検出された顔内の口が覆われた状態か否かを判定する判定手段と
を有する
ことを特徴とする顔検出装置。 Face detection means for detecting a face from an image;
Feature point extracting means for extracting mouth feature points from the face detected by the face detecting means;
A vertical width and a horizontal width of the mouth are obtained from the feature points of the mouth extracted by the feature point extraction means, a first difference between the vertical width of the mouth and a standard vertical width obtained in advance for the mouth, A calculating means for calculating a second difference between the width of the mouth and the standard width previously obtained for the mouth;
Determination means for determining whether the mouth in the face detected by the face detection means is covered based on the first difference and the second difference calculated by the calculation means. A face detection device characterized by the above.
前記顔検出ステップにより検出された顔から口の特徴点を抽出する特徴点抽出ステップと、
前記特徴点抽出ステップにより抽出された前記口の特徴点から該口の縦幅および横幅を求め、該口の縦幅と口について予め求められた標準の縦幅との第1の差分と、該口の横幅と口について予め求められた標準の横幅との第2の差分とを算出する算出ステップと、
前記算出ステップにより算出された前記第1の差分および前記第2の差分に基づき、前記顔検出ステップにより検出された顔内の口が覆われた状態か否かを判定する判定ステップと
をコンピュータに実行させるためのプログラム。 A face detection step for detecting a face from the image;
A feature point extracting step of extracting a feature point of the mouth from the face detected by the face detecting step;
A vertical width and a horizontal width of the mouth are obtained from the feature points of the mouth extracted by the feature point extraction step, a first difference between the vertical width of the mouth and a standard vertical width obtained in advance for the mouth, A calculating step for calculating a second difference between the width of the mouth and the standard width previously obtained for the mouth;
A determination step for determining whether or not the mouth in the face detected by the face detection step is covered based on the first difference and the second difference calculated by the calculation step; A program to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011043202A JP5703068B2 (en) | 2011-02-28 | 2011-02-28 | Face detection method, face detection device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011043202A JP5703068B2 (en) | 2011-02-28 | 2011-02-28 | Face detection method, face detection device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012181629A true JP2012181629A (en) | 2012-09-20 |
JP5703068B2 JP5703068B2 (en) | 2015-04-15 |
Family
ID=47012784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011043202A Active JP5703068B2 (en) | 2011-02-28 | 2011-02-28 | Face detection method, face detection device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5703068B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016045707A (en) * | 2014-08-22 | 2016-04-04 | 国立大学法人静岡大学 | Feature point detection system, feature point detection method, and feature point detection program |
WO2019073732A1 (en) * | 2017-10-10 | 2019-04-18 | 株式会社 資生堂 | Stress evaluation method |
CN111523476A (en) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | Mask wearing identification method, device, equipment and readable storage medium |
WO2021140966A1 (en) * | 2020-01-07 | 2021-07-15 | Nec Corporation | Method, apparatus and non-transitory computer readable medium |
JP7409172B2 (en) | 2020-03-12 | 2024-01-09 | 大日本印刷株式会社 | image generation system |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0535992A (en) * | 1991-07-26 | 1993-02-12 | Sharp Corp | Alarming device |
JP2000242659A (en) * | 1999-02-22 | 2000-09-08 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for normalizing feature value in similar retrieval, and storage medium stored with similar retrieval feature value normalizing program |
JP2002183709A (en) * | 2000-12-05 | 2002-06-28 | Ge Medical Systems Global Technology Co Llc | Image processing method and device, recording medium and image photographing device |
JP2004318501A (en) * | 2003-04-16 | 2004-11-11 | Victor Co Of Japan Ltd | Figure authentication system |
JP2007094588A (en) * | 2005-09-27 | 2007-04-12 | Fujifilm Corp | Face authentication system |
JP2007156944A (en) * | 2005-12-07 | 2007-06-21 | Sony Corp | Image processor, method, program, and recording medium |
JP2008083932A (en) * | 2006-09-27 | 2008-04-10 | Sogo Keibi Hosho Co Ltd | Admittance control apparatus, admittance control method and admittance control program |
JP2010097379A (en) * | 2008-10-16 | 2010-04-30 | Denso Corp | Driver monitoring device and program for driver monitoring device |
JP2010157073A (en) * | 2008-12-26 | 2010-07-15 | Fujitsu Ltd | Device, method and program for recognizing face |
JP2010244090A (en) * | 2009-03-31 | 2010-10-28 | Sogo Keibi Hosho Co Ltd | Person information extraction device, person information extraction method, and person information extraction program |
-
2011
- 2011-02-28 JP JP2011043202A patent/JP5703068B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0535992A (en) * | 1991-07-26 | 1993-02-12 | Sharp Corp | Alarming device |
JP2000242659A (en) * | 1999-02-22 | 2000-09-08 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for normalizing feature value in similar retrieval, and storage medium stored with similar retrieval feature value normalizing program |
JP2002183709A (en) * | 2000-12-05 | 2002-06-28 | Ge Medical Systems Global Technology Co Llc | Image processing method and device, recording medium and image photographing device |
JP2004318501A (en) * | 2003-04-16 | 2004-11-11 | Victor Co Of Japan Ltd | Figure authentication system |
JP2007094588A (en) * | 2005-09-27 | 2007-04-12 | Fujifilm Corp | Face authentication system |
JP2007156944A (en) * | 2005-12-07 | 2007-06-21 | Sony Corp | Image processor, method, program, and recording medium |
JP2008083932A (en) * | 2006-09-27 | 2008-04-10 | Sogo Keibi Hosho Co Ltd | Admittance control apparatus, admittance control method and admittance control program |
JP2010097379A (en) * | 2008-10-16 | 2010-04-30 | Denso Corp | Driver monitoring device and program for driver monitoring device |
JP2010157073A (en) * | 2008-12-26 | 2010-07-15 | Fujitsu Ltd | Device, method and program for recognizing face |
JP2010244090A (en) * | 2009-03-31 | 2010-10-28 | Sogo Keibi Hosho Co Ltd | Person information extraction device, person information extraction method, and person information extraction program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016045707A (en) * | 2014-08-22 | 2016-04-04 | 国立大学法人静岡大学 | Feature point detection system, feature point detection method, and feature point detection program |
WO2019073732A1 (en) * | 2017-10-10 | 2019-04-18 | 株式会社 資生堂 | Stress evaluation method |
WO2021140966A1 (en) * | 2020-01-07 | 2021-07-15 | Nec Corporation | Method, apparatus and non-transitory computer readable medium |
JP2023509059A (en) * | 2020-01-07 | 2023-03-06 | 日本電気株式会社 | Method, Apparatus and Program |
JP7380889B2 (en) | 2020-01-07 | 2023-11-15 | 日本電気株式会社 | METHODS, APPARATUS AND PROGRAMS |
JP7409172B2 (en) | 2020-03-12 | 2024-01-09 | 大日本印刷株式会社 | image generation system |
CN111523476A (en) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | Mask wearing identification method, device, equipment and readable storage medium |
CN111523476B (en) * | 2020-04-23 | 2023-08-22 | 北京百度网讯科技有限公司 | Mask wearing recognition method, device, equipment and readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5703068B2 (en) | 2015-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6630999B2 (en) | Image recognition device, image recognition method, and image recognition program | |
US9262671B2 (en) | Systems, methods, and software for detecting an object in an image | |
JP4830650B2 (en) | Tracking device | |
Pamplona Segundo et al. | Continuous 3D face authentication using RGB-D cameras | |
JP5787845B2 (en) | Image recognition apparatus, method, and program | |
JP5703068B2 (en) | Face detection method, face detection device, and program | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
JP5480532B2 (en) | Image processing apparatus, image processing method, and program for causing computer to execute the method | |
US10360441B2 (en) | Image processing method and apparatus | |
JP5061563B2 (en) | Detection apparatus, biological determination method, and program | |
JP5787686B2 (en) | Face recognition device and face recognition method | |
JP4507679B2 (en) | Image recognition apparatus, image extraction apparatus, image extraction method, and program | |
WO2013122009A1 (en) | Reliability level acquisition device, reliability level acquisition method and reliability level acquisition program | |
US20220019771A1 (en) | Image processing device, image processing method, and storage medium | |
KR101455666B1 (en) | Authentication apparatus and authentication method thereof | |
JP2005275935A (en) | Terminal device | |
US20210174062A1 (en) | Image processing device, image processing method, and recording medium | |
US20120076418A1 (en) | Face attribute estimating apparatus and method | |
JP2010020594A (en) | Pupil image recognition device | |
WO2017212967A1 (en) | Comparison device and comparison method | |
JP6798285B2 (en) | Biometric device, biometric method and program | |
EP2793102A2 (en) | Information processing device | |
JP2012181628A (en) | Face detection method, face detection device, and program | |
KR101087250B1 (en) | Apparatus for detecting face using skin region detection | |
US20160188856A1 (en) | Authentication device, authentication method, and non-transitory computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5703068 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |