JP2010225118A - Image processing device, method and program - Google Patents
Image processing device, method and program Download PDFInfo
- Publication number
- JP2010225118A JP2010225118A JP2009074716A JP2009074716A JP2010225118A JP 2010225118 A JP2010225118 A JP 2010225118A JP 2009074716 A JP2009074716 A JP 2009074716A JP 2009074716 A JP2009074716 A JP 2009074716A JP 2010225118 A JP2010225118 A JP 2010225118A
- Authority
- JP
- Japan
- Prior art keywords
- face
- unit
- pixel
- background
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 title description 27
- 230000003287 optical effect Effects 0.000 claims description 47
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000003672 processing method Methods 0.000 claims 2
- 239000000284 extract Substances 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Input (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、方法及びプログラムに関する。 The present invention relates to an image processing apparatus, method, and program.
従来より、例えば、ユーザに対してサービスの利用の許可を与える際に、ユーザの顔をカメラで撮影してその顔を認証する顔認識装置がある。この認証の際に、生きた人間の顔ではなく写真の顔をカメラに提示することで顔認識装置を欺く行為がある。このような行為はなりすましと呼ばれる。このなりすましはセキュリティーの観点からして大きな問題である。これを防ぐためには、カメラで撮影された顔が、生きた人間のものか、または、写真なのかを判定する必要がある。このような判定を写真検知と呼ぶ。写真検知の手法の一つとして、顔の動きを用いる方法がある。人間であれば認証の際に顔が動くのに対し、写真中の顔は動かないことを利用するのである。例えば、特許文献1の技術では、目の領域や口の領域を時間方向に探索して顔の動きを求める。写真であれば時間が経過しても目と口は動かないのに対し、人間であれば時間が経過すると目や口が動く。このような人間の動きを検出するために、特許文献1の技術では、各領域においてフレーム間の差分をとり、差分の値の合計が小さい場合は動きのない写真として判定している。 2. Description of the Related Art Conventionally, for example, when a user is permitted to use a service, there is a face recognition device that photographs a user's face with a camera and authenticates the face. At the time of this authentication, there is an act of deceiving the face recognition device by presenting a photographed face instead of a live human face to the camera. Such an act is called spoofing. This impersonation is a big problem from the viewpoint of security. In order to prevent this, it is necessary to determine whether the face photographed by the camera belongs to a living person or a photograph. Such a determination is called photo detection. One of the methods for detecting a photo is a method using facial movement. For humans, the face moves at the time of authentication, while the face in the photograph does not move. For example, in the technique disclosed in Patent Document 1, the movement of the face is obtained by searching the eye area and the mouth area in the time direction. In the case of photographs, eyes and mouth do not move over time, whereas in humans, eyes and mouth move over time. In order to detect such a human motion, the technique of Patent Document 1 takes a difference between frames in each region, and determines that the photograph has no motion when the sum of the difference values is small.
しかし、特許文献1の技術で写真検知に用いているのは、顔の局所的な領域のみである。そのため以下の問題が発生する恐れがある。写真検知の精度が、目や口といった顔の局所的な部分の領域自体を検出する技術の性能に強く依存する。このため、目や口の検出ずれが発生すると、写真中の顔でも動きがあると判定され、なりすましを正しく検出できない恐れがある。 However, only the local area of the face is used for the photo detection in the technique of Patent Document 1. Therefore, the following problems may occur. The accuracy of photo detection is strongly dependent on the performance of the technology that detects the local area of the face itself, such as the eyes and mouth. For this reason, if a detection error occurs in the eyes or mouth, it is determined that there is movement in the face in the photograph, and impersonation may not be detected correctly.
本発明は、上記に鑑みてなされたものであって、顔認識において、なりすましを正しく検出可能な画像処理装置、方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus, method, and program capable of correctly detecting impersonation in face recognition.
上述した課題を解決し、目的を達成するために、本発明の一態様は、画像処理装置であって、取得した画像のうち時間的に隣接する2つの画像のそれぞれについて、顔の全部又は一部を含む顔領域と、背景を含む背景領域とを設定する設定部と、前記顔領域と前記背景領域とのそれぞれにおいて、前記2つの画像間の各画素の対応付けを行って、各画素の動きを推定する対応付け部と、前記顔領域と前記背景領域とのそれぞれにおいて、各画素の動きの統計的な分布を表す動き特徴量を算出する算出部と、前記顔領域における動き特徴量と前記背景領域における動き特徴量とを比較して、前記画像に撮影されたものが写真であるか人間であるかを判定する判定部とを備えることを特徴とする。 In order to solve the above-described problems and achieve the object, one embodiment of the present invention is an image processing apparatus, in which two or more faces are adjacent to each other in two temporally adjacent images among acquired images. A setting unit that sets a face area including a part and a background area including a background, and each of the face area and the background area is associated with each pixel between the two images. A correlation unit that estimates motion, a calculation unit that calculates a statistical distribution of motion of each pixel in each of the face region and the background region, and a motion feature amount in the face region And a determination unit that compares a motion feature amount in the background region and determines whether the image captured in the image is a photograph or a human being.
本発明によれば、顔認識において、なりすましを正しく検出可能になる。 According to the present invention, impersonation can be correctly detected in face recognition.
[第1の実施の形態]
以下に添付図面を参照して、この発明にかかる画像処理装置の実施の形態を詳細に説明する。ここで、画像処理装置のハードウェア構成について説明する。本実施の形態の画像処理装置は、装置全体を制御するCPU(Central Processing Unit)等の制御部と、各種データや各種プログラムを記憶するROM(Read Only Memory)やRAM(Random Access Memory)等の記憶部と、各種データや各種プログラムを記憶するHDD(Hard Disk Drive)やCD(Compact Disk)ドライブ装置等の外部記憶部と、これらを接続するバスとを備えており、通常のコンピュータを利用したハードウェア構成となっている。また、画像処理装置には、認証対象を撮影してその画像を入力するCCD(Charge Coupled Device Image Sensor)カメラなどにより構成される画像入力部と、ユーザの指示入力を受け付けるキーボードやマウス等の操作入力部と、外部装置の通信を制御する通信I/F(interface)とが有線又は無線により各々接続される。
[First embodiment]
Embodiments of an image processing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. Here, the hardware configuration of the image processing apparatus will be described. The image processing apparatus according to the present embodiment includes a control unit such as a CPU (Central Processing Unit) that controls the entire apparatus, a ROM (Read Only Memory) that stores various data and various programs, a RAM (Random Access Memory), and the like. Equipped with a storage unit, an external storage unit such as an HDD (Hard Disk Drive) or CD (Compact Disk) drive device for storing various data and various programs, and a bus for connecting them, using a normal computer It has a hardware configuration. In addition, the image processing apparatus includes an image input unit configured by a CCD (Charge Coupled Device Image Sensor) camera that captures an authentication target and inputs the image, and operations such as a keyboard and a mouse that accept user input. An input unit and a communication I / F (interface) that controls communication of an external device are connected by wire or wirelessly.
次に、このようなハードウェア構成において、画像処理装置のCPUが記憶装置や外部記憶部に記憶された各種プログラムを実行することにより実現される各種機能について説明する。図1は、画像処理装置50の機能的構成を例示する図である。画像処理装置50は、取得部51と、設定部52と、対応付け部53と、算出部54と、判定部55とを有する。これら各部は、CPUのプログラム実行時にRAMなどの記憶部上に生成されるものである。
Next, various functions realized by the CPU of the image processing apparatus executing various programs stored in the storage device or the external storage unit in such a hardware configuration will be described. FIG. 1 is a diagram illustrating a functional configuration of the
取得部51は、画像入力部で時系列に撮影された認証対象の画像をフレーム単位で取得して、時間的に隣接するフレーム(隣接フレームという)を抽出する。隣接フレームとは、具体的には、時刻tで取得された第1のフレームと時刻「t−1」で取得された第2のフレームとである。
The
ここで、本実施の形態における前提について説明する。写真の画像が認証対象の画像として取得される場合、その写真は顔と背景とを含み顔だけがトリミングされた写真ではないと仮定する。また、認証対象が人間である場合、この人間は顔の向きを随時変えると仮定する。これらの仮定のもとで背景の動きと顔の動きとを比較すると、認証対象が写真であれば背景と顔とが同じ方向へ動くことに対し、認証対象が人間であれば異なる方向に動く。本実施の形態においてはこの相対的な動きの違いを写真検知に用いる。以降ではこの相対的な動きの違いを写真検知にどのように用いるかを詳細に説明する。 Here, the premise in this Embodiment is demonstrated. When an image of a photograph is acquired as an image to be authenticated, it is assumed that the photograph is not a photograph that includes a face and a background and only the face is trimmed. Further, when the authentication target is a human, it is assumed that this human changes the orientation of the face as needed. Comparing the background movement and the face movement under these assumptions, if the authentication target is a photo, the background and the face move in the same direction, whereas if the authentication target is a human, it moves in a different direction. . In the present embodiment, this relative movement difference is used for photo detection. In the following, it will be described in detail how this relative difference in motion is used for photo detection.
図1の説明に戻る。設定部52は、取得部51が抽出した第1フレームに対して顔領域の検出を行い、顔領域を設定する。次に、設定部52は、第1フレームの顔領域以外の領域から背景領域を設定する。図2は、顔領域及び背景領域を例示する図である。同図に示されるように、顔の全部又は一部を含む領域が顔領域として設定され、顔の付近の領域が背景領域として設定される。ここでは背景領域は複数設定され、顔領域に隣接する左右の領域に設定される。また、設定部52は、取得部51が抽出した第2フレームに対しても同様に顔領域の検出を行い、顔領域を設定し、背景領域を設定する。尚、計算時間を少なくするために、第2フレームで設定する顔領域及び背景領域は各々、第1フレームで設定した顔領域及び背景領域と同じものにしても良い。尚、以降、顔領域及び背景領域を区別する必要がない場合には、説明の便宜上、単に領域と記載する。
Returning to the description of FIG. The
対応付け部53は、第1フレームに対して設定部52が設定した顔領域と、第2フレームに対して設定部52が設定した顔領域との間で、各画素の対応付けを行うと共に、第1フレームに対して設定部52が設定した背景領域と、第2フレームに対して設定部52が設定した背景領域との間で、各画素の対応付けを行う。対応付けにはオプティカルフローの算出方法を用いる。図3は、オプティカルフローの算出方法を概念的に例示する図である。オプティカルフローとは、ある時刻tにおける点が、そのΔt後の時刻「t+Δt」にどれくらい移動したかを表す2次元方向ベクトルである。画像内においてこのような移動する点を画素として、ある時刻tのフレームにおける画素が、そのΔt後の時刻「t+Δt」のフレームにおいてどの画素に対応するのかを画素毎に求める。このようにして、対応付け部53は、各画素の動きを推定し、その対応付けを示すオプティカルフローを画素毎に算出する。尚、オプティカルフローの算出方法には、相関(ブロックマッチング法)による対応付けや、勾配法による対応付けや、特徴点追跡を利用した対応付けなどの様々な方法が従来からあるが、本実施の形態においてはいずれの方法を適用しても良い。対応付け部53は、このように顔領域において算出した画素毎のオプティカルフロー及び背景領域において算出した画素毎のオプティカルフローを、対応付けの結果として各々出力する。尚、複数設定されている背景領域については対応付け部53はそれぞれに対してオプティカルフローを算出して出力する。
The
図4〜5は、顔領域における画素毎のオプティカルフロー及び背景領域における画素毎のオプティカルフローを例示する図である。但し、図4は、認証対象が人間である場合のオプティカルフローを例示し、図5は、認証対象が写真である場合のオプティカルフローを例示している。尚、図面が煩雑になるのを防ぐため、各領域におけるオプティカルフローを簡略化して例示している。各図に示されるように、第1のフレームにおいて現れるある点と、当該点が移動して第2のフレームに現れる点とが結ばれてベクトルとして表される。 4 to 5 are diagrams illustrating an optical flow for each pixel in the face area and an optical flow for each pixel in the background area. However, FIG. 4 illustrates an optical flow when the authentication target is a human, and FIG. 5 illustrates an optical flow when the authentication target is a photograph. In order to prevent the drawing from becoming complicated, the optical flow in each region is illustrated in a simplified manner. As shown in each figure, a certain point appearing in the first frame is connected to a point appearing in the second frame by the movement of the point, and is represented as a vector.
算出部54は、対応付け部53が出力した顔領域における画素毎のオプティカルフローを用いて、顔領域の動き特徴量を算出すると共に、対応付け部53が出力した背景領域における画素毎のオプティカルフローを用いて、背景領域の動き特徴量を算出する。動き特徴量とは、領域内の動きが、どのような分布を統計的にもつかを表すものである。ここでは動きの分布を方向ヒストグラムとして表現する。オプティカルフローの方向は連続値であるためこれを離散化すべく、算出部54は、オプティカルフローの方向を例えば図6に示すように8方向に量子化する。量子化するための算式は例えば以下の式1に示される。
The calculating
そして、算出部54は、例えば図7に示されるように、量子化した各方向の出現頻度を算出して、各方向に対応した8個のビンをもつヒストグラムを作成する。このヒストグラムが方向ヒストグラムである。この方向ヒストグラムを動き特徴量とする。ヒストグラムの各ビンを合計した値が1となるように正規化する。このような動き特徴量を顔領域及び背景領域のそれぞれについて算出部54は算出する。尚、複数設定されている背景領域については算出部54はそれぞれに対して動き特徴量を算出する。
Then, for example, as illustrated in FIG. 7, the
判定部55は、算出部54が算出した、顔領域の動き特徴量と、背景領域の動き特徴量との類似度を算出し、その類似度を用いて、認証対象が写真であるか否かを判定する。動き特徴量の類似度には、ヒストグラム間のインターセクション、相関、バタッチャリア係数などを用いれば良い。認証対象が写真であれば、図5に示したように、背景領域と顔領域とが同じ動き特徴量をもつため、類似度が高くなる。逆に、認証対象が人間であれば、図4に示したように、背景領域と顔領域とが異なる動き特徴量をもち、類似度が低くなる。従って、判定部55は、算出した類似度が閾値以上であるか否かを判定することにより、認証対象が写真であるか否かを判定する。この閾値の値は、例えば予め設定されてHDDなどの外部記憶部に記憶される。尚、複数設定されている背景領域については、判定部55はこれらの動き特徴量を合算して、顔領域の動き特徴量との類似度を算出するようにしても良いし、各背景領域のそれぞれの動き特徴量と、顔領域の動き特徴量との類似度を算出するようにしても良い。
The
次に、本実施の形態にかかる画像処理装置50の行う写真検知処理の手順について図8を用いて説明する。画像処理装置50は、まず、画像入力部で時系列に撮影された認証対象の画像をフレーム単位で取得して、隣接フレームである第1フレーム及び第2フレームを抽出する(ステップS1)。次いで、画像処理装置50は、ステップS1で抽出した第1フレームに対して顔領域の検出を行い、例えば図2に示されるように、顔領域を設定し(ステップS2)、第1フレームの顔領域以外の領域から背景領域を設定する(ステップS3)。また、画像処理装置50は、ステップS1で抽出した第2フレームについても顔領域を設定し(ステップS4)、背景領域を設定する(ステップS5)。
Next, the procedure of the photo detection process performed by the
次いで、画像処理装置50は、ステップS2で第1フレームに対して設定した顔領域と、ステップS4で第2フレームに対して設定した顔領域との間で、各画素の対応付けを行って、その対応付けの結果を出力する(ステップS6)。更に、画像処理装置50は、ステップS3で第1フレームに対して設定した背景領域と、ステップS5で第2フレームに対して設定した背景領域との間で、各画素の対応付けを行って、その対応付けの結果を出力する(ステップS7)。その後、画像処理装置50は、ステップS6で出力した顔領域における画素毎のオプティカルフローを用いて、顔領域の動き特徴量を算出する(ステップS8)。また、画像処理装置50は、ステップS7で出力した背景領域における画素毎のオプティカルフローを用いて、背景領域の動き特徴量を算出する(ステップS9)。
Next, the
続いて、画像処理装置50は、ステップS8で算出した顔領域の動き特徴量と、ステップS9で算出した背景領域の動き特徴量との類似度を算出して、その類似度が閾値以上であるか否かを判定することにより、認証対象が写真であるか否かを判定する(ステップS10)。
Subsequently, the
以上のように、顔領域の動きだけではなく、背景領域の動きを求め、背景の動きと顔の動きとの相対的な違いから、写真検知を行う。この結果、正しく安定的な写真検知を行うことができ、即ち、顔認識におけるなりすましを正しく検出可能である。 As described above, not only the movement of the face area but also the movement of the background area is obtained, and photo detection is performed from the relative difference between the movement of the background and the movement of the face. As a result, correct and stable photo detection can be performed, that is, impersonation in face recognition can be detected correctly.
また、従来のように、目や口といった顔の局所的な部分を検出する必要がなく、形状に合わせた見え方として3次元的な見え方を補正する必要がない。つまり、カメラからの目や口の見え方は、顔の向きの変化に併せて変化するが、平面である写真でも3次元空間で向きを変えることによってその見え方は変化する。このため、目や口の検出により写真検知を行う場合、それぞれの形状に応じた3次元的な補正を行なって、向きの影響を除去しなければ、精度高く写真検知を行うことは困難であった。しかし、本実施の構成によればこのような3次元的な補正を必要とすることなく、精度高く写真検知を行うことができる。 Further, unlike the conventional case, it is not necessary to detect local parts of the face such as eyes and mouth, and it is not necessary to correct the three-dimensional appearance as the appearance matching the shape. In other words, how the eyes and mouth look from the camera changes in accordance with the change in the orientation of the face, but the appearance changes even when the orientation is changed in a three-dimensional space even in a photograph that is a plane. For this reason, when performing photo detection by detecting eyes or mouth, it is difficult to perform photo detection with high accuracy unless three-dimensional correction is performed according to each shape and the influence of the orientation is removed. It was. However, according to the present embodiment, photo detection can be performed with high accuracy without requiring such three-dimensional correction.
更に、目や口の検出により写真検知を行う場合、顔がどう動いたかを判別することは困難であり、動きが大きかったからといって、フレーム間の差分の合計値が大きくなるとは限らない。このため、従来技術欄で説明したように、フレーム間の差分の値の合計が小さい場合を写真として判定すると、認証対象が人間であるのに写真であると誤判定する恐れがあった。しかし、本実施の形態のように、背景の動きと顔の動きとの相対的な違いから写真検知を行うことにより、精度高く写真検知を行うことができる。 Furthermore, when performing photo detection by detecting eyes and mouth, it is difficult to determine how the face has moved, and just because the movement is large does not necessarily increase the total difference between frames. For this reason, as described in the prior art column, if a case where the sum of the difference values between frames is small is determined as a photograph, there is a risk that the authentication target is a human but the photograph is erroneously determined. However, as in the present embodiment, it is possible to perform photo detection with high accuracy by performing photo detection from the relative difference between the background motion and the face motion.
[第2の実施の形態]
次に、画像処理装置、方法及びプログラムの第2の実施の形態について説明する。なお、上述の第1の実施の形態と共通する部分については、同一の符号を使用して説明したり、説明を省略したりする。
[Second Embodiment]
Next, a second embodiment of the image processing apparatus, method, and program will be described. In addition, about the part which is common in the above-mentioned 1st Embodiment, it demonstrates using the same code | symbol or abbreviate | omits description.
本実施の形態においては、上述の第1の実施の形態で説明したオプティカルフローのはずれ値を除去して、より正しく安定的な写真検知を行なう。図9は、本実施の形態にかかる画像処理装置50の機能的構成を例示する図である。本実施の形態にかかる画像処理装置50の構成は、上述の第1の実施の形態にかかる画像処理装置50の構成とは以下の点で異なる。画像処理装置50は、除去部56を更に有する。
In this embodiment, the outlier value of the optical flow described in the first embodiment is removed, and more correct and stable photo detection is performed. FIG. 9 is a diagram illustrating a functional configuration of the
除去部56は、対応付け部53が出力した顔領域の画素毎のオプティカルフローから、当該オプティカルフローの大きさの分散を算出し、分散の一定倍以上の大きさをもつオプティカルフロー(はずれ値という)を除去する。同様に、除去部56は、対応付け部53が出力した背景領域の画素毎のオプティカルフローから、当該オプティカルフローの大きさの分散を算出し、分散の一定倍以上の大きさをもつオプティカルフロー(はずれ値)を除去する。複数設定されている背景領域については除去部56はそれぞれの背景領域のオプティカルフローからはずれ値を除去する。
The
算出部54は、対応付け部53が出力した背景領域における画素毎のオプティカルフローのうち除去部56がはずれ値を除去したオプティカルフローを用いて、顔領域の動き特徴量を算出すると共に、対応付け部53が出力した背景領域における画素毎のオプティカルフローのうち除去部56がはずれ値を除去したオプティカルフローを用いて、背景領域の動き特徴量を算出する。その他の構成は上述の第1の実施の形態と同様である。
The
次に、本実施の形態にかかる画像処理装置50の行う写真検知処理の手順について図10を用いて説明する。ステップS1〜S7は上述の第1の実施の形態と同様である。ステップS7の後、画像処理装置50は、ステップS6で出力した顔領域における画素毎のオプティカルフローからはずれ値を除去する(ステップS20)。また、画像処理装置50は、ステップS7で出力した背景領域における画素毎のオプティカルフローからはずれ値を除去する(ステップS21)。その後、ステップS8では、画像処理装置50は、ステップS20ではずれ値を除去したオプティカルフローを用いて、顔領域の動き特徴量を算出する(ステップS8)。また、ステップS9では、画像処理装置50は、ステップS21ではずれ値を除去したオプティカルフローを用いて、背景領域の動き特徴量を算出する。ステップS10は上述の第1の実施の形態と同様である。
Next, the procedure of the photo detection process performed by the
以上のように、オプティカルフローのはずれ値を除去することで、各画素の対応付けの誤差の影響を排除することができる。このため、より正しく安定的な写真検知を行うことができる。 As described above, by removing the outlier value of the optical flow, it is possible to eliminate the influence of the error in associating each pixel. For this reason, more accurate and stable photo detection can be performed.
[第3の実施の形態]
次に、画像処理装置、方法及びプログラムの第3の実施の形態について説明する。なお、上述の第1の実施の形態又は第2の実施の形態と共通する部分については、同一の符号を使用して説明したり、説明を省略したりする。
[Third embodiment]
Next, a third embodiment of the image processing apparatus, method, and program will be described. In addition, about the part which is common in the above-mentioned 1st Embodiment or 2nd Embodiment, it demonstrates using the same code | symbol or abbreviate | omits description.
本実施の形態においては、写真と人間との動きの違いを明確にするために、ユーザに対して顔を意識的に動かすように指示を与える。このような指示を与えるための出力部が画像処理装置50に接続される。出力部は、ユーザが知覚可能な刺激を発生させるものであり、例えば、情報を表示する表示部、音声を出力する音声出力部、光を発生させる光発生部などである。
In the present embodiment, an instruction is given to the user to move his / her face consciously in order to clarify the difference in motion between a photograph and a human. An output unit for giving such an instruction is connected to the
図11は、本実施の形態にかかる画像処理装置50の機能的構成を例示する図である。本実施の形態にかかる画像処理装置50の構成は、上述の第1の実施の形態にかかる画像処理装置50の構成とは以下の点で異なる。画像処理装置50は、指示部57を更に有する。指示部57は、画像入力部で顔が撮影されるユーザに対し、顔を動かす契機となる刺激を出力部を介して発生させる。例えば、出力部が表示部である場合、指示部57は、例えば、「顔を動かして下さい」などというメッセージを表す画像を表示部に出力する。また、出力部が光発生部である場合、指示部57は、例えば、光を光発生部に発生させる。これらの視覚的な刺激がユーザの顔を動かす契機となる。また、出力部が音声出力部である場合、指示部57は、例えば、「顔を動かして下さい」などという音声やアラーム音を音声出力部に出力する。このような聴覚的な刺激がユーザの顔を動かす契機となる。指示部57は、このような画像の表示や、音の出力や、光の発生を契機としてユーザに顔を動かすことを指示する。取得部51は、このような指示に従って動いているであろう認証対象の画像をフレーム単位で取得して、隣接フレームを抽出する。その他の構成は上述の第1の実施の形態と同様である。
FIG. 11 is a diagram illustrating a functional configuration of the
次に、本実施の形態にかかる画像処理装置50の行う写真検知処理の手順について図12を用いて説明する。まず、ステップS30では、画像処理装置50は、ユーザが知覚可能な刺激を出力部を介して発生させることにより、ユーザに顔を動かすことを指示する。以降、ステップS1〜S10は上述の第1の実施の形態と同様である。
Next, the procedure of the photo detection process performed by the
以上のように、指示を与えてユーザの顔を動かすことにより、写真と人間との動きの違いを明確にすることができ、より正しく安定的な写真検知を行うことができる。 As described above, by giving an instruction and moving the user's face, the difference in motion between the photograph and the human can be clarified, and more accurate and stable photograph detection can be performed.
なお、本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。また、以下に例示するような種々の変形が可能である。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Further, various modifications as exemplified below are possible.
上述した各実施の形態において、画像処理装置50で実行される各種プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また当該各種プログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。
In each of the embodiments described above, various programs executed by the
上述した各実施の形態の写真検知処理では、ステップS2〜S5の順に処理を行ったが、この順に限らない。同様に、ステップS6〜S7の順もこれに限らず、ステップS8〜S9の順もこれに限らない。 In the photo detection processing of each embodiment described above, processing is performed in the order of steps S2 to S5, but the order is not limited to this. Similarly, the order of steps S6 to S7 is not limited to this, and the order of steps S8 to S9 is not limited to this.
上述した各実施の形態において設定する顔領域及び背景領域は、図2に示したものに限らない。図13〜15は、顔領域及び背景領域を例示する図である。これらの図に示されるように、背景領域は複数であっても1つであっても良いし、顔領域及び背景領域の形状は、矩形ではなく任意の形状でも良い。 The face area and background area set in each embodiment described above are not limited to those shown in FIG. 13 to 15 are diagrams illustrating the face area and the background area. As shown in these drawings, the background area may be plural or one, and the shape of the face area and the background area may be an arbitrary shape instead of a rectangle.
上述した各実施の形態において、方向ヒストグラムにおける方向は、8方向に量子化したが、方向の数はこれに限らない。また、動きのない状態、即ち、方向がない状態を取り扱うようにしても良い。 In each embodiment described above, the directions in the direction histogram are quantized into eight directions, but the number of directions is not limited to this. Further, a state where there is no movement, that is, a state where there is no direction may be handled.
50 画像処理装置
51 取得部
52 設定部
53 対応付け部
54 算出部
55 判定部
56 除去部
57 指示部
DESCRIPTION OF
Claims (9)
前記顔領域と前記背景領域とのそれぞれにおいて、前記2つの画像間の各画素の対応付けを行って、各画素の動きを推定する対応付け部と、
前記顔領域と前記背景領域とのそれぞれにおいて、各画素の動きの統計的な分布を表す動き特徴量を算出する算出部と、
前記顔領域における動き特徴量と前記背景領域における動き特徴量とを比較して、前記画像に撮影されたものが写真であるか人間であるかを判定する判定部とを備える
ことを特徴とする画像処理装置。 A setting unit for setting a face area including at least a part of a face and a background area including a background for each of two images that are temporally adjacent to each other in the acquired images;
In each of the face area and the background area, an association unit that associates each pixel between the two images and estimates the movement of each pixel;
In each of the face area and the background area, a calculation unit that calculates a motion feature amount representing a statistical distribution of movement of each pixel;
A determination unit configured to compare a motion feature amount in the face region with a motion feature amount in the background region and determine whether the image captured in the image is a photograph or a human being; Image processing device.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a removing unit that removes the outlier value from the movement of each pixel.
前記除去部は、各画素のオプティカルフローの大きさから分散を求め、当該分散の定数倍より大きいオプティカルフローをはずれ値として除去する
ことを特徴とする請求項2に記載の画像処理装置。 The association unit performs association of each pixel between the two images in each of the face area and the background area by calculating an optical flow,
The image processing apparatus according to claim 2, wherein the removing unit obtains a variance from the size of the optical flow of each pixel and removes an optical flow larger than a constant multiple of the variance as an outlier.
前記算出部は、前記顔領域と前記背景領域とのそれぞれにおいて、前記オプティカルフローの方向を離散化して方向ヒストグラムを作成することにより、前記動き特徴量を算出する
ことを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。 The association unit performs association of each pixel between the two images in each of the face area and the background area by calculating an optical flow,
The said calculation part calculates the said motion feature-value by discretizing the direction of the said optical flow in each of the said face area | region and the said background area | region, and producing a direction histogram. The image processing apparatus according to any one of claims 3 to 4.
ことを特徴とする請求項4に記載の画像処理装置。 The determination unit obtains a degree of similarity between the direction histogram calculated in the face area and the direction histogram calculated in the background area. If the degree of similarity is equal to or greater than a threshold, the image is captured in the image 5. The image processing apparatus according to claim 4, wherein it is determined that the object is a photograph, and if the similarity is smaller than a threshold value, it is determined that the object captured in the image is a person.
前記取得部は、前記刺激が発生した後に、前記画像を取得する
ことを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。 An instruction unit for generating a stimulus that can be perceived by the user;
The image processing apparatus according to claim 1, wherein the acquisition unit acquires the image after the stimulus is generated.
ことを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an image input unit configured to input a captured image.
設定部が、取得した画像のうち時間的に隣接する2つの画像のそれぞれについて、顔の全部又は一部を含む顔領域と、背景を含む背景領域とを設定し、
対応付け部が、前記顔領域と前記背景領域とのそれぞれにおいて、前記2つの画像間の各画素の対応付けを行って、各画素の動きを推定し、
算出部が、前記顔領域と前記背景領域とのそれぞれにおいて、各画素の動きの統計的な分布を表す動き特徴量を算出し、
判定部が、前記顔領域における動き特徴量と前記背景領域における動き特徴量とを比較して、前記画像に撮影されたものが写真であるか人間であるかを判定する
ことを特徴とする画像処理方法。 An image processing method comprising:
The setting unit sets a face area including all or part of the face and a background area including the background for each of two images that are temporally adjacent to each other in the acquired images,
The associating unit associates each pixel between the two images in each of the face area and the background area, and estimates the movement of each pixel.
The calculation unit calculates a motion feature amount representing a statistical distribution of the motion of each pixel in each of the face region and the background region,
The determination unit compares the motion feature amount in the face region and the motion feature amount in the background region, and determines whether the photographed image is a photograph or a human being Processing method.
取得した画像のうち時間的に隣接する2つの画像のそれぞれについて、顔の少なくとも一部を含む顔領域と、背景を含む背景領域とを設定する設定部と、
前記顔領域と前記背景領域とのそれぞれにおいて、前記2つの画像間の各画素の対応付けを行って、各画素の動きを推定する対応付け部と、
前記顔領域と前記背景領域とのそれぞれにおいて、各画素の動きの統計的な分布を表す動き特徴量を算出する算出部と、
前記顔領域における動き特徴量と前記背景領域における動き特徴量とを比較して、前記画像に撮影されたものが写真であるか人間であるかを判定する判定部と
して機能させるためのプログラム。 Computer
A setting unit for setting a face area including at least a part of a face and a background area including a background for each of two images that are temporally adjacent to each other in the acquired images;
In each of the face area and the background area, an association unit that associates each pixel between the two images and estimates the movement of each pixel;
In each of the face area and the background area, a calculation unit that calculates a motion feature amount representing a statistical distribution of movement of each pixel;
A program for functioning as a determination unit that compares a motion feature amount in the face region with a motion feature amount in the background region to determine whether the image captured in the image is a photograph or a human being.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009074716A JP5087037B2 (en) | 2009-03-25 | 2009-03-25 | Image processing apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009074716A JP5087037B2 (en) | 2009-03-25 | 2009-03-25 | Image processing apparatus, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010225118A true JP2010225118A (en) | 2010-10-07 |
JP5087037B2 JP5087037B2 (en) | 2012-11-28 |
Family
ID=43042202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009074716A Active JP5087037B2 (en) | 2009-03-25 | 2009-03-25 | Image processing apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5087037B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012008176A1 (en) * | 2010-07-12 | 2012-01-19 | 株式会社日立国際電気 | Monitoring system and method of monitoring |
JP2014056572A (en) * | 2012-09-11 | 2014-03-27 | Sharp Laboratories Of America Inc | Template matching with histogram of gradient orientations |
JP2016173813A (en) * | 2015-03-16 | 2016-09-29 | 株式会社リコー | Information processing device, information processing system, authentication method, and program |
JP2018045435A (en) * | 2016-09-14 | 2018-03-22 | 株式会社東芝 | Detection device, detection method, and detection program |
CN108304708A (en) * | 2018-01-31 | 2018-07-20 | 广东欧珀移动通信有限公司 | Mobile terminal, face unlocking method and related product |
JP2020502602A (en) * | 2016-09-30 | 2020-01-23 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Authentication based on face recognition |
WO2022024222A1 (en) * | 2020-07-28 | 2022-02-03 | 富士通株式会社 | Evaluation method, information processing device, and evaluation program |
WO2022172430A1 (en) | 2021-02-15 | 2022-08-18 | 富士通株式会社 | Determination method, determination program, and information processing device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488415B2 (en) | 2017-10-20 | 2022-11-01 | Nec Corporation | Three-dimensional facial shape estimating device, three-dimensional facial shape estimating method, and non-transitory computer-readable medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002373340A (en) * | 2001-06-14 | 2002-12-26 | Nippon Hoso Kyokai <Nhk> | Method for extracting motion characteristic, and device and program for recognizing motion |
JP2003099763A (en) * | 2001-05-25 | 2003-04-04 | Toshiba Corp | Face image storage device, information management system, face image storing method, and information management method |
JP2006099614A (en) * | 2004-09-30 | 2006-04-13 | Toshiba Corp | Living body discrimination apparatus and living body discrimination method |
JP2007280367A (en) * | 2006-03-14 | 2007-10-25 | Omron Corp | Face collation device |
JP2008090452A (en) * | 2006-09-29 | 2008-04-17 | Omron Corp | Detection device, method and program |
JP2008518331A (en) * | 2004-10-25 | 2008-05-29 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Understanding video content through real-time video motion analysis |
-
2009
- 2009-03-25 JP JP2009074716A patent/JP5087037B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099763A (en) * | 2001-05-25 | 2003-04-04 | Toshiba Corp | Face image storage device, information management system, face image storing method, and information management method |
JP2002373340A (en) * | 2001-06-14 | 2002-12-26 | Nippon Hoso Kyokai <Nhk> | Method for extracting motion characteristic, and device and program for recognizing motion |
JP2006099614A (en) * | 2004-09-30 | 2006-04-13 | Toshiba Corp | Living body discrimination apparatus and living body discrimination method |
JP2008518331A (en) * | 2004-10-25 | 2008-05-29 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Understanding video content through real-time video motion analysis |
JP2007280367A (en) * | 2006-03-14 | 2007-10-25 | Omron Corp | Face collation device |
JP2008090452A (en) * | 2006-09-29 | 2008-04-17 | Omron Corp | Detection device, method and program |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012008176A1 (en) * | 2010-07-12 | 2012-01-19 | 株式会社日立国際電気 | Monitoring system and method of monitoring |
US9420236B2 (en) | 2010-07-12 | 2016-08-16 | Hitachi Kokusai Electric Inc. | Monitoring system and monitoring method |
JP2014056572A (en) * | 2012-09-11 | 2014-03-27 | Sharp Laboratories Of America Inc | Template matching with histogram of gradient orientations |
JP2016173813A (en) * | 2015-03-16 | 2016-09-29 | 株式会社リコー | Information processing device, information processing system, authentication method, and program |
JP2018045435A (en) * | 2016-09-14 | 2018-03-22 | 株式会社東芝 | Detection device, detection method, and detection program |
US10997445B2 (en) | 2016-09-30 | 2021-05-04 | Alibaba Group Holding Limited | Facial recognition-based authentication |
JP2020502602A (en) * | 2016-09-30 | 2020-01-23 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Authentication based on face recognition |
US10762368B2 (en) | 2016-09-30 | 2020-09-01 | Alibaba Group Holding Limited | Facial recognition-based authentication |
US11551482B2 (en) | 2016-09-30 | 2023-01-10 | Alibaba Group Holding Limited | Facial recognition-based authentication |
WO2019148968A1 (en) * | 2018-01-31 | 2019-08-08 | Oppo广东移动通信有限公司 | Mobile terminal, facial unlocking method, and related product |
CN108304708A (en) * | 2018-01-31 | 2018-07-20 | 广东欧珀移动通信有限公司 | Mobile terminal, face unlocking method and related product |
WO2022024222A1 (en) * | 2020-07-28 | 2022-02-03 | 富士通株式会社 | Evaluation method, information processing device, and evaluation program |
WO2022172430A1 (en) | 2021-02-15 | 2022-08-18 | 富士通株式会社 | Determination method, determination program, and information processing device |
EP4293612A4 (en) * | 2021-02-15 | 2024-04-03 | Fujitsu Limited | Determination method, determination program, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP5087037B2 (en) | 2012-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5087037B2 (en) | Image processing apparatus, method, and program | |
JP5567853B2 (en) | Image recognition apparatus and method | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
JP6007682B2 (en) | Image processing apparatus, image processing method, and program | |
US10146992B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
JP5959923B2 (en) | Detection device, control method thereof, control program, imaging device and display device | |
JP2011134114A (en) | Pattern recognition method and pattern recognition apparatus | |
JP2004192378A (en) | Face image processor and method therefor | |
JP6157165B2 (en) | Gaze detection device and imaging device | |
US9727585B2 (en) | Image processing apparatus and method for controlling the same | |
WO2018078857A1 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
JP2007213528A (en) | Action recognition system | |
KR20160046399A (en) | Method and Apparatus for Generation Texture Map, and Database Generation Method | |
JP2012118927A (en) | Image processing program and image processing device | |
JP5791361B2 (en) | PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM | |
JP7312026B2 (en) | Image processing device, image processing method and program | |
JP7047848B2 (en) | Face 3D shape estimation device, face 3D shape estimation method, and face 3D shape estimation program | |
JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program | |
JP2009301242A (en) | Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program | |
JP2011159030A (en) | Subject authentication apparatus, subject authentication method and program | |
US10282633B2 (en) | Cross-asset media analysis and processing | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
JP2008130015A (en) | Photographic object identification program and photographic object identification device | |
JP2013157675A (en) | Imaging device, method for controlling the same, program, and storage medium | |
JP2015158745A (en) | Behavior identifier generation apparatus, behavior recognition apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110916 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120806 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120814 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120907 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5087037 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |