JP6975882B2 - 照合装置および照合結果表示方法 - Google Patents

照合装置および照合結果表示方法 Download PDF

Info

Publication number
JP6975882B2
JP6975882B2 JP2018532917A JP2018532917A JP6975882B2 JP 6975882 B2 JP6975882 B2 JP 6975882B2 JP 2018532917 A JP2018532917 A JP 2018532917A JP 2018532917 A JP2018532917 A JP 2018532917A JP 6975882 B2 JP6975882 B2 JP 6975882B2
Authority
JP
Japan
Prior art keywords
area
collation
face
region
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018532917A
Other languages
English (en)
Other versions
JPWO2018030129A1 (ja
Inventor
智之 加賀屋
勝司 青木
隆行 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2018030129A1 publication Critical patent/JPWO2018030129A1/ja
Application granted granted Critical
Publication of JP6975882B2 publication Critical patent/JP6975882B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本開示は、照合装置および照合結果表示方法に関する。
特許文献1は、入力画像と登録画像の撮影環境、条件等が異なる場合に、照合処理を行うことができる顔画像照合・検索システムを開示する。この顔画像照合・検索システムでは、予め利用者の登録画像を登録画像DBに登録しておく。そして、認証処理では、カメラにより撮影された利用者の顔画像を解析し、環境パラメータ等を推定し、推定したパラメータに基づいて調整した照合画像と、登録画像を比較照合する。
特開2000−306095号公報
本開示の一態様は、信頼度の高い検索結果を表示することができる照合装置および照合結果表示方法を提供する。
本開示の一態様に係る照合装置は、少なくとも1つのプロセッサと、複数の登録顔画像と顔全体からそれぞれ異なる領域を除いた領域である複数の領域パターンとを記憶する記憶部とを有し、前記プロセッサは、前記登録顔画像における前記領域パターンに対応する領域である第1の対象領域の特徴量と、検索対象である検索顔画像における前記領域パターンに対応する領域である第2の対象領域の特徴量とを照合する部分照合を実行し、前記部分照合の結果を前記部分照合に用いた領域パターンを示す情報とともに表示させる。
本開示の一態様に係る照合結果表示方法は、複数の登録顔画像と顔全体からそれぞれ異なる領域を除いた領域である複数の領域パターンとを取得し、前記登録顔画像における前記領域パターンに対応する領域である第1の対象領域の特徴量と、検索対象である検索顔画像における前記領域パターンに対応する領域である第2の対象領域の特徴量とを照合する部分照合を実行し、前記部分照合の結果を前記部分照合に用いた領域パターンを示す情報とともに表示させる。
本開示の一態様によれば、信頼度の高い検索結果を表示することができる。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
図1は、実施の形態に係る照合装置の全体構成を示すブロック図である。 図2は、照合処理の一例を示すフローチャートである。 図3は、顔登録処理の一例を示すフローチャートである。 図4は、特徴量計算処理の一例を示すフローチャートである。 図5は、異常値判定処理の一例を示すフローチャートである。 図6は、登録顔画像のデータベースの一例を示す図である。 図7は、検索顔特徴量計算処理の一例を示すフローチャートである。 図8は、領域パターンの一例を示す図である。 図9は、領域パターンと顔パーツとの対応関係の一例を示す図である。 図10は、顔検索処理の一例を示すフローチャートである。 図11は、顔検索結果の表示例の一例を示す図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態)
[1.構成]
図1は、実施の形態に係る照合装置100の全体構成を示すブロック図である。照合装置100は、例えば、施設等に設置された監視カメラが撮像した画像から取得される複数の顔画像(以下、母集団顔画像と呼ぶ)と、検索対象となる人物の顔画像(以下、検索顔画像と呼ぶ)とを照合し、母集団顔画像の中から検索顔画像を検索することにより、検索対象となる人物が当該施設に出入りしたか否かの管理を行う入退場管理システム等に適用される。
照合装置100は、プロセッサ101、記憶部102、入力部103、表示部104及び撮影部105がバス106を介して接続された構成を有する。
記憶部102には、照合装置100における照合処理を実行するための各種データが記憶される。記憶部102に記憶されるデータは、入力部103を介して取得される。
入力部103は、例えば、外部の機器に接続し、照合装置100における照合処理を実行するための各種データを取得するインターフェースである。
表示部104は、例えば、液晶ディスプレイ等である。表示部104は、プロセッサ101により実行される照合処理の結果を表示する。
撮影部105は、例えば、顔画像を含む画像を撮像するカメラ等である。なお、本実施の形態における照合装置100は、撮影部105を有していなくてもよい。
プロセッサ101は、照合装置100における照合処理を含む照合装置100の全体的な処理を実行する。
[2.照合処理の動作]
次に、照合装置100のプロセッサ101によって実行される照合処理の流れについて図2を参照して説明する。図2は、照合処理の一例を示すフローチャートである。なお、図2を参照して説明する各処理の詳細については、後述する。
ステップS1にて、プロセッサ101は、顔登録処理を実行する。顔登録処理は、入力部103を介して取得する母集団顔画像を登録する処理である。なお、プロセッサ101は、撮影部105により撮影された母集団顔画像を取得してもよい。母集団顔画像の取得方法は、これらに限定されない。
ステップS2にて、プロセッサ101は、検索顔画像の特徴量(以下、検索顔特徴量と呼ぶ)を計算する処理を実行する。なお、プロセッサ101は、検索顔画像を入力部103を介して取得してもよいし、撮影部105により撮影された検索顔画像を取得してもよい。検索顔画像の取得方法は、これらに限定されない。
ステップS3にて、プロセッサ101は、領域パターン毎の反復処理を開始する。領域パターンは、予め用意されたパターンであり、照合の対象となる領域を表す。なお、領域パターンの詳細については、後述する。
ステップS3から開始される反復処理では、プロセッサ101は、インデックスiの初期値を0に設定し、iに1ずつ加算しながら、i<Pという条件が成立している間、つまり、iがP以上になるまで、ステップS4、ステップS5を繰り返し実行する。そして、iがP以上になった場合に、ステップS6にて、反復処理のループが終了する。なお、Pは、領域パターン数であり、1以上の整数である。この反復処理により、プロセッサ101は、領域パターンPからPP−1までのP個の領域パターン毎にステップS4、ステップS5を実行する。
具体的に、ステップS4にて、プロセッサ101は、領域パターンP(iは、0以上P−1以下の整数)における顔検索処理を実行する。そして、ステップS5にて、プロセッサ101は、ステップS4にて実行された領域パターンPにおける顔検索処理の結果を表示部104に表示させる。
つまり、ステップS3にて開始され、ステップS6にて終了する反復処理において、プロセッサ101は、領域パターンPからPP−1までのP個の領域パターン毎に、顔検索処理を実行し、実行した顔検索処理の結果を表示部104に表示させる。
ステップS6にて、反復処理のループが終了すると、照合処理が終了する。
[2−1.顔登録処理]
次に、図2のステップS1に示した顔登録処理について、図3を参照して説明する。図3は、顔登録処理の一例を示すフローチャートである。
ステップS11にて、プロセッサ101は、母集団顔画像の中から、データベースに登録する顔画像(以下、登録顔画像と呼ぶ)を取得する。そして、ステップS12にて、プロセッサ101は、取得した登録顔画像の特徴量を計算する処理を実行する。次に、ステップS13にて、プロセッサ101は、計算した特徴量が異常値であるか否かを判定する異常値判定処理を実行する。なお、ステップS12の特徴量計算処理、および、ステップS13の異常値判定処理の詳細については後述する。
次に、ステップS14にて、プロセッサ101は、母集団顔画像の中に次の登録顔画像が存在するか否かを判定する。
次の登録顔画像が存在する場合(ステップS14:YES)、ステップS11の処理へ移行する。
次の登録顔画像が存在しない場合(ステップS14:NO)、顔登録処理は終了する。
図3に示す顔登録処理によって、プロセッサ101は、母集団顔画像のそれぞれに対して、特徴量計算処理、および、異常値判定処理を実行する。以下の説明において、顔登録処理によって登録された画像の枚数をN(Nは、1以上の整数)とする。
[2−1−1.特徴量計算処理]
次に、図3のステップS12に示した特徴量計算処理について図4を参照して説明する。図4は、特徴量計算処理の一例を示すフローチャートである。
まず、ステップS121にて、プロセッサ101は、画像全体の領域から顔の領域(顔領域)を検出する。プロセッサ101は、この検出処理を、画像に対して周知の顔検出アルゴリズムを適用することで実行する。例えば、プロセッサ101は、Haar-like特徴とboostingによる学習アルゴリズムを用いて顔領域検出処理を行う。
次に、ステップS122にて、プロセッサ101は、顔領域から顔パーツを検出する。顔パーツとは、顔を構成する要素であり、例えば、左目、右目、口、額等である。プロセッサ101は、顔パーツの平均的な形状や位置を示す平均パーツ画像と、ステップS121にて検出した顔領域とのテンプレートマッチングを実行することにより、顔パーツを検出する。検出した顔パーツは、顔画像においてパーツを囲む矩形領域を表す4点の座標値として表現される。なお、顔パーツの表現形式は、4点の座標値ではなく、他の表現形式であってもよい。
次に、ステップS123にて、プロセッサ101は、顔パーツの検出結果から画像を正規化する。例えば、プロセッサ101は、画像のクロッピング、拡大、縮小、アフィン変換等の処理を行い、ステップS121にて検出した顔領域が基準となるサイズに揃うように、そして、ステップS122にて検出した顔パーツが顔領域内の同じ位置に揃うように画像を正規化する。
次に、ステップS124にて、プロセッサ101は、顔領域毎に顔パーツの特徴量を計算する。例えば、プロセッサ101は、顔のパーツの位置を基準とし、その基準とした領域から特徴量を計算する。本実施の形態では画像を正規化しているので、規定の領域に所定の顔パーツが存在すると仮定して、当該規定の領域毎に特徴量を計算することで、各顔パーツの特徴量を計算することが可能である。特徴量の計算によって得られる特徴量の次元数について、右目のパーツを一例に挙げて説明する。右目のパーツから得られる特徴量をD_reyeとし、右目を中心として高さh、横幅wの領域から128次元のSIFT特徴量を計算すると、D_reyeの特徴量の次元数は、w×h×128となる。上述したように本実施の形態では画像を正規化した。また、特徴量は各画像において共通の規則に従って計算される。よって「i番目の特徴量」といえば各画像の中において同一の領域における特徴量を表すことになる。
そして、ステップS124にて、プロセッサ101が特徴量を計算した後、特徴量計算処理は終了する。なお、本実施の形態で用いられる特徴量はSIFT特徴量に限定されない。特徴量は顔の特徴量を示す値であればよい。例えばSIFT特徴量のほかGabor特徴量などを用いても良い。
図4に示す特徴量計算処理によって、プロセッサ101は、画像の顔領域における顔パーツそれぞれの特徴量を計算する。以下の説明において、N(Nは、1以上の整数)とは、顔パーツそれぞれの特徴量を直列に結合することで得られた特徴量の次元数とする。
なお、図4に示す特徴量計算処理では、ステップS123にて、プロセッサ101が画像の顔領域全体で正規化を行う例について説明したが、プロセッサ101は、顔領域全体で正規化する代わりに、顔のパーツ毎に正規化してもよい。
また、プロセッサ101がステップS123にて画像の正規化を行った後で、ステップS124にて特徴量を計算する例について説明したが、ステップS123にて画像の正規化を行わずに、ステップS124にて特徴量を計算する際に正規化を行ってもよい。その場合、例えば、プロセッサ101は、ステップS124にて画像のサイズに応じてSIFT特徴量を計算する方法を変更してもよい。
[2−1−2.異常値判定処理]
次に、図3のステップS13に示した異常値判定処理について図5を参照して説明する。図5は、異常値判定処理の一例を示すフローチャートである。図3を参照して説明したように、異常値判定処理は、特徴量計算処理の後に実行される。
まず、ステップS131にて、プロセッサ101は、特徴量計算処理によって計算された次元数Nの特徴量を取得する。
次に、ステップS132にて、プロセッサ101は、特徴量の次元毎の反復処理を開始する。詳細には、インデックスjの初期値を1に設定し、jに1ずつ加算しながら、j≦Nという条件が成立している間、つまり、jがNより大きくなるまで、j番目の特徴量に対して以下に説明するステップS133からS136までの処理を繰り返し実行する。そして、jがNより大きくなった場合に、ステップS137にて、反復処理のループが終了する。
具体的に、ステップS133にて、プロセッサ101は、j番目の特徴量の乖離度を計算する。乖離度とは、任意の基準との差を定量的に表した度合である。例えば、j番目の特徴量の乖離度は、任意のデータセットのj番目の特徴量の平均との差分、または、偏差値としてもよい。ここで任意のデータセットとして撮影部105が使用される環境において取得した画像であってもよい。
本実施の形態では、データセットとして、多くの顔画像の集合を用いる。そして、プロセッサ101は、多くの顔画像の集合に対する学習により得られる、顔画像の特徴量の分布に基づいて、乖離度を計算する。
一例として、j番目の特徴量の値をfとし、学習により得られるj番目の特徴量の分布を分布Fとする。そして、分布Fの平均をmean(F)、分散をvar(F)とすると、特徴量fの乖離度Dは、式(1)によって計算される。
Figure 0006975882
次に、ステップS134にて、プロセッサ101は、計算した乖離度Dが閾値以上か否かを判定する。例えば、プロセッサ101は、分布Fの標準偏差σを用いて、閾値3×σの値を閾値として設定しても良い。
j番目の特徴量の乖離度Dが閾値以上の場合(S134にてYES)、ステップS135にて、プロセッサ101は、j番目の特徴量が異常値であることを記録する。j番目の特徴量の乖離度Dが閾値以上では無い場合(S134にてNO)、ステップS136にて、プロセッサ101は、j番目の特徴量が正常値であることを記録する。
そして、jがNより大きくなると、ステップS137にて、ループ処理が終了し、異常値判定処理が終了する。
図5に示す異常値判定処理によって、プロセッサ101は、1番目の特徴量からN番目の特徴量までの次元数Nの特徴量それぞれに対して乖離度を計算し、乖離度に基づき異常値か否かを判定し、判定結果を記録する。
なお、特徴量の乖離度を次元毎に計算する例について説明したが、本開示はこれに限定されない。特徴量の乖離度は、次元毎ではなく、複数の次元毎、または、パーツ毎に計算されてもよい。
[2−1−3.顔登録処理結果]
前述した、顔登録処理により、プロセッサ101は、N枚の登録顔画像それぞれにおいて、次元数Nの特徴量を計算し、次元数Nの特徴量それぞれにおいて、異常値であるか否かの判定を実行する。この顔登録処理によって得られるデータベースの一例について、図6を参照して説明する。図6は、登録顔画像のデータベースの一例を示す図である。
図6の例は、顔登録処理の結果が表形式で示される。具体的には、N枚の登録顔画像それぞれに割り振られたID(登録顔ID)と、次元数Nの特徴量(特徴量1から特徴量N)の値が示されている。また、特徴量1から特徴量Nまでの各特徴量に対して、異常値判定処理にて得られた異常判定の結果と、その特徴量に対応する顔パーツが示されている。特徴量が正常値である場合(異常値では無い場合)、異常判定の結果として0が記録され、特徴量が異常値である場合、異常判定の結果として1が記録されている。
なお、図6では、登録顔IDとして、1〜Nまでの番号が割り振られる例を示したが、登録顔IDには、例えば、撮影したカメラの識別番号、撮影した日時、画像のフレーム番号等が含まれていても良い。
また、図6では、異常判定の結果として、0または1が記録される例を示したが、異常判定処理の中で計算された各特徴量の乖離度が記録されてもよい。
[2−2.検索顔特徴量計算処理]
次に、図2のステップS2に示した検索顔特徴量計算処理について図7を参照して説明する。図7は、検索顔特徴量計算処理の一例を示すフローチャートである。
ステップS21にて、プロセッサ101は、検索顔画像を取得する。次に、ステップS22にて、プロセッサ101は、取得した検索顔画像の特徴量を計算する処理を実行する。ステップS22における特徴量計算処理は、図4を参照して説明した特徴量計算処理と同様であるので、説明は省略する。
図7に示した検索顔特徴量計算処理によって、プロセッサ101は、検索顔画像の顔領域における、顔パーツの位置と複数の特徴量の値とを算出する。
[2−3.顔検索処理]
次に、図2のステップS4に示した顔検索処理について説明する。前述の通り、顔検索処理は、領域パターンP毎に実行される。まずは、領域パターンについて、図8、図9を参照して説明する。
図8は、領域パターンの一例を示す図である。前述の通り、領域パターンは、予め用意されたパターンであり、照合の対象となる領域(照合対象領域)を表す。照合の対象となる領域は、顔全体の領域、または、顔全体から一部の領域を除いた領域である。図8に示すように、領域パターンPは、顔全体が照合対象領域である。そして、領域パターンP以外の領域パターンは、それぞれ、顔全体から、それぞれ異なる領域を除いた領域である。
例えば、領域パターンPは、顔全体の領域を上下に2分割した下部分の領域であり、領域パターンPは、顔全体の領域を上下に2分割した上部分の領域である。また、領域パターンPは、顔全体の領域を左右に2分割した右部分の領域であり、領域パターンPは、顔全体の領域を左右に2分割した左部分の領域である。
図9は、領域パターンと顔パーツとの対応関係の一例を示す図である。図9に示すように、領域パターンP以外の領域パターンは、顔全体から、それぞれ異なる領域を除いた領域である。例えば、領域パターンPは、顔全体から、右目および左目の顔パーツの領域を除いた領域である。また、領域パターンPは、領域パターンPと異なり、右目および左目の顔パーツの領域を含む一方で、右口端および左口端の領域を除いた領域である。
図9に示す対応関係は、領域パターンPにおける顔検索処理を実行する際に用いられる。なお、顔パーツと特徴量の次元とは対応関係があるため、図9に示す領域パターンと顔パーツとの対応関係の代わりに、領域パターンと特徴量の次元との対応関係であってもよい。
次に、顔検索処理について図10を参照して説明する。図10は、顔検索処理の一例を示すフローチャートである。
ステップS41にて、プロセッサ101は、検索顔画像の特徴量を取得する。
次に、ステップS42にて、プロセッサ101は、登録顔画像毎の反復処理を開始する。詳細には、インデックスkの初期値を1に設定し、kに1ずつ加算しながら、k≦Nという条件が成立している間、つまり、kがNより大きくなるまで、k番目の登録顔画像について、以下に説明するステップS43からS45までの処理を繰り返し実行する。そして、kがNより大きくなった場合に、ステップS46にて、反復処理のループが終了する。
具体的に、ステップS43にて、プロセッサ101は、k番目の登録顔画像の特徴量において、領域パターンPを除く領域で異常値が存在するか否かを判定する。この判定は、図6に示した登録顔画像のデータベースと、図9に示した領域パターンと顔パーツとの対応関係とを参照して実行される。
領域パターンP、k=2を例にとって、ステップS43の処理を説明する。領域パターンPは、図9に示したように、右目および左目の領域が照合の対象となる領域から除かれている。そして、図6に示した2番目の登録顔画像(登録顔IDが2である登録顔画像)では、右目の領域の特徴量が異常値であることが示されている。つまり、この例では、プロセッサ101は、2番目の登録顔画像の特徴量において、領域パターンPを除く領域で異常値が存在する、と判定する。
領域パターンPを除く領域に異常値が存在する場合(S43にてYES)、ステップS44にて、プロセッサ101は、k番目の登録顔画像と検索顔画像との間の、領域パターンPにおける類似度を計算する。そして、ステップS46の処理へ移行する。
領域パターンPを除く領域で異常値が存在しない場合(S43にてNO)、ステップS45にて、プロセッサ101は、領域パターンPが顔領域全体を表すパターンか否かを判定する。領域パターンPは、予め用意されているものであるため、領域パターンPが顔領域全体を示すパターンか否かは既知である。例えば、本実施の形態では、図8、図9に示したように、領域パターンPが顔領域全体を示すパターンである。
領域パターンPが顔領域全体を表すパターンである場合(S45にてYES)、ステップS44にて、プロセッサ101は、k番目の登録顔画像と検索顔画像との間の、領域パターンPにおける類似度を計算する。
具体的には、プロセッサ101は、k番目の登録顔画像と検索顔画像のそれぞれにおいて、領域パターンPが示す照合対象領域に含まれる特徴量を用いて正規化相関により類似度を算出する。
一例として、領域パターンP、つまり、顔領域全体を表すパターンの場合における、正規化相関の計算例を式(2)に示す。
Figure 0006975882
なお、式(2)において、fr,k(i)は、k番目の登録顔画像におけるi番目の特徴量であり、f(i)は、検索顔画像におけるi番目の特徴量である。
式(2)に示す正規化相関の計算例では、領域パターンが顔領域全体を表すパターンであるため、次元数Nの特徴量全ての総和が計算される。領域パターンが顔領域全体を表すパターンでは無い場合、正規化相関では、領域パターンが示す照合対象領域に含まれる特徴量の総和が計算される。
なお、類似度の計算は、正規化相関に限らず、2つの特徴量同士の距離など、他の公知の手法であっても良い。
領域パターンPが顔領域全体を表すパターンでは無い場合(S45にてNO)、ステップS46の処理へ移行する。
ステップS42からS46までの反復処理によって、領域パターンPを除く領域で異常値が存在する登録顔画像の場合、または、領域パターンPが顔領域全体を表す場合に、登録顔画像と検索顔画像との間の領域パターンPにおける類似度を計算する。
そして、ステップS47にて、プロセッサ101は、計算した類似度が高い順に、登録顔画像をソートし、領域パターンPにおける顔検索処理が終了する。
図10に示した顔検索処理により、プロセッサ101は、登録顔画像と検索顔画像との間の領域パターンPにおける類似度を計算し、計算した類似度が高い順に登録顔画像をソートした顔検索結果を取得する。
この際、プロセッサ101は、ステップS43にて、領域パターンPを除く領域で異常値が存在するかを判定し、領域パターンPを除く領域で異常値が存在しない登録顔画像については、検索顔画像との類似度を計算しない。これにより、プロセッサ101は、類似度を計算する対象となる登録顔画像を減らすことができるため、処理負荷を低減できる。
[2−4.表示例]
図2のステップS5に示したように、領域パターンPにおける顔検索処理によって得られる領域パターンP毎の顔検索結果、つまり、類似度が高い順にソートされた登録顔画像は、領域パターンP毎に表示される。顔検索結果の表示例について、図11を参照して説明する。
図11は、顔検索結果の表示例の一例を示す図である。図11の表示例では、左側に検索顔画像が表示され、右側に領域パターンP毎の顔検索結果が表示される。顔検索結果は、前述の通り、領域パターンP毎に類似度が高い順にソートされた登録顔画像である。図11の表示例では、左側から順に、類似度が高い登録顔画像が横一列に表示されている。
また、図11の表示例では、領域パターンPの顔検索結果が一番上に表示される。また、領域パターンPの顔検索結果の下に、順に、領域パターンPの顔検索結果、領域パターンPの顔検索結果が順に表示される。
領域パターンPは、顔全体が照合対象領域であるため、領域パターンPの顔検索結果は、顔全体を照合対象領域として照合した全体照合の結果である。一方で、領域パターンP〜領域パターンPは、顔全体から一部の領域を除いた領域が照合対象領域であるため、領域パターンPの顔検索結果、領域パターンPの顔検索結果は、顔全体から一部の領域を除いた領域を照合対象領域として照合した部分照合の結果である。
また、図11では、領域パターンPに対応する照合対象領域と、各登録顔画像において異常値を含む領域を示す異常値領域とが、異なる表示態様(例えば、異なる色)によって、各登録顔画像を透過させるように重畳して表示されている。プロセッサ101は、例えば、図6に示した登録顔画像のデータベースを参照して、各登録顔画像の異常値を含む領域を異常値領域として設定する。このような表示により、各登録画像において、照合の対象となった範囲と、異常値を含む範囲とが合せて表示できる。
なお、図11では、照合対象領域と異常値領域とが、登録顔画像に重畳して表示される例を示したが、プロセッサ101は、照合対象領域と異常値領域とを登録顔画像に重畳して表示させなくてもよい。
なお、プロセッサ101は、図11に示すような表示例を表示させる際に、領域パターンP(mは、0以上P−1以下の整数)における顔検索処理の結果として表示する登録顔画像と同じ登録顔画像を、領域パターンP(nは、mとは異なる0以上P−1以下の整数)における顔検索処理の結果として表示しないように表示制御してもよい。つまり、プロセッサ101は、1つの登録顔画像を多くとも1回表示させ、2回以上表示させないように表示制御してもよい。また、プロセッサ101は、例えば、1度表示させた登録顔画像に関するデータベースに、表示済であることを示す付加情報を追加し、付加情報を参照してこの表示制御を行っても良い。
また、図11では省略されているが、プロセッサ101は、他の領域パターンの顔検索結果を更に表示させてもよい。また、プロセッサ101は、領域パターンP〜領域パターンPP−1のうち、少なくとも1つの領域パターンの顔検索結果を表示させてもよい。
[3.効果等]
従来、登録された顔画像と、検索対象である顔画像との間で行われる顔検索において、それぞれの顔画像から得られる顔全体の特徴量同士の類似度等の照合スコアの高さを基準に照合が行われる。しかしながら、サングラスおよび/またはマスク等の顔を遮蔽する物体(遮蔽物)の影響、あるいは、極端な照明環境による白飛びや黒つぶれ等の影響により、特徴量に異常値が発生する場合がある。このような場合、顔画像の一部の領域の情報が損なわれてしまうことにより照合スコアが適切に算出されないため、顔検索の精度が劣化してしまう可能性がある。
本実施の形態における照合装置100は、顔画像における一部の領域を除外した領域を照合対象として照合する部分照合を実行し、部分照合の結果を表示させる。これにより、登録顔画像と検索顔画像との照合において、例えば、異常値を示す特徴量を照合から除外できるため、顔検索の精度の劣化を抑制し、信頼度の高い検索結果を表示することができる。
なお、本実施の形態では、領域パターンP〜領域パターンPP−1それぞれの顔検索処理を行う例について説明したが、本開示はこれに限定されない。プロセッサ101は、領域パターンP〜領域パターンPP−1の中で、少なくとも1つの領域パターンを選択し、選択した領域パターンの顔検索処理を実行してもよい。例えば、プロセッサ101は、入力部103を介して取得するユーザからの指示に基づいて、少なくとも1つの領域パターンを選択してもよい。
あるいは、プロセッサ101は、登録顔画像それぞれにおける異常値を含まない領域を判定し、判定した領域が、登録顔画像の中で最も多い領域に対応する領域パターンを選択してもよい。例えば、プロセッサ101は、右目と左目に対応する領域に異常値が存在する登録顔画像が最も多いと判定した場合、右目と左目に対応する領域を含まない領域、つまり、図9に示した領域パターンPを選択する。
また、本実施の形態では、照合装置100のプロセッサ101が顔登録処理を実行する例について説明したが、本開示はこれに限定されない。顔登録処理は、照合装置100とは異なる装置等で実行されてもよい。この場合、照合装置100のプロセッサ101は、例えば図6に示したような顔登録処理の結果を入力部103を介して取得し、取得した顔登録処理の結果に基づいて、顔検索処理を実行してもよい。
また、本実施の形態では、照合装置100のプロセッサ101が検索顔特徴量計算処理を実行する例について説明したが、本開示はこれに限定されない。検索顔特徴量計算処理は、照合装置100とは異なる装置等で実行されてもよい。この場合、照合装置100のプロセッサ101は、検索顔特徴量計算処理によって得られる検索顔画像の特徴量を入力部103を介して取得し、検索顔の特徴量に基づいて、顔検索処理を実行してもよい。
また、本実施の形態では、登録顔画像の特徴量が異常値を含むか否かを判定していたが、本開示はこれに限定されない。例えば、検索顔画像の特徴量が異常値を含むか否かを判定しても良い。この場合、検索顔画像が異常値を含むか否かの判定は、登録顔画像の場合と同様、任意のデータセットとの比較によって行う。また、検索顔画像の特徴量が異常値を含むと判定された場合は、異常値が含まれる領域を除外して登録顔画像との照合を行うとしてもよいし、検索顔画像の再入力を促しても良い。検索顔画像の再入力を促す場合は、異常値の含まれる領域を提示することにより、異常値の発生原因が除かれた検索顔画像を用いるよう、照合装置100のユーザに促しても良い。
なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、登録顔画像と検索顔画像とを照合する照合装置及び照合結果表示方法に好適である。
100 照合装置
101 プロセッサ
102 記憶部
103 入力部
104 表示部
105 撮影部
106 バス

Claims (15)

  1. 少なくとも1つのプロセッサと、複数の登録顔画像と顔全体からそれぞれ異なる領域を除いた領域である複数の領域パターンとを記憶する記憶部とを有し、
    前記プロセッサは、
    前記登録顔画像における前記領域パターンに対応する領域である第1の対象領域の特徴量と、検索対象である検索顔画像における前記領域パターンに対応する領域である第2の対象領域の特徴量とを照合する部分照合を実行し、
    前記部分照合の結果を前記部分照合に用いた領域パターンを示す情報とともに表示させる、
    照合装置。
  2. 前記プロセッサは、前記検索顔画像における領域全体の特徴量と、前記登録顔画像における領域全体の特徴量とを照合する全体照合を実行し、
    前記部分照合の結果と区別して前記全体照合の結果を表示させる、
    請求項1に記載の照合装置。
  3. 前記プロセッサは、前記複数の登録顔画像のうち、前記全体照合の結果として表示させた前記登録顔画像以外の前記登録顔画像を、前記部分照合の結果として表示させる、請求項2に記載の照合装置。
  4. 前記プロセッサは、
    前記複数の登録顔画像それぞれおける異常値を含まない領域を判定し、
    前記複数の領域パターンのうち、前記判定した領域が、前記複数の登録顔画像の中で最も多い領域に対応する領域パターンを前記第1の対象領域として選択することにより、前記異常値を含む領域を前記部分照合の対象から除外する、
    請求項1に記載の照合装置。
  5. 前記プロセッサは、
    前記複数の領域パターンのどれを用いても前記異常値を含む領域を前記部分照合の対象から除外できない場合、前記顔全体について照合を行い、
    前記顔画像全体についての照合の結果を表示させる、
    請求項4に記載の照合装置。
  6. 前記複数の領域パターンは、それぞれ、少なくとも1つの顔のパーツを含む、
    請求項4に記載の照合装置。
  7. 前記複数の領域パターンそれぞれにおいて除かれる領域は、少なくとも1つの顔パーツを含む所定の大きさの領域である、
    請求項4に記載の照合装置。
  8. 前記複数の領域パターンは、顔の領域を上下に2分割した上部分の領域、前記顔の領域を上下に2分割した下部分の領域、前記顔の領域を左右に2分割した左部分の領域、および、前記顔の領域を左右に2分割した右部分の領域のうち、少なくとも1つを含む、
    請求項に記載の照合装置。
  9. 前記プロセッサは、前記登録顔画像から顔のパーツを検出し、前記異常値を含む領域を前記部分照合の対象から除外する前に、前記顔のパーツの検出結果に基づいて前記登録顔画像を正規化し、
    前記領域パターンは、前記正規化後の登録顔画像に対応する領域である、
    請求項4に記載の照合装置。
  10. 前記プロセッサは、前記部分照合に用いた領域パターンごとに区分して、前記部分照合の結果が示す類似度が高い順に前記登録顔画像を一列に表示させる、
    請求項4に記載の照合装置。
  11. 前記プロセッサは、前記部分照合に用いた領域パターンを示す情報を、前記登録顔画像と共に表示させる、
    請求項1に記載の照合装置。
  12. 前記プロセッサは、前記部分照合の結果が示す類似度が高い順に前記登録顔画像を一列に表示させる、
    請求項1に記載の照合装置。
  13. 前記プロセッサは、前記登録顔画像を多くとも1回表示させる、請求項1に記載の照合装置。
  14. 前記領域パターンの示す領域は、顔の領域を上下に2分割した上部分の領域、前記顔の領域を上下に2分割した下部分の領域、前記顔の領域を左右に2分割した左部分の領域、および、前記顔の領域を左右に2分割した右部分の領域のうち、少なくとも1つの領域である、
    請求項1に記載の照合装置。
  15. 複数の登録顔画像と顔全体からそれぞれ異なる領域を除いた領域である複数の領域パターンとを取得し、
    前記登録顔画像における前記領域パターンに対応する領域である第1の対象領域の特徴量と、検索対象である検索顔画像における前記領域パターンに対応する領域である第2の対象領域の特徴量とを照合する部分照合を実行し、
    前記部分照合の結果を前記部分照合に用いた領域パターンを示す情報とともに表示させる、
    照合結果表示方法。
JP2018532917A 2016-08-08 2017-07-24 照合装置および照合結果表示方法 Active JP6975882B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016155835 2016-08-08
JP2016155835 2016-08-08
PCT/JP2017/026618 WO2018030129A1 (ja) 2016-08-08 2017-07-24 照合装置および照合結果表示方法

Publications (2)

Publication Number Publication Date
JPWO2018030129A1 JPWO2018030129A1 (ja) 2019-06-06
JP6975882B2 true JP6975882B2 (ja) 2021-12-01

Family

ID=61162020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018532917A Active JP6975882B2 (ja) 2016-08-08 2017-07-24 照合装置および照合結果表示方法

Country Status (4)

Country Link
US (1) US10956717B2 (ja)
EP (1) EP3499455A4 (ja)
JP (1) JP6975882B2 (ja)
WO (1) WO2018030129A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4220544A4 (en) * 2020-09-23 2023-11-22 NEC Corporation COMPARISON DEVICE, COMPARISON METHOD AND PROGRAM

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306095A (ja) 1999-04-16 2000-11-02 Fujitsu Ltd 画像照合・検索システム
JP3575679B2 (ja) * 2000-03-31 2004-10-13 日本電気株式会社 顔照合方法と該照合方法を格納した記録媒体と顔照合装置
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
JP2005149370A (ja) 2003-11-19 2005-06-09 Matsushita Electric Ind Co Ltd 画像撮影装置、個人認証装置及び画像撮影方法
JP5669082B2 (ja) * 2010-04-19 2015-02-12 パナソニックIpマネジメント株式会社 照合装置
JP5444137B2 (ja) * 2010-06-18 2014-03-19 株式会社東芝 顔画像検索装置および顔画像検索方法
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
JP6026119B2 (ja) * 2012-03-19 2016-11-16 株式会社東芝 生体情報処理装置
JP6150491B2 (ja) 2012-10-26 2017-06-21 セコム株式会社 顔認証装置
JP6013241B2 (ja) * 2013-03-18 2016-10-25 株式会社東芝 人物認識装置、及び方法
JP6470503B2 (ja) * 2014-05-20 2019-02-13 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム
US10572766B2 (en) * 2015-07-06 2020-02-25 Nippon Telegraph And Telephone Corporation Image collation device, image collation method, and program

Also Published As

Publication number Publication date
US20190266389A1 (en) 2019-08-29
EP3499455A4 (en) 2019-07-10
WO2018030129A1 (ja) 2018-02-15
US10956717B2 (en) 2021-03-23
JPWO2018030129A1 (ja) 2019-06-06
EP3499455A1 (en) 2019-06-19

Similar Documents

Publication Publication Date Title
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
JP4241763B2 (ja) 人物認識装置及びその方法
US8005767B1 (en) System and method of classifying events
WO2020139743A1 (en) Computer-executed method and apparatus for assessing vehicle damage
JP5899179B2 (ja) 人物認識装置、人物認識方法、人物認識プログラムおよびその記録媒体
US20170154209A1 (en) Image identification apparatus and image identification method
JP5424819B2 (ja) 画像処理装置、画像処理方法
Connaughton et al. Fusion of face and iris biometrics
US8442279B2 (en) Assessing biometric sample quality using wavelets and a boosted classifier
US11380010B2 (en) Image processing device, image processing method, and image processing program
US20120230553A1 (en) Apparatus and method for detecting eye state
US8842880B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
US9704024B2 (en) Object discriminating apparatus and method
Gupta et al. Identification of age, gender, & race SMT (scare, marks, tattoos) from unconstrained facial images using statistical techniques
CN111914748A (zh) 人脸识别方法、装置、电子设备及计算机可读存储介质
JP2016099835A (ja) 画像処理装置、画像処理方法、及びプログラム
Porto et al. Automatic cephalometric landmarks detection on frontal faces: An approach based on supervised learning techniques
JP2007048172A (ja) 情報分類装置
JP6975882B2 (ja) 照合装置および照合結果表示方法
Hasan et al. Improving alignment of faces for recognition
US9367768B2 (en) Image processing device, image processing method, and storage medium computer-readably storing program therefor
Campadelli et al. Eye localization for face recognition
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20240144646A1 (en) Learning apparatus, inference apparatus, inference system, learning method, inference method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20181029

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R151 Written notification of patent or utility model registration

Ref document number: 6975882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151