JP5444137B2 - 顔画像検索装置および顔画像検索方法 - Google Patents

顔画像検索装置および顔画像検索方法 Download PDF

Info

Publication number
JP5444137B2
JP5444137B2 JP2010139789A JP2010139789A JP5444137B2 JP 5444137 B2 JP5444137 B2 JP 5444137B2 JP 2010139789 A JP2010139789 A JP 2010139789A JP 2010139789 A JP2010139789 A JP 2010139789A JP 5444137 B2 JP5444137 B2 JP 5444137B2
Authority
JP
Japan
Prior art keywords
face
attribute
search
image
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010139789A
Other languages
English (en)
Other versions
JP2012003623A (ja
Inventor
寛 助川
修 山口
廣大 齊藤
俊雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010139789A priority Critical patent/JP5444137B2/ja
Publication of JP2012003623A publication Critical patent/JP2012003623A/ja
Application granted granted Critical
Publication of JP5444137B2 publication Critical patent/JP5444137B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、たとえば、顔画像データベースにあらかじめ登録されている複数の顔画像の中から、入力された顔画像に類似する顔画像を検索して表示出力する顔画像検索装置および顔画像検索方法に関する。
たとえば、顔画像データベースにあらかじめ登録されている複数の顔画像に対し、所定の顔画像を入力してその顔画像と類似する顔画像を検索し類似している順に一覧表示する技術がある。
ただし、大量に顔画像が顔画像データベースに登録されている場合には、顔認識技術による検索精度が低いと上位候補者として表示されることがなく、画面上で操作を続けながら目視で候補者を探していく必要があるため、大量の顔画像データベースを検索する時に効率的に絞り込みする技術が開発されている。
たとえば、顔画像以外に名前や会員ID、入会年月日をキーに検索をすることで高速に検索する仕組みや、顔などのメインの生体情報以外の属性情報(人物の身長、体重、性別、年齢等)を利用して認識辞書の絞込みを行なう技術などが公知である。
一方で、検索したい人物の顔の特徴を検索条件として指定することで、指定された特徴を有する顔画像を顔画像データベースの中から検索する技術も公知である。たとえば、人物の肌の色、瞼、髭、黒子、眼鏡、性別、推定年齢を検索条件としてチェックボックスや論理積、論理和の式で設定して候補画像が並ぶといった技術がある。
特開2007−310646号公報 特開2000−090264号公報 特開2006−318375号公報
顔画像データベースの中から事前に顔画像データベースの顔画像に対応付けて入力された属性情報(たとえば、年齢や性別等)をキーとして、顔認識技術の結果と別にテキストのマッチング処理で検索結果を絞り込む技術はあるが、これは事前に顔画像データベースにテキスト情報で属性情報を入力しておく必要があり、新しく顔画像が大量に入ってきた場合には事前に属性情報を付与していないので絞り込みができないという問題があり、また属性情報を使った別の視点での検索結果を同時に見ることができないという問題もある。
顔画像データベースに属性情報を登録するのは非常に手間がかかり間違いも発生する可能性があるうえ、登録した属性情報が間違っていても気づかない可能性が高い。
そこで、実施形態は、あらかじめ登録された複数の顔画像の中から入力された顔画像に類似する顔画像を検索する際、入力された顔画像と類似している顔画像の候補の一覧を出力するだけでなく、あらかじめ指定した属性情報、または所定の指標で最も入力画像に近い検索結果を表していると思われるものを自動的に選択した属性情報での視点から類似した顔画像の候補の一覧をも同時に出力して視覚的に確認できる顔画像検索装置および顔画像検索方法を提供することを目的とする。
実施形態に係る顔画像検索装置は、少なくとも人物の顔画像を含む画像を入力する画像入力手段と、この画像入力手段により入力された入力画像から少なくとも1つの顔領域を検出する顔検出手段と、検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を設定する検索条件設定手段と、前記顔検出手段により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出手段と、前記顔検出手段により検出された顔領域から得られる人物の属性特徴情報を少なくとも1つ抽出する属性特徴抽出手段と、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段と、前記顔特徴抽出手段により抽出された入力画像に対する顔特徴情報と前記人物情報管理手段により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索手段と、前記属性特徴抽出手段により抽出された入力画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索手段と、この属性検索手段により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索手段により得られた検索結果の中から前記検索条件設定手段により設定された内容に合致する検索結果を選択する検索結果管理手段と、この検索結果管理手段により選択された検索結果を出力する出力手段とを具備している。
第1の実施形態に係る顔画像検索装置の構成を概略的に示すブロック図。 第1の実施形態に係る検索条件設定部の設定画面例を示す図。 第1の実施形態に係る人物情報管理部の管理情報の構成例を示す図。 第1の実施形態に係る全体的な処理の流れを説明するフローチャート。 第1の実施形態に係る出力部の画面表示例を示す図。 第2の実施形態に係る顔画像検索装置の構成を概略的に示すブロック図。 第2の実施形態に係る検索条件設定部の設定画面例を示す図。 第2の実施形態に係る画像合成部の合成画像作成画面例を示す図。 第2の実施形態に係る全体的な処理の流れを説明するフローチャート。 第2の実施形態に係る出力部の画面表示例を示す図。 第3の実施形態に係る顔画像検索装置の構成を概略的に示すブロック図。 第3の実施形態に係る検索条件設定部の設定画面例を示す図。 第3の実施形態に係る人物情報管理部の管理情報の構成例を示す図。 第3の実施形態に係る属性判別部の処理の流れを説明するフローチャート。 第3の実施形態に係る属性判別部での年齢推定方法を説明するための図。 第3の実施形態に係る属性判別部での年齢推定方法の流れを説明するフローチャート。 第3の実施形態に係る登録時の処理の流れを説明するフローチャート。 第3の実施形態に係る検索時の処理の流れを説明するフローチャート。 第3の実施形態に係る出力部の画面表示例を示す図。
以下、実施形態について図面を参照して説明する。
なお、実施形態が適用される対象としては、あらかじめ登録されている多数の顔画像の中から、現在手元にある顔画像と同一の顔画像(人物)を検索するような場合を想定しており、たとえば、顧客データの中からお得意様を探す、不審者のデータベースから該当者を探す、ID証明書の更新時の本人確認や新規発行時の二重発給防止といった用途が考えられる。
また、実施形態では、本人を属性情報で判別する方法として、撮影対象から得られた顔の領域を検出して顔の位置や顔の特徴を利用することで人物の属性特徴情報を抽出し、事前に登録された顔のデータベースの中から属性特徴情報で近い顔画像を検索することや、年齢や性別といった属性情報(端末装置などでテキスト情報として入力されたもの)と一致するかどうかの判定結果を利用することで人物(顔画像)の検索の効率をあげる。
以下の説明では、人物領域として顔の領域を検出して顔の特徴情報を利用することで課題を実現する手順を説明するが、顔以外にも人物領域全身を検出する技術(Watanabeら,”Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology” (PSIVT2009), pp. 37-47.)を利用し、その大きさを使って属性情報として身長情報を計測することでも実現が可能であり、人物の領域を検出する技術、また、その人物領域内の特徴情報を計測する技術であれば、本実施形態に記載した技術のみに限定される内容でないことは明らかである。
まず、第1の実施形態について説明する。
図1は、第1の実施形態に係る顔画像検索装置の構成を概略的に示すものである。第1の実施形態に係る顔画像検索装置は、撮像対象人物Mの少なくとも顔を含む画像を入力する画像入力部(画像入力手段)110、画像入力部110により入力された入力画像から少なくとも1つの顔領域を検出する顔検出部(顔検出手段)120、検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法等を設定する検索条件設定部(検索条件設定手段)130、顔検出部120により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出部(顔特徴抽出手段)151、顔検出部120により検出された顔領域から得られる人物の属性情報(年齢、性別、眼鏡の有無、マスクの有無、帽子の有無、人種等)を識別するための属性特徴情報を抽出する属性特徴抽出部(属性特徴抽出手段)152、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報等を対応付けて管理する人物情報管理部(人物情報管理手段)160、顔特徴抽出部151により抽出された入力画像に対する顔特徴情報と人物情報管理部160により管理されている顔特徴情報とを比較することにより、入力画像に対する顔特徴情報が人物情報管理部160により管理されている顔特徴情報の中のどの顔特徴情報と一番類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部160から検索する顔検索部(顔検索手段)171、属性特徴抽出部152により抽出された入力画像に対する属性特徴情報と人物情報管理部160により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部160から検索する属性検索部(属性検索手段)172、属性検索部172により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、顔検索部171により得られた検索結果の中から検索条件設定部130により設定された内容に合致する検索結果を選択する検索結果管理部(検索結果管理手段)180、検索結果管理部180により選択された検索結果を出力する出力部(出力手段)190を有して構成される。
以下、各部について詳細に説明する。
画像入力部110は、たとえば、ITVカメラ109により人物Mの少なくとも顔を含む画像を撮像して入力するもので、ITVカメラ109から得られる撮像信号をA/D変換器によりデジタル化して画像情報として入力する。
なお、検索対象となるものは結果的にデジタルの顔画像となればよいので、デジタルスチルカメラで撮像した画像ファイルをメモリ媒体経由で取込んでもかまわないし、スキャナを利用して紙媒体や写真からスキャンをしたデジタル画像でも構わない。
顔検出部120は、たとえば、画像入力部110により入力された入力画像内において、あらかじめ用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域とする。その他に固有空間法や部分空間法を利用した顔抽出法などでも実現は可能である。
また、検出された顔領域の部分の中から、目、鼻などの顔部位の位置を検出する。その検出方法は、たとえば、文献1(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」,電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997))などに記載された方法で実現可能である。
なお、本実施形態では、顔領域の特徴を利用する例を記述したが、虹彩、網膜、目の画像を対象として顔であるかどうかを判別する装置の場合にも、上記処理によって検出された目の領域をもとにカメラをズームすることなどで検出が可能となる。
また、上記目、鼻の検出の他に口領域の検出については、たとえば、文献2(湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集,pp219−224(2004))の技術を利用することで容易に実現が可能である。
いずれの場合でも2次元配列状の画像として取扱える情報を獲得し、その中から顔特徴の領域を検出することが可能である。また、これらの処理は1枚の画像の中から1つの顔特徴だけを抽出するには全画像に対してテンプレートとの相関値を求め最大となる位置とサイズを出力すればよいし、複数の顔特徴を抽出するには画像全体に対する相関値の局所最大値を求め、1枚の画像内での重なりを考慮して顔の候補位置を絞り込み、最後は連続して入力された過去の画像との関係性(時間的な推移)も考慮して最終的に複数の顔特徴を同時に見つけることも可能となる。
また、本実施形態のように、マスク着用やサングラスの着用、帽子の着用といった場合でも検出できるようにするため、あらかじめサングラスやマスクや帽子で顔の一部が隠された場合の顔パターンでテンプレートを学習しておくことや、顔の特徴点検出をする際に全ての点が検出できない場合でも、一部の顔特徴点が充分な評価値で検出されれば、残りの特徴点については2次元平面、または3次元的な顔のモデルを利用して検出された特徴点から残りの特徴点で推測することで実現が可能である。
特徴点が全く検出できなくなるぐらいマスクや帽子やサングラスが特徴点を隠蔽している場合には、顔全体のパターンとして学習しておいて顔全体の位置を検出し、特徴点は顔全体の位置から推測することで実現が可能である。
なお、複数の顔が画像内に存在した場合には、どの顔を検索対象とするかの指示を検索条件設定部130や出力部190で指定するようにすればよいが、ここでの処理によって求められた顔らしさの指標の順番に自動的に検索対象を選択できるように、顔らしさの指標を出力できるようにすることも可能である。
検索条件設定部130は、顔特徴および各属性のどの情報を使って検索するのか、検索する際の並び順、検索結果の画面表示の有無、顔特徴で得られた類似度との結果を統合するかどうかといった項目を検索処理の前に設定しておくものである。ここは毎回処理が必要なわけではなく、事前にシステムの利用者が設定すれば、そのパラメータを保持しておき、その情報を呼び出すだけでよい。
実際に設定を行なう設定画面の例を図2に示す。ここでは、選択をしているものが黒色の矩形印や黒色の丸印で示されているメニューであるとする。この例では、顔特徴情報を使った検索処理と別に「年齢」と「マスク」の属性情報を使った検索を行なう設定となっている。「類似度統合」のチェックについては、各種属性の特徴情報を基準として類似度を計算した結果に対し、顔特徴情報の類似度と結果を統合して検索結果を出力するのか、独立して属性の特徴情報だけで検索結果を出力するのかを切換えるためのものである。
図2の場合、「年齢」については統合なしであるため、顔の類似性と関係なく、入力された顔画像と年齢特徴が似ているものを上位に表示する。一方、マスク特徴については、マスクの属性特徴で検索された結果と顔の特徴情報での検索結果を両方考慮して、検索結果を出力するようになるため、入力された顔画像のマスクをしていながら顔も似ている人を順番に表示する設定となる。
「重要度」については、類似度の統合を行なう際の重みを調整できるようにする。ここで指定をしておくことで、出力部190で検索結果を表示する際の重みを変更ことが可能となる。
「画面表示」については、検索結果を画面表示するかどうかの設定であるが、別途出力部190で後から設定変更できるようにしてもよい。
また、「並び順」については、基本的に類似度の高いものから順番に出力する「高い順」が基本となるが、入力画像でマスクをつけているが、顔画像データベースではマスクをつけていない顔画像から探す場合などで「低い順」を選んでもかまわない。
なお、本実施形態では、「高い順」、「低い順」として並び順だけをかえるようにしているが、マスクや眼鏡や帽子などの着用の有無といった特定の条件を満たすかどうかの2種類しか状態がない場合などに向けて「一致する、しない」で選択するようにすることも可能である。この場合は一致するものだけが順番に並ぶことになるが、「類似度統合」をしておけば、その条件を満たす「一致」となったものの中で顔の類似度の高いものが順番に表示されるようにすることもできる。
さらに、検索条件設定部130による検索条件の設定を、「自動」に設定することも可能となっている。この場合には、検索結果の数値を見ながら最も候補者(候補の顔画像)を正しく表わしていると思われる検索結果を自動的に選択して出力するモードとなり、検索結果管理部180の中で自動的に最適な属性の種類や顔と属性の組合せ、属性同士の組合せを選択するようにする。
図2で示す例では、操作者があらかじめ検索結果を表示する属性を選択するのではなく、入力画像により近いものが検索結果の上位として現れやすい属性情報を所定の指標から自動的にシステムで選択して表示させることも可能とし、「自動選択」として選べるようになっている。ここでは一番その指標が高い属性情報による検索結果を「自動選択1」に、その次に指標が高くなる属性情報を利用した検索結果を「自動選択2」に設定するものとしている。
なお、本実施の形態では、最適な指標を基に選択できる検索結果を上位2つまでとしたが、検索可能な属性の数や画面の構成にあわせて、この数は増やすことが可能であることは自明である。
顔特徴抽出部151は、顔の領域の情報から個人を識別するための顔特徴情報(顔の特徴情報)を数値として出力する。まず、顔検出部120によって検出された顔の部品の位置を基に、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として用いる。ここでは、mピクセル×nピクセルの領域の濃淡値をそのまま情報として用い、m×n次元の情報を特徴ベクトルとして用いる。
これらは単純類似度法という手法によりベクトルとベクトルの長さをそれぞれ「1」とするように正規化を行ない、内積を計算することで特徴ベクトル間の類似性を示す類似度が求められる。詳しくは、たとえば、文献3(エルッキ・オヤ著、小川英光、佐藤誠訳、「パターン認識と部分空間法」、産業図書、1986年)に記載されているような部分空間法を利用することで実現できる。
また、文献4(特開2007−4767号公報)にあるように、1枚の顔画像に対してモデルを利用して顔の向きや状態を意図的に変動させた画像を作成することによってより精度の高まる手法を適用してもよい。
1枚の画像から顔の特徴情報を求める場合には、ここまでの処理で顔特徴抽出は完了する。
一方、同一人物に対して連続した複数の画像を利用した動画像による計算をすることでより精度の高い認識処理が行なうこともできる。具体的には、たとえば、文献5(福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU,vol97,No.113,pp17−24(1997))、文献6(前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」,電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345−352(1985))にある相互部分空間法を用いる方法で説明する。
画像入力部110から連続して得られた画像から顔特徴抽出部151と同様にm×nピクセルの画像を切り出し、これらのデータにより特徴ベクトルの相関行列を求め、K−L展開による正規直交ベクトルを求めることにより、連続した画像から得られる顔の特徴を示す部分空間を計算する。
部分空間の計算法は、特徴ベクトルの相関行列(または共分散行列)を求め、そのK−L展開による正規直交ベクトル(固有ベクトル)を求めることにより、部分空間を計算する。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトル集合を用いて表現する。本実施形態では、相関行列Cdを特徴ベクトルから求め、相関行列
Cd=Φd Λd Φd T
と対角化して、固有ベクトルの行列Φを求める。この情報が現在認識対象としている人物の顔の特徴を示す部分空間となる。
このような方法で出力された部分空間のような特徴情報を入力された画像で検出された顔に対する個人の顔特徴情報とする。
属性特徴抽出部152は、顔検出部120で検出された顔領域の情報を利用して人物の属性情報を求めるための特徴情報を計算する。本実施形態で説明する属性情報としては、年齢、性別、眼鏡の種類、マスク種類、帽子の種類の5種類として進めるが、他にも人種、眼鏡の有無(1か0かの情報)、マスクの有無(1か0かの情報)、帽子の有無(1か0かの情報)、顔への装着品(ピアス、イヤリングなど)、服装、表情、肥満度、裕福度などがあげられるが、いずれも後述の属性判定方法のように事前にカテゴリごとの学習をしておくことで対応が可能であることは明らかである。
属性を判断するために利用する特徴情報を計算する手法については、顔特徴抽出部151と同一の部分空間法で実現可能であるため詳しい部分空間法の計算方法については省略するが、属性特徴については各属性に適した特徴情報があるため、より適した特徴情報抽出処理を利用してもかまわない。
年齢や性別に関する属性特徴の計算方法については、より精度をあげるために年齢、性別それぞれに適した前処理を適用することで、顔の個人特徴での類似度を求めるのでなく、年齢や性別に適した類似性を求めるための特徴情報を計算することが可能である。たとえば、年齢については、年齢が高くなるほど皺が増えてくることから、皺を強調する線分強調フィルタを事前にかけてもよいし、性別については、髭が強調される周波数成分を強調するフィルタや骨格情報が強調されるようなフィルタなどを前処理として適用することが考えられる。
眼鏡やマスク、帽子に関する特徴情報については、顔検出部120によって求められた顔の部位の位置情報から領域を絞りこんで、その領域に対する部分空間を計算することで同様の特徴情報が得られる。たとえば、目、目じり、目頭の位置がわかっていれば、その両目付近だけの画像を切り出して部分空間の計算対象とすることで、眼鏡に対する特徴情報が得られる。
マスクも同様に、口と鼻の座標を基に領域を絞り込むことで、特徴情報が計算できる。帽子については、目および眉の位置がわかっていれば顔の肌領域の上端が推定されるため、顔の頭部領域を絞り込んで帽子を被っているので、帽子が存在する領域を推定することができる。
このように、眼鏡、マスク、帽子といったものについては、顔検出部120で求められた情報から位置を推定することでも実現が可能であるため、他の属性についても同様の処理が可能であることは明らかである。直接その着用物を検出するアルゴリズムも世の中には存在しているため、そのような手法を用いてもかまわない。
なお、眼鏡、マスク、帽子については、着用していなければ着用していないと明示的に特徴をわけてもかまわないが、着用していなければいないで顔の肌の情報がそのまま出てくるため、眼鏡やマスク、サングラスといった特徴情報とは異なる特徴が出るだけであるため、特に分類をしなくてもよい。
人物情報管理部160は、顔検索部171や属性検索部172で検索するときに利用する対象となるデータベースであり、検索対象となる個人ごとに顔特徴抽出部151で抽出された顔特徴情報、および、属性特徴抽出部152で抽出された属性情報を同一の人物ごとに対応付けて管理する。図3にその管理情報の構成例を示す。
顔の特徴情報(顔特徴情報)および属性の特徴情報として実際に管理する内容は、顔特徴抽出部151で抽出されたデータそのものでよく、m×nの特徴ベクトルや、部分空間やKL展開を行なう直前の相関行列でも構わない。さらに、顔特徴抽出部151で抽出される顔特徴情報を画像入力部110により登録時に入力された顔画像とともに管理することで、個人の検索や検索の表示に利用することができる。また、管理するために人物ごとに割り振った人物ID(識別情報)や、本実施形態を実現するために必須な要件ではないが、事前にテキスト情報で別の付帯情報や属性情報を対応付けて管理することも可能である。
顔検索部171は、顔特徴抽出部151で計算された入力画像に対する顔特徴情報と、事前に複数の顔画像とともに登録されている人物情報管理部160内の顔特徴情報との類似度を示す計算を行なって、より類似度の高いものから順番に顔画像の検索結果を返す処理を行なう。この際に、検索処理の結果としては類似性の高いものから順番に人物情報管理部160内で個人を識別するために管理されている人物ID、計算結果である類似度を示す指標を返す。それに加えて、人物情報管理部160で個人ごとに管理されている情報を一緒に返すようにしてもかまわないが、基本的に人物IDにより対応付けが可能であるので、検索処理自体では付属情報をやりとりすることはなくても実現が可能となる。
類似性を示す指標としては顔特徴情報として管理されている部分空間同士の類似度とする。計算方法は、部分空間法や複合類似度法などの方法を用いてよい。この方法では、あらかじめ蓄えられた登録情報の中の認識データも、入力されるデータも複数の画像から計算される部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。ここで入力される部分空間を入力手段分空間という。
入力データ列に対して同様に相関行列Cinを求め、
Cin=Φin Λin ΦinT
と対角化し、固有ベクトルΦinを求める。2つのΦin,Φdで表される部分空間の部分空間間類似度(0.0〜1.0)を求め、これを認識するための類似度とする。具体的な計算方法については、顔特徴抽出部151で紹介した文献3(エルッキ・オヤ)で実現が可能である。また、あらかじめ同一人物と分かる複数の顔画像をまとめて部分空間への射影によって本人であるかどうかを識別することで精度を向上させることも可能であり、前述した文献1,4,5でも同様の処理を行なうこともできる。
属性検索部172は、属性特徴抽出部142で計算された入力画像に対する属性の属性特徴情報と、事前に複数の顔画像とともに登録されている人物情報管理部160内の属性特徴情報との類似度を示す計算を行なって、より類似性の高いものから順番に顔画像の検索結果を返す処理を行なう。
この際、検索処理の結果としては、検索条件設定部130において設定されている条件にあわせて計算を行ない、「検索する」とチェックがついている属性に対し、「並び順」が「高い順」であれば類似性の高いものから順番に人物情報管理部160内で個人を識別するために管理されている人物ID、計算結果である類似性を示す指標を返し、「低い順」となっていればその反対の順番で結果を返す。
なお、検索条件設定部130において「自動」の設定がされていた場合には、後に最適な検索結果を選択できるように検索可能な属性情報に関して全て検索結果を求めておき、同時に検索結果で入力画像に近いものがヒットしているかどうかを示す信頼度の指標を計算しておくようにする。
この信頼度としては以下のような方法で求めることが可能である。
まず、第1の方法としては、検索結果の上位N位(Nは1以上とし、人物情報管理部160に登録されている件数以下)までの類似度、またはその平均値が最も高いとされる検索結果を選択する方法で、上位候補者の類似度の絶対値を指標に用いる方法である。
基本的にはN=1として、1位の検索結果の類似度が最も高い属性を選択すればよい。属性の特性によっては類似度の分布の傾向が異なる可能性があるため、類似度全体の平均値や標準偏差を利用して類似度の正規化を行なうことも可能である。たとえば、類似度に対して類似度の平均値を引くとともに、標準偏差で割ることによって類似度の絶対値および類似度の分散に対する正規化を行なうことが可能となる。
次に、第2の方法としては、検索結果の上位N位(Nは第1の方法と同等)までの検索結果と、N+1位からM位(MはN+1以上で人物情報管理部160に登録されている件数以下)までの2つの類似度群の平均類似度の差、または平均類似度の比率、または分離度を求めることで、それらの指標が最も大きくなる属性がより「他の登録情報よりもぬきんでて近い登録情報が存在する」ことを示すことになり、検索結果として有効であることを示す。こちらは上位候補者の類似度と下位候補者の類似度との相対関係を指標に用いる方法である。
検索結果管理部180は、属性検索部172で得られた検索結果および顔検索部171で得られた検索結果から、検索条件設定部130で設定した内容にあわせて検索結果を管理し、検索条件設定部130により自動設定がされていた場合には、所定の評価値によって最も信頼度が高い検索結果を1つまたは複数選択し、自動設定がされていない場合には、検索条件設定部130で事前に設定された属性情報を利用した検索結果を選択する。
まず、検索条件設定部130において「自動」の設定がされていない場合には、顔検索部171によって得られた検索結果、および、属性検索部172によって得られた検索結果を検索条件設定部130によって設定された内容にあわせて表示できるように検索結果を出力する。ただし、検索条件設定部130において、「類似度統合」にチェックが付いている場合には、顔検索部171で計算された結果と類似度値を統合して結果を返すことになる。この場合は以下のような式(1)で計算すれば実現ができる。
Sim(i)=α*SimFace(i)+β*Sim(i)……(1)
ここで、iは人物情報管理部160で管理されている人物IDのインデックスであり、SimFace(i)はi番目の人物IDに対応する顔特徴情報との類似度、Sim(i)はi番目の人物IDに対応する該当する属性の特徴情報(ここではマスク)との類似度、αとβは顔の特徴情報と属性の特徴情報の重みによって決められる係数であり、検索条件設定部130で個別に設定をしておくことができるため、この数値を引用してもよいし、装置として事前に設定しておいてもよい。
これによって、属性特徴だけを考慮した類似度順だけでなく、顔の特徴として似ているものと属性特徴(ここではマスク)の特徴情報が似ているものを登録された顔画像の中から候補画像として表示させることが可能となる。
また、ここでは顔の特徴情報と1つの属性情報での類似度の統合を行なっているが、複数の属性情報の類似度を統合してもよい。この場合は、上記式(1)の右辺にその属性情報の類似度に係数をかけた値が加算されるように修正することで対応が可能である。
検索条件設定部130において「自動」が選択されていた場合には、顔検索部171および属性検索部172によって得られた検索結果の中から、登録されている顔画像から入力画像と類似する検索結果を示している度合いを示す信頼度の高いものを順に自動的に選択して検索結果として出力するようにする。
出力部190は、検索結果管理部180により選択された検索結果を表示出力する。本実施形態では、図2に示した例のように、顔の特徴および年齢、マスクの属性を使った検索結果を表示する例で説明しているが、検索条件設定部130で設定された内容にあわせて表示出力を行なうものとする。
以上のような構成において、第1の実施形態に係る全体的な処理の流れについて図4に示すフローチャートを参照して説明する。
なお、以下の説明は、検索条件設定部130での設定内容が図2に示した例のようになっているものとする。したがって、この場合、顔の特徴および年齢、マスクの属性を用いた検索が行なわれ、その検索結果が表示される。
図4において、画像入力部110により画像が入力されると(ステップS1)、顔検出部120は、画像入力部110により入力された画像から顔領域を検出する(ステップS2)。その後、3つの検索結果が計算される。
まず、顔特徴を使った検索結果の処理手順を説明する。顔特徴抽出部151は、顔検出部120により検出された顔領域から顔特徴情報を抽出する(ステップS3)。次に、顔検索部171は、顔特徴抽出部151により抽出された顔特徴情報と人物情報管理部160に登録されている顔特徴情報との比較を行なうことにより、両顔特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部160から検索し(ステップS4)、その検索結果を検索結果管理部180を介して出力部190へ送り、たとえば図5に示すように、顔の特徴情報を利用した顔画像の検索結果を表示する(ステップS5)。
次に、マスク属性を使った検索結果の処理手順を説明する。属性特徴抽出部152は、顔検出部120により検出された顔領域からマスク特徴での属性特徴情報を抽出する(ステップS6)。次に、属性検索部172は、属性特徴抽出部152により抽出された属性特徴情報と人物情報管理部160に登録されている属性特徴情報との比較を行なうことにより、両属性特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像(同じようなマスク着用状態である人物の顔画像)を人物情報管理部160から検索し(ステップS7)、その検索結果を検索結果管理部180を介して出力部190へ送り、たとえば図5に示すように、マスクの特徴情報を利用した顔画像の検索結果を表示する(ステップS8)。
この例の場合、図2に示すようにマスク特徴については「類似度統合」が「あり」であることから、ステップS4による顔特徴情報を利用した検索結果とステップS7によるマスク特徴情報を利用した検索結果をあらかじめ検索条件設定部130で設定した重みで順位を統合して検索結果を表示する。
最後に、年齢属性を使った検索結果の処理手順を説明する。属性特徴抽出部152は、顔検出部120により検出された顔領域から年齢の属性特徴情報を抽出する(ステップS9)。次に、属性検索部172は、属性特徴抽出部152により抽出された属性特徴情報と人物情報管理部160に登録されている属性特徴情報との比較を行なうことにより、両属性特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像(同じような年齢に属する人物の顔画像)を人物情報管理部160から検索し(ステップS10)、その検索結果を検索結果管理部180を介して出力部190へ送り、たとえば図5に示すように、年齢の属性特徴情報を利用した顔画像の検索結果を表示する(ステップS11)。
なお、ステップS3,S6,S9の処理は、順次行なってもよく、あるいは、並行して行なってもよい。
図5の画面表示例では、画像入力部110で入力される入力画像1をそのまま表示し、顔検出部120で検出した顔領域に対して矩形を表示している。この例では、入力画像1に複数の人物が存在するため、どの顔画像を検索対象としているのかがわかりやすいように、検索対象の顔画像は実線の矩形2、検索対象外の顔画像については破線の矩形3で表示している。
なお、検索対象の顔画像を切換えたければ、たとえば、図示しないマウスなどでそれぞれの顔領域をクリックすることで、検索対象を切換えられるようにすればよい。
図5の画面の右上に並んでいる画像群4は、顔画像の特徴情報(顔特徴情報)を基に人物情報管理部160の中で管理されている顔画像(顔特徴情報)と比較して類似度が高いと判定された順番に並んで表示された顔画像であり、その下方には表示された顔画像に対応する人物IDと類似度の計算結果5が表示される。
図5の例では、上位5名を検索結果として表示しているが、上位何位までを表示するかは事前に設定変更が可能なようにしてもよいし、表示できない順位の顔画像については、たとえば、ボタン操作によって次の順位の画像が順番に出るようにしてもよいし、スクロールバーによってスクロールさせて顔画像を表示させてもよい。
画像群4の下部に2列横に並んでいる画像群6,8は、上段の画像群6が年齢属性情報での検索結果、下段の画像群8がマスク属性情報での検索結果となる。これらの画像群6,8も、類似度が高いと判定された順番に並んで表示され、その下方には表示された顔画像に対応する人物IDと類似度の計算結果7,9が表示される。
各画像群6,8の左側には、検索条件設定部130で設定された内容がわかるように、対応する設定情報10,11が表示される。
このような検索結果の表示から、入力画像の顔に近いとされる顔画像の特徴情報を使った検索結果が上に並ぶほか、入力された顔画像と「年齢の一番近そうな人」を順に並べた結果、入力された顔画像と「顔が似ていて、着用しているマスクも似ている顔」の類似度が高い順に並んだ結果が同時に表示される。
これによって、顔画像の特徴情報での検索精度が低下しやすい顔の隠蔽物(たとえば、マスクやサングラス)があった場合には、その隠蔽物そのものに近い情報で検索をしたり、顔の特徴と隠蔽物を両方考慮した検索結果を同時に表示させたりすることができる。
また、並び順を「低い順」にすることで、入力されている顔画像にはマスクがついていた場合に、「顔特徴の類似度」と「マスクをつけていない顔」で探すといったことも可能となる。
なお、上記第1の実施形態では、3種類の検索結果を並べて上下に表示しているが、項目数は検索条件設定部130によって変わるので、表示領域を広げたり縮小したり、あるいは、スクロールして複数の検索結果が切換えられるようにしてもかまわない。
また、属性ごとに縦軸と横軸をかえて十字型に顔画像を並べて表示してもよいし、立体的に類似画像を表示してマウスで操作しながら類似画像を順番に表示できるようにしてもよい。
以上説明したように第1の実施形態によれば、あらかじめ登録された複数の顔画像の中から、入力された顔画像に類似する顔画像を検索する場合、入力された顔画像と類似している顔画像の候補の一覧を表示するだけでなく、個人を特定するのではなく年齢や性別、着用物などといった属性情報による視点での類似した顔画像の候補を同時に視覚的に確認できるようにすることで、複数の視点から類似した顔画像の候補の一覧をも同時に表示して目視確認ができるようになる。
次に、第2の実施形態について説明する。
図6は、第2の実施形態に係る顔画像検索装置の構成を概略的に示すものである。第2の実施形態に係る顔画像検索装置は、撮像対象人物Mの少なくとも顔を含む画像を入力するITVカメラ209を含む画像入力部(画像入力手段)210、画像入力部210により入力された入力画像から少なくとも1つの顔領域を検出する顔検出部(顔検出手段)220、検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法等を設定する検索条件設定部(検索条件設定手段)230、画像入力部210により入力された入力画像に対して所定の部分領域画像を合成するための部分領域画像を管理する合成画像管理部(合成画像管理手段)245、検索条件設定部230により設定された条件に基づき画像入力部210により入力された入力画像(実際は顔検出部220により検出された顔領域画像)に対して画像合成が選択された属性情報について合成画像管理部245により管理される部分領域画像を合成した画像を作成する画像合成部(画像合成手段)240、顔検出部220により検出された顔領域から得られる顔画像の個人特徴を示す顔特徴情報を抽出する顔特徴抽出部(顔特徴抽出手段)251、顔検出部220により検出された顔領域から得られる人物の属性情報(年齢、性別、眼鏡の有無、マスクの有無、帽子の有無、人種等)を識別するための属性特徴情報を抽出する属性特徴抽出部(属性特徴抽出手段)252、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報等を対応付けて管理する人物情報管理部(人物情報管理手段)260、顔特徴抽出部251により抽出された入力画像に対する顔特徴情報と人物情報管理部260により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が人物情報管理部260により管理されている顔特徴情報の中のどの顔特徴情報と一番類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部260から検索する顔検索部(顔検索手段)271、属性特徴抽出部252により抽出された入力画像に対する属性特徴情報あるいは画像合成部240により合成された画像に対する属性特徴情報と人物情報管理部260により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部260から検索する属性検索部(属性検索手段)272、属性検索部272により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、顔検索部271により得られた検索結果の中から検索条件設定部230により設定された内容に合致する検索結果を選択する検索結果管理部(検索結果管理手段)280、検索結果管理部280により選択された検索結果を出力する出力部(出力手段)290を有して構成される。
なお、画像入力部210、顔検出部220、顔特徴抽出部251、属性特徴抽出部252、人物情報管理部260、顔検索部271、検索結果管理部280については、前述した第1の実施形態におけるそれらと同様であるため、ここでは説明を省略し、第1の実施形態と異なる部分についてだけ説明する。
検索条件設定部230は、図7に示すように、第1の実施形態と同様に検索に利用する属性情報の選択や検索結果の出力方法について設定を行なうことになるが、第2の実施形態では「画像合成」の項目が追加される。ここで「合成あり」を選択した場合には、画像合成部240において合成する画像を設定するようになる。構成としては、この設定画面において直接画像合成の設定をできるようにしてもかまわない。そのほかの処理や設定画面については、前述した第1の実施形態と同様であるため、説明は省略する。
画像合成部240は、たとえば、図8に示すような合成画像作成画面において、検索条件設定部230で「合成あり」とされた属性情報に対してどのような画像を合成するのかを選択するとともに、実際の入力画像(顔検出部220により検出された顔領域画像)に対して画像の合成処理を行なう。
図8の合成画像作成画面は、入力画像表示部21および合成アイテム表示部22から構成されており、本例では、検索条件設定部230で画像合成ありが「マスク」と設定されていることから、合成アイテム表示部22のカテゴリ23には「マスク」と表示される。検索条件設定部230において複数の「合成あり」の設定がされれば、ここはリストから属性の種類を切換えられるようにすれば、複数の条件での合成も可能となる。
さらに、合成アイテム表示部22には、選択したカテゴリについて合成する画像の部分領域画像がアイコン24の形で表示される。このアイコン24から合成したい画像を図示しないマウスの操作により選択して、入力画像表示部21の入力画像(顔検出部220により検出された顔領域画像)25に対してドラッグすることで、マスク画像の合成が可能となっている。なお、図示しないマウスの操作によって拡大、縮小、回転といった操作ができるようにすることも、実現可能であるのは明らかである。
また、合成アイテム表示部22には、希望する部分領域が存在しない場合や、所定の画像が外部から入力される場合に備えて、新規アイテムの取込釦26が設けられていて、その取込釦26が押下された場合には、別途画像ファイルを読込んでアイテムが追加できるようになっている。この際、画像の部分領域を切り出せるように画像を表示して、マウス操作によって切り出した部分領域をアイテムとして取込めるようにすればよい。
なお、図8において、27は削除釦、28は確定釦、29はキャンセル釦で、これらは合成アイテム表示部22に表示される。また、30は入力画像25に合成されるマスク画像を示していて、図示しないマウスの操作でドラッグすることにより合成される。
合成画像管理部245は、画像合成部240において合成する部分領域画像をデータベースとして管理する。属性ごとに「カテゴリ」として分類して、そのカテゴリごとに合成する画像を管理する。
なお、画像合成部240の合成画像作成画面において、削除釦27や新規アイテムの取込釦26の操作により、アイテムの削除や新規追加ができるようになっている。
属性検索部272は、検索条件設定部230で図7に示すような設定を行なっているため、顔特徴情報を利用した検索以外には、マスクの属性特徴情報を利用した検索結果(顔特徴情報の類似度との統合あり)を計算するとともに、画像合成部240において合成した画像に対しての検索結果を求める。
なお、本実施形態においては、属性検索部272において合成画像での検索結果を求める場合、合成画像から抽出したマスクの属性特徴情報を利用して検索するようにしているが、属性特徴情報を顔特徴情報に切換えて、顔画像全体での検索を行なうようにしてもかまわない。
出力部280は、画像合成がある場合は合成画像を表示する点が前述した第1の実施形態と異なり、それ以外は第1の実施形態と同様であるため、ここでは説明を省略する。
以上のような構成において、第2の実施形態に係る全体的な処理の流れについて図9に示すフローチャートを参照して説明する。
なお、以下の説明は、検索条件設定部230での設定内容が図7に示した例のようになっているものとする。したがって、この場合、顔特徴情報を利用した検索以外に、マスクの特徴情報を利用した検索が行なわれるとともに、合成した画像に対しての検索も行なわれ、その検索結果が表示される。
図9において、画像入力部210により画像が入力されると(ステップS21)、顔検出部220は、画像入力部210により入力された画像から顔領域を検出する(ステップS22)。その後、3つの検索結果が計算される。
まず、顔特徴を使った検索結果の処理手順を説明する。顔特徴抽出部251は、顔検出部220により検出された顔領域から顔特徴情報を抽出する(ステップS23)。次に、顔検索部271は、顔特徴抽出部251により抽出された顔特徴情報と人物情報管理部260に登録されている顔特徴情報との比較を行なうことにより、両顔特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部260から検索し(ステップS24)、その検索結果を検索結果管理部280を介して出力部290へ送り、たとえば図10に示すように、顔の特徴情報を利用した顔画像の検索結果を表示する(ステップS25)。
次に、マスク属性を使った検索結果の処理手順を説明する。属性特徴抽出部252は、顔検出部220により検出された顔領域からマスク特徴での属性特徴情報を抽出する(ステップS26)。次に、属性検索部272は、属性特徴抽出部252により抽出された属性特徴情報と人物情報管理部260に登録されている属性特徴情報との比較を行なうことにより、両属性特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像(同じようなマスク着用状態である人物の顔画像)を人物情報管理部260から検索し(ステップS27)、その検索結果を検索結果管理部280を介して出力部290へ送り、たとえば図10に示すように、マスクの特徴情報を利用した顔画像の検索結果を表示する(ステップS28)。
この例の場合、図7に示すようにマスク特徴については「類似度統合」が「あり」であることから、ステップS24による顔特徴情報を利用した検索結果とステップS27によるマスク特徴情報を利用した検索結果をあらかじめ検索条件設定部230で設定した重みで順位を統合して検索結果を表示する。
最後に、合成画像によるマスク属性を使った検索結果の処理手順を説明する。検索条件設定部230においてマスク画像合成ありを選択した場合(この例の場合、図7に示すようにマスク特徴については「画像合成」が「合成あり」となっている)、画像合成部240において入力画像(顔検出部220により検出された顔領域画像)に対しマスク画像を合成する(ステップS29)。次に、属性特徴抽出部252は、画像合成部240により合成された合成画像からマスク特徴での属性特徴情報を抽出する(ステップS30)。次に、属性検索部272は、属性特徴抽出部252により抽出された属性特徴情報と人物情報管理部260に登録されている属性特徴情報との比較を行なうことにより、両属性特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像(同じようなマスク着用状態である人物の顔画像)を人物情報管理部260から検索し(ステップS31)、その検索結果を検索結果管理部280を介して出力部290へ送り、たとえば図10に示すように、合成画像によるマスクの特徴情報を利用した顔画像の検索結果を表示する(ステップS32)。
なお、ステップS23,S26,S29(S30)の処理は、順次行なってもよく、あるいは、並行して行なってもよい。
図10の画面表示例は、基本的には第1の実施形態における図5とほぼ同様であるが、画像群4の下部に並んでいる年齢属性情報での検索結果による画像群6が、合成画像に対するマスク属性情報での検索結果による画像群12に置き換わった点と、各画像群6,12と設定情報10,11との間に合成画像13が表示される点が異なり、その他は図5と同様である。
以上説明したように第2の実施形態によれば、第1の実施形態と同様の作用効果が得られるほか、所定の部分領域画像を合成させることによって、入力された画像と属性の状態が変化した場合でも、類似した顔画像を精度よく検索することができる。
次に、第3の実施形態について説明する。
図11は、第3の実施形態に係る顔画像検索装置の構成を概略的に示すものである。第3の実施形態に係る顔画像検索装置は、撮像対象人物Mの少なくとも顔を含む画像を入力するITVカメラ309を含む画像入力部(画像入力手段)310、画像入力部310により入力された入力画像から少なくとも1つの顔領域を検出する顔検出部(顔検出手段)320、検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法等を設定する検索条件設定部(検索条件設定手段)330、顔検出部320により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出部(顔特徴抽出手段)351、顔検出部320により検出された顔領域から得られる人物の属性情報(年齢、性別、眼鏡の有無、マスクの有無、帽子の有無、人種等)を識別するための属性特徴情報を抽出する属性特徴抽出部(属性特徴抽出手段)352、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報等を対応付けて管理する人物情報管理部(人物情報管理手段)361、あらかじめ1つまたは複数の属性を判別するために各属性の属性特徴情報を管理する属性別特徴情報管理部(属性別特徴情報管理手段)362、属性特徴抽出部352により抽出された属性特徴情報と属性別特徴情報管理部362により管理されている属性特徴情報とを比較することにより、画像入力部310により入力された顔画像がどの属性に該当するか判別し、その判別結果を人物情報管理部361に対し記録する属性判別部(属性判別手段)353、顔特徴抽出部351により抽出された入力画像に対する顔特徴情報と人物情報管理部361により管理されている顔特徴情報とを比較することにより、入力画像に対する顔特徴情報が人物情報管理部361により管理されている顔特徴情報の中のどの顔特徴情報と一番類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部361から検索する顔検索部(顔検索手段)371、人物情報管理部361により管理されている属性判別部352により画像を利用して自動的に判別された属性特徴情報と検索条件設定部330により設定された検索条件とを比較することにより、検索条件設定部330により設定された検索条件が人物情報管理部361により管理されている属性特徴情報の中のどの属性特徴情報に該当するかを判別し、該当する属性特徴情報と対応する顔画像を人物情報管理部361から検索する第1の属性検索部(第1の属性検索手段)372、人物情報管理部361により管理されている手動で与えられた文字列としての属性特徴情報と検索条件設定部330により設定された検索条件とを比較することにより、検索条件設定部330により設定された検索条件が人物情報管理部361により管理されている属性特徴情報の中のどの属性特徴情報に該当するかを判別し、該当する属性特徴情報と対応する顔画像を人物情報管理部361から検索する第2の属性検索部(第2の属性検索手段)373、第1および第2の属性検索部372,373により得られた各検索結果および顔検索部371により得られた検索結果を検索条件設定部330により設定された内容にあわせて出力する出力部(出力手段)380を有して構成される。
なお、画像入力部310、顔検出部320、顔特徴抽出部351、属性特徴抽出部352、顔検索部371については、前述した第1、第2の実施形態におけるそれらと同様であるため、ここでは説明を省略し、第1、第2の実施形態と異なる部分についてだけ説明する。
検索条件設定部330は、図12に示すように、検索条件について複数の属性情報に対して検索対象とするかどうか、検索結果を表示するかどうか、検索対象とする属性のクラス、検索対象とする属性のクラスと一致するものを選ぶのか一致しないものを選ぶのか、画像の属性特徴情報を利用して自動的に付与された属性情報を利用する検索(第1の属性検索部372)を利用するのか、手動で与えた属性情報を利用する検索(第2の属性検索部373)を利用するのかを設定する。
本実施形態では、簡単にするために年齢と性別を利用した例とするが、図12に記載されている属性の外の属性を選択しても同じように対象となる属性を選択できることにする。たとえば、マスクについては「マスクなし」、「白い立体マスク」、「白い平面マスク」、「青いマスク」、眼鏡については「眼鏡なし」、「透明のレンズの眼鏡」、「サングラス」、帽子については「帽子なし」、「野球帽」、「シルクハット」、「ハンチングハット」、「ヘルメット」、「ベレー帽」などといった、それぞれの属性に対して事前に複数のクラスに分類しておいて、検索条件設定部330で選択するようにすればよい。
なお、本実施形態では、複数の属性情報があった場合に個別に検索するようにしているが、複数の属性情報での検索の論理積(AND)をとった結果や論理和(OR)をとった結果、あるいは、論理積と論理和との組合わせでの絞り込みを行なうようにするための設定画面を準備してもよい。
人物情報管理部361は、顔検索部371や第1、第2の属性検索部372,373で検索するときに利用する対象となるデータベースであり、検索対象となる個人ごとに人物IDを割り振り、顔特徴抽出部351で抽出された顔特徴情報、および、第1の属性検索部372で利用する画像特徴によって自動的に求められた属性特徴情報、および、第2の属性検索部373で利用する手動で与えられた属性特徴情報を示す文字列(クラス名)を各人物IDに対応付けて管理する。図13にその管理情報の構成例を示す。
顔特徴情報の中身については第1の実施形態と同様であるため省略する。ここではクラス名を文字列としたが、文字列でなくクラスを示す識別インデックス(Index)を数値として持っていてもかまわない。
また、画像の特徴情報を利用した属性特徴情報については、検索を行なう段階よりも前に既に人物情報管理部361への登録操作の段階で自動的に属性判別結果が記録されていることとするが、手動の属性特徴情報については、本装置の利用者が明示的に値を入力しなければ属性特徴情報が付与されていないとして、図13に「N/A」と記載されている項目のように「属性情報なし」で管理し、後から追加することも可能とする。後から追加する方法としては、出力部380で表示される検索結果を基にGUIベースで追加することも可能であるが、別途人物IDと属性情報とを対応付けした電子ファイルを取込むことや、登録された情報の一覧表示画面において手動で付与するようにしてもよい。
属性別特徴情報管理部362は、判別対象となっている属性についてそれぞれを代表する属性特徴情報を管理する。たとえば、性別であれば男性と女性を識別するためにそれぞれの属性特徴情報を管理する。それぞれの属性特徴情報は、属性特徴抽出処理と同様の手法を用いて取得することになるが、個人ごとのばらつきを抑えるために各属性でできる限り大量の顔画像を集め、属性ごとにそれらの平均的な属性特徴情報を求めることによって作成可能である。
具体的な方法は、第1の実施形態の顔特徴抽出部151や属性特徴抽出部152で説明している複数画像を利用して部分空間を作成する方法でよい。同様に、年齢については10歳単位、マスクについては「マスクなし」、「白い立体マスク」、「白い平面マスク」、「青いマスク」、眼鏡については「眼鏡なし」、「透明のレンズの眼鏡」、「サングラス」、帽子については「帽子なし」、「野球帽」、「シルクハット」、「ハンチングハット」、「ヘルメット」、「ベレー帽」なども複数のカテゴリに分類して、それぞれに該当する画像を多く集めてそれらを代表する属性特徴情報を作成すればよい。
属性判別部353は、属性特徴抽出部352により抽出された属性特徴情報と属性別特徴情報管理部362で管理されている属性特徴情報とを比較することにより、画像入力部310により入力された顔画像がどの属性に該当するか判別し、その判別結果を人物情報管理部361に対し登録(記録)する。
具体的には、第1の実施形態および第2の実施形態で説明した属性特徴情報を抽出する手法により属性特徴情報を求めるまでは同様であるが、図14に示すフローチャートに基づく処理を行なうことにより、属性特徴抽出部352で入力画像から抽出された属性特徴情報(年齢、性別)と属性別特徴情報管理部362で管理されている属性別の代表特徴情報(辞書)との類似度を求めることにより、その属性において最も類似度の近い属性に属すと判定する。
たとえば、性別であれば、男性の特徴情報(男性辞書)と女性の特徴情報(女性辞書)に対して、それぞれ入力画像から得られた属性特徴情報(性別特徴情報)との類似度を求め、類似度の高い方を入力画像に対する属性判別結果として出力すればよい。
すなわち、たとえば、特開2010−44439号公報に記載されている技術のように、顔の局所的な勾配特徴の発生頻度を統計情報として保持する特徴量を利用し、その統計情報が最も男女を識別するような勾配特徴を選別して、その特徴を識別する識別器を学習によって求め、男女のような2クラスを判別する技術が適用できる。
性別判別のように属性が2クラスではなく、年齢推定のように3クラス以上である場合には、各クラス(ここでは年代)で平均的な顔特徴の辞書を作って、それぞれの辞書との類似度を求め、最大値をとったクラスを選択するということで簡単に実現できるが、より精度を高く年齢を推定する技術として、前述の2クラス判別器を利用した以下の手法で年齢を推定することが可能である。
まず、年齢を推定するために事前に識別したいクラスに分けて判別したい年齢ごとの顔画像を準備する。たとえば、10歳から60歳前後までの判別をしたい場合には、10歳未満から60歳以上までの顔画像をあらかじめ準備する。準備する枚数を集めるほど精度が向上できるほか、年代を幅広く集めると判別できる年齢も広がる。
次に、「基準年齢よりも上か下か」の判別をするための識別器を準備する。2クラス判別に利用する手法としては、線形判別分析などといった標準的な方法でも実現可能であるが、本実施形態ではSupport Vector Machine(以下「SVM」と略す)、文献6(栗田多喜夫:「サポートベクターマシン入門」)を利用する。
SVMでは、判別したい2クラスを与えると、その2クラスを判別する境界条件を設定し、その境界からどのぐらいの距離にあるのかの指標を得ることができるため、本実施形態で基準とする年齢N歳よりも上の年齢に属する顔画像、下の年齢に属する顔画像を分類することで基準となる年齢よりも上か下かを判別することが可能となる。
たとえば、30歳を基準年齢としたときに、30歳よりも上か下かを判別するための画像群を準備し、30歳以上を含む画像を正のクラス「30歳以上」の画像として入力し、負のクラス「30歳未満」の画像として準備してSVMで学習を行なう。同様に、基準年齢を10歳から60歳までずらしながら準備した画像を基準年齢にあわせて2つに分類することで、SVMの学習器が基準年齢の数分だけ準備できる(本実施形態では10歳から60歳まで6個とするが、年齢の範囲や基準年齢をずらす単位は自由に変えてもよい)。
常に「基準年齢よりも上」とするクラスを「正」のクラスとして学習するようにすることで、「基準年齢よりも年齢が上の画像が入力されると指標はプラスの値を返す」ようになる。この判別処理を基準年齢を10歳から60歳までずらしながら実行していくことにより、基準年齢に対して上か下かの指標を得ることができるとともに、この出力された指標の中で、最も指標がゼロに近いところが出力すべき年齢に近いことになる。ここで、年齢の推定方法の一例を図15に示す。
各基準年齢に対するSVMの出力値が得られた後は、その出力値を縦軸に、横軸に基準年齢としたグラフを想定して出力値をプロットする。このプロットに対して出力値がゼロに近いとされる年齢を求めるため、以下の手法を利用することができる。
第1の手法としては、最もゼロに近いプロットを選択する。図15の場合であれば、基準年齢30歳が最もゼロに近いため、「30代」として返すことができる。プロットが不安定で上下に変動する場合には、隣接する基準年齢との移動平均をとることで安定して年代を返すことができる。
第2の手法としては、出力されたプロットを基に近似関数を求め、その関数が縦軸と交差するときの横軸の値を推定年齢とするものである。図15のように、一次関数の直線で近似を取ることにより交点のおよそ33歳という年齢を出力することができる。近似関数を求めるときに全てのプロットで1つの近似関数を求めるのではなく、部分集合(たとえば、隣接する3つの基準年齢に対するプロット)に対する近似関数を複数求め、最も近似誤差が少ない関数に該当する横軸との交点を出力するという方法も可能である。
以上説明した年齢推定方法を纏めてフローチャートであらわしたものを図16に示す。
なお、上記以外にも所定の変換関数を通して得られた値でクラスを判別する方法を用いてもよい。
ここで得られた結果については、人物情報管理部361に記録することで、今後は画像情報を使った属性検索を行なう際に再度、人物情報管理部361の情報に対する属性判別処理をしなくてもよいようにできる。
なお、本実施形態では、検索条件を設定したときに人物情報管理部361に情報が入っていないかどうかをチェックしているが、事前に顔画像を登録する際に自動的に全ての属性に対して画像特徴を利用した属性判別結果を求めて記録しておけば、毎回検索を行なうたびにこのような処理をしなくてもよい。
第1の属性検索部372は、人物情報管理部361で各人物IDに対応付けされて管理されている画像の属性特徴情報を利用して自動的に記録されている属性情報に対し、検索条件設定部330において設定された検索条件にあわせて検索を行なう。
本実施形態では、「年齢」について「30代」と一致するものを画像処理による属性情報の自動判別結果を基に検索することになっているため、図13に示したように人物情報管理部361で管理されている「属性情報(自動)」の「年齢」で記録されている中で「30代」で一致する顔画像を検索結果として出力する。この例の場合、人物IDが「0002」および「0003」の顔画像(人物)が検索結果として出力される。
第2の属性検索部373は、人物情報管理部361で各人物IDに対応付けされて管理されている手動で与えられた属性特徴情報に対し、検索条件設定部330において設定された検索条件にあわせて検索を行なう。
本実施形態では、「性別」について「男性」と一致するものを「手動付与」を対象として検索することになっているため、図13に示したように人物情報管理部361で管理されている「属性情報(手動)」の「性別」で記録されている中で「男性」で一致する顔画像を検索結果として出力する。この例の場合、人物IDが「0002」および「0003」および「0004」の顔画像(人物)が検索結果として出力される。
なお、第2の属性検索部373が検索対象とする人物情報管理部361の属性情報(手動)では、本装置の利用者が手動で付与をしない限りは属性特徴情報が記録されておらず、「N/A」となっているため、ここでの検索対象からは除外される。
また、検索条件設定部330で検索対象を「N/A」とした場合には、「N/A」のものだけが検索結果として出力されるようにもできる。
出力部380は、顔検索部371で得られた検索結果および第1、第2の属性検索部372,373の各検索結果を検索条件設定部330で設定された内容にあわせて表示出力を行なう。
以上のような構成において、第3の実施形態に係る全体的な処理の流れについて説明する。
まず、人物情報管理部361への人物(顔画像、属性情報)の登録時の処理の流れについて図17に示すフローチャートを参照して説明する。
画像入力部310により登録する画像が入力されると(ステップS41)、顔検出部320は、画像入力部310により入力された画像から顔領域を検出する(ステップS42)。次に、顔特徴抽出部351は、顔検出部320により検出された顔領域から顔特徴情報を抽出し、抽出した顔領域内の顔画像とともに、顔全体での特徴を利用した検索のための顔特徴情報として人物情報管理部361に登録する(ステップS43)。
これと同時、あるいは所定のタイミングで、属性特徴抽出部352は、顔検出部320により検出された顔領域から抽出可能な属性特徴情報を抽出する(ステップS44)。次に、属性特徴抽出部352により抽出された属性特徴情報と属性別特徴情報管理部362により管理されている属性特徴情報とを比較することにより、画像入力部310により入力された顔画像がどの属性に該当するか判別し、その判別結果を人物情報管理部361の自動付与された属性特徴情報に登録する(ステップS45)。
このような登録処理により、顔画像の登録処理を行なう際に人手を介して入力するという作業を減らすことができ、効率よく人物情報の登録を行なうことが可能となる。
次に、登録された人物(顔画像)の検索時の処理の流れについて図18に示すフローチャートを参照して説明する。
なお、以下の説明は、検索条件設定部330での設定内容が図12に示した例のようになっているものとする。
画像入力部310により検索対象の画像が入力されると(ステップS51)、顔検出部320は、画像入力部310により入力された画像から顔領域を検出する(ステップS52)。次に、顔特徴抽出部351は、顔検出部320により検出された顔領域から顔全体での特徴を利用した検索のための顔特徴情報を抽出する(ステップS53)。
次に、顔検索部371は、顔特徴抽出部351により抽出された顔特徴情報と人物情報管理部361に登録されている顔特徴情報との比較を行なうことにより、両顔特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部361から検索し(ステップS54)、その検索結果を出力部380へ送り、たとえば図19に示すように、顔の特徴情報を利用した顔画像の検索結果を表示する(ステップS55)。
一方で、検索条件設定部330で設定された属性情報がある場合には、その属性情報を利用して検索の絞込みが行なわれる。その場合、検索条件設定部330において対象となる属性検索を「手動」か「自動」か選択できる。
まず、対象となる属性検索が「自動」と選択された場合、第1の属性検索部372は、人物情報管理部361により管理されている入力画像から自動的に判別された属性特徴情報と検索条件設定部330により設定された検索条件とを比較することにより、検索条件設定部330により設定された検索条件が人物情報管理部361により管理されている属性特徴情報の中のどの属性特徴情報に該当するかを判別し、該当する属性特徴情報と対応する顔画像を人物情報管理部361から検索し(ステップS56)、その検索結果を出力部380へ送り、たとえば図19に示すように、自動的に付与された属性特徴情報を利用した顔画像の検索結果を表示する(ステップS57)。
なお、顔画像の特徴情報を利用して検索をした結果や、自動付与の属性特徴情報を用いた第1の属性検索結果については、手動の属性特徴情報が付与されていない場合があるため、たとえば、図19に示す属性登録・編集釦14を有効にし、検索結果の画像を選択して、この属性登録・編集釦14を押すことによって、人物情報管理部361の「属性情報(手動)」に対して属性特徴情報を付与したり編集して修正したりすることができるようにしてもよい。
次に、対象となる属性検索が「手動」と選択された場合、第2の属性検索部373は、人物情報管理部361により管理されている手動で与えられた文字列としての属性特徴情報と検索条件設定部330により設定された検索条件とを比較することにより、検索条件設定部330により設定された検索条件が人物情報管理部361により管理されている属性特徴情報の中のどの属性情報に該当するかを判別し、該当する属性特徴情報と対応する顔画像を人物情報管理部361から検索し(ステップS58)、その検索結果を出力部380へ送り、たとえば図19に示すように、手動で付与された属性特徴情報を利用した顔画像の検索結果を表示する(ステップS59)。
このように、「自動」を選択した属性特徴情報の場合には、前述のように登録時に自動的に判別された属性特徴情報を使って検索をすることができるので、事前に特別な作業をせずに検索の絞込みが可能となる。その検索結果で出力された第1の属性検索結果を利用することで、属性特徴情報の手動登録も可能とする。
たとえば、年齢が30歳といった条件で検索をして表示された画像をみて、確かに30歳と思えばその結果を基に「手動で付与した属性特徴情報」として新たに人物情報管理部361に登録できる。こちらの属性特徴情報については目視確認を経由して入力されている情報であるため、属性特徴情報が正しい確率が高くなると考えてよい。このような作業を繰り返していくうちに徐々に属性特徴情報の手動で付与した情報が増えていき、徐々に検索精度を高めていくことが可能となる。
図19の画面表示例も、基本的には第1の実施形態における図5とほぼ同様であるが、画像群4の下部に並んでいる年齢属性情報での検索結果による画像群6が、第1の属性検索部372の検索結果による画像群15に置き換わり、画像群4の下部に並んでいるマスク属性情報での検索結果による画像群8が、第2の属性検索部373の検索結果による画像群16に置き換わった点と、属性登録・編集釦14が設けられた点が異なり、その他は図5と同様である。
なお、上記第3の実施形態では、年齢と性別をばらばらに検索した例を示しているが、複数の属性情報を論理積(AND)や論理和(OR)で組合わせた結果にしてもよい。また、顔特徴情報を利用した検索結果に対して第1の属性検索部372および第2の属性検索部373で検索条件に一致したものだけを抽出し、並び順は顔検索結果の順番で並べた例を示しているが、並び順は第1の実施形態と同様、顔検索部371の結果と独立して表示させるようにしてもよい。
以上説明したように第3の実施形態によれば、事前に人物に対する属性特徴情報を付与していなくても属性特徴情報を用いた絞込みといった検索が可能であるほか、その検索結果を利用して人物情報に属性情報を付与することが容易に可能となる。
なお、上記実施形態では、人物の属性情報が年齢、性別、眼鏡の有無、マスクの有無、帽子の有無、人種等としたが、これらの外に眼鏡の種類、マスクの種類、帽子の種類、ひげ、ほくろ、しわ、怪我、髪型、髪の毛の色、服の色、服の形、帽子、装飾品、顔付近への着用物、表情、裕福度であってもよく、これらのうち少なくとも1つの属性情報を用いればよい。
以上説明したように上記実施形態によれば、あらかじめ登録された複数の顔画像の中から、入力された顔画像に類似する顔画像を検索する場合、入力された顔画像と類似している顔画像の候補の一覧を表示するだけでなく、個人を特定するのではなく年齢や性別、着用物などといった属性情報での視点での類似候補を同時に視覚的に確認できるようにすることで、複数の視点から類似した顔画像の一覧を表示して目視確認ができるようになる。
また、顔にマスクやサングラスといった装着物があると個人識別を目的とした顔の特徴での検索の場合、精度の低下が見られる場合があるが、画像を利用して属性情報を合成する機能を持たせることで、精度の低下を防ぐ機能を持たせることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
M…人物、109,209,309…ITVカメラ、110,210,310…画像入力部(画像入力手段)、120,220,320…顔検出部(顔検出手段)、130,230,330…検索条件設定部(検索条件設定手段)、151,251,351…顔特徴抽出部(顔特徴抽出手段)、152,252,352…属性特徴抽出部(属性特徴抽出手段)、171,271,371…顔検索部(顔検索手段)、172,272…属性検索部(属性検索手段)、160,260,361…人物情報管理部(人物情報管理手段)、180,280…検索結果管理部(検索結果管理手段)、190,290,380…出力部(出力手段)、240…画像合成部(画像合成手段)、245…合成画像管理部(合成画像管理手段)、353…属性判別部(属性判別手段)、362…属性別特徴情報管理部(属性別特徴情報管理手段)、372…第1の属性検索部(第1の属性検索手段)、373…第2の属性検索部(第2の属性検索手段)。

Claims (13)

  1. 少なくとも人物の顔画像を含む画像を入力する画像入力手段と、
    この画像入力手段により入力された入力画像から少なくとも1つの顔領域を検出する顔検出手段と、
    検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を設定する検索条件設定手段と、
    前記顔検出手段により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出手段と、
    前記顔検出手段により検出された顔領域から得られる人物の属性特徴情報を少なくとも1つ抽出する属性特徴抽出手段と、
    あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段と、
    前記顔特徴抽出手段により抽出された入力画像に対する顔特徴情報と前記人物情報管理手段により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索手段と、
    前記属性特徴抽出手段により抽出された入力画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索手段と、
    この属性検索手段により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索手段により得られた検索結果の中から前記検索条件設定手段により設定された内容に合致する検索結果を選択する検索結果管理手段と、
    この検索結果管理手段により選択された検索結果を出力する出力手段と、
    を具備したことを特徴とする顔画像検索装置。
  2. 前記検索条件設定手段は、検索対象とする属性情報の種類を選択することが可能であり、それぞれの属性情報について、入力された顔画像から得られた属性特徴情報との類似度が高い順であるか低い順であるか、入力された顔画像から得られた属性特徴情報と一致するか一致しないか、顔画像の個人的な顔特徴情報による類似度および1つまたは複数の属性特徴情報による類似度を統合して検索結果を出力するか属性特徴情報による検索結果を独立に出力するか、前記人物情報管理手段により管理されている情報の中から入力された顔画像に対してより類似しているとされる検索結果を自動的に選択して出力させるかどうか、を切換えることが可能であることを特徴とする請求項1記載の顔画像検索装置。
  3. 少なくとも人物の顔画像を含む画像を入力する画像入力手段と、
    この画像入力手段により入力された入力画像から少なくとも1つの顔領域を検出する顔検出手段と、
    検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を設定する検索条件設定手段と、
    前記画像入力手段により入力された入力画像に対して所定の部分領域画像を合成するための部分領域画像を管理する合成画像管理手段と、
    前記検索条件設定手段により設定された条件に基づき前記画像入力手段により入力された入力画像に対して画像合成が選択された属性情報について前記合成画像管理手段により管理される部分領域画像を合成した画像を作成する画像合成手段と、
    前記顔検出手段により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出手段と、
    前記顔検出手段により検出された顔領域から得られる人物の属性特徴情報を少なくとも1つ抽出する属性特徴抽出手段と、
    あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段と、
    前記顔特徴抽出手段により抽出された入力画像に対する顔特徴情報と前記人物情報管理手段により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索手段と、
    前記属性特徴抽出手段により抽出された入力画像に対する属性特徴情報あるいは前記画像合成手段により合成された画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索手段と、
    この属性検索手段により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索手段により得られた検索結果の中から前記検索条件設定手段により設定された内容に合致する検索結果を選択する検索結果管理手段と、
    この検索結果管理手段により選択された検索結果を出力する出力手段と、
    を具備したことを特徴とする顔画像検索装置。
  4. 前記検索条件設定手段は、検索対象とする属性情報の種類を選択することが可能であり、それぞれの属性情報について、入力された顔画像から得られた属性特徴情報との類似度が高い順であるか低い順であるか、入力された顔画像から得られた属性特徴情報と一致するか一致しないか、顔画像の個人的な顔特徴情報による類似度および1つまたは複数の属性特徴情報による類似度を統合して検索結果を出力するか属性情報による検索結果を独立に出力するか、入力画像に対し所定の画像を合成するか合成しないか、前記人物情報管理手段により管理されている情報の中から入力された顔画像に対してより類似しているとされる検索結果を自動的に選択して出力させるかどうか、を切換えることが可能であることを特徴とする請求項3記載の顔画像検索装置。
  5. 前記画像合成手段は、あらかじめ準備しておいた複数の属性情報にあわせた部分領域画像の中から選択した部分領域画像、あるいは別途準備しておいた画像から指定した部分領域画像のいずれかを前記画像入力手段により入力された画像に対して合成することが可能であることを特徴とする請求項3記載の顔画像検索装置。
  6. 前記検索結果管理手段は、前記人物情報管理手段に管理されている属性情報の中の少なくとも1つに対する検索結果を求め、得られた検索結果の上位候補に対する類似度が下位の検索結果に対して優位な検索結果であるかどうかの指標を求め、その指標の高い順にあらかじめ前記検索条件設定手段により設定された数の検索結果を出力する最適検索結果選択手段を具備することを特徴とする請求項1または請求項3記載の顔画像検索装置。
  7. 少なくとも人物の顔画像を含む画像を入力する画像入力手段と、
    この画像入力手段により入力された入力画像から少なくとも1つの顔領域を検出する顔検出手段と、
    検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を設定する検索条件設定手段と、
    前記顔検出手段により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出手段と、
    あらかじめ登録されている顔画像とそれに対する顔特徴情報、および、画像特徴を利用して自動的に与えられた第1の属性特徴情報、および、手動で与えられた第2の属性特徴情報を対応付けて管理する人物情報管理手段と、
    前記顔特徴抽出手段により抽出された入力画像に対する顔特徴情報と前記人物情報管理手段により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索手段と、
    前記人物情報管理手段により管理されている前記第1の属性特徴情報と前記検索条件設定手段により設定された検索条件とを比較することにより、前記検索条件設定手段により設定された検索条件が前記人物情報管理手段により管理されている第1の属性特徴情報の中のどの第1の属性特徴情報に該当するかを判別し、該当する第1の属性特徴情報と対応する顔画像を前記人物情報管理手段から検索する第1の属性検索手段と、
    前記人物情報管理手段により管理されている前記第2の属性特徴情報と前記検索条件設定手段により設定された検索条件とを比較することにより、前記検索条件設定手段により設定された検索条件が前記人物情報管理手段により管理されている第2の属性特徴情報の中のどの第2の属性特徴情報に該当するかを判別し、該当する第2の属性特徴情報と対応する顔画像を前記人物情報管理手段から検索する第2の属性検索手段と、
    前記顔検索手段により得られた検索結果および前記第1、第2の属性検索手段により得られた各検索結果を前記検索条件設定手段により設定された内容にあわせて出力する出力手段と、
    を具備したことを特徴とする顔画像検索装置。
  8. 前記顔検出手段により検出された顔領域から得られる人物の属性特徴情報を少なくとも1つ抽出する属性特徴抽出手段と、
    あらかじめ1つまたは複数の属性を判別するために各属性の属性特徴情報を管理する属性別特徴情報管理手段と、
    前記属性特徴抽出手段により抽出された属性特徴情報と前記属性別特徴情報管理手段により管理されている属性特徴情報とを比較することにより、前記画像入力手段により入力された顔画像がどの属性に該当するか判別し、その判別結果を前記第1の属性特徴情報として前記人物情報管理手段に登録する属性判別手段と、
    をさらに具備したことを特徴とする請求項7記載の顔画像検索装置。
  9. 前記人物情報管理手段により管理されている第2の属性特徴情報は、前記出力手段により出力された前記第1の属性検索手段の検索結果に基づき手動操作により登録されたものであることを特徴とする請求項7または請求項8記載の顔画像検索装置。
  10. 前記検索条件設定手段は、検索対象とする属性情報の種類を選択することが可能であり、それぞれの属性情報について、検索対象として利用する属性情報を選択すること、選択した属性情報に対して一致するものを検索するのか一致しないものを検索するのか、選択した属性情報に対して前記第1の属性検索手段を使うのか前記第2の属性検索手段を使うのか、が選択可能であることを特徴とする請求項7記載の顔画像検索装置。
  11. 少なくとも人物の顔画像を含む画像を画像入力手段により入力する画像入力ステップと、
    この画像入力ステップにより入力された入力画像から顔検出手段により少なくとも1つの顔領域を検出する顔検出ステップと、
    検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を検索条件設定手段により設定する検索条件設定ステップと、
    前記顔検出ステップにより検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を顔特徴抽出手段により抽出する顔特徴抽出ステップと、
    前記顔検出ステップにより検出された顔領域から得られる人物の属性情報を属性特徴抽出手段により少なくとも1つ抽出する属性特徴抽出ステップと、
    前記顔特徴抽出ステップにより抽出された入力画像に対する顔特徴情報と、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段により管理されている顔特徴情報とを顔検索手段により比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索ステップと、
    前記属性特徴抽出ステップにより抽出された入力画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを属性検索手段により比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索ステップと、
    この属性検索ステップにより得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索ステップにより得られた検索結果の中から前記検索条件設定ステップにより設定された内容に合致する検索結果を検索結果管理手段により選択する検索結果管理ステップと、
    この検索結果管理ステップにより選択された検索結果を出力手段により出力する出力ステップと、
    を具備したことを特徴とする顔画像検索方法。
  12. 少なくとも人物の顔画像を含む画像を画像入力手段により入力する画像入力ステップと、
    この画像入力ステップにより入力された入力画像から顔検出手段により少なくとも1つの顔領域を検出する顔検出ステップと、
    検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を検索条件設定手段により設定する検索条件設定ステップと、
    前記検索条件設定ステップにより設定された条件に基づき前記画像入力ステップにより入力された入力画像に対して画像合成が選択された属性情報について、前記画像入力ステップにより入力された入力画像に対して所定の部分領域画像を合成するための部分領域画像を管理する合成画像管理手段により管理される部分領域画像を合成した画像を画像合成手段により作成する画像合成ステップと、
    前記顔検出ステップにより検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を顔特徴抽出手段により抽出する顔特徴抽出ステップと、
    前記顔検出ステップにより検出された顔領域から得られる人物の属性特徴情報を属性特徴抽出手段により少なくとも1つ抽出する属性特徴抽出ステップと、
    前記顔特徴抽出ステップにより抽出された入力画像に対する顔特徴情報と、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段により管理されている顔特徴情報とを顔検索手段により比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索ステップと、
    前記属性特徴抽出ステップにより抽出された入力画像に対する属性特徴情報あるいは前記画像合成ステップにより合成された画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを属性検索手段により比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索ステップと、
    この属性検索ステップにより得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索ステップにより得られた検索結果の中から前記検索条件設定ステップにより設定された内容に合致する検索結果を検索結果管理手段により選択する検索結果管理ステップと、
    この検索結果管理ステップにより選択された検索結果を出力手段により出力する出力ステップと、
    を具備したことを特徴とする顔画像検索方法。
  13. 少なくとも人物の顔画像を含む画像を画像入力手段により入力する画像入力ステップと、
    この画像入力ステップにより入力された入力画像から顔検出手段により少なくとも1つの顔領域を検出する顔検出ステップと、
    検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を検索条件設定手段により設定する検索条件設定ステップと、
    前記顔検出ステップにより検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を顔特徴抽出手段により抽出する顔特徴抽出ステップと、
    この顔特徴抽出ステップにより抽出された入力画像に対する顔特徴情報と、あらかじめ登録されている顔画像とそれに対する顔特徴情報および画像特徴を利用して自動的に与えられた第1の属性特徴情報および手動で与えられた第2の属性特徴情報を対応付けて管理する人物情報管理手段により管理されている顔特徴情報とを顔検索手段により比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索ステップと、
    前記人物情報管理手段により管理されている前記第1の属性特徴情報と前記検索条件設定ステップにより設定された検索条件とを第1の属性検索手段により比較することにより、前記検索条件設定ステップにより設定された検索条件が前記人物情報管理手段により管理されている第1の属性特徴情報の中のどの第1の属性特徴情報に該当するかを判別し、該当する第1の属性特徴情報と対応する顔画像を前記人物情報管理手段から検索する第1の属性検索ステップと、
    前記人物情報管理手段により管理されている前記第2の属性特徴情報と前記検索条件設定ステップにより設定された検索条件とを第2の属性検索手段により比較することにより、前記検索条件設定ステップにより設定された検索条件が前記人物情報管理手段により管理されている第2の属性特徴情報の中のどの第2の属性特徴情報に該当するかを判別し、該当する第2の属性特徴情報と対応する顔画像を前記人物情報管理手段から検索する第2の属性検索ステップと、
    前記顔検索ステップにより得られた検索結果および前記第1、第2の属性検索ステップにより得られた各検索結果を前記検索条件設定ステップにより設定された内容にあわせて出力手段により出力する出力ステップと、
    を具備したことを特徴とする顔画像検索方法。
JP2010139789A 2010-06-18 2010-06-18 顔画像検索装置および顔画像検索方法 Active JP5444137B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010139789A JP5444137B2 (ja) 2010-06-18 2010-06-18 顔画像検索装置および顔画像検索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010139789A JP5444137B2 (ja) 2010-06-18 2010-06-18 顔画像検索装置および顔画像検索方法

Publications (2)

Publication Number Publication Date
JP2012003623A JP2012003623A (ja) 2012-01-05
JP5444137B2 true JP5444137B2 (ja) 2014-03-19

Family

ID=45535506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010139789A Active JP5444137B2 (ja) 2010-06-18 2010-06-18 顔画像検索装置および顔画像検索方法

Country Status (1)

Country Link
JP (1) JP5444137B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107852443A (zh) * 2015-07-21 2018-03-27 索尼公司 信息处理设备、信息处理方法和程序

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5740210B2 (ja) 2011-06-06 2015-06-24 株式会社東芝 顔画像検索システム、及び顔画像検索方法
JP5548723B2 (ja) * 2012-04-27 2014-07-16 楽天株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP6013241B2 (ja) * 2013-03-18 2016-10-25 株式会社東芝 人物認識装置、及び方法
JP6548998B2 (ja) * 2015-09-07 2019-07-24 株式会社東芝 人物検索システムおよび人物検索方法
WO2017056948A1 (ja) * 2015-09-28 2017-04-06 株式会社日立国際電気 画像処理システム
JP2019531560A (ja) * 2016-07-05 2019-10-31 ナウト, インコーポレイテッドNauto, Inc. 自動運転者識別システムおよび方法
JP6975882B2 (ja) * 2016-08-08 2021-12-01 パナソニックIpマネジメント株式会社 照合装置および照合結果表示方法
KR102359558B1 (ko) * 2017-03-28 2022-02-09 삼성전자주식회사 얼굴 인증 방법 및 장치
EP3418944B1 (en) * 2017-05-23 2024-03-13 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
CN109872379B (zh) * 2017-12-05 2022-12-02 富士通株式会社 数据处理装置和方法
CN109993039A (zh) * 2018-01-02 2019-07-09 上海银晨智能识别科技有限公司 人像识别方法及装置、计算机可读存储介质
JP7048534B2 (ja) * 2018-03-29 2022-04-05 株式会社東芝 画像検索装置、画像検索方法、およびプログラム
JP7247579B2 (ja) * 2018-12-27 2023-03-29 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP7314509B2 (ja) * 2018-12-27 2023-07-26 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2022153451A1 (ja) * 2021-01-14 2022-07-21

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175724A (ja) * 1997-12-11 1999-07-02 Toshiba Tec Corp 人物属性識別装置
JP2002183205A (ja) * 2000-12-11 2002-06-28 Minolta Co Ltd データベース構築プログラムを記録したコンピュータ読み取り可能な記録媒体、データベース構築方法およびデータベース構築装置、ならびに、データベース検索プログラムを記録したコンピュータ読み取り可能な記録媒体、データベース検索方法およびデータベース検索装置
JP2004240741A (ja) * 2003-02-06 2004-08-26 Toshiba Corp 顔照合装置
JP2006018630A (ja) * 2004-07-02 2006-01-19 Canon Inc データ検索方法及び装置、プログラム、コンピュータ可読メモリ
JP2006318375A (ja) * 2005-05-16 2006-11-24 Matsushita Electric Ind Co Ltd 顔画像検索装置および顔画像検索方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107852443A (zh) * 2015-07-21 2018-03-27 索尼公司 信息处理设备、信息处理方法和程序
CN107852443B (zh) * 2015-07-21 2020-01-07 索尼公司 信息处理设备、信息处理方法和程序

Also Published As

Publication number Publication date
JP2012003623A (ja) 2012-01-05

Similar Documents

Publication Publication Date Title
JP5444137B2 (ja) 顔画像検索装置および顔画像検索方法
JP5649425B2 (ja) 映像検索装置
US8861801B2 (en) Facial image search system and facial image search method
US9171012B2 (en) Facial image search system and facial image search method
US10891509B2 (en) Method and system for facilitating identification of an object-of-interest
CN108933925A (zh) 信息处理装置、信息处理方法以及存储介质
US20090091798A1 (en) Apparel as event marker
US20140050374A1 (en) Using relevance feedback in face recognition
US20080298643A1 (en) Composite person model from image collection
JP6529314B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN110427795A (zh) 一种基于头部照片的属性分析方法、***和计算机设备
JP2014016968A (ja) 人物検索装置及びデータ収集装置
JP2013065118A (ja) 顔認識装置、及び顔認識方法
CN110232331A (zh) 一种在线人脸聚类的方法及***
JP2006031387A (ja) 画像認識装置、画像認識方法、画像認識プログラムおよび画像認識プログラムを記録した記録媒体
JP2006318375A (ja) 顔画像検索装置および顔画像検索方法
Ravi et al. A study on face recognition technique based on Eigenface
KR101107308B1 (ko) 영상 검색 및 인식 방법
Sharma et al. Suspect face retrieval via multicriteria decision process
Pavlovic et al. Facial expression and lighting conditions influence on face recognition performance
Vaquero et al. Attribute-based people search
Guo et al. A joint density based rank-score fusion for soft biometric recognition at a distance
KR101981634B1 (ko) 연령대별 얼굴사진 학습을 통한 지능형 얼굴사진 위치 검색장치
Jadhav et al. Introducing Celebrities in an Images using HAAR Cascade algorithm
Tiwari et al. Detection of facial features of frontal face color images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131220

R151 Written notification of patent or utility model registration

Ref document number: 5444137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151