JP6202938B2 - 画像認識装置および画像認識方法 - Google Patents

画像認識装置および画像認識方法 Download PDF

Info

Publication number
JP6202938B2
JP6202938B2 JP2013172620A JP2013172620A JP6202938B2 JP 6202938 B2 JP6202938 B2 JP 6202938B2 JP 2013172620 A JP2013172620 A JP 2013172620A JP 2013172620 A JP2013172620 A JP 2013172620A JP 6202938 B2 JP6202938 B2 JP 6202938B2
Authority
JP
Japan
Prior art keywords
feature
image
feature amount
registered
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013172620A
Other languages
English (en)
Other versions
JP2015041293A (ja
Inventor
敦夫 野本
敦夫 野本
山本 貴久
貴久 山本
佐藤 博
博 佐藤
雄司 金田
雄司 金田
俊亮 中野
俊亮 中野
崇士 鈴木
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013172620A priority Critical patent/JP6202938B2/ja
Publication of JP2015041293A publication Critical patent/JP2015041293A/ja
Application granted granted Critical
Publication of JP6202938B2 publication Critical patent/JP6202938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、特に、異なる照明条件によって物体認識を行うために用いて好適な画像認識装置、画像認識方法、プログラムおよび記憶媒体に関する。
従来、画像に含まれる物体を、予め辞書に登録された物体と比較することにより物体を識別する物体認識技術が数多く提案されている。この物体認識技術の代表例としては、顔認識技術が挙げられ、顔認識技術の応用例としては、画像データベースの中から特定の人物を探し出す検索用途や、デジタルカメラ等の撮影パラメタを人物毎に自動で切り換える機器制御用途などがある。これらの用途に用いられる画像は実環境下で撮影されるため、様々な撮影環境に頑健な顔認識技術が求められる。特に、辞書と入力画像とで照明条件が異なる場合に顔認証の精度を向上させることが大きな課題となっている。
一般には、様々な照明条件で撮影された多数の顔画像を辞書に登録しておくことが望ましい。しかし、入力画像の照明条件を網羅するような顔画像を集めて辞書に登録するのは難しい。また、様々な照明条件で撮影すると、撮影対象となるユーザの負担が大きく、先に挙げた顔認証技術の応用例において、利便性を大きく損ねることになる。
このような課題に対して、任意の照明条件の顔認識用情報(顔画像または特徴量)を生成し、顔認証に利用する方法が提案されている。例えば特許文献1には、入力画像と顔立体形状モデルとを用いて顔の表面反射率を推定し、その表面反射率から任意の照明条件の顔画像を生成する手法が提案されている。この方法によれば、入力画像と似た照明条件の顔画像を生成することにより照明条件の変化に頑健な顔認識を実現すると記載されている。
また、特許文献2には、抽出した特徴量に対して座標変換を施すことによって、任意の照明条件の特徴量を生成する手法が提案されている。この手法では、特徴量に対する変換を行うことによりメモリ容量および計算コストを低減しつつ、照明条件の変化に頑健な顔認識を実現すると記載されている。
特開2002−24830号公報 特許第4951995号公報 特開2009−211177号公報
P. Viola and M. Jones, "Robust real−time face detection", In page II: 747, 2001. N. Dalal and B. Triggs. Histograms of oriented gradients for human detection. Coference on Computer Vision and Pattern Recognition (CVPR), 2005.
しかしながら、上記の方法では、入力画像と辞書に登録されている登録画像とで照明の方向が異なる場合に依然として類似度の判定精度が低下する問題がある。特許文献1に記載の方法では、顔画像と顔立体形状モデルとを使用するため、照明条件の変化に伴う変換の質が表面反射率の推定精度によって左右されてしまう。また、顔立体形状モデルを用いる点や画像ベースで変換・生成処理を行うため、計算コストが膨大となる。また、特許文献2に記載の方法では、特徴量に対する処理により少ない計算コストを実現しているものの、座標変換によって特徴量を一律に変換してしまう。このため、顔の器官領域など、個体差が生じやすい部分のエッジまで変換してしまい、認識精度の低下を招く可能性がある。
本発明は前述の問題点に鑑み、計算コストを抑えて照明条件の変化に頑健な物体認識を実現できるようにすることを目的としている。
本発明の画像認識装置は、登録画像および入力画像のそれぞれから物体画像を取得する取得手段と、前記取得手段によって取得された物体画像から、画素値の大小関係に基づく第一特徴量を抽出する第一特徴量抽出手段と、前記第一特徴量抽出手段によって抽出された前記登録画像に係る第一特徴量を画素値の変化の勾配に応じて変化させた第二特徴量を抽出する第二特徴抽出手段と、前記登録画像に係る第一および第二特徴量を辞書に登録する登録手段と、前記辞書に登録された特徴量と前記入力画像の特徴量とを比較することにより前記入力画像の物体と前記登録画像の物体との類似度を算出する算出手段とを備えたことを特徴とする。
本発明によれば、計算コストを抑えて照明条件の変化に頑健な物体認識を実現することができる。
本発明の実施形態に係る画像認識装置のハードウェア構成例を示すブロック図である。 実施形態における画像認識装置の機能構成例を示すブロック図である。 実施形態における辞書データを登録する処理手順の一例を示すフローチャートである。 第一特徴抽出処理の詳細な手順の一例を示すフローチャートである。 注目画素とその周辺画素との関係を表わした模式図である。 第二特徴抽出処理の詳細な手順の一例を示すフローチャートである。 第1の実施形態における入力画像を識別する処理手順の一例を示すフローチャートである。 局所類似度を算出する詳細な処理手順の一例を示すフローチャートである。 統合類似度を算出する詳細な処理手順の一例を示すフローチャートである。 第1の実施形態において、局所類似度および統合類似度を算出する処理を模式的に説明するための図である。 第2の実施形態における入力画像を識別する処理手順の一例を示すフローチャートである。 第2の実施形態において、局所類似度および統合類似度を算出する処理を模式的に説明するための図である。
(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について詳細に説明する。以下の説明では、物体画像から物体認識を行う例として顔認識について説明する。
<ハードウェア構成>
図1は、本実施形態に係る画像認識装置100のハードウェア構成例を示すブロック図である。
図1に示すように、本実施形態に係る画像認識装置100は、CPU101、ROM102、RAM103、2次記憶装置104、撮像素子105、信号処理装置106、外部出力装置107、および接続バス108を備えている。
CPU101は、ROM102やRAM103に格納された制御プログラムを実行することにより、画像認識装置100全体の制御を行う。ROM102は不揮発性メモリであり、制御プログラムや各種パラメタデータを記憶する。制御プログラムは、CPU101で実行され、後述する各処理を実行するための手段として、当該装置を機能させる。RAM103は揮発性メモリであり、画像データや制御プログラムおよびその実行結果を一時的に記憶する。2次記憶装置104は、ハードディスクやフラッシュメモリーなどの書き換え可能な2次記憶装置であり、画像情報や制御プログラム、各種設定内容などを記憶する。これらの情報はRAM103に出力され、CPU101がプログラムの実行に利用する。
撮像素子105は、CCDセンサやCMOSセンサで構成され、被写体像の光を電気信号に変換する。信号処理装置106は撮像素子105から取得した電気信号を処理し、デジタル信号に変換する信号処理回路である。このデジタル信号は、画像データとして、RAM103または2次記憶装置104へ出力される。外部出力装置107は、CRTやTFT液晶などのモニタであり、RAM103または2次記憶装置104から取得した画像データや制御プログラムの実行結果等を表示する。接続バス108は、これらの各構成を接続して相互にデータの入出力を行う。
なお、本実施形態では、後述する処理を、CPU101を用いてソフトウェアで実現することとするが、その処理の一部または全部をハードウェアで実現するようにしても構わない。ハードウェアとして専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP、CPU)などを用いることができる。また、本実施形態の画像認識装置100は、撮像素子105や信号処理装置106を備えていないパーソナルコンピュータ(PC)を用いて実現してもよいし、画像認識専用装置として実現するようにしても構わない。また、ネットワークまたは各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ等の処理装置(CPU、プロセッサ)にて実行してもよい。
<機能構成>
図2は、本実施形態における画像認識装置100の制御プログラムによる機能構成例を示すブロック図である。
図2に示すように、本実施形態に係る画像認識装置100は、顔画像取得部201、顔特徴点抽出部202、局所画像取得部203、第一特徴抽出部204、および第一特徴抽出パラメタ保持部205を備えている。さらに、第二特徴抽出部206、第二特徴抽出パラメタ保持部207、特徴量射影部208、辞書データ登録部209、局所類似度算出部210、統合類似度算出部211、および認識結果出力部212を備えている。
顔画像取得部201は、RAM103または2次記憶装置104から画像データを取得し、その画像中から切り出した顔画像を、顔特徴点抽出部202および局所画像取得部203へ出力する。顔特徴点抽出部202は、顔画像取得部201から取得した顔画像から、顔の器官位置を抽出し、局所画像取得部203へ出力する。局所画像取得部203は、顔画像取得部201から取得した顔画像と顔特徴点抽出部から取得した顔の器官位置の情報とを用いて、所定のサイズの局所領域を設定し、第一特徴抽出部204および第二特徴抽出部206へ、局所画像を出力する。
第一特徴抽出部204は、局所画像取得部203から取得した局所画像と、第一特徴抽出パラメタ保持部205が保持する所定の特徴抽出パラメタとを用いて第一特徴量を抽出する。第二特徴抽出部206は、局所画像取得部203から取得した局所画像と、第二特徴抽出パラメタ保持部207が保持する所定の特徴抽出パラメタとを用いて、第二特徴量を取得する。
特徴量射影部208は、第一特徴抽出部204または第二特徴抽出部206からそれぞれ第一特徴量または第二特徴量を取得し、特徴量の射影処理を行い、辞書データ登録部209または局所類似度算出部210に出力する。以下、第一特徴量を射影したベクトルを第一射影特徴量と呼び、第二特徴量を射影したベクトルを第二射影特徴量と呼ぶ。辞書データ登録部209は、特徴量射影部208から取得した第一および第二射影特徴量を辞書として登録する。辞書データ登録部209は、登録した辞書(以下、登録辞書)を局所類似度算出部210に出力する。
局所類似度算出部210は、取得した第一射影特徴量と、辞書データ登録部209から取得した登録辞書とを比較し、局所画像毎の局所類似度を算出し、統合類似度算出部211へ出力する。統合類似度算出部211は、局所類似度算出部210から取得した局所類似度を人物ID毎の類似度に統合した統合類似度を算出し、認識結果出力部212へ出力する。認識結果出力部212は、取得した人物ID毎の統合類似度から、最終的な識別結果を算出し、RAM103または外部出力装置107に出力する。
<全体の処理>
本実施形態に係る画像認識装置100は、辞書データ登録処理と識別処理とを行う。辞書データ登録処理では、識別したい人物の顔画像を登録する。一方、識別処理では、入力画像と辞書データ登録処理で登録された辞書とを用いて識別処理を行う。以下、それぞれについて説明する。
<辞書データ登録処理>
図3は、本実施形態における辞書データを登録する処理手順の一例を示すフローチャートである。
始めに、顔画像取得部201は、RAM103または2次記憶装置104から画像データを取得する(S300)。そして、取得した画像データから人物の顔を検出する処理を行う(S301)。画像中から人物の顔を検出する方法については、公知の技術を用いればよい。例えば、非特許文献1に記載されているような技術を用いることができる。
続いて、顔画像取得部201は、取得した画像データから顔が検出されたか否かを判定する(S302)。この判定の結果、顔が1つも検出されなかった場合は、処理を終了する。一方、顔が検出された場合は、顔画像取得部201は、検出された顔の位置情報を元に顔領域を切り出した顔画像データを取得する。なお、顔領域を切り出す際に、画像データの水平方向の軸に対して顔の両目をつないだ直線が平行になるよう画像を回転させる処理を施し、画像の面内回転を補正しておく。こうすることにより、以後の処理で、顔の面内回転による余計な影響を除去することができる。さらに、両目をつなぐ線分が顔画像の横幅に占める割合が一定になるよう拡大・縮小を行う顔サイズ正規化処理を施すことにより、どのような顔でも一定の目幅で以後の処理を実行することができる。そして、顔特徴点抽出部202は、顔画像データから器官の位置を示す顔特徴点を抽出する(S303)。抽出する顔特徴点としては、両目や口といった顔の個人差が出やすい器官を選択する。顔特徴点を抽出する方法については、公知の技術を用いればよい。例えば、特許文献3に記載されているような技術を用いることができる。
続いて、抽出した顔特徴点を基に第一特徴抽出処理を行う(S304)。この処理では、顔特徴点を基準に定めた局所領域毎に特徴量を抽出するため、局所領域の数だけ特徴量が抽出される。この処理の詳細については後述する。
続いて、特徴量射影部208は、第一特徴抽出部204において局所領域毎に抽出されたすべての第一特徴量に対して射影処理を行う(S305)。射影時に使用する射影行列は、学習データ(大量の顔画像データ)から事前に計算しておく。計算には主成分分析(Principal Component Analysis、PCA)を用いる。以下、射影にPCAを用いた場合の具体的な処理方法について説明する。まず、入力の第一特徴量ベクトルXを以下の式(1)により定義する。
Figure 0006202938
ここでTは転置を表し、xはLBP特徴量の構成要素成分を表し、mは特徴量の次元数を表す。次に、あらかじめ学習しておいた固有空間への射影行列Vを以下の式(2)により表す。
Figure 0006202938
さらに、次元削減を行うために行列Vのn行以降を削除した行列V′を以下の式(3)により表す。
Figure 0006202938
以上のように式(2)および式(3)に示した行列を射影処理に用いる。ただしn<mとする。また、射影後の特徴量Pは、以下の式(4)により算出される。
Figure 0006202938
ここで、Aは学習データの平均ベクトルである。
主成分分析は、特徴量群の分布を解析し、分散最大基準で基底を計算する手法であり、特徴量を元の特徴空間よりも情報的価値(分散最大基準での)が高い空間で表現することができる。主成分分析により得られた固有空間に特徴量を射影することにより、学習に用いた画像セットをよりよく表現できるだけでなく、情報的価値の低い次元を切り落とすことにより特徴量の次元数を削減する効果も期待できる。なお、削減する次元の量を調整するには式(3)の変数nを調整すればよい。ここでは削減する次元数を実験的に定めるが、累積寄与率を基に定めてもよい。固有空間の計算方法としては、この他にもLocality Preserving Projection(LPP)を用いてもよい。また、それ以外に、教師付きの固有空間学習方法であるLocal Fisher Discriminant Analysis(LFDA)、などの公知の例を用いてもよい。
続いて、顔特徴点を基に第二特徴量抽出処理を行う(S306)。この処理では、S304における第一特徴抽出処理と同様に、局所領域毎に特徴量が抽出されるため、局所領域の数だけ特徴量が抽出される。この処理の詳細については後述する。続いて、特徴量射影部208は、第二特徴量に対して射影処理を行う(S307)。具体的な処理の内容は、S305の第一特徴量に対する射影処理と同様であるため、ここでの説明は省略する。
続いて、辞書データ登録部209は、第一射影特徴量および第二射影特徴量を辞書に登録する(S308)。このとき、第一射影特徴量および第二射影特徴量は同一人物(同一の画像)から抽出した特徴量であるため、同一の人物IDを割り振り、辞書に登録する。
次に、まだ処理していない顔が存在するか否かを判定する(S309)。この判定の結果、まだ処理していない顔が存在する場合は、次の顔について、S303に戻って処理を繰り返す。一方、全ての顔について処理が完了した場合は、処理を終了する。
<第一特徴抽出処理>
次に、S304の第一特徴抽出処理について説明する。図4は、図3のS304における第一特徴抽出処理の詳細な手順の一例を示すフローチャートである。
始めに、局所画像取得部203は、顔画像取得部201から顔画像データを取得する(S400)。続いて局所画像取得部203は、顔特徴点抽出部202から顔特徴点を取得する(S401)。続いて、第一特徴抽出部204は、第一特徴抽出パラメタ保持部205から第一特徴抽出パラメタを取得する(S402)。
続いて、局所画像取得部203は、取得した顔画像および顔特徴点を用いて局所領域を設定し、局所画像を取得する(S403)。局所領域を設定する際には、顔特徴点を基準点として、そこから所定画素数の距離にある点を中心点とする所定サイズの矩形領域を局所領域として設定する。このとき、一つの基準点に対して複数の局所領域を設定してよい。また、どの局所領域を局所画像として取得するかについては、事前に学習で定めるようにしてもよい。
続いて、第一特徴抽出部204は、局所画像と第一特徴抽出パラメタとを用いて第一特徴量を抽出する(S404)。このとき、第一特徴抽出部204は、抽出した特徴量を局所画像毎に固有のラベルと対応付けて保持する。本実施形態では、特徴量としてLBP(Local Binary Pattern)特徴量を抽出するが、その他公知の例を用いてもよい。LBP特徴量は、隣り合う画素値の大小関係をコード化した特徴量である。画素間の大小関係のみに着目するため、画像の全体的な照明変化に頑健な特徴量として知られている。そのため、様々な照明条件が想定される顔画像の識別等に適している。LBP特徴量の抽出方法は以下の通りである。
図5は、LBP特徴量を抽出するための注目画素とその周辺画素との関係を表わした模式図である。ここで、注目画素gcの画素値をIcとし、周辺のp番目の画素gpの画素値をIpとする。図5に示すように、注目画素gcの真上がg1、右上がg2となり、時計周りにg8まで続いている。このとき、注目画素gcにおけるLBPコード値LBPcは、第一特徴抽出パラメタである以下の式(5)により算出される。
Figure 0006202938
ここで、PはLBPコードのビット数を示しており、図5に示す例ではP=8である。式(5)では、注目画素とその周辺8画素との差分が0以上である場合は1(ビットを立てる)を当てはめ、0より小さい場合は0(ビットを立てない)を当てはめる。このように数値を連結したコードを8ビットの数値として扱う。このLBPコード値LBPcをLBP特徴量と呼び、本実施形態における第一特徴量とする。
次に、全ての局所画像の特徴抽出を完了したか否かを判定する(S405)。この判定の結果、特徴抽出が完了した場合は、局所画像取得部203は、使用した局所画像を保持し(S406)、第一特徴抽出処理を終了する。なお、保持した局所画像は第二特徴抽出処理で使用するため、この処理では保持したままにしておく。一方、まだ特徴抽出していない局所画像がある場合は、S403に戻り、残りの局所画像に対して処理を繰り返す。
<第二特徴抽出処理>
次に、第二特徴抽出処理について説明する。図6は、図3のS306における第二特徴抽出処理の詳細な手順の一例を示すフローチャートである。
始めに、第二特徴抽出部206は、第二特徴抽出パラメタ保持部207から第二特徴抽出パラメタを取得する(S601)。本実施形態では、この第二特徴抽出パラメタを事前に3種類用意しておく。第二特徴抽出パラメタの数は、多いほど精度向上に寄与する傾向があるが、多くすると特徴抽出時の計算量が多くなってしまうため、目的に応じて第二特徴抽出パラメタの数を設定する。ここで取得する第二特徴抽出パラメタは、第一特徴抽出パラメタとは異なるパラメタである。具体的には、式(5)に示したLBP特徴量の算出式と比べて、以下の式(6)に示すように注目画素値をIcと周辺画素値Ipとの比較にオフセット値θを導入する。
Figure 0006202938
このようにオフセット値θを導入することによって、顔の個人差はそのままにし、照明方向が異なる顔画像の特徴量を疑似的に生成することができる。以下、そのオフセット値θの詳細について説明する。
顔画像において、顔にあたる照明の方向が変わると、肌領域では画素値の変化の勾配が小さく起伏が乏しいため、画素値の大小関係が照明方向に応じて変化する。そのため、LBP特徴量のように画素値の大小関係を利用する特徴量のパターンも変化してしまう。一方、顔の器官領域における器官のエッジは、画素値の変化の勾配が大きく画素値の大小関係の差が大きいため、照明方向が変わっても画素値の大小関係が逆転することはなく、特徴量のパターンは大きく変化しない。
つまり、画素値の大小関係を利用する特徴量で照明方向の異なる顔を表現するには、元の特徴量と比較して、肌領域では照明方向による変化があり、器官領域ではその変化が少ない特徴量を生成しなければならない。そこで、式(6)において、オフセット値θを、肌領域では特徴量のパターンが変化し、器官領域ではあまり変化しないような値に設定することによって、あたかも照明方向を変えたかのような特徴量を抽出することができる。オフセット値θをどのような値に設定するかについては、表現したい照明条件によるため実験的に定めるのがよい。
一つの例として、入力画像と登録辞書とで照明方向が大きく異なる場合(順光の顔と逆光の顔との比較など)では、オフセット値θを負の値にすることによって、大小関係が逆転したかのような特徴量を抽出することができる。また、本実施形態ではオフセット値θを含む式を第二特徴抽出パラメタとし、第一特徴量を変更した特徴量を第二特徴量としたが、LBP特徴量のその他のパラメタを変更して第二特徴量としてもよい。例えば、式(5)のpの順番、つまりコード化の順番などを変えてもよい。
続いて、第二特徴抽出部206は、局所画像取得部203から局所画像を取得する(S602)。前述の第一特徴抽出処理のS406において、局所画像取得部203は局所画像を保持しているので、保持している局所画像をそのまま取得することになる。
続いて、第二特徴抽出部206は、前述した第二特徴抽出パラメタと局所画像とを用いて第二特徴量を抽出する(S603)。このとき、第一特徴抽出処理と同様に、抽出した特徴量を局所画像毎に固有のラベルと対応付けて保持するようにする。
次に、全ての局所画像について処理を完了したか否かを判定する(S604)。この判定の結果、処理していない局所画像が存在する場合はS602に戻り、全ての局所画像について処理を完了した場合は、次のS605に進む。最後に、全ての第二特徴抽出パラメタで第二特徴量の抽出が完了したか否かを判定する(S605)。この判定の結果、全ての第二特徴抽出パラメタで終了した場合は、第二特徴抽出処理を終了する。一方、まだ処理が完了していない第二特徴抽出パラメタがある場合は、S601に戻り、残りの特徴抽出パラメタに対して処理を継続する。
<識別処理フロー>
次に、識別処理について説明する。図7は、本実施形態における入力画像を識別する処理手順の一例を示すフローチャートである。なお、図7のS700〜S705は図3の辞書データ登録処理におけるS300〜S305と同様であるため、説明は省略する。以下、S706の局所類似度算出処理から説明する。
S705の処理が終了すると、局所類似度算出部210は、S705で算出した第一射影特徴量と辞書(第一射影特徴量および第二射影特徴量)とを比較することにより局所類似度を算出する(S706)。この処理の詳細については後述する。続いて、統合類似度算出部211は、取得した局所類似度から辞書に登録されている人物ID毎の類似度を算出する(S707)。この処理の詳細についても後述する。
次に、まだ処理していない顔画像データが存在するか否かを判定する(S708)。この判定の結果、まだ処理していない顔画像データが存在する場合は、S703に戻り、次の顔画像データについて処理を継続する。一方、全ての顔画像データの処理を完了した場合は、認識結果出力部212は、顔認識結果をRAM103または外部出力装置107に出力する(S709)。この処理では、人物ID毎の類似度のうち最も高いものを選択し、その類似度が所定値よりも大きい場合は、その類似度に対応する人物IDを顔認識結果として出力する。なお、類似度が所定値以下の場合は、辞書中の誰でもないという顔認識結果を出力する。また、S702の判定の結果、入力画像から顔が1つも検出されなかった場合も、その旨の結果を出力する。
<局所類似度算出処理>
次に、局所類似度算出処理について説明する。図8は、図7のS706における局所類似度を算出する詳細な処理手順の一例を示すフローチャートである。なお、図8に示す各処理は局所類似度算出部210により行われる。
始めに、局所類似度算出部210は、特徴量射影部208から、図7のS705により得られた特徴量(第一射影特徴量)を取得する(S800)。続いて、辞書データ登録部209から登録辞書を取得する(S801)。
続いて、取得した特徴量と登録辞書とから局所類似度を算出する(S802)。前述の通り、射影特徴量は局所画像の数だけ存在するので、局所画像毎に局所類似度を算出することとなる。また、特徴量には局所画像毎に固有のラベルが対応付けられているので、同一のラベルを持つ特徴量同士で局所類似度を算出する。局所類似度を算出する方法としては、特徴ベクトル間の内積に基づくコサイン類似度を用いる。すなわち、入力画像の特徴量をV1、登録辞書の特徴量をVRとし、V1とVRとがなす角をαとすると、コサイン類似度Sは、以下の式(7)により算出される。
Figure 0006202938
ここで、V1・VRはV1とVRとの内積、|V1|および|VR|はそれぞれのベクトルのノルムを表す。本実施形態ではコサイン類似度を用いているため、局所類似度の範囲が−1から+1の間となり、異なる局所領域で算出された類似度を統合する際に都合がよい。
次に、全ての局所画像について局所類似度を算出したか否かを判定する(S803)。この判定の結果、全ての局所画像について局所類似度を算出した場合は次の処理に進み、そうでない場合はS802に戻り、残りの局所画像について局所類似度を算出する。次に、全登録辞書について局所類似度の算出が完了したか否かを判定する(S804)。この判定の結果、全登録辞書について局所類似度を算出した場合は、算出した局所類似度を出力し(S805)、この類似度算出処理を終了する。この時点で、登録されている画像毎に複数の局所類似度が算出されている状態となっている。一方、局所類似度の算出が完了していない登録辞書がある場合は、S801に戻り、残りの登録辞書に対して処理を継続する。
<統合類似度算出処理>
次に、統合類似度算出処理について説明する。図9は、図7のS707における統合類似度を算出する詳細な処理手順の一例を示すフローチャートである。なお、図9に示す各処理は、統合類似度算出部211により行われる。
始めに、統合類似度算出部211は、局所類似度算出部210から局所類似度を取得する(S900)。続いて、登録辞書の顔画像毎に存在する局所類似度を、人物ID毎の局所類似度に統合する(S901)。図10は、人物ID毎の局所類似度を算出する際の、ある局所領域についての処理例を示した模式図である。図10に示す例では、人物ID=1の人物の局所領域Aについて、人物ID毎の局所類似度を算出する場合について示している。
図10に示すように、人物ID=1の局所領域Aにおける局所類似度の中から、最も高い類似度を選択し、その類似度をその人物IDの局所領域Aの局所類似度とする。なお、図10に示す登録画像3は人物IDが異なるので、この計算には使用しない。このように全局所領域について同様の計算を施す。
一般的に、顔の個人差を示すような複雑なパターンの場合、類似度が偶然にも高くなってしまう可能性は低い。このため、局所類似度の中で最も高い値を選択することにより、他人に比べて統合後の類似度も高くなることが期待できる。また、本実施形態では、第二特徴量を3種類抽出して、第一特徴量とは異なる照明方向の特徴量を疑似的に辞書に登録している。これらの情報を用いて人物ID毎の局所類似度を算出することにより、照明方向により頑健な類似度を算出することができる。
続いて、人物ID毎に複数ある局所類似度を、人物ID毎に一つの統合類似度に統合する(S902)。統合の方法としては、局所類似度の平均値を用いる。なお、極端に高いまたは低い局所類似度はノイズである可能性があるため、それらを除去した上で平均値をとってもよい。最後に、算出した統合類似度を出力し(S903)、この統合類似度算出処理を終了する。
以上のように本実施形態によれば、辞書に第一特徴量と3種類の第二特徴量とを登録して、疑似的に異なる照明方向の辞書を生成するようにしている。これにより、入力画像の照明方向が、登録辞書の第一特徴量とは異なる場合においても、第二特徴量で表現した照明方向の情報を用いることができ、照明方向の変化に頑健な顔認識を実現できる。また、特徴量のパラメタを変更することによって疑似的に辞書を生成するため、画像そのものを疑似的に生成する方法などと比較して、メモリ容量および計算コストを低減することができる。また、本実施形態では、局所画像から特徴量を抽出する方法について述べたが、顔画像全体から特徴量を抽出してもよい。
(第2の実施形態)
第1の実施形態では、辞書に登録する顔画像のみから第二特徴量を抽出したが、本実施形態では、類似度を算出する入力画像からも第二特徴量を抽出し、入力画像、登録辞書ともに疑似的に特徴量を増す例について説明する。また、第1の実施形態では、特徴量としてLBP特徴量を用いる場合について説明したが、他の画素値の大小関係に基づいた特徴量の一例として、Histogram of Oriented Gradient(HOG)特徴量を用いる例について説明する。以下、第1の実施形態と同じ処理を行う場合は説明を省略し、処理の異なる部分のみを説明する。また、第1の実施形態で説明した図1に示したハードウェア構成、および図2に示した機能構成については、本実施形態においても同様であるため、説明を省略する。
<全体の処理>
本実施形態における辞書データ登録処理については第1の実施形態と同様であるため、説明は省略する。以下、本実施形態に係る識別処理について図11を参照しながら説明する。
<識別処理>
図11は、本実施形態における入力画像を識別する処理手順の一例を示すフローチャートである。なお、S1100〜S1103は、それぞれ図7のS700〜S703と同様であるため、説明は省略する。ここで、S1104の第一特徴量を抽出する際に、HOG特徴量を抽出する処理について説明する。まず、画像の座標(x,y)の画素(輝度)値をI(x,y)とした場合に、輝度勾配はx方向、y方向で、以下の式(8)により表される。
Figure 0006202938
次に、これらの輝度勾配から、勾配強度m(x,y)、および勾配方向θ(x,y)は、それぞれ以下の式(9)および式(10)により表される。
Figure 0006202938
次に、勾配方向の範囲180度を20度毎に9分割したそれぞれの区間をビンとして、勾配方向θ(x,y)の頻度ヒストグラムを画像の所定の矩形領域(セル)毎に作成する。そして、3×3の9個のセルを1ブロックとして、ブロック毎に正規化を行う。正規化は1セルずつずらしながら全領域に対して行い、正規化の度にヒストグラムを連結していく。この処理を画像全体にわたって行って得た連結ヒストグラムがHOG特徴量である。このように、通常は、ブロック毎の正規化を1セルずつずらしながら行うが、ずらす量を増やすことにより計算量および特徴量の次元数を軽減してもよい。このHOG特徴量は、画像中の物体の回転、スケール変化に対しては不変ではないものの、局所的な幾何学的変化や明るさの変化には不変な特徴量として知られている。勾配方向ヒストグラム特徴量についての詳細は非特許文献2に開示されている。本実施形態では、局所画像から取得したこのHOG特徴量を第一特徴量とする。次のS1105については図7のS705と同様であるため、説明は省略する。
次に、S1106の第二特徴量を抽出する際に、HOG特徴量に関する第二特徴量を抽出する処理について説明する。第二特徴量を算出する際には、前述の式(8)の勾配計算においてオフセット値ρ1、ρ2を導入し、以下の式(11)を用いる。
Figure 0006202938
これ以外の点については第一特徴量を取得した手順と同様であるため、説明は省略する。輝度勾配の計算をこのように変更することにより画素の大小関係を変化させ、あたかも照明の方向が変化したかのようなHOG特徴量を抽出することができる。次のS1107については図3のS307と同様であるため、説明は省略する。次のS1108およびS1109については図7のS706およびS707と異なる点についてのみ説明する。
図12は、図11のS1108およびS1109の処理を模式的に説明するための図である。第1の実施形態で示した図10と比較して、入力画像においても第二特徴量を抽出し、S1108ではその局所類似度も算出する。このため、画像毎の局所類似度の数が飛躍的に増えている。S1109においても、最も高い局所類似度を選択し、最終的な統合類似度を算出する。S1110およびS1111については、それぞれ図7のS708およびS709と同様である。
以上のように本実施形態によれば、識別処理においても第二特徴量を抽出するようにしたので、最終的な統合類似度を算出する際に使用できる情報量を増やすことができ、照明方向に対する頑健性のさらなる向上が期待できる。常に第二特徴量を抽出し、飛躍的に増えた局所類似度を算出しなければならないため、第1の実施形態と比較して、計算量は増大する。そこで、この場合にはユーザが許容できる計算量となるよう第二特徴量を抽出するためのパラメタの数を調整し、その分の計算量を抑えることも可能である。
(その他の実施形態)
前述した各実施形態では、顔認識について説明したが、一般の物体に対しても、領域によって画素値の変化の勾配が異なる場合には第二特徴量を同様に抽出することができる。このため、顔認識のみならず、一般の物体認識でも適用することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は本発明を構成することになる。
201 顔画像取得部
204 第一特徴抽出部
206 第二特徴抽出部
209 辞書データ登録部
210 局所類似度算出部
211 統合類似度算出部

Claims (10)

  1. 登録画像および入力画像のそれぞれから物体画像を取得する取得手段と、
    前記取得手段によって取得された物体画像から、画素値の大小関係に基づく第一特徴量を抽出する第一特徴量抽出手段と、
    前記第一特徴量抽出手段によって抽出された前記登録画像に係る第一特徴量を画素値の変化の勾配に応じて変化させた第二特徴量を抽出する第二特徴抽出手段と、
    前記登録画像に係る第一および第二特徴量を辞書に登録する登録手段と、
    前記辞書に登録された特徴量と前記入力画像の特徴量とを比較することにより前記入力画像の物体と前記登録画像の物体との類似度を算出する算出手段とを備えたことを特徴とする画像認識装置。
  2. 前記算出手段は、前記第一特徴量抽出手段によって抽出された前記入力画像に係る第一特徴量と、前記辞書に登録された第一特徴量および第二特徴量のそれぞれとを比較して類似度を算出することを特徴とする請求項1に記載の画像認識装置。
  3. 前記第二特徴抽出手段は、前記入力画像に係る第一特徴量を画素値の変化の勾配に応じて変化させた第二特徴量をも抽出し、
    前記算出手段は、前記第一および第二特徴量抽出手段によって抽出された前記入力画像に係る第一特徴量および第二特徴量と、前記辞書に登録された第一特徴量および第二特徴量のそれぞれと比較して類似度を算出することを特徴とする請求項1に記載の画像認識装置。
  4. 前記第二特徴抽出手段は、画素値の変化の勾配が小さいほど前記第一特徴量のパターンが大きく変化するように前記第二特徴量を抽出することを特徴とする請求項1〜3の何れか1項に記載の画像認識装置。
  5. 前記第一特徴量抽出手段は、前記登録画像および前記入力画像の局所領域から特徴量を抽出し、
    前記算出手段は、前記局所領域毎に局所類似度を算出し、前記算出した局所類似度を統合した類似度を算出することを特徴とする請求項1〜4の何れか1項に記載の画像認識装置。
  6. 前記第一および第二特徴量抽出手段は、LBP特徴量を抽出することを特徴とする請求項1〜5の何れか1項に記載の画像認識装置。
  7. 前記第一および第二特徴量抽出手段は、HOG特徴量を抽出することを特徴とする請求項1〜5の何れか1項に記載の画像認識装置。
  8. 登録画像および入力画像のそれぞれから物体画像を取得する取得工程と、
    前記取得工程において取得された物体画像から、画素値の大小関係に基づく第一特徴量を抽出する第一特徴量抽出工程と、
    前記第一特徴量抽出工程において抽出された前記登録画像に係る第一特徴量を画素値の変化の勾配に応じて変化させた第二特徴量を抽出する第二特徴抽出工程と、
    前記登録画像に係る第一および第二特徴量を辞書に登録する登録工程と、
    前記辞書に登録された特徴量と前記入力画像の特徴量とを比較することにより前記入力画像の物体と前記登録画像の物体との類似度を算出する算出工程とを備えたことを特徴とする画像認識方法。
  9. 登録画像および入力画像のそれぞれから物体画像を取得する取得工程と、
    前記取得工程において取得された物体画像から、画素値の大小関係に基づく第一特徴量を抽出する第一特徴量抽出工程と、
    前記第一特徴量抽出工程において抽出された前記登録画像に係る第一特徴量を画素値の変化の勾配に応じて変化させた第二特徴量を抽出する第二特徴抽出工程と、
    前記登録画像に係る第一および第二特徴量を辞書に登録する登録工程と、
    前記辞書に登録された特徴量と前記入力画像の特徴量とを比較することにより前記入力画像の物体と前記登録画像の物体との類似度を算出する算出工程とをコンピュータに実行させることを特徴とするプログラム。
  10. 請求項9に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2013172620A 2013-08-22 2013-08-22 画像認識装置および画像認識方法 Active JP6202938B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013172620A JP6202938B2 (ja) 2013-08-22 2013-08-22 画像認識装置および画像認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013172620A JP6202938B2 (ja) 2013-08-22 2013-08-22 画像認識装置および画像認識方法

Publications (2)

Publication Number Publication Date
JP2015041293A JP2015041293A (ja) 2015-03-02
JP6202938B2 true JP6202938B2 (ja) 2017-09-27

Family

ID=52695403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013172620A Active JP6202938B2 (ja) 2013-08-22 2013-08-22 画像認識装置および画像認識方法

Country Status (1)

Country Link
JP (1) JP6202938B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7010536B2 (ja) * 2018-02-13 2022-01-26 株式会社豊田中央研究所 車両位置推定装置及びプログラム
JP2019204288A (ja) * 2018-05-23 2019-11-28 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
CN109657583B (zh) * 2018-12-10 2021-10-22 腾讯科技(深圳)有限公司 脸部关键点检测方法、装置、计算机设备和存储介质
JP2020099741A (ja) * 2020-03-18 2020-07-02 株式会社ユニバーサルエンターテインメント 遊技機

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024830A (ja) * 2000-07-05 2002-01-25 Nec Corp 画像照合装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2008217706A (ja) * 2007-03-07 2008-09-18 Tokyo Institute Of Technology ラベリング装置、ラベリング方法及びプログラム
JP5254893B2 (ja) * 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
JP6123975B2 (ja) * 2011-07-29 2017-05-10 パナソニックIpマネジメント株式会社 特徴量抽出装置及び特徴量抽出方法

Also Published As

Publication number Publication date
JP2015041293A (ja) 2015-03-02

Similar Documents

Publication Publication Date Title
US10558851B2 (en) Image processing apparatus and method of generating face image
WO2021036059A1 (zh) 图像转换模型训练方法、异质人脸识别方法、装置及设备
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
CN109255392B (zh) 基于非局部神经网络的视频分类方法、装置及设备
JP5418991B2 (ja) 個人認証システム、個人認証方法
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
JP6292911B2 (ja) 画像処理方法、画像処理プログラムおよび画像処理装置
JP2018022360A (ja) 画像解析装置、画像解析方法およびプログラム
WO2018082308A1 (zh) 一种图像处理方法及终端
JP2017204673A (ja) 画像処理装置、画像処理方法及びプログラム
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
JP2007072620A (ja) 画像認識装置及びその方法
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP2015197708A (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP6202938B2 (ja) 画像認識装置および画像認識方法
JP6492746B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
JP2016058018A (ja) 画像処理方法、画像処理プログラムおよび画像処理装置
CN108154107B (zh) 一种确定遥感图像归属的场景类别的方法
JP2014199505A (ja) 画像認識装置、画像認識方法及びプログラム
WO2019116487A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6717049B2 (ja) 画像解析装置、画像解析方法およびプログラム
CN114612979A (zh) 一种活体检测方法及装置、电子设备、存储介质
JP2003168113A (ja) 画像認識システム、画像認識方法および画像認識プログラム
KR20180012638A (ko) 누적 채널 특징점을 이용한 영상 인식에서의 객체 검출 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R151 Written notification of patent or utility model registration

Ref document number: 6202938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151