JP5653003B2 - オブジェクト識別装置及びオブジェクト識別方法 - Google Patents
オブジェクト識別装置及びオブジェクト識別方法 Download PDFInfo
- Publication number
- JP5653003B2 JP5653003B2 JP2009105662A JP2009105662A JP5653003B2 JP 5653003 B2 JP5653003 B2 JP 5653003B2 JP 2009105662 A JP2009105662 A JP 2009105662A JP 2009105662 A JP2009105662 A JP 2009105662A JP 5653003 B2 JP5653003 B2 JP 5653003B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial area
- region
- feature vector
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
顔識別技術として、例えば非特許文献1のような方法がある。これは、顔による個人の識別問題を、差分顔と呼ばれる特徴クラスの2クラス識別問題に置き換えることによって、顔の登録・追加学習をリアルタイムに行うことを可能にしたアルゴリズムである。
しかし、非特許文献1の方法によれば、個人識別の問題を、次に挙げる2クラスの識別問題に置き換えることよって、追加学習を実質的に不要にすることができる。即ち、
・intra−personal class:同一人物の画像間の、照明変動、表情・向き等の変動特徴クラス
・extra−personal class:異なる人物の画像間の、変動特徴クラス
の2クラスである。上記2クラスの分布は、特定の個人によらず一定であると仮定して、個人の顔識別問題を、上記2クラスの識別問題に帰着させて識別器を構成する。予め、大量の画像を準備して、同一人物間の変動特徴クラスと、異なる人物間の変動特徴クラスと、の識別を行う識別器を学習する。新たな登録者は、顔の画像(若しくは必要な特徴を抽出した結果)のみを保持すればよい。識別する際には2枚の画像から差分特徴を取り出し、上記識別器で、同一人物なのか異なる人物なのかを判定する。これにより、個人の顔登録の際にSVM等の学習が不要になり、リアルタイムで登録を行うことができる。
この問題に対して、特許文献1では、部分領域ごとのパターンマッチングを複数行い、それらの結果のうち、外れ値を取り除いて、各部分領域のマッチ度を統合することによって、変動に対するロバスト性を確保している。
デジタルカメラやWebカメラ等への応用を想定すると、画像の撮影条件及びオブジェクトの変動(大きさ、向き、表情等)が、大きい場合にも識別性能が劣化しないことが望まれる。
また、本発明は、オブジェクト識別方法としてもよい。
以下、図面を参照して本発明の第1の実施形態を詳細に説明する。
図1は、オブジェクト識別装置100のハードウェア構成の一例を示す図(その1)である。図1に示すように、オブジェクト識別装置100は、結像光学系1、撮像部2、撮像制御部3、画像記録部4、オブジェクト登録部5、オブジェクト識別部6、を含む。またオブジェクト識別装置100は、オブジェクト識別結果を出力する外部出力部7、各構成要素の制御・データ接続を行うためのバス8、を含む。
なお、オブジェクト登録部5、オブジェクト識別部6は、典型的には、それぞれ専用回路(ASIC)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPU等)であってもよい。また、オブジェクト登録部5、オブジェクト識別部6は、単一の専用回路及び汎用回路(PC用CPU)内部において実行されるプログラムとして存在してもよい。
撮像部2の映像センサとしては、典型的にはCCD又はCMOSイメージセンサが用いられ、不図示のセンサ駆動回路からの読み出し制御信号により所定の映像信号(例えば、サブサンプリング、ブロック読み出しして得られる信号)が画像データとして出力される。
撮像制御部3は、撮影者からの指示(画角調整指示、シャッター押下等)及び、オブジェクト登録部5又はオブジェクト識別部6からの情報を基に、実際に撮影が行われるタイミングを制御する。撮像制御部3は、自動露出(AE)や自動焦点(AF)の制御を行う制御装置を含んでもよい。
画像記録部4は、半導体メモリ等で構成され、撮像部2から転送された画像データを保持し、オブジェクト登録部5、オブジェクト識別部6からの要求に応じて、所定のタイミングで、画像データを転送する。
オブジェクト識別部6は、画像データ及びオブジェクト登録部5から取得したデータを基に、画像データ中のオブジェクトの識別を行う。オブジェクト識別部6に関して、より具体的な構成及び行われる処理の詳細については、後で詳しく説明する。
外部出力部7は、典型的には、CRTやTFT液晶等のモニタであり、撮像部2及び画像記録部4から取得した画像データを表示、又は、画像データにオブジェクト登録部5及びオブジェクト識別部6の結果出力を重畳表示する。また、外部出力部7は、オブジェクト登録部5及びオブジェクト識別部6の結果出力を電子データとして、外部メモリ等に出力する形式をとってもよい。
接続バス8は、上記構成要素間の制御・データ接続を行うためのバスである。
図2は、オブジェクト識別装置100の全体処理の一例を示したフローチャートである。この図2を参照しながら、このオブジェクト識別装置100が、画像からオブジェクトの識別を行う実際の処理について説明する。なお、以下では、識別するオブジェクトが人物の顔である場合について説明するが、本実施形態はこれに限るものでない。
初めに、オブジェクト識別部6は、画像記録部4から画像データを取得(画像データ入力)する(S00)。続いて、オブジェクト識別部6は、取得した画像データに対して、人の顔の検出処理を行う(S01)。画像中から、人物の顔を検出する方法については、公知の技術を用いればよい。オブジェクト識別部6は、例えば、「特許3078166号公報」や「特開2002−8032号公報」で提案されているような技術を用いることができる。
対象オブジェクトである人物の顔の検出処理をしたのち、画像中に人の顔が存在するならば(S02でYesの場合)、オブジェクト識別部6は、オブジェクト識別処理、即ち個人の識別処理を行う。画像中に人の顔が存在しない場合(S02でNoの場合)、オブジェクト識別部6は、図2に示す処理を終了する。オブジェクト識別処理(S03)のより具体的な処理内容については、あとで詳しく説明する。
以上が、本実施形態にかかるオブジェクト識別装置100の全体の処理フローである。
オブジェクト登録処理について説明する。図3は、オブジェクト登録部5の構成の一例を示す図である。図3に示すように、オブジェクト登録部5は、オブジェクト辞書データ生成部21、オブジェクト辞書データ保持部22、オブジェクト辞書データ選択部23、を含む。
オブジェクト辞書データ生成部21は、画像記録部4から取得した画像データから、オブジェクトの個体を識別するために必要なオブジェクト辞書データを生成する。オブジェクト辞書データ生成部21は、例えば、非特許文献1にあるようなintra−class及びextra−classの2クラス問題を判別する場合、典型的には、人物の顔画像を辞書データとすればよい。オブジェクト辞書データ生成部21は、オブジェクト検出処理によって検出されたオブジェクトの画像データを、大きさや向き(面内回転方向)等を正規化したのち、オブジェクト辞書データ保持部22に格納するようにしてもよい。
ここで、オブジェクト辞書データ生成部21は、回転方向の正規化、特に面内回転を補正するアフィン変換を行う際に、以下のようにするとよい。即ち、オブジェクト辞書データ生成部21は、顔の傾きを補正するアフィン変換処理において、アフィン変換後の画像が、参照する元画像に対して、その領域外を参照してしまう場合、変換後の値を乱数で置き換える。通常、上記のような場合には、所定の固定値をアフィン変換後の画像に設定する場合が多い。しかしながら、固定値にすると、部分領域が、対象オブジェクトからはみ出した場合、問題になることがある。より具体的には、オブジェクト辞書データの画像と識別用データの画像とで、固定値に設定された部分が、部分領域の一部に入った場合、両者の類似度が大きくなってしまい、識別に影響を与える。このような事態を避けるため、オブジェクト辞書データ生成部21は、アフィン変換後の画像において、参照元画像に対応点のないデータを乱数で置き換えるようにするとよい。
以上のように、オブジェクト辞書データ生成部21は、適宜必要な情報を画像から抽出し、後述する所定の変換を行った後、オブジェクトの識別を行うための特徴ベクトルとして、オブジェクト辞書データ保持部22に格納する。オブジェクト辞書データ生成部21で行われるより具体的な処理の内容については、あとで詳しく説明する。
オブジェクト辞書データ選択部23は、後述するオブジェクト識別部6の要求に応じて、オブジェクト辞書データ保持部から必要なオブジェクト辞書データを読み出して、オブジェクト識別部6にオブジェクト辞書データを転送する。
図4は、オブジェクト辞書データ生成部21の構成の一例を示すブロック図である。図4に示すように、オブジェクト辞書データ生成部21は、部分領域設定部31、特徴ベクトル抽出部32、特徴ベクトル変換部33、特徴ベクトル変換用データ保持部34、を含む。
部分領域設定部31は、画像データに対して、特徴ベクトル抽出部32が特徴ベクトルを抽出する位置と範囲を設定する。部分領域の位置と範囲とは、機械学習の方法を用いて予め決めておくとよい。例えば、部分領域設定部31は、部分領域の候補を複数設定しておいて、上記複数候補から、AdaBoostを用いて選択するようにしてもよい。AdaBoostを適用して、実際に部分領域を決める方法については、後述するオブジェクト識別部の説明で詳しく述べる。部分領域設定部31は、部分領域の数として、処理時間等に応じて予め所定の数を決めておく。部分領域設定部31は、予め用意した学習用サンプルに対して、十分な識別性能を得られる数を計測して決める、等すればよい。
特徴ベクトル変換部33は、特徴ベクトル抽出部32によって抽出された特徴ベクトルに所定の変換を施す。特徴ベクトル変換部33は、特徴ベクトルの変換として、例えば、主成分分析(PCA)による次元圧縮や、独立成分分析(ICA)による次元圧縮等を行う。また、特徴ベクトル変換部33は、フィッシャー判別分析(FDA)による次元圧縮を行ってもよい。
以上のように、特徴ベクトル変換部33は、特徴ベクトルを変換したデータを、オブジェクト辞書データの出力として、オブジェクト辞書データ保持部22に格納する。
特徴ベクトル変換用データ保持部34は、特徴ベクトル変換部33において、特徴ベクトルの変換を行う際に必要なデータを保持している。ここで、特徴ベクトルの変換に必要なデータとは、上述したような、基底数(次元削減数)等の設定情報である。
乱数を特徴ベクトルとして設定することにより、上述のような、固定値が特徴ベクトルとして設定されることが回避され、後段の識別用データとの相関演算に与えるよくない影響を少なくすることができる。
以上が、特徴ベクトル抽出部で行われる一処理例の説明である。
オブジェクト識別処理について説明する。図6は、オブジェクト識別部6の一例を示す図である。図6に示すように、オブジェクト識別部6は、オブジェクト識別用データ生成部41、オブジェクト辞書データ取得部42、オブジェクト識別演算部43、を含む。
オブジェクト識別用データ生成部41は、画像記録部4から取得した画像データから、オブジェクトの識別に必要な情報の抽出を行う。
オブジェクト辞書データ取得部42は、オブジェクト登録部5より、オブジェクトの識別に必要な辞書データを取得する。
オブジェクト識別演算部43は、オブジェクト識別用データ生成部41から取得した識別用データとオブジェクト辞書データ取得部42から得た辞書データとから、オブジェクトの識別処理を行う。ここで行われる処理については、後で詳しく説明する。
以上が、オブジェクト識別部6における処理フロー例の説明である。
図8は、オブジェクト識別用データ生成部41の構成の一例を示した図である。図8に示すように、オブジェクト識別用データ生成部41は、部分領域設定部51、特徴ベクトル抽出部52、特徴ベクトル変換部53、特徴ベクトル変換用データ保持部54、を含む。オブジェクト識別用データ生成部41の構成及びそこで行われる処理は、オブジェクト辞書データ生成部21でのそれとほぼ同じであるので、詳細は割愛する。
オブジェクト識別演算処理について説明する。ここでは、一例として、intra−class,extra−classの2クラス問題を、SVM識別器を用いて判定する場合について説明する。図9は、オブジェクト識別演算部43の構成の一例を示す図である。オブジェクト識別演算部43は、オブジェクト識別用データ取得部61、オブジェクト辞書データ取得部62、変動特徴抽出部63、SVM識別器64、識別結果保持部65、識別結果統合部66、を含む。
始めに、オブジェクト識別用データ取得部61において、オブジェクト識別用データを取得する(S30)。続いて、オブジェクト辞書データ取得部62で、オブジェクトの辞書データを取得する(S31)。次に、変動特徴抽出部63において、(S30)及び(S31)で取得したオブジェクト識別用データとオブジェクト辞書データから、変動特徴抽出処理を行う(S32)。ここで、変動特徴とは、典型的には2枚の画像から抽出される、同一オブジェクト間の変動、又は、異なるオブジェクト間の変動、の何れかに属する特徴のことである。変動特徴の定義は様々なものが考えられる。ここでは一例として、変動特徴抽出部63は、辞書データと、識別用データとで、同じ領域に対応する特徴ベクトル間で類似度(相関値、内積)を計算し、その類似度を成分とするベクトルを変動特徴ベクトルとする。上記定義によれば、変動特徴ベクトルの次元数は、部分領域数と一致する。
以上が、オブジェクト識別演算処理の説明である。
次に、部分領域の位置と範囲の学習に、AdaBoostを用いた場合の手順について、説明する。
図11は、部分領域の学習処理の一例を示したフローチャートである。まず、オブジェクト識別装置100は、学習データを取得する(S40)。人物の顔を扱う場合は、学習データとして、個人の識別子を表すラベルのついた顔を含む画像を多数用意する。この際、1人あたりの画像数が十分用意されていることが望ましい。照明変動や、表情の変動に頑健な部分領域及び特徴ベクトルの変換方法を学習するためには、学習データに上記変動を十分含んだサンプルを用意することが重要である。ラベルつきの顔画像から、個人の顔の変動を表すデータと、他人間の顔の変動を表すデータと、の2種類を生成することができる。次に、オブジェクト識別装置100は、弱仮説の選択処理を行う(S41)。ここで弱仮説とは、典型的には、登録データと識別用データとの部分領域間の類似度を算出する処理を行う。オブジェクト識別装置100は、部分領域の位置と範囲との組み合わせの数だけ、弱仮説を用意しておく。そして、オブジェクト識別装置100は、(S40)で取得した学習データに対して、AdaBoostの枠組みに沿って、もっとも性能のよい弱仮説、即ち、位置と範囲とが最適な部分領域を選択する(S42)。性能評価を行うためのより具体的な手順は、オブジェクト識別演算部43の説明で述べた、変動特徴抽出処理の例のようにするとよい。即ち、オブジェクト識別装置100は、学習データに対して、特徴ベクトルの類似度(内積)を求め、変動特徴ベクトルを生成し、SVM識別器に入力する。オブジェクト識別装置100は、同一ラベルの人物間(画像は異なる)と、異なるラベルの人物間とで、それぞれ正しい識別結果になっているか判定し、学習データの重み付き誤り率を求める。
なお、重みつき誤り率の算出や、学習データの重み付けの更新方法等、AdaBoostによる学習の詳細な手順は、「Viola & Jones (2001) ”Rap
id Object Detection using a Boosted Cascade of Simple Features”, Computer Vision
and Pattern Recognition.」等に記載されている方法を適宜採用すればよい。
また、オブジェクト識別装置100は、複数部分領域の組み合わせを作る際に、遺伝的アルゴリズム(GA)等の最適化手法を適用するようにしてもよい。この場合、オブジェクト識別装置100は、弱仮説の候補は、AdaBoostの手続きに入る前に予め全て用意されるのではなく、弱仮説を選択しならが、動的に候補を構築していく。即ち、オブジェクト識別装置100は、予め一部用意された弱仮説の候補(例えば、ランダムに領域候補を組み合わせる等して生成しておく)から、性能のよいものを選択しておくようにする。そして、オブジェクト識別装置100は、その性能のよいもの同士を、組み合わせながら、新しい弱仮説の候補を生成し、性能を評価していく。このようにすることにより、弱仮説の候補を効率的に絞り込むことができる。以上のようにして、学習時間の増加を抑えるようにするとよい。
以上が、部分領域の位置と範囲とを学習する手順の説明である。
実施形態2は実施形態1に対して、オブジェクト登録部とオブジェクト識別部との処理内容が異なる。
より具体的には、実施形態1では、オブジェクトの属性は考えなかったのに対し、実施形態2では、オブジェクトの属性を推定し、オブジェクトの属性に応じた部分領域の設定がなされる点が異なる。
以下、より具体的に説明する。なお、重複を避けるため、以下の説明において、前実施形態と同じ部分は、省略する。図12は、オブジェクト識別装置100のハードウェア構成の一例を示す図(その2)である。各部の基本的な機能は実施形態1と同一であるが、以下の点が異なる。即ち、オブジェクト識別装置100に、オブジェクト辞書データ入力部109と、オブジェクト辞書データ書き換え部110と、が追加されている。
オブジェクト辞書データ入力部109は、オブジェクト辞書データを外部から入力するための処理を実行し、典型的には半導体メモリ等の外部記憶装置から、オブジェクト辞書データを読み取る。オブジェクトデータ書き換え部110は、オブジェクト辞書データ及びオブジェクト識別用データを所定の手順に従って書き換える。オブジェクトデータ書き換え部110は、典型的には、オブジェクトのデータが画像であった場合、コントラストの補正や、ノイズの除去、解像度の変更等を行う。
なお、説明の便宜上、識別する対象となるオブジェクトを、画像中の人物の顔としているが、本実施形態は、人物の顔以外のオブジェクトに適用可能である。
図13は、オブジェクト登録部105の構成の一例を示す図である。オブジェクト登録部105は、オブジェクト辞書データ生成部111、オブジェクト辞書データ保持部112、オブジェクト辞書データ選択部113、オブジェクト属性推定部114、を含む。実施形態1とは、オブジェクト属性推定部114が追加されている点が異なる。
オブジェクト属性推定部114は、画像記録部104から入力された画像データから、オブジェクトの属性を推定する処理を行う。推定を行う具体的な属性は、オブジェクトの大きさ、姿勢・向き、照明条件等が含まれる。オブジェクトが人物の顔である場合、オブジェクト属性推定部114は、顔の器官位置を検出する。より具体的には、オブジェクト属性推定部114は、目、口、鼻等構成要素の端点を検出する。端点を検出するアルゴリズムは、例えば、特許3078166号公報に記載の畳み込み神経回路網を用いた方法等を用いることができる。オブジェクト属性推定部114は、端点として、左右の目、口の両端点、鼻、等個人の特徴を現すと考えられる部位を予め選択しておく。オブジェクト属性推定部114は、顔器官の端点の位置関係を、その属性として検出する。また、他の属性として、オブジェクト属性推定部114は、人物の年齢、性別、表情、等の属性を推定してもよい。これらの属性推定には公知の技術を用いることができる。例えば「特開2003−242486号公報」のような方法を用いることで、人物の属性を推定することができる。
オブジェクト属性推定部114は、属性推定に、撮像パラメータの一例であるカメラパラメータを用いるようにしてもよい。例えば、オブジェクト属性推定部114は、撮像制御部103から制御用のAE、AFに関するパラメータを取得することによって、照明条件等の属性を精度良く推定することが可能になる。ここで、カメラパラメータのより具体的な例として、露出条件、ホワイトバランス、ピント、オブジェクトの大きさ等があげられる。例えば、オブジェクト属性推定部114は、露出条件及びホワイトバランスと、肌色成分領域に対応する色成分の対応表を予め作成し、ルックアップテーブルとして保持しておくことで、撮影条件に影響されないオブジェクトの色属性を推定することができる。
s = ( f/d − f )・S
ここで、sは、オブジェクトの画像上での大きさ(ピクセル数)である。fは、焦点距離である。dは、装置からオブジェクトまでの距離である。Sは、オブジェクトの実際の大きさである。但し、(d>f)であるとする。
オブジェクト属性推定部114で推定されたオブジェクトの属性情報は、オブジェクト辞書データ生成部111から出力されるオブジェクト辞書データと共に、オブジェクト辞書データ保持部112に格納される。
オブジェクト辞書データ生成部111での処理も前記実施形態と一部、異なる。図14は、オブジェクト辞書データ生成部111における特徴ベクトル抽出部での処理の一例を示したフローチャートである。以下、これを用いて説明する。始めに、オブジェクト辞書データ生成部111は、オブジェクト属性推定部114からオブジェクトの属性情報を取得する(S100)。取得するオブジェクトの属性情報は、典型的には、人物の顔の器官位置及びその端点である。次に、オブジェクト辞書データ生成部111は、画像記録部104から画像データを取得する(S101)。オブジェクト辞書データ生成部111は、(S100)で取得したオブジェクト属性情報を用いて、オブジェクト画像データに対して、部分領域を設定する(S102)。
また、オブジェクト属性推定部114は、属性として、表情を用いることもできる。例えば、笑った顔の頬には、しわが出やすいが、これが識別によくない影響を与えることもあり得るので、オブジェクト辞書データ生成部111は、上記のように無相関データに置き換えてしまってもよい。表情と、無相関データに置き換える部分領域との関係は、予め学習サンプルによって決めた、ルックアップテーブルを作成し、オブジェクト辞書データ生成部111がこれを参照するようにすればよい。
同様に、人物の年齢を用いて、経年変化の現れやすい領域をオブジェクト辞書データ生成部111が無相関データにすることにより、登録時と認証時とで時間がたっている場合の識別性能を向上させることができる。
以上が、オブジェクト登録部の説明である。
図15は、オブジェクト識別部106の構成の一例を示す図である。オブジェクト識別部106は、オブジェクト識別用データ生成部121、オブジェクト識別演算部122、オブジェクト辞書データ取得部123、オブジェクト属性推定部124、を含む。実施形態1とは、オブジェクト属性推定部124が追加されている点が異なる。
オブジェクト属性推定部124の処理の内容は、オブジェクト登録部のオブジェクト属性推定部114と同じであるので、説明は割愛する。
オブジェクト識別用データ生成部121は、画像記録部104からの入力と共に、オブジェクト属性推定部114の出力を用いて、特徴ベクトル及びその変換処理を行う。この処理は、オブジェクト登録部の処理とほぼ同じになるので、説明は割愛する。
オブジェクト識別演算部122は、オブジェクト識別用データ生成部121及びオブジェクト辞書データ取得部123からの入力を基に、オブジェクトの識別処理を行う。オブジェクト識別演算部122で行われる処理のより具体的な内容については、あとで説明する。
オブジェクト辞書データ取得部123は、オブジェクト識別演算部122からのリクエストに基づいて、オブジェクト登録部105中のオブジェクト辞書データ保持部112より、オブジェクト辞書データを取得する。
次に、オブジェクト識別演算処理の内容について説明する。
オブジェクト識別処理の全体的な処理は、実施形態1とほぼ同じである。
以下では、オブジェクト識別器として、多数の識別器(以下弱識別器と呼ぶ)をツリー状に構成したオブジェクト識別器を用いてオブジェクト識別処理を行う場合について説明する。典型的には弱識別器は、1つの部分領域に対応しているが、弱識別器を複数の部分領域に対応させてもよい。
図16は、オブジェクト識別器を弱識別器のツリー構造で構成した場合の模式図である。図中の枠1つが1つの弱識別器を表している。以下、ツリー構造をなす各弱識別器のことをノード識別器と呼ぶことがある。識別時は、矢印の方向に沿って処理が行われる。即ち、上位にある弱識別器から処理を行って、処理が進むにつれ、下位の弱識別器で処理を行う。一般に、上位にある弱識別器は、変動に対するロバスト性が高いが、誤識別率は高い傾向にある。下位にある弱識別器ほど変動に対するロバスト性は低い一方で、変動範囲が一致したときの識別精度は高くなるように学習してある。ある特定の変動範囲(顔の奥行き方向や、表情変動、照明変動等)に特化した弱識別器系列を複数用意し、ツリー構造をとることで、全体としての対応変動範囲を確保している。図16では、5系列の弱識別器系列がある場合について示している。また、図16では、最終的に5つの弱識別器系列が1つのノード識別器に統合されている。この最終ノード識別器は、例えば5系列の累積スコアを比較して、最も高いスコアをもつ系列の識別結果を採用する等の処理を行ってもよい。また、1つの識別結果に統合して出力するのではなく、各系列の識別結果をベクトルとして出力するようにしてもよい。
以上が、オブジェクト識別演算処理の説明である。
また、上述したように、オブジェクト識別装置100は、部分領域の設定が、例えば、画像データの範囲外に設定された場合、登録オブジェクトの辞書データと、識別用データとで無相関になる値を設定する。このことにより、高精度な識別を行うことができる。
なお、上述したように、オブジェクト識別装置100は、部分領域の属性が、オクリュージョンであった場合、登録オブジェクトの辞書データと、識別用データとで無相関になる値を設定するようにしてもよい。このようにすることによっても、高精度な識別を行うことができる。
Claims (10)
- オブジェクトを含む入力画像を入力する入力手段と、
前記オブジェクトを含む登録画像を取得する取得手段と、
前記入力画像に対してアフィン変換を行い、該変換された画像に部分領域を設定する第1の部分領域設定手段と、
前記アフィン変換後の画像に設定された部分領域の少なくとも一部が、前記アフィン変換する前の入力画像の領域からはみ出しているか否かを判定する第1の判定手段と、
前記部分領域が前記入力画像の領域からはみ出していないと判定された場合には、前記部分領域から特徴ベクトルを設定し、前記部分領域が前記入力画像の領域からはみ出していると判定された場合には、前記部分領域のうち、前記入力画像の領域からはみ出している領域に対し、乱数を設定し、該乱数が設定された前記はみ出している領域と前記入力画像からはみ出していない領域とを含む領域から特徴ベクトルを設定する第1の設定手段と、
前記登録画像の特徴ベクトルと前記第1の設定手段により設定される前記部分領域の特徴ベクトルとの相関を算出し、該算出された結果に基づいて前記オブジェクトを識別する識別手段と
を有することを特徴とするオブジェクト識別装置。 - 前記入力画像の前記オブジェクトの特定の部位を検出する検出手段をさらに有し、
前記第1の設定手段は、検出された前記部位の位置に基づいて、前記部分領域を設定することを特徴とする請求項1に記載のオブジェクト識別装置。 - 前記登録画像に対してアフィン変換を行い、該変換された画像に部分領域を設定する第2の設定手段と、
前記アフィン変換後の画像に設定された前記部分領域の少なくとも一部が、前記アフィン変換する前の登録画像の領域からはみ出しているか否かを判定する第2の判定手段と、
前記部分領域が前記入力画像の領域からはみ出していないと判定された場合には、前記部分領域から特徴ベクトルを設定し、前記登録画像の前記部分領域が前記登録画像の領域からはみ出していると判定された場合には、前記登録画像の前記部分領域のうち、前記登録画像の領域からはみ出している領域に対し、乱数を設定し、該乱数が設定された前記はみ出している領域と前記入力画像からはみ出していない領域とを含む領域から特徴ベクトルを設定する第2の設定手段と
をさらに有し、
前記識別手段は、前記登録画像及び前記入力画像それぞれの対応する前記部分領域の特徴ベクトルの相関を算出し、該算出された結果に基づいて、前記オブジェクトを識別することを特徴とする請求項1又は2に記載のオブジェクト識別装置。 - 前記登録画像のオブジェクトの部分領域を辞書として保持する辞書保持手段をさらに有し、
前記識別手段は、前記辞書と、前記入力画像の前記部分領域との相関を算出することを特徴とする請求項1乃至3の何れか1項に記載のオブジェクト識別装置。 - 前記第1の設定手段は、前記入力画像の前記部分領域がオクリュージョンを含む場合に、前記入力画像の前記部分領域に対し、乱数を設定することを特徴とする請求項1乃至4の何れか1項に記載のオブジェクト識別装置。
- 前記第2の設定手段は、前記登録画像の前記部分領域がオクリュージョンを含む場合に、前記登録画像の前記部分領域に対し、乱数を設定することを特徴とする請求項3に記載のオブジェクト識別装置。
- 前記第1の設定手段は、前記入力画像の前記部分領域が、変化の現れやすい領域を含む場合に、前記入力画像の前記部分領域に対し、乱数を設定することを特徴とする請求項1乃至6の何れか1項に記載のオブジェクト識別装置。
- 前記第2の設定手段は、前記登録画像の前記部分領域が、変化の現れやすい領域を含む場合に、前記登録画像の前記部分領域に対し、乱数を設定することを特徴とする請求項3に記載のオブジェクト識別装置。
- 前記入力画像の前記部分領域の特徴ベクトルを抽出する第1の特徴ベクトル抽出手段と、
前記登録画像の前記部分領域の特徴ベクトルを抽出する第2の特徴ベクトル抽出手段と
をさらに有し、
前記識別手段は、前記入力画像の前記部分領域の前記特徴ベクトルと、前記登録画像の前記部分領域の前記特徴ベクトルとに基づいて、前記登録画像の前記部分領域と、前記入力画像の前記部分領域との相関を算出することを特徴とする請求項3乃至8の何れか1項に記載のオブジェクト識別装置。 - オブジェクトを含む入力画像を入力する入力ステップと、
前記オブジェクトを含む登録画像を取得する取得ステップと、
前記入力画像に対してアフィン変換を行い、該変換された画像に部分領域を設定する第1の部分領域設定ステップと、
前記アフィン変換後の画像に設定された部分領域の少なくとも一部が、前記アフィン変換する前の入力画像の領域からはみ出しているか否かを判定する第1の判定ステップと、
前記部分領域が前記入力画像の領域からはみ出していないと判定された場合には、前記部分領域から特徴ベクトルを設定し、前記部分領域が前記入力画像の領域からはみ出していると判定された場合には、前記部分領域のうち、前記入力画像の領域からはみ出している領域に対し、乱数を設定し、該乱数が設定された前記はみ出している領域と前記入力画像からはみ出していない領域とを含む領域から特徴ベクトルを設定する第1の設定ステップと、
前記登録画像の特徴ベクトルと前記第1の設定ステップにおいて設定された前記部分領域の特徴ベクトルとの相関を算出し、該算出された結果に基づいて前記オブジェクトを識別する識別ステップと
を含むことを特徴とするオブジェクト識別方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009105662A JP5653003B2 (ja) | 2009-04-23 | 2009-04-23 | オブジェクト識別装置及びオブジェクト識別方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009105662A JP5653003B2 (ja) | 2009-04-23 | 2009-04-23 | オブジェクト識別装置及びオブジェクト識別方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010257158A JP2010257158A (ja) | 2010-11-11 |
JP5653003B2 true JP5653003B2 (ja) | 2015-01-14 |
Family
ID=43318003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009105662A Active JP5653003B2 (ja) | 2009-04-23 | 2009-04-23 | オブジェクト識別装置及びオブジェクト識別方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5653003B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5800494B2 (ja) * | 2010-11-19 | 2015-10-28 | キヤノン株式会社 | 特定領域選択装置、特定領域選択方法及びプログラム |
JP5759161B2 (ja) * | 2010-12-16 | 2015-08-05 | キヤノン株式会社 | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム |
JP5777380B2 (ja) * | 2011-04-05 | 2015-09-09 | キヤノン株式会社 | 画像認識装置、画像認識方法、及びプログラム |
JP6090286B2 (ja) * | 2014-10-31 | 2017-03-08 | カシオ計算機株式会社 | 機械学習装置、機械学習方法、分類装置、分類方法、プログラム |
JP6494253B2 (ja) * | 2014-11-17 | 2019-04-03 | キヤノン株式会社 | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4696857B2 (ja) * | 2005-11-02 | 2011-06-08 | オムロン株式会社 | 顔照合装置 |
JP4788525B2 (ja) * | 2006-08-30 | 2011-10-05 | 日本電気株式会社 | 物体識別パラメータ学習システム、物体識別パラメータ学習方法および物体識別パラメータ学習用プログラム |
JP2009075868A (ja) * | 2007-09-20 | 2009-04-09 | Toshiba Corp | 画像から対象を検出する装置、方法およびプログラム |
-
2009
- 2009-04-23 JP JP2009105662A patent/JP5653003B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010257158A (ja) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5247480B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
US9098760B2 (en) | Face recognizing apparatus and face recognizing method | |
JP5554987B2 (ja) | オブジェクト識別装置及びその制御方法 | |
JP4345622B2 (ja) | 瞳色推定装置 | |
JP5424819B2 (ja) | 画像処理装置、画像処理方法 | |
JP4443722B2 (ja) | 画像認識装置及び方法 | |
US8942436B2 (en) | Image processing device, imaging device, image processing method | |
KR101280920B1 (ko) | 화상인식장치 및 방법 | |
JP6544900B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
US8542887B2 (en) | Object identification apparatus and object identification method | |
JP5241606B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP5588180B2 (ja) | パターン識別装置及びその制御方法 | |
JP2007140823A (ja) | 顔照合装置、顔照合方法及びプログラム | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
JP5653003B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JPWO2019003973A1 (ja) | 顔認証装置、顔認証方法およびプログラム | |
WO2020195732A1 (ja) | 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体 | |
CN114360039A (zh) | 一种智能眼睑检测方法及*** | |
JP2005149370A (ja) | 画像撮影装置、個人認証装置及び画像撮影方法 | |
JP5791361B2 (ja) | パターン識別装置、パターン識別方法およびプログラム | |
JP2012234497A (ja) | オブジェクト識別装置、オブジェクト識別方法、及びプログラム | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
JP2008015871A (ja) | 認証装置、及び認証方法 | |
JP4789526B2 (ja) | 画像処理装置、画像処理方法 | |
JP7103443B2 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130305 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130507 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130618 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130917 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130926 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20131025 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141118 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5653003 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |