JP2010055300A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2010055300A JP2010055300A JP2008218451A JP2008218451A JP2010055300A JP 2010055300 A JP2010055300 A JP 2010055300A JP 2008218451 A JP2008218451 A JP 2008218451A JP 2008218451 A JP2008218451 A JP 2008218451A JP 2010055300 A JP2010055300 A JP 2010055300A
- Authority
- JP
- Japan
- Prior art keywords
- image
- individual
- image processing
- individual recognition
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像から特定の個体の画像データを抽出することが難しい場合においても、当該個体の画像データを抽出することができる画像処理装置、画像処理方法を提供する。
【解決手段】 撮像装置によって撮像された個体の画像を取得する画像取得ステップと、取得された画像から顔領域を特定する顔領域特定ステップと、特定された顔領域から個体認識の可否を判断する個体認識可否判断ステップと、個体認識可否の判断結果に応じて、更に前記撮像装置によって撮像された複数枚の画像から新しい画像を構成する複数枚利用画像構成ステップと、構成された前記新しい画像に含まれる顔画像が、予め記憶媒体に保存した注目被写体画像の特徴と一致するか判断する個体認識ステップとを備えた画像処理方法である。
【選択図】 図2
【解決手段】 撮像装置によって撮像された個体の画像を取得する画像取得ステップと、取得された画像から顔領域を特定する顔領域特定ステップと、特定された顔領域から個体認識の可否を判断する個体認識可否判断ステップと、個体認識可否の判断結果に応じて、更に前記撮像装置によって撮像された複数枚の画像から新しい画像を構成する複数枚利用画像構成ステップと、構成された前記新しい画像に含まれる顔画像が、予め記憶媒体に保存した注目被写体画像の特徴と一致するか判断する個体認識ステップとを備えた画像処理方法である。
【選択図】 図2
Description
本発明は、画像から特定の個体の画像データを抽出することが難しい場合においても、当該個体の画像データを抽出をすることができる画像処理装置、画像処理方法に関する。
多数の被写体の中から、所望の被写体を検索しあるいは抽出する技術が開示されている。例えば、特許文献1では、注目被写体の特徴部位を記憶媒体に保存し、その特徴部位の情報と一致する被写体に優先して、AE(自動露出)、AF(自動焦点)を施す機能や、特徴部位を持つ情報と一致する画像に関して、関連付けを行うことのできるカメラが開示されている。
特開2004−320287
しかしながら、特許文献1に開示された技術では、被写体の解像度が低い場合などでは、十分にその機能を発揮することは困難である。例えば、実際に運動会など、広い画角で撮影した画像データから小さな被写体を抽出する場合などでは、対比しようとする特徴量が少ないため被写体が識別できない可能性がある。
本発明は、このような点に鑑みてなされたもので、画像から特定の個体の画像データを抽出することが難しい場合においても、当該個体の画像データを抽出することができる画像処理装置、画像処理方法を提供することを目的とする。
上記課題を解決するための本発明は、取得した画像から個体の所定の部分画像を特定する部分画像特定部と、特定した前記個体の部分画像によって個体認識の可否を判断する個体認識可否判断部と、前記個体認識可否判断部の結果に応じて、更に取得した複数枚の前記個体の部分画像から新たな前記個体の部分画像を生成する複数枚利用画像構成部と、前記個体の部分画像が予め記憶媒体に保存した注目被写体画像の特徴と一致するかを判断する個体認識部とを備えた画像処理装置である。
また本発明は、上記記載の発明である画像処理装置において、前記個体認識可否判断部は、少なくとも前記個体の部分画像の大きさにより個体認識の可否を判断する。
また本発明は、上記記載の発明である画像処理装置において、前記個体認識可否判断部は、少なくとも前記個体の部分画像の合焦状態により個体認識の可否を判断する。
また本発明は、上記記載の発明である画像処理装置において、前記個体認識可否判断部は、少なくとも前記個体の部分画像の解像度により個体認識の可否を判断する。
また本発明は、上記記載の発明である画像処理装置において、前記個体認識可否判断部は、少なくとも前記個体の部分画像内における前記個体の姿勢により個体認識の可否を判断する。
また本発明は、上記記載の発明である画像処理装置において、前記個体認識可否判断部で個体認識が不可能であると判断された場合、前記画像処理装置は、認識不可の原因となった事項を改善した画像を複数枚取得する。
また本発明は、上記記載の発明である画像処理装置において、前記個体認識可否判断部で個体認識が不可能であると判断された場合、前記個体認識可否判断部は、さらに取得した認識不可の原因となった事項を改善した1枚の画像に基づいて個体認識の可否を再び判断し、再度前記個体認識可否判断部で個体認識が不可能であると判断された場合、前記画像処理装置は、認識不可の原因となった事項を改善した画像を複数枚取得する。
また本発明は、上記記載の発明である画像処理装置において、前記複数枚利用画像構成部は、前記複数枚の前記個体の部分画像を用いて解像度の高い新たな画像を生成する高解像度化処理部を有する。
また本発明は、上記記載の発明である画像処理装置を有する撮像装置において、前記個体認識部によって前記注目被写体画像の特徴と一致すると判断された前記個体の部分画像に対して画像処理を施す被写体最適化画像処理部を備えた。
また本発明は、上記記載の発明である撮像装置において、前記被写体最適化画像処理部は、AE、AFの内の少なくとも1つの処理を実行する。
また本発明は、上記記載の発明である画像処理装置を有する撮像装置において、前記個体認識部によって前記注目被写体画像の特徴と一致すると判断された前記個体の部分画像を前記注目被写体画像と関連付けて保存する保存処理部を備えた。
また本発明は、撮像装置によって撮像された個体の画像を取得する画像取得ステップと、取得された画像から顔領域を特定する顔領域特定ステップと、特定された顔領域から個体認識の可否を判断する個体認識可否判断ステップと、個体認識可否の判断結果に応じて、更に前記撮像装置によって撮像された複数枚の画像から新しい画像を構成する複数枚利用画像構成ステップと、構成された前記新しい画像に含まれる顔画像が、予め記憶媒体に保存した注目被写体画像の特徴と一致するか判断する個体認識ステップとを備えた画像処理方法である。
本発明によれば、画像から特定の個体の画像データを抽出することが難しい場合においても、当該個体の画像データを抽出することができる。
[第1の実施の形態]
図1は、本発明の第1実施形態に係る画像処理装置の構成を示す図である。画像処理装置10は、顔領域特定部1、個体認識可否判断部2、複数枚利用画像構成部3、個体認識部4より構成される。
図1は、本発明の第1実施形態に係る画像処理装置の構成を示す図である。画像処理装置10は、顔領域特定部1、個体認識可否判断部2、複数枚利用画像構成部3、個体認識部4より構成される。
顔領域特定部1は、図示しない撮像装置(カメラ)により取得した画像から顔領域を検出する。この際、顔領域特定部1は、予め不図示の記憶媒体に保存した注目被写体の特徴と一致するものを検出する。この注目被写体の特徴としては、例えば、髪型、目、鼻などが挙げられる。
個体認識可否判断部2は、顔領域特定部1で検出した特定の被写体が個体識別が可能か評価するものである。複数枚利用画像構成部3は、個体認識可否判断部2が、そのままの状態では個体認識が出来ないと判断した場合、更に新たな複数画像を用いて一枚の個体識別可能な画像を構成する。個体認識部4は、個体認識可否判断部2において個体認識が可能であると判断した部分画像、および個体認識可否判断部2において個体認識が不可能であると判断し且つ複数枚利用画像構成部3によって構成した画像に対し、個体認識を行う。
個体認識可否判断部2は、顔領域特定部1で検出した特定の被写体が個体識別が可能か評価するものである。複数枚利用画像構成部3は、個体認識可否判断部2が、そのままの状態では個体認識が出来ないと判断した場合、更に新たな複数画像を用いて一枚の個体識別可能な画像を構成する。個体認識部4は、個体認識可否判断部2において個体認識が可能であると判断した部分画像、および個体認識可否判断部2において個体認識が不可能であると判断し且つ複数枚利用画像構成部3によって構成した画像に対し、個体認識を行う。
次に、このような構成の画像処理方法の説明をする。
図2は、画像処理装置10の動作手順を示すフローチャートである。
ステップS21において、画像処理装置10は、不図示の撮像装置が撮像した画像を取得する。ステップS22において、顔領域特定部1は取得した画像から、顔領域を特定する。
ステップS23において、個体認識可否判断部2は、特定した顔領域に対して個体認識が可能か判断する。
図2は、画像処理装置10の動作手順を示すフローチャートである。
ステップS21において、画像処理装置10は、不図示の撮像装置が撮像した画像を取得する。ステップS22において、顔領域特定部1は取得した画像から、顔領域を特定する。
ステップS23において、個体認識可否判断部2は、特定した顔領域に対して個体認識が可能か判断する。
ステップS23でNoの場合、即ち個体認識可否判断部2が、特定した顔領域では個体認識が不可能であると判断した場合、ステップS24において、複数枚利用画像構成部3は、顔領域を特定した画像を含む複数枚の画像を合成して一枚の画像を生成する。ステップS25において、個体認識部4は、新しく合成した画像に対して、個体認識処理を行う。
ステップS23でYesの場合、即ち個体認識可否判断部2が、特定した顔領域で個体認識が可能であると判断した場合、ステップS25において、個体認識部4は、個体認識が可能と判断された画像に対して個体認識処理を行う。
ステップS23でYesの場合、即ち個体認識可否判断部2が、特定した顔領域で個体認識が可能であると判断した場合、ステップS25において、個体認識部4は、個体認識が可能と判断された画像に対して個体認識処理を行う。
個体認識部4の個体認証方法を説明する。図3に示す様な識別したい正面顔の画像と、図4に示すようなその正面顔画像を分解した部位ごとの画像が予めメモリに格納されている。そして、顔領域特定部1は、新たな画像が取り込まれたときに、そこに存在する顔画像のうち各顔器官と、メモリ内に存在する顔画像の各顔器官とが一致しているかどうかを、テンプレートマッチングなどにより識別する、更に、上述の識別方法に加えて、図5のように輪郭情報と各顔器官の中心座標から、輪郭に対する各部位の相対位置情報を作成してそれを識別に用いても良い。
このように、第1の実施の形態に係る画像処理装置10では、個体認識処理の前に、個体認識処理可否判断部2による評価を加え、さらに不可能であると判断されたものに関して複数枚の画像を用いることで、個体認識を可能にしている。
図6は、個体認識可否判断部2の判断基準項目を示す図である。個体認識可否を判断する基準となる項目には、顔領域の大きさ、顔領域のピント(合焦)の程度、顔領域の解像度、顔領域のノイズの程度、顔領域のダイナミックレンジが含まれる。
顔領域の大きさは、例えば顔領域の画素数が所定数以上かどうかで判断する。顔領域のピント(合焦)の程度は、例えば、顔領域の周波数分布で判断する。顔領域の解像度は、解像度が所定値以上かどうかで判断する。顔領域のノイズの程度は、例えば、顔領域の周波数分布で判断する。顔領域のダイナミックレンジは、例えば、顔領域の輝度分布で判断する。
顔領域の大きさは、例えば顔領域の画素数が所定数以上かどうかで判断する。顔領域のピント(合焦)の程度は、例えば、顔領域の周波数分布で判断する。顔領域の解像度は、解像度が所定値以上かどうかで判断する。顔領域のノイズの程度は、例えば、顔領域の周波数分布で判断する。顔領域のダイナミックレンジは、例えば、顔領域の輝度分布で判断する。
なお、図6に示す判断基準項目の全てを充足しなくとも、その一部の項目を充足すれば個体認識可能と判断しても良い。また、図6に示す判断基準項目は一例であり、これ以外の項目を含めて個体認識可否を判断しても良い。
続いて、個体認識可否判断部2によって個体認識が不可能であると判断された場合の処理について説明する。図7は、画像処理装置10の動作手順を示すフロー図である。
例えば、個体認識可否判断部2でピントが合っていないと判断された場合、画像処理装置10は、ステップS41において、撮像装置(不図示)に対してピントを合わせるように指示を出す。即ち、認識不可の原因となった事項を改善した画像を取得するように指示を出す。そして、その後、画像処理装置10は、ステップS42において、撮像装置(不図示)に対して、例えば連写モードで複数枚の画像を撮影するように指示を出す。
このようにして得られた複数枚の画像に基づいて、複数枚利用画像構成部3は、高解像度化処理(後述)を実行する。
例えば、個体認識可否判断部2でピントが合っていないと判断された場合、画像処理装置10は、ステップS41において、撮像装置(不図示)に対してピントを合わせるように指示を出す。即ち、認識不可の原因となった事項を改善した画像を取得するように指示を出す。そして、その後、画像処理装置10は、ステップS42において、撮像装置(不図示)に対して、例えば連写モードで複数枚の画像を撮影するように指示を出す。
このようにして得られた複数枚の画像に基づいて、複数枚利用画像構成部3は、高解像度化処理(後述)を実行する。
図8は、個体認識が不可能であると判断された場合の画像処理装置10の他の動作手順を示すフロー図である。
例えば、個体認識可否判断部2でピントが合っていないと判断された場合、画像処理装置10は、ステップS51において、撮像装置(不図示)に対してピントを合わせるように指示を出す。そして、その後、画像処理装置10は、ステップS52において、撮像装置から画像を取得し、ステップS53において、再度、個体認識可否判断部2に個体認識可否を判断させる。これは、顔領域のピントが合うことによって、他の判断基準項目も改善されて個体認識が可能となることが期待されるからである。
例えば、個体認識可否判断部2でピントが合っていないと判断された場合、画像処理装置10は、ステップS51において、撮像装置(不図示)に対してピントを合わせるように指示を出す。そして、その後、画像処理装置10は、ステップS52において、撮像装置から画像を取得し、ステップS53において、再度、個体認識可否判断部2に個体認識可否を判断させる。これは、顔領域のピントが合うことによって、他の判断基準項目も改善されて個体認識が可能となることが期待されるからである。
ステップS53でNoの場合、即ち個体認識可否判断部2が、顔領域はなお個体認識が不可能であると判断した場合、画像処理装置10は、ステップS54において、撮像装置(不図示)に対して、例えば連写モードで複数枚の画像を撮影するように指示を出す。この後、このようにして得られた複数枚の画像に基づいて、複数枚利用画像構成部3は、高解像度化処理(後述)を実行する。
ステップS53でYesの場合、即ち個体認識可否判断部2が、特定した顔領域で個体認識が可能であると判断した場合、ステップS25において、個体認識部4は、個体認識が可能と判断された画像に基づいて個体認識処理を行う。
次に、複数枚の画像に基づいて複数枚利用画像構成部3が実行する、高解像度化処理について説明する。
上述のようにして撮影された複数の画像には、注目被写体が含まれている。しかしながら、一般に注目被写体は動いているため、その画像は変化していることが考えられる。そこで、複数枚利用画像構成部3はこの動きを補正して高解像度化処理を実行する。
上述のようにして撮影された複数の画像には、注目被写体が含まれている。しかしながら、一般に注目被写体は動いているため、その画像は変化していることが考えられる。そこで、複数枚利用画像構成部3はこの動きを補正して高解像度化処理を実行する。
図9は、複数枚利用画像構成部3の構成を示す図である。複数枚利用画像構成部3は、モーション推定部3A及び超解像処理部3Bを備えている。モーション推定部3Aは、被写体の動きを推定する。超解像処理部3Bは、推定された被写体の動きを補正した画像を合成して高解像度の画像を生成する。
図10は、モーション推定部3Aでの動き推定の処理手順の一例を示す図である。
ステップS31において、モーション推定部3Aは動き推定の基準となる注目被写体画像(以下、基準画像と称する)を1枚読み込む。ここで、基準画像は、複数の注目被写体画像から所定の基準で選択することができる。例えば、最初の撮影画像としても良く、中間の撮影画像としても良い。あるいは、ノイズの少ない画像としても良い。あるいは、図6に示す判断基準を適用して総合的に判断しても良い。
ステップS31において、モーション推定部3Aは動き推定の基準となる注目被写体画像(以下、基準画像と称する)を1枚読み込む。ここで、基準画像は、複数の注目被写体画像から所定の基準で選択することができる。例えば、最初の撮影画像としても良く、中間の撮影画像としても良い。あるいは、ノイズの少ない画像としても良い。あるいは、図6に示す判断基準を適用して総合的に判断しても良い。
ステップS32において、基準画像を複数の動きで変形させる。ここで、基準画像の複数変形は、例えば、水平、垂直、回転方向に対して、±1ピクセルの動きパラメータで基準画像を19通り(なお、27通り中8通りは同じ変形パターン)に変形させる。
ステップS33において、基準画像以外の他の複数の注目被写体画像(以下、参照画像と称する)を1枚読み込む。ステップS34において、基準画像を複数変形させた上記それぞれの画像と参照画像との間の類似度値を算出する。そして、ステップS35において、基準画像を変形させた動きのパラメータ(変形モーションパラメータ)と算出した類似度値との関係を用いて、離散的な類似度マップを作成する。ステップS36において、作成した離散的な類似度マップを補完することで、類似度マップの極値を探索し、類似度マップの極値を求める。
図11は、動き推定をパラボラフッティングで行う具体的方法の一例を示す図である。図11において、縦軸は類似度値の二乗偏差を表している。縦軸の二乗偏差の値が小さいほど類似度が高いといえる。横軸は変形モーションパラメータを示している。この図において、ステップS35において求めた離散的な点にフィットするパラボラ曲線を推定する。そして、このフィットしたパラボラ曲線を用いて二乗偏差が最小(極値)となる変形モーションパラメータを求める。
この極値で定められる変形の動きが動き推定値となる。即ち、極値で定められる変形モーションパラメータで基準画像を変形すると、参照画像に最も近似した画像を得ることができる。
この極値で定められる変形の動きが動き推定値となる。即ち、極値で定められる変形モーションパラメータで基準画像を変形すると、参照画像に最も近似した画像を得ることができる。
なお、図11に示した横軸の変形モーションパラメータは次のように割り付けることができる。
例えば、変形モーションパラメータを水平方向,垂直方向,回転方向の組み合わせであると考えると、横軸の負の方から(−1,+1,−1)、(−1,+1,0)、(−1,+1,+1)の各離散類似度値をプロットする。また、水平方向,垂直方向,回転方向の各変形方向を個別独立と考えると、負の方向から(−1),(0),(+1)となり、水平方向,垂直方向,回転方向について別々にプロットする。
例えば、変形モーションパラメータを水平方向,垂直方向,回転方向の組み合わせであると考えると、横軸の負の方から(−1,+1,−1)、(−1,+1,0)、(−1,+1,+1)の各離散類似度値をプロットする。また、水平方向,垂直方向,回転方向の各変形方向を個別独立と考えると、負の方向から(−1),(0),(+1)となり、水平方向,垂直方向,回転方向について別々にプロットする。
なお、類似度マップの極値の探索法としては、上述のパラボラフィッティングに限られず、スプライン補間法等の公知の技術を用いても良い。
図10のステップS37において、対象となる全ての参照画像に対して動き推定を実行したかどうかを判定する。
ステップS37でNoの場合、即ちまだ動き推定を実行していない参照画像が存在する場合は、ステップS38において、参照画像のフレーム番号を1つ増加させて、ステップS33へ戻る。これにより、全ての参照画像において動き推定が行われるまで、ステップS33乃至ステップS38の処理が繰り返し行われることとなる。
ステップS37でYesの場合、即ち全ての参照画像において動き推定が行われたと判定されると、当該動き推定の処理を終了する。
ステップS37でNoの場合、即ちまだ動き推定を実行していない参照画像が存在する場合は、ステップS38において、参照画像のフレーム番号を1つ増加させて、ステップS33へ戻る。これにより、全ての参照画像において動き推定が行われるまで、ステップS33乃至ステップS38の処理が繰り返し行われることとなる。
ステップS37でYesの場合、即ち全ての参照画像において動き推定が行われたと判定されると、当該動き推定の処理を終了する。
その後、超解像処理部3Bが、画像処理を行って高解像度画像を生成する。
図12は、参照画像から基準画像への変形方法を示す図である。上述のように、極値で定められる変形モーションパラメータで基準画像を変形すると、参照画像に最も近似した画像を得ることができる。従って、それぞれの参照画像を、変形モーションパラメータの符号を反転した値で変形することによって、基準画像に最も近似した画像を得ることができる。
超解像処理部3Bは、このようにして得られた複数枚の画像を用いて、例えば、加算平均処理あるいは加重平均処理を実行することによって、高精細な画像を構成する。
図12は、参照画像から基準画像への変形方法を示す図である。上述のように、極値で定められる変形モーションパラメータで基準画像を変形すると、参照画像に最も近似した画像を得ることができる。従って、それぞれの参照画像を、変形モーションパラメータの符号を反転した値で変形することによって、基準画像に最も近似した画像を得ることができる。
超解像処理部3Bは、このようにして得られた複数枚の画像を用いて、例えば、加算平均処理あるいは加重平均処理を実行することによって、高精細な画像を構成する。
図13は、加算平均処理を示す図である。この加算平均法では、全画像(基準画像及び基準画像に近似した複数の画像)について各画素位置の画素値を加算平均し、その値を新画素値とする加算平均画像を生成する。この加算平均手法は、ノイズが残りにくいという特徴がある。
図14は、加重平均処理の一例を示す図である。加重平均処理は、画像毎に重みをつけた画素値を加算して平均化する処理である。図14に示す加重平均法では、先ず2枚の画像について加算平均画像を生成し、生成した加算平均画像と別の画像との間で更に加算平均画像を生成する。そして、この処理を全画像について適用する。
そして、このようにして得られた高精細な画像に基づいて、個体認識部4が個体認識処理を実行する。
[バリエーション]
上述の実施の形態のバリエーションとして、個体認識可否判断部2の判断基準に、「向き」を加えることができる。これは例えば、顔が正面を向いている画像を個体認識可の条件とするものである。
上述の実施の形態のバリエーションとして、個体認識可否判断部2の判断基準に、「向き」を加えることができる。これは例えば、顔が正面を向いている画像を個体認識可の条件とするものである。
以下に、顔の向きを評価する方法について説明する。個人認識可否判断部2は、画像から顔方向を計測し、そこから顔の向きについて情報を算出する。
図15は、向き評価処理手順を示すフローチャートである。
図15は、向き評価処理手順を示すフローチャートである。
ステップS141において、画像処理装置10は、不図示の撮像装置が撮像した画像を取得する。ステップS142において、顔領域特定部1は取得した画像から顔領域を特定し、更に顔画像に対して差分背景や肌色領域抽出によって、顔領域22をより正確に検出する。
次に、顔領域特定部1は、ステップS143において、顔領域22の中心の位置である顔領域中心位置23を検出し、ステップS144において、更に、眉、目尻、鼻などの顔器官の位置を検出することにより顔器官中心位置24を決定する。なお、図16に示すように、顔器官中心位置24は両眉の中心、鼻筋、唇のくぼみ部分を通る直線の位置のことである。
そして、ステップS145において、これら検出した顔領域中心位置23と顔器官中心位置24とから、顔方向を計算する。
図17は、撮像装置25に対する被写体の姿勢を表す図である。撮像装置25に対する水平方向の角度を角度Φ、撮像装置25に対する垂直方向の角度を角度Ψ、撮像装置25に対する向きを向きθと定義する。
図17は、撮像装置25に対する被写体の姿勢を表す図である。撮像装置25に対する水平方向の角度を角度Φ、撮像装置25に対する垂直方向の角度を角度Ψ、撮像装置25に対する向きを向きθと定義する。
まず、水平方向の顔方向を計算する。ここで、顔方向は、図18に示す、顔楕円モデルを基に計算される。図18は水平方向右向きΦfaceを向いたときの頭を真上から見下ろした図である。
また、撮像装置25に対する垂直方向の顔角度Ψfaceの推定に関しては、既存の方法を用いる。
そして、水平方向の顔角度Φfaceと垂直方向の顔角度Ψfaceから、顔が撮像装置25の方向を向いているかを計算する。顔の向きと撮像装置25の向きの角度をθfaceとすると、θfaceは次の数2で表される。
図15のステップS116において、こうして計算された顔方向に基づいて、被写体である顔が撮像装置25に正対しているかを、その計算結果に基づいて判定する「合否判定処理」を実施する。例えば、θface≦30°のときに、被写体である顔は撮像装置15に正対していると判断し、向き評価を合格とする。
以上説明した画像処理技術を適用した例について説明する。
(I)図19(1)に示すように、A−Eまでの5人が撮像装置で捕らえられたとする。このときEの画像は撮像装置内に保存されていて、A−Eの5人の中からEを識別することを考える。図19(2)ではA−Eのうち5人の顔領域が検出された状態を示している。図19(3)では、CとEを囲む領域が破線になっているが、これは、個体認識を行おうとした際にCとEに関しては抽出された領域が狭く、そのままでは抽出できないことを示している。従来、A,B,Dのみについて個体識別が可能であり、Eについては識別ができなかったが、本手法では、図19(4)に示すようにC,Eの領域に対しても、数フレームの画像情報を用いることにより、該当する領域内を高精細化することを可能にしている。従って、この高精細化された画像に基づいて個体認識が可能となった。
(II)上述のように個体認識を行うことが可能となったため、個体認識をした結果に応じて、個体認識された領域に最適となるような画像処理を行うことができる。ここでいう、最適な画像処理とは、撮像装置を例にとると、オートズーム処理、階調変換処理、AE、AF、トリミング処理のような画像処理を行うことを意味する。図19の例では、従来はEに対して適切な画像処理が出来なかったが、本手法ではEに対して適切な階調変換やAE処理が出来るようになる。
(III)図20は、記憶媒体の中の多量の画像を、各個人毎に分類するためのフォルダを示す図である。Fに関するフォルダ11には、第1の実施形態の手法を用いることにより、識別が容易な画像12だけでなく、識別の難しい画像13に関しても関連付けて分類することができる。従って、従来に比べ正確な分類が可能となる。
なお、上記実施の形態では、人物の顔を認識する方法を例として説明したが、本発明はこの実施例に限定されるものではない。人物に限られず動物を対象としても良く、顔に限られず任意の部位を対象としても良い。例えば、生物である花・動物・虫などのみでなく、広く有体物に適用することができる。また、指紋など有体物上の図形についても適用することができる。
なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
1…顔領域特定部、2…個体認識可否判断部、3…複数枚利用画像構成部、3A…モーション推定部、3B…超解像処理部、4…個体認識部、10…画像処理装置、11…フォルダ、15…撮像装置、23…顔領域中心位置、24…顔器官中心位置、25…撮像装置。
Claims (12)
- 取得した画像から個体の所定の部分画像を特定する部分画像特定部と、
特定した前記個体の部分画像によって個体認識の可否を判断する個体認識可否判断部と、
前記個体認識可否判断部の結果に応じて、更に取得した複数枚の前記個体の部分画像から新たな前記個体の部分画像を生成する複数枚利用画像構成部と、
前記個体の部分画像が予め記憶媒体に保存した注目被写体画像の特徴と一致するかを判断する個体認識部と
を備えたことを特徴とする画像処理装置。 - 前記個体認識可否判断部は、少なくとも前記個体の部分画像の大きさにより個体認識の可否を判断することを特徴とする請求項1に記載の画像処理装置。
- 前記個体認識可否判断部は、少なくとも前記個体の部分画像の合焦状態により個体認識の可否を判断することを特徴とする請求項1に記載の画像処理装置。
- 前記個体認識可否判断部は、少なくとも前記個体の部分画像の解像度により個体認識の可否を判断することを特徴とする請求項1に記載の画像処理装置。
- 前記個体認識可否判断部は、少なくとも前記個体の部分画像内における前記個体の姿勢により個体認識の可否を判断することを特徴とする請求項1に記載の画像処理装置。
- 前記個体認識可否判断部で個体認識が不可能であると判断された場合、前記画像処理装置は、認識不可の原因となった事項を改善した画像を複数枚取得することを特徴とする請求項2乃至5の内いずれか1項に記載の画像処理装置。
- 個体認識可否判断部で個体認識が不可能であると判断された場合、前記個体認識可否判断部は、さらに取得した認識不可の原因となった事項を改善した1枚の画像に基づいて個体認識の可否を再び判断し、再度前記個体認識可否判断部で個体認識が不可能であると判断された場合、前記画像処理装置は、認識不可の原因となった事項を改善した画像を複数枚取得することを特徴とする請求項2乃至5の内いずれか1項に記載の画像処理装置。
- 前記複数枚利用画像構成部は、前記複数枚の前記個体の部分画像を用いて解像度の高い新たな画像を生成する高解像度化処理部を有することを特徴とする請求項1に記載の画像処理装置。
- 請求項1に記載の画像処理装置を有する撮像装置において、
前記個体認識部によって前記注目被写体画像の特徴と一致すると判断された前記個体の部分画像に対して画像処理を施す被写体最適化画像処理部を備えたことを特徴とする撮像装置。 - 前記被写体最適化画像処理部は、AE、AFの内の少なくとも1つの処理を実行することを特徴とする請求項9に記載の撮像装置。
- 請求項1に記載の画像処理装置を有する撮像装置において、
前記個体認識部によって前記注目被写体画像の特徴と一致すると判断された前記個体の部分画像を前記注目被写体画像と関連付けて保存する保存処理部を備えたことを特徴とする撮像装置。 - 撮像装置によって撮像された個体の画像を取得する画像取得ステップと、
取得された画像から顔領域を特定する顔領域特定ステップと、
特定された顔領域から個体認識の可否を判断する個体認識可否判断ステップと、
個体認識可否の判断結果に応じて、更に前記撮像装置によって撮像された複数枚の画像から新しい画像を構成する複数枚利用画像構成ステップと、
構成された前記新しい画像に含まれる顔画像が、予め記憶媒体に保存した注目被写体画像の特徴と一致するか判断する個体認識ステップと
を備えたことを特徴とする画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008218451A JP2010055300A (ja) | 2008-08-27 | 2008-08-27 | 画像処理装置及び画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008218451A JP2010055300A (ja) | 2008-08-27 | 2008-08-27 | 画像処理装置及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010055300A true JP2010055300A (ja) | 2010-03-11 |
Family
ID=42071158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008218451A Withdrawn JP2010055300A (ja) | 2008-08-27 | 2008-08-27 | 画像処理装置及び画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010055300A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7434032B2 (ja) | 2020-03-31 | 2024-02-20 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
-
2008
- 2008-08-27 JP JP2008218451A patent/JP2010055300A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7434032B2 (ja) | 2020-03-31 | 2024-02-20 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8797448B2 (en) | Rapid auto-focus using classifier chains, MEMS and multiple object focusing | |
US9053388B2 (en) | Image processing apparatus and method, and computer-readable storage medium | |
US9036863B2 (en) | Resuming tracking after losing target | |
US9405960B2 (en) | Face hallucination using convolutional neural networks | |
US8659697B2 (en) | Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing | |
JP4479756B2 (ja) | 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム | |
JP2010520542A (ja) | 分類器チェーンを用いた照明検出 | |
MX2012010602A (es) | Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara. | |
JP2010165053A (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP6381353B2 (ja) | 画像処理装置、撮像装置、画像処理方法およびプログラム | |
JP2012088787A (ja) | 画像処理装置、画像処理方法 | |
JP2009199417A (ja) | 顔追跡装置及び顔追跡方法 | |
WO2012046426A1 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
JPWO2009004916A1 (ja) | なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム | |
JP2009205283A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2009086823A (ja) | 頭頂位置算出装置、それを用いた画像処理装置および頭頂位置算出方法並びにプログラム | |
JP2006222899A (ja) | 画像処理装置及び画像処理方法 | |
JP2007115109A (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
JP6497007B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP4496005B2 (ja) | 画像処理方法および画像処理装置 | |
JP5755516B2 (ja) | 物体形状推定装置 | |
JP2010055300A (ja) | 画像処理装置及び画像処理方法 | |
JP4789526B2 (ja) | 画像処理装置、画像処理方法 | |
JP4141090B2 (ja) | 画像認識装置、陰影除去装置、陰影除去方法及び記録媒体 | |
JP2010110500A (ja) | 撮像装置及び撮像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111101 |