JP5335554B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP5335554B2
JP5335554B2 JP2009121320A JP2009121320A JP5335554B2 JP 5335554 B2 JP5335554 B2 JP 5335554B2 JP 2009121320 A JP2009121320 A JP 2009121320A JP 2009121320 A JP2009121320 A JP 2009121320A JP 5335554 B2 JP5335554 B2 JP 5335554B2
Authority
JP
Japan
Prior art keywords
local region
feature amount
detection window
determining
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009121320A
Other languages
English (en)
Other versions
JP2010271792A (ja
Inventor
直嗣 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009121320A priority Critical patent/JP5335554B2/ja
Publication of JP2010271792A publication Critical patent/JP2010271792A/ja
Application granted granted Critical
Publication of JP5335554B2 publication Critical patent/JP5335554B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、デジタル画像機器及び画像処理ソフトウェア等における静止画像及び動画像からの特定の被写体又は被写体の一部の検出に好適な画像処理装置及び画像処理方法等に関する。
画像から特定の被写体パターンを自動的に検出する技術は、画像検索、物体検知、物体認識、物体追跡等の様々な分野に応用できる。このような技術の一例が非特許文献1に提案されている。この技術では、先ず入力画像から矩形の小領域(以下、検出ウインドウと呼ぶ)を抽出し、この検出ウインドウ内に顔が含まれているかどうかを判定する。この判定では、カスケード型に複数の強判別器を接続して構成された検出器に検出ウインドウを通す。そして、全ての強判別器で顔であると判定された場合に、検出ウインドウ内に顔があると出力し、それ以外の場合には検出ウインドウ内に顔がないと出力する。また、各強判別器には、複数の弱判別器等が含まれている。
しかしながら、非特許文献1に記載された従来の技術を用いて、実際に顔又は人物の検出を高い精度で行うためには、数百から数千の弱判別器が必要とされ、弱判別器における判別処理の回数が非常に多くなってしまう。この結果、処理時間が長くなる。
その一方で、検出器へ入力する検出ウインドウの切り出し(抽出)では、先ず、入力画像を基準画像にリサイズし、その後、基準画像を輝度画像等に変換する。そして、輝度画像等のサイズに対して数段階の縮小画像を生成し、これらの縮小画像内全ての領域に対して検出ウインドウが走査するように、ラスタスキャンすることで検出ウインドウを切り出す。従って、検出器に入力される検出ウインドウの数は膨大な数となる。
なお、基準画像を数段階のサイズにリサイズして縮小画像を生成し、この縮小画像に対して検出ウインドウをラスタスキャンするのは、以下の理由のためである。すなわち、基準画像における被写体の大きさは様々だが、切り出す検出ウインドウは特定のサイズとなる。このため、基準画像における被写体が検出ウインドウサイズよりも大きな領域である場合には、この被写体を検出することができない。そこで、基準画像のサイズから数段階サイズを落とした縮小画像を生成し、これらの縮小画像全てに対して検出ウインドウをラスタスキャンすることで様々な大きさの被写体を検出する。
このように、非特許文献1に記載された技術では、入力画像から切り出した膨大な数の検出ウインドウについて、数百から数千の弱判別器で構成される検出器において判別処理を行わなくてはならず、非常に処理コスト(処理時間)がかかってしまう。
このような技術に対し、単純に検出ウインドウのラスタスキャンを画素間引きで行うことにより処理時間を短縮する方法が考えられる。しかし、この方法では特徴的なパターンが判定されるはずの位置を飛ばしてしまうことがあるため、結果として検出漏れが多くなり検出精度が低下する。
これらの課題に対し、特許文献1には、検出ウインドウのラスタスキャンにおける画素間引きを行うかわりに、位置がずれた被写体パターンについての学習を通常の被写体パターンの学習に加えて行う技術が記載されている。また、この技術では、これらの学習結果を全て辞書データとして保持することとしている。
しかしながら、画素間引きを行った場合の位置ズレについては、少なくとも上下左右4方向にずれる可能性があるため、それぞれの位置ズレに対する学習を行わなくてはならない。この結果、通常の辞書に比べ辞書サイズが大きくなってしまい別の問題が生じてしまう。
特開2007−58722号公報
P. Viola and M. Jones, "Robust Real-time Object Detection", SECOND INTERNATIONAL WORKSHOP ON STATISTICAL AND COMPUTATIONAL THEORIES OF VISION, July 13 2001
本発明は、辞書サイズの増加を抑制しながら、被写体の検出を高い精度及び短時間で行うことができる画像処理装置及び画像処理方法等を提供することを目的とする。
本願発明者は、前記課題を解決すべく鋭意検討を重ねた結果、以下に示す発明の諸態様に想到した。
本発明に係る画像処理装置は、所定の被写体を判定するための局所領域の位置及び形状の情報を含む辞書情報を記憶した辞書記憶手段と、前記辞書情報に基づいて画像内の検出ウインドウの位置を制御する位置制御手段と、前記辞書情報に基づいて前記検出ウインドウ内の局所領域を決定する決定手段と、決定された前記局所領域における特徴量を算出する局所特徴量算出手段と、前記特徴量及び前記辞書情報に基づいて前記検出ウインドウ内に前記所定の被写体が含まれるか否かを判定する判定手段と、を有し、前記決定手段は、前記局所領域の横幅が広いほど水平方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定するか、前記局所領域の縦幅が広いほど垂直方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とする。
本発明に係る画像処理方法は、辞書記憶手段に記憶され、所定の被写体を判定するための局所領域の位置及び形状の情報を含む辞書情報に基づいて、画像内の検出ウインドウの位置を制御する位置制御ステップと、前記辞書情報に基づいて前記検出ウインドウ内の局所領域を決定する決定ステップと、決定された前記局所領域における特徴量を算出する局所特徴量算出ステップと、前記特徴量及び前記辞書情報に基づいて前記検出ウインドウ内に前記所定の被写体が含まれるか否かを判定する判定ステップと、を有し、前記決定ステップでは、前記局所領域の横幅が広いほど水平方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定するか、前記局所領域の縦幅が広いほど垂直方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とする。
本発明によれば、検出ウインドウを走査して被写体の有無の判定を行う際に、形状に応じて特徴量の算出の対象となる局所領域が決定されるので、高い精度及び短時間で判定を行うことができる。
本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。 第1の実施形態で用いられるカスケード型検出器の構成を示す図である。 第1の実施形態で用いられる強判別器の構成を示す図である。 縮小画像から所定の大きさの検出ウインドウ(部分領域)を抽出する処理を示す図である。 第1の実施形態に係る画像処理装置の動作を示すフローチャートである。 ステップS505の人物判定処理の内容を示すフローチャートである。 強判別器と弱判別器との関係の具体例を示す図である。 データ構造の一例を示す図である。 本発明の実施形態における被写体尤度算出処理の基本原理を示す図である。 本発明の実施形態における被写体尤度算出処理の基本原理を示す図である。 第1の実施形態におけるステップS603の被写体尤度算出処理の内容を示すフローチャートである。 ステップS1104の局所特徴量算出処理の内容を示すフローチャートである。 注目する画素(u,v)に関する輝度値の勾配強度及び勾配方向の関係を示す図である。 勾配方向ヒストグラムの例を示す図である。 ブロック領域の例を示す図である。 第2の実施形態におけるステップS603の被写体尤度算出処理の内容を示すフローチャートである。 検出ウインドウが60×120の場合における対応表の例を示す図である。
以下、本発明の実施形態について添付の図面を参照して具体的に説明する。
(第1の実施形態)
先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。
この画像処理装置には、図1に示すように、画像入力部101、画像保存部102、縮小画像生成部103、縮小画像設定部104、局所特徴量算出部105、位置制御部106、辞書記憶部107、判定部108及び判定結果格納部109が設けられている。更に、これらの動作を制御する制御部(図示せず)も設けられている。
画像入力部101は、検出対象となる画像を入力する。画像保存部102は、画像入力部101により入力された画像(入力画像)を保存する。縮小画像生成部103は、入力画像から数段階の縮小画像を生成する。縮小画像設定部104は、数段階の縮小画像のうちから1つの縮小画像を設定する。辞書記憶部107は、事前に学習した辞書データ(辞書情報)を記憶する。位置制御部106は、辞書データに基づいて縮小画像における検出ウインドウの位置を制御する。局所特徴量算出部105は、検出ウインドウ内における局所領域の特徴量(局所特徴量)を算出する。判定部108は、局所特徴量に基づいて検出ウインドウ内に人物がいるかどうかを判定する。判定結果格納部109は、判定部108の出力結果である人物の位置を格納する。
次に、上述のように構成された画像処理装置における、入力画像中から被写体である人物の位置を検出する動作について説明する。図5は、第1の実施形態に係る画像処理装置の動作を示すフローチャートである。
先ず、ステップS501にて、画像入力部101より画像を入力し、画像保存部102がこれを読み込む。ここで、読み込まれた画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成されるものとする。
次いで、ステップS502にて、縮小画像生成部103が画像データを所定の倍率に縮小した画像データを生成する。これは、本実施形態では、様々な大きさの人物の検出に対応すべく複数のサイズの画像データに対して順次検出を行うため。例えば、倍率が1.2倍程度異なる複数の画像への縮小処理が後段の検出処理のために順次適用される。
その後、ステップS503にて、縮小画像設定部104が、縮小画像生成部103により生成された複数のサイズの縮小画像の中から1枚を設定する。
続いて、ステップS504にて、位置制御部106が、縮小画像から所定の大きさの検出ウインドウ(部分領域)を抽出する。ここで、この抽出処理について図4を参照しながら説明する。先ず、入力画像401を基準画像402にリサイズし、その後、基準画像402を後の判定処理(ステップS505)で用いる所定の形式の画像、例えば輝度画像403に変換する。そして、輝度画像403のサイズに対して数段階の縮小画像404を生成し、これらの縮小画像404内の全ての領域に対して検出ウインドウが走査するように、ラスタスキャンすることで検出ウインドウ(部分領域)405を切り出す。従って、縮小率の大きな画像から検出ウインドウを切り出して人物の判別を行う場合には、画像に対して大きな人物の検出を行うことになる。
次いで、ステップS505にて、局所特徴量算出部105及び判定部108が検出ウインドウ内に人物が含まれるか否かの判定を行う。この判定処理の詳細については後述する。
その後、ステップS506にて、制御部が、検出ウインドウが画像内の全ての位置を走査したか否かを判定する。そして、全ての位置を走査している場合にはステップS507に流れ、そうでない場合にはステップステップS504に流れ、全ての位置の走査が完了するまでステップS504からステップS506までの処理を繰り返す。
ステップS507では、ステップS502にて縮小画像生成部103により生成された複数の縮小画像の全てについて処理が完了したか否かを判定する。そして、全てについて処理が完了している場合にはステップS508に流れ、そうでない場合にはステップS503に流れ、次の縮小画像についてステップS503からステップS507までの処理を繰り返す。
そして、ステップS508では、制御部が、検出された人物の位置を判定結果格納部109に出力し、判定結果格納部109がこれを格納する。
[人物判定処理(ステップS505)]
次に、ステップS505の人物の判定処理の詳細について説明する。この判定処理では、図2に示すカスケード型検出器が用いられる。図2は、第1の実施形態で用いられるカスケード型検出器の構成を示す図である。このカスケード型検出器は、図2に示すように、N個の強判別器20−1〜20−Nがカスケード接続されて構成されている。また、各強判別器は、図3に示す構成を備えている。図3は、第1の実施形態で用いられる強判別器の構成を示す図である。強判別器には、図3に示すように、M個の弱判別器30−1〜30−M、加算器311及び閾値処理部312が含まれている。弱判別器30−1〜30−Mは、0又は1を出力する。加算器311は、弱判別器30−1〜30−Mから出力された信号に各弱判別器30−1〜30−Mに対して予め設定された重みを掛けた値を互いに加算して出力する。閾値処理部312は、加算器311から出力された値及び予め設定された閾値に基づいて判別結果を出力する。なお、1個の強判別器に含まれる弱判別器の数Mは均一である必要はなく、強判別器毎に弱判別器の数Mが相違していてもよい。
そして、ステップS505では、次のような処理を実行する。図6は、ステップS505の人物判定処理の内容を示すフローチャートである。
先ず、ステップS601にて、局所特徴量算出部105が強判別器の番号nをn=1と初期化する。番号nは1以上N以下の自然数である。
次いで、ステップS602にて、局所特徴量算出部105が、n番目の強判別器における弱判別器の番号tをt=1と初期化し、また、各弱判別器の被写体尤度の合算値を代入するための変数SnをSn=0と初期化する。番号tは1以上M以下の自然数である。
次に、ステップS603にて、局所特徴量算出部105が、n番目の強判別器におけるt番目の弱判別器hnt(x,y)の被写体尤度Lnt(x,y)を算出する。ここで、強判別器と弱判別器との関係について具体的に説明する。図7は、強判別器と弱判別器との関係の具体例を示す図である。この具体例では、強判別器1に3つの弱判別器h11〜h13が含まれ、強判別器2に4つの弱判別器h21〜h24が含まれているとする。また、検出ウインドウ内には、図7に示すように、様々な位置、大きさ、形状の局所領域が設定されており、これらの局所領域における被写体尤度を弱判別器が算出する。以下、弱判別器h11〜h13、h21〜h24が算出した写体尤度をL11〜L13、L21〜L24と表わす。被写体尤度の算出処理の詳細については後述する。なお、強判別器1及び2、弱判別器h11〜h13及びh21〜h24、並びにこれらに付随する情報について予め学習しておき、図8に示すようなデータ構造として辞書記憶部107に格納しておく。このデータは、強判別器数801と各強判別器のデータ802とで構成され、各強判別器のデータ802は、弱判別器数803と各弱判別器のデータ804と判別の閾値805とで構成される。各弱判別器のデータ804は、806に示すように局所領域の情報と尤度変換のLUT(ルックアップテーブル)とを含み、局所領域の情報は、807に示すように、領域の左上のX座標とY座標、幅および高さで構成される。
なお、弱判別器に対応する局所領域の形状が矩形領域である必要はなく、例えば、図7に示すように、複数の矩形領域の組み合わせからなる局所領域701又は702等を用いてもよい。また、強判別器に含まれる弱判別器の数は限定されず、1又は2以上のいずれであってもよい。
ステップS603の後、ステップS604にて、局所特徴量算出部105が、加算器311を用いて、ステップS603で取得した被写体尤度Lnt(x,y)を合算値Snに加算する。
次いで、ステップS605にて、局所特徴量算出部105が、現在注目している弱判別器hnt(x,y)が、n番目の強判別器における最後の弱判別器(M番目の弱判別器)であるか否かを判定する。最後の弱判別器ではない場合、ステップS603に流れ、ステップS605までの処理を繰り返す。
最後の弱判別器の場合、ステップS606に進み、判定部108が、閾値処理部312を用いて合算値Snとn番目の強判別器の閾値Tnとの値を比較する。閾値Tnは、予め学習処理により求めておき、辞書記憶部107に格納しておき、これを参照すればよい。図7に示す例では、強判別器1の合算値S1は、S1=L11+L12+L13となり、この合算値S1が強判別器1の閾値T1と比較される。また、強判別器2の合算値S2は、S2=L21+L22+L23+L24となり、この合算値S2が強判別器1の閾値T2と比較される。
そして、判定部108は、Sn<Tnの場合、現在注目している検出ウインドウには人物が含まれていないと判定し、図6のフローチャートで示す処理を終了して図5のフローチャートに戻り、ステップS505に流れる。一方、判定部108は、Sn≧Tn(Sn>=Tn)の場合、現在注目している検出ウインドウはn番目の強判別器の判別処理に対し、条件を満たすパターンであると判定し、ステップS607に流れる。
ステップS607では、判定部108が、現在注目している強判別器が最後の強判別器(N番目の強判別器)であるか否かを判定する。最後の強判別器ではない場合、ステップS602に流れ、次の強判別器の判別処理に移る。最後の判別器の場合、現在注目している検出ウインドウには人物が含まれていると判定し、ステップS608に流れ、判定結果格納部109に人物検出結果として検出ウインドウの位置(x、y)を格納する。
[被写体尤度算出処理(ステップS603)]
次に、ステップS603の被写体尤度の算出処理の詳細について説明する。従来の被写体検出処理においては、ラスタスキャンする検出ウインドウについて、全ての位置で被写体尤度算出処理を行っている。しかし、このような処理では、非常に多くの被写体尤度の計算が必要とされる。一方、スキャン画素を間引いて計算コストを下げる方法もあるが、単純にスキャン画素を間引いた場合には検出漏れが多く発生してしまう。
これに対し、本実施形態では被写体尤度を算出する際に各弱判別器に対応する局所領域の形状に注目し、これに応じてスキャン幅を決定することで、精度を落とさずに高速に被写体尤度計算を行う。図9及び図10は、本発明の実施形態における被写体尤度算出処理の基本原理を示す図である。
図9に示すように、横幅が広い形状の局所領域901と、それを水平方向に2画素飛ばした位置にある局所領域903とに注目した場合、飛ばした画素数に対して重複する部分の領域が大きい。このため、それぞれの局所領域内の累積的な特徴量(例えば輝度ヒストグラム又はHOG(Histgrams Of Oriented Gradients)特徴)を、グラフ902及び904のように表すと、これらの特徴の差は小さい。なお、HOG特徴は、例えば「Navneet Dalal and Bill Triggs, "Histograms of Oriented Gradients for Human Detection", IEEE Computer Vision and Pattern Recognition. Vol.1, pp.886-893, 2005」に示されている。HOG特徴は、局所領域における画素勾配の強度と角度に基づいたヒストグラムを特徴量とするものであり、人物検出に特に有効な特徴量である。
図10に示すように、縦幅が広い局所領域1001と、それを垂直方向に2画素飛ばした位置にある局所領域1003とに注目した場合にも、同様に、飛ばした画素数に対して重複する部分の領域が大きい。このため、それぞれの局所領域内の累積的な特徴量を、グラフ1002及び1004のように表すと、これらの特徴の差も小さい。
従って、特徴量として局所領域内の累積的な特徴量を用いて判別処理を行う場合には、判別対象となる局所領域の横幅が十分に広ければ、弱判別器のラスタスキャンの水平方向のステップ幅を画素を間引いて行ったとしても精度に大きな影響を与えることはないといえる。同様に、判別対象となる局所領域の縦幅が十分に広ければ、弱判別器のラスタスキャンの垂直方向のステップ幅を画素を間引いて行ったとしても精度に大きな影響を与えることはないといえる。
そこで、ステップS603では、次のような処理を実行する。即ち、本実施形態では、弱判別器の局所領域の横幅が広い場合に水平方向に画素を間引いて(水平方向の走査間隔が広くなるように)ラスタスキャンを行う。図11は、第1の実施形態におけるステップS603の被写体尤度算出処理の内容を示すフローチャートである。
先ず、ステップS1101にて、局所特徴量算出部105が、位置制御部106を介して検出ウインドウ(x,y)におけるn番目の強判別器のt番目の弱判別器hnt(x,y)の横幅の値を辞書記憶部107から取得する。予め学習した結果の弱判別器を辞書として格納する際に、図8の情報807のように、局所領域の情報として、左上X座標、左上Y座標、幅Wl及び高さHlを格納しておき、このうちの横幅Wlの値を取得する。
次いで、ステップS1102にて、局所特徴量算出部105が、取得した横幅Wlの値が、予め定められている閾値thwより大きいか否かの判定を行う。大きい場合は画素間引きを行う局所領域であると判断し、ステップS1103に流れ、そうでない場合は1画素毎に被写体尤度計算を行うため、ステップS1104に流れる。
ステップS1103では、局所特徴量算出部105が、画素間引きを行う局所領域について、画素間引きを行う位置にあるか否かの判定を行う。本実施形態では、画素間引き数を3画素とするため、検出ウインドウの位置(x,y)の水平方向座標xについて、以下の式(1)を満たすか否かの判定を行う。
x%3!=0 ・・・(1)
なお、「%」は剰余の計算を行うものとする。
式(1)を満たす場合、弱判別器hnt(x,y)は間引き位置にあるため、被写体尤度の計算を省略してステップS1107に流れる。
ステップS1107では、局所特徴量算出部105が、ステップS1106で保持した値を参照することで被写体尤度lntを取得する。
一方、式(1)を満たさない場合には、弱判別器hnt(x,y)は被写体尤度の計算を行う位置にあるため、ステップS1104に流れて、局所特徴量算出部105が局所特徴量Untを算出する。ステップS1104の局所特徴量Untの算出処理の詳細については後述する。
次いで、ステップS1105にて、局所特徴量算出部105が被写体尤度lntを取得する。被写体尤度lntの取得では、以下の式(2)を用いて局所特徴量Untからの変換を行う。
lnt=fnt(Unt) ・・・(2)
ここで、関数fntは、n番目の強判別器のt番目の弱判別器hntにおける局所特徴量と被写体尤度の関係を表した対応表である。局所特徴量算出部105はこの対応表を参照して、局所特徴量Untから被写体尤度lntを取得する。
なお、被写体尤度lntは、以降の検出ウインドウにおいて弱判別器hntが間引き位置にある場合に被写体尤度を計算する代わりにこの値を参照するため(ステップS1107)、ステップS1106にて、局所特徴量算出部105内に設けたメモリに保持しておく。
その後、ステップS1108にて、被写体尤度lntを弱判別器hntの被写体尤度Lnt(x,y)に代入して図6のステップS603の処理に戻る。
以上の処理について、例えば検出ウインドウが(0,y)→(1,y)→(2,y)→(3,y)と水平方向に走査する場合、検出ウインドウ(0,y)で弱判別器hntの被写体尤度lntを算出し、この値を保持する。また、検出ウインドウ(1,y)及び検出ウインドウ(2,y)における弱判別器hntの被写体尤度計算は間引き位置にあるため省略し、被写体尤度Lnt(1,y)及びLnt(2,y)にはともに被写体尤度lntが代入される。そして、検出ウインドウ(3,y)に移動した際に、再度被写体尤度の計算を行い、被写体尤度lntの値を更新する。
なお、この例では、局所領域の横幅を参照することで水平方向の画素間引きを行うか否かを決定したが、局所領域の縦幅を参照して垂直方向の画素間引きを行うか否かを決定してもよく、また、双方を組み合わせてもよい。つまり、局所領域の縦幅が広いほど垂直方向の走査間隔が広くなるように決定してもよい。
[局所特徴量算出処理(ステップS1104)]
次に、ステップS1104の局所特徴量の算出処理の詳細について説明する。本実施形態では、局所特徴量として特に画素特徴の累積的な特徴量を用いることで大きな効果を得ることができる。画素特徴の累積的な特徴量としては、例えばHOG特徴及びHaar特徴等のように、局所領域における画素値そのもの、輝度値、又はエッジ強度等の画素の特徴を累積した特徴量が挙げられる。本実施形態では、人物の検出に特に有効なHOG特徴を用いるが、他の特徴量を用いることも可能である。
そして、ステップS1104では、次のような処理を実行する。図12は、ステップS1104の局所特徴量算出処理の内容を示すフローチャートである。
先ず、ステップS1201にて、局所特徴量算出部105が勾配情報を算出する。ここで、勾配情報には、隣接画素における画素特徴の勾配強度及び勾配方向の2つの情報が含まれる。画素特徴としては輝度値が代表的であるが、その他の画素の色情報を表すものであればよい。ここでは、画素特徴を輝度値として説明する。画素(u,v)における輝度値をI(u,v)とする。
図13は、注目する画素(u,v)に関する輝度値の勾配強度及び勾配方向の関係を示す図である。画素(u,v)における輝度の勾配強度は以下の式(3)で、勾配方向は以下の式(4)で表される。
Figure 0005335554
Figure 0005335554
局所特徴量算出部105は、これらの式(3)及び(4)から勾配強度1301を示す値m(u,v)、勾配方向1302を示す値θ(u,v)を算出する。
次いで、ステップS1202にて、局所特徴量算出部105が、勾配方向ヒストグラムを生成する。図14は、勾配方向ヒストグラムの例を示す図である。図14の検出ウインドウ1401の局所領域1402内の各画素は、ステップS1201の処理により、矢印1403で示す勾配強度及び勾配方向の情報を持つ。ステップS1202では、これらの情報に基づき、勾配の方向別に勾配強度で重み付けしたヒストグラムを生成する。このとき、0度から180度の勾配方向を9段階に区分すると、例えばヒストグラム1404が得られる。以降、局所領域1402をセル領域とよぶ。ステップS1202の処理により、検出ウインドウ1401内の各セル領域はそれぞれ勾配方向ヒストグラムとして生成された9次元の特徴ベクトルを持つことになる。1つのセルにおける特徴ベクトルFiを以下の式(5)で表す。
Figure 0005335554
その後、ステップS1203にて、局所特徴量算出部105が、複数のセル領域から構成されるブロック領域において、セル領域を正規化する。本実施形態では、2×2のセル領域を含む領域をブロック領域として設定し、このブロック領域でセル領域内の9次元特徴ベクトルを正規化する。図15は、ブロック領域の例を示す図である。ブロック領域1501内の各セルはそれぞれ9次元のベクトルを持っており、これらをセル領域毎にF1、F2、F3、F4と表すと、ブロック領域内には36次元のベクトルが存在することになる。これらをブロック特徴ベクトルVkとすると、このブロック特徴ベクトルVkは以下の式(5)で表される。
Figure 0005335554
そして、局所特徴量算出部105は、このブロック特徴ベクトルVkに対し、パターン照合における照明変動を低減するため、以下の式(6)により正規化を行う。
Figure 0005335554
以上のように求めたブロック特徴ベクトルVkが局所領域におけるHOG特徴となる。即ち、各弱判別器のパターン判別では、36次元の特徴ベクトルを用いてパターンの照合を行う。
なお、ここでは、セル領域が6×6の画素で構成されることとしているが、セル領域の構成画素数は任意であり、セル領域のアスペクト比は1:1に限定されない。同様に、ブロック領域が2×2のセル領域から構成されているが、ブロック領域を構成するセル領域の数は任意である。このように、様々なサイズ及びアスペクト比のセル領域を任意の数で構成してブロック領域を生成することで、形状及び大きさの異なる複数種類の局所領域の特徴を表現することが可能となる。
このような第1の実施形態では、画像中の被写体として人物領域を抽出する際に、判別器に対応する局所領域の横幅が特定の大きさ以上である場合にラスタスキャンの画素間引きが行われる。このため、判別性能を落とすことなく判別処理を高速に行うことが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第2の実施形態は、主にステップS603の被写体尤度算出処理が第1の実施形態と相違しており、他の構成は第1の実施形態と同様である。図16は、本発明の第2の実施形態におけるステップS603の被写体尤度算出処理の内容を示すフローチャートである。
先ず、第1の実施形態と同様にして、ステップS1101にて、局所特徴量算出部105が、位置制御部106を介して検出ウインドウ(x,y)におけるn番目の強判別器のt番目の弱判別器hnt(x,y)の横幅の値を辞書記憶部107から取得する。
次いで、ステップS1601にて、局所特徴量算出部105が、弱判別器hntの幅Wlに基づいて間引き画素数mを決定する。この際には、弱判別器の幅と間引き画素数の対応表を予め用意しておき、これを参照することで間引き画素数mを決定する。検出ウインドウが60×120の場合における対応表の例を図17に示す。
その後、ステップS1602において、局所特徴量算出部105が、現在注目している検出ウインドウの画像水平方向の座標x及び間引き画素数mから検出ウインドウ(x,y)において弱判別器hntの被写体尤度の計算を行うか否かを判定する。
x%m!=0 ・・・(7)
式(7)を満たす場合、弱判別器hnt(x,y)は間引き位置にあるため、被写体尤度の計算を省略してステップS1107に流れる。
ステップS1107では、局所特徴量算出部105が、ステップS1106で保持した値を参照することで被写体尤度lntを取得する。
一方、式(7)を満たさない場合には、弱判別器hnt(x,y)は被写体尤度の計算を行う位置にあるため、ステップS1104に流れて、局所特徴量算出部105が局所特徴量Untを算出する。
ステップS1107の後及びステップS1104の後には、第1の実施形態と同様にして、ステップS1105、S1106及びS1108の処理を行う。
このような第2の実施形態では、画像中の被写体として人物領域を抽出する際に、弱判別器に対応する局所領域の横幅の値に応じてラスタスキャンの間引き画素数が決定され、その間引き画素数で画素間引きが行われる。このため、第1の実施形態と同様に、判別性能を落とすことなく判別処理を高速に行うことが可能となる。
なお、第1の実施形態及び第2の実施形態では、被写体として画像中の人物領域を抽出することとしているが、人物以外の物体、例えば顔及び動物等を抽出の対象としてもよい。
なお、上述した実施形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記録媒体をシステム或いは装置に提供しても実現することができる。そして、そのシステム又は装置のコンピュータ(若しくはCPU、MPU)が記録媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体(コンピュータ読み取り可能な記録媒体)は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行う場合も含まれている。
101:画像入力部、 102:画像保存部、 103:縮小画像生成部、 104:縮小画像設定部、 105:局所特徴量算出部、 106:位置制御部、 107:辞書記憶部、 108:判定部、 109:判定結果格納部

Claims (9)

  1. 所定の被写体を判定するための局所領域の位置及び形状の情報を含む辞書情報を記憶した辞書記憶手段と、
    前記辞書情報に基づいて画像内の検出ウインドウの位置を制御する位置制御手段と、
    前記辞書情報に基づいて前記検出ウインドウ内の局所領域を決定する決定手段と、
    決定された前記局所領域における特徴量を算出する局所特徴量算出手段と、
    前記特徴量及び前記辞書情報に基づいて前記検出ウインドウ内に前記所定の被写体が含まれるか否かを判定する判定手段と、
    を有し、
    前記決定手段は、前記局所領域の横幅が広いほど水平方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とする画像処理装置。
  2. 前記決定手段は、前記局所領域の縦幅が広いほど垂直方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 所定の被写体を判定するための局所領域の位置及び形状の情報を含む辞書情報を記憶した辞書記憶手段と、
    前記辞書情報に基づいて画像内の検出ウインドウの位置を制御する位置制御手段と、
    前記辞書情報に基づいて前記検出ウインドウ内の局所領域を決定する決定手段と、
    決定された前記局所領域における特徴量を算出する局所特徴量算出手段と、
    前記特徴量及び前記辞書情報に基づいて前記検出ウインドウ内に前記所定の被写体が含まれるか否かを判定する判定手段と、
    を有し、
    前記決定手段は、前記局所領域の縦幅が広いほど垂直方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とする画像処理装置。
  4. 前記特徴量は、前記局所領域内の画素特徴を累積する特徴量であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 辞書記憶手段に記憶され、所定の被写体を判定するための局所領域の位置及び形状の情報を含む辞書情報に基づいて、画像内の検出ウインドウの位置を制御する位置制御ステップと、
    前記辞書情報に基づいて前記検出ウインドウ内の局所領域を決定する決定ステップと、
    決定された前記局所領域における特徴量を算出する局所特徴量算出ステップと、
    前記特徴量及び前記辞書情報に基づいて前記検出ウインドウ内に前記所定の被写体が含まれるか否かを判定する判定ステップと、
    を有し、
    前記決定ステップでは、前記局所領域の横幅が広いほど水平方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とする画像処理方法。
  6. 辞書記憶手段に記憶され、所定の被写体を判定するための局所領域の位置及び形状の情報を含む辞書情報に基づいて、画像内の検出ウインドウの位置を制御する位置制御ステップと、
    前記辞書情報に基づいて前記検出ウインドウ内の局所領域を決定する決定ステップと、
    決定された前記局所領域における特徴量を算出する局所特徴量算出ステップと、
    前記特徴量及び前記辞書情報に基づいて前記検出ウインドウ内に前記所定の被写体が含まれるか否かを判定する判定ステップと、
    を有し、
    前記決定ステップでは、前記局所領域の縦幅が広いほど垂直方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とする画像処理方法。
  7. コンピュータに、
    辞書記憶手段に記憶され、所定の被写体を判定するための局所領域の位置及び形状の情報を含む辞書情報に基づいて、画像内の検出ウインドウの位置を制御する位置制御ステップと、
    前記辞書情報に基づいて前記検出ウインドウ内の局所領域を決定する決定ステップと、
    決定された前記局所領域における特徴量を算出する局所特徴量算出ステップと、
    前記特徴量及び前記辞書情報に基づいて前記検出ウインドウ内に前記所定の被写体が含まれるか否かを判定する判定ステップと、
    を実行させ
    前記決定ステップでは、前記局所領域の横幅が広いほど水平方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とするプログラム。
  8. コンピュータに、
    辞書記憶手段に記憶され、所定の被写体を判定するための局所領域の位置及び形状の情報を含む辞書情報に基づいて、画像内の検出ウインドウの位置を制御する位置制御ステップと、
    前記辞書情報に基づいて前記検出ウインドウ内の局所領域を決定する決定ステップと、
    決定された前記局所領域における特徴量を算出する局所特徴量算出ステップと、
    前記特徴量及び前記辞書情報に基づいて前記検出ウインドウ内に前記所定の被写体が含まれるか否かを判定する判定ステップと、
    を実行させ、
    前記決定ステップでは、前記局所領域の縦幅が広いほど垂直方向の走査間隔が広くなるように前記特徴量を算出する対象となる局所領域の位置を決定することを特徴とするプログラム。
  9. 請求項7又は8に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2009121320A 2009-05-19 2009-05-19 画像処理装置及び画像処理方法 Expired - Fee Related JP5335554B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009121320A JP5335554B2 (ja) 2009-05-19 2009-05-19 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009121320A JP5335554B2 (ja) 2009-05-19 2009-05-19 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2010271792A JP2010271792A (ja) 2010-12-02
JP5335554B2 true JP5335554B2 (ja) 2013-11-06

Family

ID=43419786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009121320A Expired - Fee Related JP5335554B2 (ja) 2009-05-19 2009-05-19 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP5335554B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5649943B2 (ja) * 2010-12-15 2015-01-07 富士フイルム株式会社 オブジェクト判別装置、方法、及びプログラム
JP5748472B2 (ja) * 2010-12-15 2015-07-15 富士フイルム株式会社 オブジェクト判別装置、方法、及びプログラム
JP5901054B2 (ja) * 2011-12-02 2016-04-06 国立大学法人九州工業大学 物体の検出方法及びその方法を用いた物体の検出装置
CN103426500B (zh) * 2013-02-04 2016-03-09 南昌欧菲光科技有限公司 双层透明导电膜及其制备方法
CN103425319B (zh) * 2013-02-04 2016-08-24 南昌欧菲光科技有限公司 透明触控面板

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190691A (ja) * 1995-01-11 1996-07-23 Nippon Signal Co Ltd:The ナンバープレート抽出装置
JP2006163562A (ja) * 2004-12-03 2006-06-22 Matsushita Electric Ind Co Ltd 画像処理装置、および画像処理方法
US20070237387A1 (en) * 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images

Also Published As

Publication number Publication date
JP2010271792A (ja) 2010-12-02

Similar Documents

Publication Publication Date Title
US11967164B2 (en) Object detection and image cropping using a multi-detector approach
JP4933186B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5202148B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
JP5517504B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4588575B2 (ja) デジタル画像の複数対象物検出方法および装置並びにプログラム
JP5671928B2 (ja) 学習装置、学習方法、識別装置、識別方法、およびプログラム
JP6095817B1 (ja) 物体検出装置
JP4724638B2 (ja) オブジェクト検出方法
JP5335554B2 (ja) 画像処理装置及び画像処理方法
JP6937508B2 (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
KR102195940B1 (ko) 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법
JP2010165052A (ja) 画像処理装置及び画像処理方法
EP3014528B1 (en) Determining barcode locations in documents
JP2007025902A (ja) 画像処理装置、画像処理方法
US20240135552A1 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
JP2014010633A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
CN115272741A (zh) 一种细长柔性物体检测方法、终端设备及存储介质
JP4789526B2 (ja) 画像処理装置、画像処理方法
JP5702960B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021064120A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2009059047A (ja) 対象物検出装置、対象物検出方法、および対象物検出プログラム
JP2016009379A (ja) 対象物検出装置及び要素選択装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130731

LAPS Cancellation because of no payment of annual fees