JP4455980B2 - 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体 - Google Patents

動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP4455980B2
JP4455980B2 JP2004334101A JP2004334101A JP4455980B2 JP 4455980 B2 JP4455980 B2 JP 4455980B2 JP 2004334101 A JP2004334101 A JP 2004334101A JP 2004334101 A JP2004334101 A JP 2004334101A JP 4455980 B2 JP4455980 B2 JP 4455980B2
Authority
JP
Japan
Prior art keywords
moving image
image processing
feature amount
processing apparatus
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004334101A
Other languages
English (en)
Other versions
JP2005176339A (ja
Inventor
恭子 数藤
理絵 山田
裕子 高橋
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004334101A priority Critical patent/JP4455980B2/ja
Publication of JP2005176339A publication Critical patent/JP2005176339A/ja
Application granted granted Critical
Publication of JP4455980B2 publication Critical patent/JP4455980B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Description

本発明は、動画像を前景と背景とに分離する動画像処理方法及びその装置と、その動画像処理方法の実現に用いられる動画像処理プログラム及びそのプログラムを記録した記録媒体とに関し、特に、背景にも動きがある場合や、前景となる物体が一体的な動きをするのではなくて、その一部分が自在な動きをするような場合にも、動画像を前景と背景とに分離できるようにする動画像処理方法及びその装置と、その動画像処理方法の実現に用いられる動画像処理プログラム及びそのプログラムを記録した記録媒体とに関する。
非固定カメラにより撮影される動画像では、動きのある物体である前景に加えて、背景にも動きがでることになる。また、固定カメラにより撮影される動画像では、背景には動きがでないものの、物体が一体的な動きをするのではなくて、その一部分が自在な動きをすることがある。また、そのような動きをする物体を非固定カメラにより撮影する場合、背景にも動きがでるし、物体もその一部分が自在に動くことになる。
本発明は、このような動画像であっても、前景と背景とに分離できるようにする技術の提供を目的としている。
まず、画像中の物体と背景とを分離する手法の従来技術について述べる。
画像を色情報に基づいて領域分割し、次に複数の領域を隣接関係に基づいて統合していく従来技術がある(例えば、特許文献1参照)。この従来技術は、色情報に基づく分割を行ったのち、領域統合してオブジェクトを抽出する手法である。
同一の物体でも画素値が不連続な部分が多いと、同一物体の領域を統合することが難しい。そこで、物体と背景とで異なる動きがある場合には、動き特徴を利用した分割と統合とが必要であるが、従来手法では領域の境界を正確に求めることが困難であった。
次に、物体と背景とが異なる動きをする場合に、動きに基づいて領域分割を行う手法の従来技術について述べる。
物体領域と背景領域とを仮定してオプティカルフローを計算し、最尤推定によって最適な分割線を求める従来技術がある(例えば、非特許文献1参照)。この従来技術は、画像中に複数の動きの異なる剛体が存在する場合に、これを動きに基づいて分割する手法である。
物体が剛体ではなく物体領域中の動きが単一でない場合にはそのまま適用することはできないので、物体に関する知識と統計処理とを組み合わせた手法が用いられる。例えば、人体の3次元モデルを用いて位置や姿勢を推定し、画像上の各点が物体に属する確率を計算して最適な状態を推定する手法が用いられたり(例えば、非特許文献2参照)、回転運動と並進運動のモデルを用いて、複雑な背景中で回転運動や並進運動する物体を抽出する手法が用いられる(例えば、非特許文献3参照)。
これらは、物体運動のモデルを仮定できない場合には適用できない。また、物体の輪郭を正確に求めることは困難である。
非特許文献1に記載されるような、画像全体についてオプティカルフローを求めたのち、これをクラスタリングすることで物体と背景を分離する手法においても、物体領域中の動きが単一でない場合への適用、領域の境界決定は困難である。
特開2002−117409 「対象の動きを利用した画像分割法」情報処理学会技術研究報告,CVIM116-6, pp.39-47, 1999. 「オプティカルフローと距離情報の統合による3次元運動する人間の追跡」電子情報通信学会論文誌DII, vol.J82-DII, No.8, pp.1252-1261, 2000. 「オプティカルフローを用いた複雑背景下における人物の腕領域の抽出と運動パラメータ推定」電気学会論文誌C, vol.C-120, No.12, pp.1801-1808, 2000.
上述したように、従来技術に従っていたのでは、物体と背景とで異なる動きがある動画像において、物体の輪郭を保って背景から切り出すことができない。そして、動画像中に含まれる物体領域中に異なる動きの部分が含まれているような動画像において、物体の輪郭を保って背景から切り出すことができない。
この後者の問題は、背景に動きがない場合にも発生し、背景に動きがある場合にも発生する問題である。
本発明はかかる事情に鑑みてなされたものであって、背景にも動きがある場合や、前景となる物体が一体的な動きをするのではなくて、その一部分が自在な動きをするような場合にも、動画像を前景と背景とに分離できるようにする新たな動画像処理技術の提供を目的とする。
この目的を達成するために、本発明の動画像処理装置は、背景にも動きがある場合や、前景となる物体が一体的な動きをするのではなくて、その一部分が自在な動きをするような場合にも、動画像を前景と背景とに分離できるようにすることを実現すべく、(イ)動画像を入力する入力手段と、(ロ)入力手段の入力した処理対象となる動画像のフレームを小領域に分割する分割手段と、(ハ)処理対象のフレームの各画素について1つ又は複数の特徴量を抽出する抽出手段と、(ニ)処理対象のフレームの持つ小領域ごとに、抽出手段の抽出した特徴量の全てあるいは一部を用いて各画素が2つの領域のどちらに属するのかをクラス分けする場合に、そのクラス分けの分離度を示す尤度が最も高くなる値を示すことになるクラス分けを行う実行手段と、(ホ)隣接する小領域について、特徴量を用いて、同じクラスにクラス分けされた領域の対応付けを行ない、それに基づいて、同じクラスにクラス分けされた領域同士をつなぎ合わせることで、処理対象のフレーム全体を前景と背景とに分離する分離手段と、(ヘ)同じクラスにクラス分けされた領域同士をつなぎ合わせる際に、そのつなぎ合わせに矛盾がある場合には、そのつなぎ合わせの対象となる一方の小領域について、特徴量の重み付けを変えてクラス分けを再実行する再実行手段とを備えるように構成する。
この構成を採るときにあって、本発明の動画像処理装置は、さらに、処理対象のフレームに特定のパターンが存在するのか否かを検出して、特定のパターンが存在する場合には、その存在する位置を検出する検出手段と、検出手段の検出した位置と分離手段の分離した前景とに基づいて、処理対象のフレームに、その特定のパターンを持つ動物体が存在するのか否かを判定する判定手段と、判定手段により特定のパターンを持つ動物体の存在することが判定される場合に、その特定のパターンを持つ動物体の面積と分離手段の分離した前景とに基づいて、その特定のパターンを持つ動物体の数を特定する特定手段とを備えることがある。
以上の各処理手段が動作することで実現される本発明の動画像処理方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。
このように構成される本発明の動画像処理装置では、動画像を入力すると、処理対象のフレームを小領域に分割するとともに、処理対象のフレームの各画素について1つ又は複数の特徴量を抽出する。
例えば、処理対象のフレームとその近傍のフレームとを使って動きに基づく特徴量を抽出したり、処理対象のフレームを使って動きに基づかない特徴量を抽出したり、その双方の特徴量を抽出することで、処理対象のフレームの各画素について特徴量を抽出する。このとき、特徴量の抽出対象となる画素を中心とする周辺領域を使って、その抽出対象となる画素の特徴量を抽出することがある。また、複数の特徴量を抽出する場合に、それらの特徴量を組み合わせることで、より高いクラス分け分離度を実現する特徴量を抽出することがある。
続いて、処理対象のフレームの持つ小領域ごとに、抽出した特徴量の全てあるいは一部を用いて各画素が2つの領域のどちらに属するのかをクラス分けする場合に、そのクラス分けの分離度を示す尤度が最も高くなる値を示すことになるクラス分けを行う。
例えば、2つのクラスの確率分布を想定して、その想定に基づいて尤度を算出し、その算出に基づいて確率分布を修正することを繰り返していくことで、尤度が最も高くなる値を示すことになるクラス分けを行うのである。このとき、尤度の算出式に、2つの領域がまとまっている場合の方が2つの領域が混在する場合よりも尤度が高くなる補正項を加えたものを使って尤度を算出することがある。
続いて、隣接する小領域について、特徴量を用いて、同じクラスにクラス分けされた領域の対応付けを行ない、それに基づいて、同じクラスにクラス分けされた領域同士をつなぎ合わせることで、処理対象のフレーム全体を前景と背景とに分離する。
このとき、そのつなぎ合わせに矛盾がある場合には、そのつなぎ合わせの対象となる一方の小領域について、特徴量の重み付けを変えてクラス分けを再実行することにより、矛盾のないつなぎ合わせを実現することになる。そして、この再実行により同一の小領域について異なるクラス分けが得られる場合には、それらのクラス分けから矛盾のないつなぎ合わせを実現するクラス分けを決定することになる。
このように、本発明の動画像処理装置は極めて有用な機能を発揮し、これから様々な利用が考えられる。
例えば、監視カメラをスキャンさせながら部屋を監視することで、侵入者がいるのか否かを検出するシステムが要求されている。このようなシステムでは、侵入者も動くし、背景にも動きがでることから、本発明の動画像処理装置を使うことで侵入者を正確に検出できることになる。
そこで、本発明の動画像処理装置は、このようなシステムの構築を可能にすべく、処理対象のフレームに特定のパターンが存在するのか否かを検出して、特定のパターンが存在する場合には、その存在する位置を検出する検出手段と、検出手段の検出した位置と分離手段の分離した前景とに基づいて、処理対象のフレームに、その特定のパターンを持つ動物体が存在するのか否かを判定する判定手段と、判定手段により特定のパターンを持つ動物体の存在することが判定される場合に、その特定のパターンを持つ動物体の面積と分離手段の分離した前景とに基づいて、その特定のパターンを持つ動物体の数を特定する特定手段とを備えるようにしている。
この構成に従って、本発明の動画像処理装置では、例えば、動物体として人を検出する場合に、特定のパターン(動物体の一部分のパターン)として人の顔を用いる場合には、処理対象のフレームに人の顔のパターンが存在するのか否かを検出して、人の顔のパターンが存在する場合には、その存在する位置を検出する。
続いて、その検出した人の顔の位置と分離した動領域である前景(分離した領域のどちらが前景であるのかを特定できない場合には、それぞれを前景と見なして処理を行う)とに基づいて、例えば、その動領域の上部に人の顔が位置しているのかを判断することなどにより、その動領域が確かに人であるのかを判定する。
そして、その動領域が確かに人であることを判定すると、人の面積(判定した動領域部分の画素数を計数することで取得したり、予め人の面積はこの位の画素数であるということについて管理するテーブルなどから取得する)と、その動領域の全体の面積とに基づいて、人の数を特定する。
以上のように、本発明によれば、前景と背景とが異なる動きをする動画像の場合にも、動画像を前景と背景とに分離することができるようになるとともに、前景となる物体が一体的な動きをするのではなくて、その一部分が自在な動きをする場合にも、動画像を前景と背景とに分離することができるようになる。
このようにして分離した領域については、例えば、画像全体で外側に分布しているクラスを背景領域、内側に分布しているクラスを物体領域と判断したり、顔認識の技術を用いて顔が存在する領域を人物領域と判断することで、前景と背景として区別することができる。
これまでは、背景が動かないテレビ電話画像などでは人物と背景とを分離することができたものの、個人が撮影したビデオ映像などでは人物だけでなく背景も動いてしまうので人物と背景とを分離することができなかったが、本発明によれば、これを解消することができるようになる。
このような機能を実現する本発明を用いることで、前景のみ、あるいは背景のみに対する処理を加えた合成画像を生成するといったような様々な画像処理を実現できるようになる。
そして、このような機能を実現する本発明を用いることで、特定のパターンを持つ動物体が存在するのか否かを検出できるようになるとともに、そのような動物体が存在する場合に、その数についても特定できるようになる。
図1に、本発明を具備する動画像処理装置1の一実施形態例を図示する。
この図に示すように、本発明の動画像処理装置1は、画像入力部10と、第1の画像テーブル11と、小領域設定部20と、第2の画像テーブル21と、特徴ベクトル抽出部30と、第3の画像テーブル31と、小領域分割部40と、第4の画像テーブル41と、領域抽出部50とを備える。
ここで、画像入力部10/小領域設定部20/特徴ベクトル抽出部30/小領域分割部40/領域抽出部50はコンピュータプログラムで実現できるものであり、このコンピュータプログラムは、半導体メモリなどのような適当な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより、これらの各処理手段を実現することになる。
〔1〕全体構成
はじめに、全体構成について説明する。
画像入力部10には、画像のシーケンスが入力される。画像入力部10から小領域設定部20へは、処理対象となるtフレームめの画像と、その隣接フレームの画像とが順次送られる。
ここで、隣接フレームとは、tフレームめの画像から数フレーム程度のあらかじめ定められた間隔をおいたフレームを指し、あとの処理の種類によって、tフレームめ以前のフレームが用いられたり、tフレームめ以後のフレームが用いられたり、tフレームめ前後のフレームが用いられる。図2では、tフレームめの画像It の隣接フレームとして、t−1フレームめの画像It-1 を用いる例を示している。
領域抽出部50の出力は、処理対象となる画像It から分離された背景領域の画像と物体領域の画像とである。図3では、背景領域Bと物体領域Fとを分離出力した例を示している。
画像入力部10は、フレームごとに画素の座標と画素値とを組にして、小領域設定部20へ出力するとともに、これを第1の画像テーブル11に記憶しておく。すなわち、図4に示すような情報を第1の画像テーブル11に記憶しておくのである。
小領域設定部20は、処理対象となる画像It をN個の小領域C1,・・・,CN に分割する。
特徴ベクトル抽出部30は、小領域設定部20の生成した各小領域内の画素がもつ特徴量を抽出する。
小領域分割部40は、小領域設定部20の生成した小領域C(C1,・・・,CN )に対して、規定の画像処理(各小領域の画素を、それが持つ特徴量に基づいて、物体に属する画素と背景に属する画素とにクラス分けする画像処理)を行い、その画像処理後の小領域の組C'(C1',・・・, CN ')を出力する。
領域抽出部50は、小領域分割部40の出力である特徴量と尤度とに基づいて、小領域分割部40の出力である画像処理後の小領域の組C'(C1',・・・, CN ')について、同じクラスにクラス分けされる領域を統合することでCi '(i=1〜N)を統合して、画像全体の物体領域Fと画像全体の背景領域Bとを求める。
〔2〕各処理部の詳細な構成
次に、小領域設定部20/特徴ベクトル抽出部30/小領域分割部40/領域抽出部50の処理の詳細について説明する。
〔2−1〕小領域設定部20の詳細な構成
小領域設定部20では、小領域を生成する場合、あらかじめ決めた大きさで画像の端から順番に切り出していくことで小領域を生成する。
ここで、物体に関する知識が事前にある場合には、これを利用して効率的な小領域を設定することができる。小領域分割部40で行うクラス分けのために、小領域には、なるべく背景と前景との双方が含まれている方のがよいので、物体に関する知識が事前にある場合には、これを利用して効率的な小領域を設定する。例えば、カメラ付き携帯電話で自分自身を撮影して送ってきた画像では、大体画像内での人物領域の大きさを推定できることがある。そのような場合には、なるべく背景と前景とが小領域に含まれることになるようにと小領域の大きさを設定するのである。
小領域設定部20は、画像全体をN個の小領域に分割することで部分画像を生成すると、それらの小領域を単位とする画素の座標と画素値とを組とする情報を第2の画像テーブル21に記憶する。すなわち、図5に示すように、画像全体をN個の小領域に分割して、図6に示すように、それらの小領域を単位とする画素の座標と画素値とを組とする情報を第2の画像テーブル21に記憶するのである。
ここで、図6に示す第2の画像テーブル21において、網掛けで示した部分の情報が図4に示す第1の画像テーブル11の情報に加えられた部分である。
〔2−2〕特徴ベクトル抽出部30の詳細な構成
特徴ベクトル抽出部30では、tフレームめの画像It とその隣接フレームとを用いて、画像It 中の各画素について、時空間微分値、オプティカルフローなど動きに基づく特徴量を求める。さらに、輝度値や色特徴など画素値に基づく特徴量を求める。
そして、画素の座標とそれらの求めた特徴量とを組とする情報を第3の画像テーブル31に記憶する。すなわち、各画素についてM個の特徴量F1 〜FM を求める場合の例で説明するならば、図7に示すように、画素の座標とそれらのM個の特徴量F1 〜FM とを組とする情報を第3の画像テーブル31に記憶するのである。
ここで、図7に示す第3の画像テーブル31において、網掛けで示した部分の情報が図6に示す第2の画像テーブル21の情報に加えられた部分である。
特徴量の例としては、画素の輝度値、色、ウェーブレット特徴、テクスチャ特徴などといったような画素値に基づく特徴と、オプティカルフローなど時間変化に基づく特徴があり、これらを単独で、または組み合わせて用いることができる。
ここで、テクスチャ特徴は1画素のみから求めることはできないので、ある画素についてのテクスチャ特徴量とは、その画素を中心とする一定の周辺領域について求めた値とする。また、オプティカルフローについても、空間微分値を1画素のみから求めることはできないので、計算するときには周辺の画素の値も用いる。例えば、図8において、周辺領域Bについて求めた特徴量を中心画素Aの値とするのである。この周辺領域Bの形状と大きさについてはあらかじめ定められているものとし、図8に示すような円形以外のものでもよい。
〔2−3〕小領域分割部40の詳細な構成
小領域分割部40は、図9に示すように、最尤推定部401と小領域分割関数生成部402とから構成される。
この最尤推定部401は、特徴ベクトル抽出部30の出力である各小領域の持つ画素の座標と特徴量とを組とする情報を入力とし、小領域ごとに、各特徴量を使って、各画素を2つのクラスに分割する処理を行う。
具体的には、その特徴量を使うと、その画素がどちらのクラスに属するのかということと、そのクラスに属する確率と、その特徴量を用いてクラス分けを行う場合の小領域全体の尤度(クラス分けの分離度を示す値:高い値ほどうまく分離されていることを示す)とを算出する処理を行う。
そして、画素の座標と特徴量とを組とする情報に、その結果である、画素ごとの推定クラスとそのクラスに属する確率と小領域全体の尤度とを加えた情報を第4の画像テーブル41に記憶する。すなわち、図10に示すように、画素の座標と特徴量とを組とする情報に、画素ごとの推定クラスとそのクラスに属する確率と小領域全体の尤度とを加えた情報を第4の画像テーブル41に記憶するのである。
ここで、図10に示す第4の画像テーブル41において、網掛けで示した部分の情報が図7に示す第3の画像テーブル31の情報に加えられた部分である。
なお、後述するように、最尤推定部401は、小領域分割関数生成部402が各画素について新たな特徴量FM+1 を求めると、その特徴量FM+1 についても同様のクラス分けの処理を行って、その結果を第4の画像テーブル41に追加登録するように処理することになる。
小領域分割関数生成部402は、最尤推定部401の出力である第4の画像テーブル41の情報を入力として、新たな特徴量FM+1 を作成し、図11に示すように、それを第4の画像テーブル41に追加する。
ここで、図11に示す第4の画像テーブル41において、網掛けで示した部分の情報が図10に示す第4の画像テーブル41の情報に加えられた部分である。
次に、最尤推定部401において、部分画像Ci を領域Z1と領域Z2とに二分割する手順について説明する。
この分割は、画素の特徴量に基づいて行う。小領域内において特徴量は、物体部分と背景部分のそれぞれにおいて、おおむね一様であるが、通常はガウス分布のように、ある平均値のまわりに多少の分散をもって分布すると考えられる。
領域分割においては、この分布を推定する統計的手法が有効である。例えば、ガウス分布を仮定して、平均と分散とをパラメータとし、領域分割の形状とパラメータ値とを推定する最尤推定を行う。物体候補領域F’と背景候補領域B’との境界を含む複数の小領域について、特徴量の平均値、分散値などのパラメータの推定と尤度算出とを繰り返すことで、最終的に領域分割の形状を推定するのである。
アルゴリズムとしては、例えば、パラメータの推定(E(Expectation)ステップ)と最大尤度推定(M(Maximization) ステップ)とを繰り返すEMアルゴリズム(参考文献:情報処理, vol.37, No.1, pp.43-46, Jan, 1996)を用いる。
このEMアルゴリズムは、最急降下法と同様に解を逐次改良していく繰り返し探索のアルゴリズムであり、このアルゴリズムによって正確な領域を決定し、小領域Ci を領域Z1と領域Z2との2つのクラスに分割する。EMアルゴリズムでは、Eステップで、すべての特徴量について並列的にパラメータの推定を行ない、Mステップで、すべての特徴量の尤度の合計(下記に示すQi (Fm )の合計)を評価関数として最尤推定を行う。
例えば、i番目の小領域をM個の特徴量F1 〜FM によって分割した処理結果は、図10に示すように、
(イ)k番目の画素について求めた特徴量F1 〜FM :F1k〜FMk
(ロ)k番目の画素が各特徴量mにより領域Zi 1と領域Zi 2のどちらのクラスに分 類されたのかを示す情報:Zmk
(ハ)k番目の画素がクラス分けされた領域Zmkに属する確率:Pmk(Zmk
(ニ)特徴量ごとの小領域Ci 全体での尤度:Qi (F1 )〜Qi (FM
但し、Qi (Fm )=Σk logPmk(Zmk
という値の組として得られる。
次に、小領域分割関数生成部402における処理について説明する。
小領域分割関数生成部402では、特徴量F1 〜FM の線形結合で、領域Zi 1と領域Zi 2とに分割するのに最適な特徴量FM+1 を求めるための関数を生成する。これには、例えば、k個の画素について得られているM次元の特徴ベクトル(F1,・・・,FM )のフィッシャー判別を行い、得られた軸上へ特徴ベクトルを投影したものを新たにM+1番目の特徴量FM+1 とする。
ここで、フィッシャー判別では、図12に示すように、2つのクラスに属する特徴量ベクトルの存在する特徴量空間上で、ある基準においてこの2つのクラスの識別に最も適した軸を決定することにより、新たな特徴量FM+1 を求める。
この新たな特徴量FM+1 は、FM+1 =Σm m ・Fm という式でかける。この関数を生成したのち、各画素について特徴量FM+1 を求めて最尤推定部401のプロセスに戻る。その結果、最尤推定部401は、新たな特徴量FM+1 に関する計算結果を第4の画像テーブル41に追加する。
これにより、i番目の小領域をM+1個の特徴量F1 〜FM+1 によって分割した処理結果は、図11に示すように、
(イ)k番目の画素について求めた特徴量F1 〜FM+1 :F1k〜FM+1k
(ロ)k番目の画素が各特徴量mにより領域Zi 1と領域Zi 2のどちらのクラスに分 類されたのかを示す情報:Zmk
(ハ)k番目の画素がクラス分けされた領域Zmkに属する確率:Pmk(Zmk
(ニ)特徴量ごとの小領域Ci 全体での尤度:Qi (F1 )〜Qi (FM+1
但し、Qi (Fm )=Σk logPmk(Zmk
という値の組となる。
小領域Ci 内で、前景背景ともに細かいテクスチャが多く輝度値や色などの特徴で分割が困難な場合、輝度値や色などの特徴量で分割したときの尤度は低く、この小領域内ではこれらの特徴量の信頼度が低いと考えられる。同様に、前景と背景で動き方の違いが少ない場合などには小領域内の物体部分と背景部分において動きの特徴量で分割したときの尤度が低く、この小領域内では動きの特徴量の信頼度が低いと考えられる。
このような場合に、フィッシャー判別により、複数の特徴量を組み合わせて、より分離度の高い特徴量を生成するのである。
〔2−4〕領域抽出部50の詳細な構成
領域抽出部50では、小領域分割部40で小領域ごとに分割された領域同士をつなぎあわせ、画像全体を動きの異なる2つの領域に分割する。
以下では、領域抽出部50における隣接小領域との統合を容易にするために、各小領域は小領域分割部40の結果2つに分割され、2つの領域はそれぞれまとまっていて、混在することはないものとする。
そのためには、小領域分割部40において、分割処理を行うときの尤度計算の評価式に最大事後確率推定(参考文献:「ウェーブレットによる信号処理と画像処理」共立出版株式会社)を適用してもよい。
すなわち、最尤推定の段階で2つの領域が混在するのではなくそれぞれまとまっている方が尤度が高くなるように、最大事後確率推定に従って、尤度の算出式に、ある画素が周囲の画素と同じクラスに属するときに尤度が高くなるような補正項を加える。この補正項の係数を大きくしていくと、画素のまとまりを重視するようになる。
小領域分割部40の分割結果、2つのクラスが混在する場合として、例えば図13(a)(b)のような場合がある。小さい孤立領域があっても、あとで述べる領域抽出部50における統合のルールにあてはめることができれば問題ない。しかし、小領域の辺上に2つのクラスの境界が多く存在すると、統合のルールにあてはめることができない。
そのような場合には、周辺画素の影響を受ける補正項の係数を大きくしていく。補正項の係数を大きくしていくと、小領域の辺上に2つのクラスの境界が1つ以下の状態になる。例えば図13(b)は図13(c)のような状態になる。そこで、次の統合のルールにあてはめることができる。
領域抽出部50では、小領域分割部40の出力における各小領域ごとに求めた境界を特徴量及び尤度に基づいて結合する。
ここで、領域が統合されたとは、隣り合う2つの小領域で、接する辺上の境界線をつなぎ、つながれた境界線の同じ側が同じクラス(ここでは、物体領域と背景領域の2つのクラス)に属するように決定されたことをいう。
統合の基本的なルールは、
(イ)ある2つの隣り合う小領域Ci,j において、小領域Ci 内の2つのクラスZi 1/Zi 2と、小領域Cj 内の2つのクラスZj 1/Zj 2とのクラス間の対応 を決定し、
(ロ)クラス同士をつなぐ境界線を矛盾なくつなぎ、
(ハ)この(イ)と(ロ)において、小領域分割部40での分割決定時の尤度の高さの 順位が高い小領域における分割結果を優先する、
というものである。
この統合処理を画面全体で行うときの処理順序としては、大きく次の2つの方法が考えられる。一つは、図14(a)に示すように、総合的な尤度が最大の小領域を上位何位か定めた数だけ選び、その周辺から統合していくやり方である。もう一つは、図14(b)に示すように、画面の端から順に二組ずつの小領域を統合していくやり方である。以下では、図14(a)に示すやり方の場合で説明する。
図14(a)に示すやり方に従う場合、まず、小領域ごとに、特徴量の尤度の合計を求める。次に、小領域i=1〜Iについて、その合計値の大きさの比較を行って、この値の大きいものから、隣接する小領域との統合処理を行う。
統合処理では、まず、特徴量の分布(例えば平均値)を使って、図15に示すように、小領域Ci 内の2つのクラスZi 1/Zi 2と、小領域Cj 内の2つのクラスZj 1/Zj 2とのクラス間の対応を決定する。例えば、Zi 1とZj 1とが同じクラスに属し、Zi 2とZj 2とが同じクラスに属するという対応関係を決定するのである。
図15において、小領域Ci はクラスZi 1とZi 2とに分割され、Ci と隣り合う小領域Cj はクラスZj 1とZj 2とに分割されている。各小領域における各クラスの特徴量の分布が記憶されているので、特徴量の分布形状の近い方を同じクラスとしてラベルづけする。特徴量の分布の近さは、平均値などの統計量を比較するか、マハラノビス距離などにより判定することができる。
次に、境界線の決定を行う。以下、図16においては、同一のラベルがふられた領域を網掛けの有無で図示している。
図16(a)のように、隣り合って結合される辺上にある境界線が一致し、かつ隣り合う領域Zi 1とZj 1・Zi 2とZj 2とがそれぞれ同じラベルである場合、あるいは、隣り合って結合される辺上にある境界線が完全には一致しないものの、あらかじめ定められた閾値以下であり、かつ隣り合う領域Zi 1とZj 1・Zi 2とZj 2とがそれぞれ同じラベルである場合には、境界を連続させて小領域Ci とCj とを統合する。
この統合にあたって、隣り合う領域がスムーズにつながるような補間処理を行うことがある。ただし、統合されても、各小領域ごとの元々の特徴量の分布の情報は保存しておくようにする。
一方、図16(b)〜(f)のように、隣り合って結合される辺上にある境界線が矛盾する場合には、小領域内の分割線を決定しなおす(再分割する)。
ここで、境界線が矛盾するとは、隣り合う2つの小領域で、図16(b)のように、接する辺上に存在する一方の小領域内の境界線の端点ともう一方の小領域内の境界線の端点との距離が定められた閾値以上である場合、または、図16(c)(d)のように、接する辺上で一方の小領域内には境界線の端点があるがもう一方には無い場合、または、図16(e)のように、接する辺上にはどちらの小領域にも境界線の端点がなく、かつ隣り合う領域Zi 1とZj 2とが異なるラベルである場合、または、図16(f)のように、接する辺上には2つの小領域とも境界線の端点があるものの、隣り合う領域Zi 1とZj 2とが異なるラベルである場合を指す。
次に、再分割の方法について説明する。
小領域Ci に属するk番目の画素が、ある特徴量Fm によりクラスZmk(Zi 1あるいはZi 2)に分類されたときに、そのクラスZmkに属する確率をPmk(Zmk)とする。以下、確率は対数尤度で表されているものとする。
このとき、特徴量Fm についての小領域Ci 全体での尤度Qi (Fm )は、
i (Fm )=Σk logPmk(Zmk
と表せ、したがって、小領域Ci の総合的な尤度Qtotal (Ci )は、
total (Ci )=Σm i (Fm
=Σm Σk logPmk(Zmk
と表せる。
再分割する場合、この総合的な尤度Qtotal を使い、隣接する小領域Ci と小領域Cj とについて、
i 全体の尤度<Cj 全体の尤度
である場合には、Cj で2つのクラスの分離度が最も高かった特徴量mの重みを、Ci において大きくして再分割を行う。
すなわち、特徴量mの重みをwm とすると、
total (Ci )=Σm m i (Fm
=Σm Σk m ×logPmk(Zmk
として、小領域分割部40の処理に戻るのである。
そして、領域の境界線について、隣の小領域との連続性の矛盾がなくなった時点で処理を終了する。あるいは、小領域分割部40に戻る回数を記憶しておき、あらかじめ定めた最大回数に達したならば、その時点における領域の境界線を結果として残し、処理を終了する。
連続する3つの小領域Ci,j,k について考えるならば、例えば、
i 全体の尤度>Cj 全体の尤度
に従って、総合的な尤度Qtotal の低い方のCj が再分割され、一方、
k 全体の尤度>Cj 全体の尤度
に従って、総合的な尤度Qtotal の低い方のCj が再分割されることが起こるが、このとき、図17(a)に示すように、双方の再分割が一致しないことでCj 内に矛盾が生じる場合がある。
このような場合には、例えば、Ci とCj との統合の際の再分割結果と、Cj とCk との統合の際の再分割結果とに、Ci と接する辺からの距離、Ck と接する辺からの距離による重みをかけて加えたものを再分割結果とする。これにより、図17(b)に示すように、双方の再分割が一致しないことにより発生するCj 内の矛盾を解消することができるようになる。
画面全体の処理が進んで、複数の残った小領域間を統合するときに、同様の矛盾が生じた場合にも、同様に、統合する小領域同士の接する辺からの距離による重みづけによって、再分割結果を得るようにする。
このようにして、本発明の動画像処理装置1によれば、前景と背景とが異なる動きをする動画像の場合にも、動画像を前景と背景とに分離することができるようになるとともに、前景となる物体が一体的な動きをするのではなくて、その一部分が自在な動きをする場合にも、動画像を前景と背景とに分離することができるようになるのである。
次に、監視カメラをスキャンさせながら部屋を監視することで、侵入者がいるのか否かを検出するシステムなどの実現に用いられる本発明の動画像処理装置1について説明する。
図18に、このようなシステムの実現に用いられる本発明の動画像処理装置1の他の実施形態例を図示する。
図中、図1で説明したものと同じものについては同一の記号で示してあり、60は特定パターン検出部、70は物体属性判定部、80は物体属性情報入力部、90は物体計数部である。
この特定パターン検出部60は、画像入力部10の入力した画像を入力として、各フレームあるいは任意の枚数おきのフレームについて、特定のパターンが存在するのか否かの検出処理を行って、その特定のパターンが検出された場合には、その大きさとその検出位置とを出力する。
ここで、この特定のパターンの検出にあたって、特定パターン検出部60は、画像入力部10から入力した画像フレーム部分の内、領域抽出部50で抽出された動領域である前景に処理領域を絞って(分離した領域のどちらが前景であるのかを特定できない場合には、それぞれを前景と見なして処理を行う)、特定のパターンの検出を行うようにしてもよい。
また、特定パターン検出部60の検出する特定のパターンは検出対象となる動物体により決められるものであり、例えば、動物体として人を検出する場合には、人の顔などが用いられ、動物体として自動車や動物を検出する場合には、それが持つ特徴的な部分パターンが用いられることになる。
また、特定パターン検出部60の用いるパターン検出アルゴリズムはどのようなものであってもよいが、例えば、濃淡情報のテンプレートマッチング手法(特定のパターンの大きさを検出するためにテンプレートの大きさを変更してマッチングを行うことになる)や、特定のパターンを検出するフィルタ手法を用いることが可能である。
物体属性判定部70は、特定パターン検出部60の検出結果と領域抽出部50の抽出結果とを入力として、動領域である前景の中に特定のパターンが含まれているのかについて照合を行って、動領域内に特定のパターンが含まれているのかということと、それが動領域内部の特定の範囲に位置するのかどうかなどの条件判定に基づいて、動領域が特定のパターンを持つ動物体であるのか否かを判定する。例えば、特定のパターンが人の顔である場合には、動領域の上部に人の顔が位置しているかどうかにより、その動領域が人であるのか否かを判定することになる。
物体属性情報入力部80は、検出対象となる動物体の属性情報(例えば、動物体の面積に対応付けられる画面上の画素数など)を入力する。例えば、動物体として人を検出する場合には、人の属性情報として、画像入力部10により入力される画像に含まれることになる人の面積の情報(画面上の画素数)を入力する。
物体計数部90は、領域抽出部50で抽出された動領域の面積(画面上の画素数)を求めて、その求めた動領域の面積と、物体属性判定部70の判定した動物体の持つ面積(画面上の画素数)とに基づいて、その動物体の数を計数する。
ここで、物体計数部90は、物体属性判定部70の判定した動物体の持つ面積(画面上の画素数)を使うのではなくて、予め想定される動物体ごとに画面上におけるおおよその面積に関するデータを持っておいて、その中から該当する動物体の面積(画面上の画素数)を選択して使うようにしてもよい。
この構成に従って、図18の構成に従う本発明の動画像処理装置1では、例えば、動物体として人を検出する場合に、特定のパターンとして人の顔を用いる場合には、処理対象のフレームに人の顔のパターンが存在するのか否かを検出して、人の顔のパターンが存在する場合には、その存在する位置を検出する。
続いて、その検出した人の顔の位置と分離した動領域である前景とに基づいて、例えば、その動領域の上部に人の顔が位置しているのかを判断することなどにより、その動領域が確かに人であるのか否かを判定する。
そして、その動領域が確かに人であることを判定すると、人の面積とその動領域の全体の面積とに基づいて、人の数を特定するように処理するのである。
このようにして、図18の構成に従う本発明の動画像処理装置1によれば、特定のパターンを持つ動物体が存在するのか否かを検出できるようになるとともに、そのような動物体が存在する場合に、その数についても特定できるようになる。
本発明の動画像処理装置の一実施形態例である。 隣接フレームの説明図である。 領域抽出部の出力する情報の説明図である。 第1の画像テーブルに記憶する情報の説明図である。 小領域設定部の設定する小領域の説明図である。 第2の画像テーブルに記憶する情報の説明図である。 第3の画像テーブルに記憶する情報の説明図である。 特徴量の算出処理の説明図である。 小領域分割部の構成図である。 第4の画像テーブルに記憶する情報の説明図である。 第4の画像テーブルに追加登録する情報の説明図である。 フィッシャー判別処理の説明図である。 小領域分割部の分割結果の一例を示す図である。 小領域の統合処理の説明図である。 小領域の統合処理の説明図である。 小領域の統合処理の説明図である。 小領域の再分割処理の説明図である。 本発明の動画像処理装置の他の実施形態例である。
符号の説明
1 動画像処理装置
10 画像入力部
11 第1の画像テーブル
20 小領域設定部
21 第2の画像テーブル
30 特徴ベクトル抽出部
31 第3の画像テーブル
40 小領域分割部
41 第4の画像テーブル
50 領域抽出部
60 特定パターン検出部
70 物体属性判定部
80 物体属性情報入力部
90 物体計数部

Claims (22)

  1. 動画像を前景と背景とに分離する動画像処理方法であって、
    動画像を入力する過程と、
    入力した処理対象となる動画像のフレームを小領域に分割する過程と、
    処理対象のフレームの各画素について1つ又は複数の特徴量を抽出する過程と、
    処理対象のフレームの持つ上記小領域ごとに、上記特徴量の全てあるいは一部を用いて各画素が2つの領域のどちらに属するのかをクラス分けする場合に、そのクラス分けの分離度を示す尤度が最も高くなる値を示すことになるクラス分けを行う過程と、
    隣接する上記小領域について、上記特徴量を用いて、同じクラスにクラス分けされた領域の対応付けを行ない、それに基づいて、同じクラスにクラス分けされた領域同士をつなぎ合わせることで、処理対象のフレーム全体を前景と背景とに分離する過程とを備えることを、
    特徴とする動画像処理方法。
  2. 請求項1記載の動画像処理方法において、
    上記特徴量を抽出する過程では、処理対象のフレームとその近傍のフレームとを使って動きに基づく特徴量を抽出するか、処理対象のフレームを使って動きに基づかない特徴量を抽出するか、その双方の特徴量を抽出することを、
    特徴とする動画像処理方法。
  3. 請求項1又は2に記載の動画像処理方法において、
    上記特徴量を抽出する過程では、特徴量の抽出対象となる画素を中心とする周辺領域を使って、その抽出対象となる画素の特徴量を抽出することを、
    特徴とする動画像処理方法。
  4. 請求項1ないし3のいずれか1項に記載の動画像処理方法において、
    上記特徴量を抽出する過程では、複数の特徴量を抽出する場合に、それらの特徴量を組み合わせることで、より高いクラス分け分離度を実現する特徴量を抽出することを、
    特徴とする動画像処理方法。
  5. 請求項1ないし4のいずれか1項に記載の動画像処理方法において、
    上記クラス分けを行う過程では、2つのクラスの確率分布を想定して、その想定に基づいて上記尤度を算出し、その算出に基づいて該確率分布を修正することを繰り返していくことで、上記尤度が最も高くなる値を示すことになるクラス分けを行うことを、
    特徴とする動画像処理方法。
  6. 請求項1ないし5のいずれか1項に記載の動画像処理方法において、
    上記クラス分けを行う過程では、上記尤度の算出式に、2つの領域がまとまっている場合の方が2つの領域が混在する場合よりも尤度が高くなる補正項を加えたものを使って上記尤度を算出することで、上記尤度が最も高くなる値を示すことになるクラス分けを行うことを、
    特徴とする動画像処理方法。
  7. 請求項1ないし6のいずれか1項に記載の動画像処理方法において、
    同じクラスにクラス分けされた領域同士をつなぎ合わせる際に、そのつなぎ合わせに矛盾がある場合には、そのつなぎ合わせの対象となる一方の上記小領域について、特徴量の重み付けを変えて上記クラス分けを再実行する過程を備えることを、
    特徴とする動画像処理方法。
  8. 請求項7に記載の動画像処理方法において、
    上記再実行する過程では、上記再実行により同一の上記小領域について異なるクラス分けが得られる場合には、それらのクラス分けから矛盾のないつなぎ合わせを実現するクラス分けを決定することを、
    特徴とする動画像処理方法。
  9. 請求項1ないし8のいずれか1項に記載の動画像処理方法において、
    処理対象のフレームに特定のパターンが存在するのか否かを検出して、特定のパターンが存在する場合には、その存在する位置を検出する過程と、
    上記検出した位置と上記分離した前景とに基づいて、処理対象のフレームに、上記特定のパターンを持つ動物体が存在するのか否かを判定する過程とを備えることを、
    特徴とする動画像処理方法。
  10. 請求項9に記載の動画像処理方法において、
    上記特定のパターンを持つ動物体の面積と上記分離した前景とに基づいて、上記特定のパターンを持つ動物体の数を特定する過程を備えることを、
    特徴とする動画像処理方法。
  11. 動画像を前景と背景とに分離する動画像処理装置であって、
    動画像を入力する手段と、
    入力した処理対象となる動画像のフレームを小領域に分割する手段と、
    処理対象のフレームの各画素について1つ又は複数の特徴量を抽出する手段と、
    処理対象のフレームの持つ上記小領域ごとに、上記特徴量の全てあるいは一部を用いて各画素が2つの領域のどちらに属するのかをクラス分けする場合に、そのクラス分けの分離度を示す尤度が最も高くなる値を示すことになるクラス分けを行う手段と、
    隣接する上記小領域について、上記特徴量を用いて、同じクラスにクラス分けされた領域の対応付けを行ない、それに基づいて、同じクラスにクラス分けされた領域同士をつなぎ合わせることで、処理対象のフレーム全体を前景と背景とに分離する手段とを備えることを、
    特徴とする動画像処理装置。
  12. 請求項11記載の動画像処理装置において、
    上記特徴量を抽出する手段は、処理対象のフレームとその近傍のフレームとを使って動きに基づく特徴量を抽出するか、処理対象のフレームを使って動きに基づかない特徴量を抽出するか、その双方の特徴量を抽出することを、
    特徴とする動画像処理装置。
  13. 請求項11又は12に記載の動画像処理装置において、
    上記特徴量を抽出する手段は、特徴量の抽出対象となる画素を中心とする周辺領域を使って、その抽出対象となる画素の特徴量を抽出することを、
    特徴とする動画像処理装置。
  14. 請求項11ないし13のいずれか1項に記載の動画像処理装置において、
    上記特徴量を抽出する手段は、複数の特徴量を抽出する場合に、それらの特徴量を組み合わせることで、より高いクラス分け分離度を実現する特徴量を抽出することを、
    特徴とする動画像処理装置。
  15. 請求項11ないし14のいずれか1項に記載の動画像処理装置において、
    上記クラス分けを行う手段は、2つのクラスの確率分布を想定して、その想定に基づいて上記尤度を算出し、その算出に基づいて該確率分布を修正することを繰り返していくことで、上記尤度が最も高くなる値を示すことになるクラス分けを行うことを、
    特徴とする動画像処理装置。
  16. 請求項11ないし15のいずれか1項に記載の動画像処理装置において、
    上記クラス分けを行う手段は、上記尤度の算出式に、2つの領域がまとまっている場合の方が2つの領域が混在する場合よりも尤度が高くなる補正項を加えたものを使って上記尤度を算出することで、上記尤度が最も高くなる値を示すことになるクラス分けを行うことを、
    特徴とする動画像処理装置。
  17. 請求項11ないし16のいずれか1項に記載の動画像処理装置において、
    同じクラスにクラス分けされた領域同士をつなぎ合わせる際に、そのつなぎ合わせに矛盾がある場合には、そのつなぎ合わせの対象となる一方の上記小領域について、特徴量の重み付けを変えて上記クラス分けを再実行する手段を備えることを、
    特徴とする動画像処理装置。
  18. 請求項17に記載の動画像処理装置において、
    上記再実行する手段は、上記再実行により同一の上記小領域について異なるクラス分けが得られる場合には、それらのクラス分けから矛盾のないつなぎ合わせを実現するクラス分けを決定することを、
    特徴とする動画像処理装置。
  19. 請求項11ないし18のいずれか1項に記載の動画像処理装置において、
    処理対象のフレームに特定のパターンが存在するのか否かを検出して、特定のパターンが存在する場合には、その存在する位置を検出する手段と、
    上記検出した位置と上記分離した前景とに基づいて、処理対象のフレームに、上記特定のパターンを持つ動物体が存在するのか否かを判定する手段とを備えることを、
    特徴とする動画像処理装置。
  20. 請求項19に記載の動画像処理装置において、
    上記特定のパターンを持つ動物体の面積と上記分離した前景とに基づいて、上記特定のパターンを持つ動物体の数を特定する手段を備えることを、
    特徴とする動画像処理装置。
  21. 請求項1ないし10のいずれか1項に記載の動画像処理方法の実現に用いられる処理をコンピュータに実行させるための動画像処理プログラム。
  22. 請求項1ないし10のいずれか1項に記載の動画像処理方法の実現に用いられる処理をコンピュータに実行させるための動画像処理プログラムを記録した記録媒体。
JP2004334101A 2003-11-20 2004-11-18 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体 Expired - Fee Related JP4455980B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004334101A JP4455980B2 (ja) 2003-11-20 2004-11-18 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003390235 2003-11-20
JP2004334101A JP4455980B2 (ja) 2003-11-20 2004-11-18 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2005176339A JP2005176339A (ja) 2005-06-30
JP4455980B2 true JP4455980B2 (ja) 2010-04-21

Family

ID=34741951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004334101A Expired - Fee Related JP4455980B2 (ja) 2003-11-20 2004-11-18 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP4455980B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG140573A1 (en) 2006-08-31 2008-03-28 Sony Corp Image-processing apparatus, image processing method and image processing program
JP4544233B2 (ja) * 2006-10-11 2010-09-15 株式会社デンソー 車両検出装置及びヘッドランプ制御装置
KR101348596B1 (ko) 2008-01-22 2014-01-08 삼성전자주식회사 임장감 생성 장치 및 방법
KR101498206B1 (ko) 2008-09-30 2015-03-06 삼성전자주식회사 고해상도 영상 획득 장치 및 그 방법
JP4966946B2 (ja) * 2008-10-08 2012-07-04 日本電信電話株式会社 時空間画像分離装置、時空間画像分離方法および時空間画像分離プログラム
WO2019216263A1 (ja) * 2018-05-10 2019-11-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN110309795B (zh) * 2019-07-04 2024-03-12 腾讯科技(深圳)有限公司 视频检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP2005176339A (ja) 2005-06-30

Similar Documents

Publication Publication Date Title
Han et al. Density-based multifeature background subtraction with support vector machine
US20190179420A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US8948448B2 (en) Method and apparatus for trajectory estimation, and method for segmentation
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
US7489803B2 (en) Object detection
US9922425B2 (en) Video segmentation method
US7957560B2 (en) Unusual action detector and abnormal action detecting method
US7421149B2 (en) Object detection
WO2011080900A1 (ja) 移動体検出装置および移動体検出方法
KR101764845B1 (ko) 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법
WO2009109127A1 (en) Real-time body segmentation system
JP2008501172A (ja) 画像比較方法
Aytekin et al. Spatiotemporal saliency estimation by spectral foreground detection
US20050129275A1 (en) Object detection
Vosters et al. Background subtraction under sudden illumination changes
US20050129277A1 (en) Object detection
US20050128306A1 (en) Object detection
García-Martín et al. Robust real time moving people detection in surveillance scenarios
JP6448212B2 (ja) 認識装置及び認識方法
Afonso et al. Automatic estimation of multiple motion fields from video sequences using a region matching based approach
CN110188718B (zh) 一种基于关键帧和联合稀疏表示的无约束人脸识别方法
Loutas et al. Probabilistic multiple face detection and tracking using entropy measures
JP4455980B2 (ja) 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体
JP4369308B2 (ja) 代表画像選択装置,代表画像選択方法および代表画像選択プログラム
Ahlvers et al. Model-free face detection and head tracking with morphological hole mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees