JP3768073B2 - Object tracking method and object tracking apparatus - Google Patents
Object tracking method and object tracking apparatus Download PDFInfo
- Publication number
- JP3768073B2 JP3768073B2 JP2000180185A JP2000180185A JP3768073B2 JP 3768073 B2 JP3768073 B2 JP 3768073B2 JP 2000180185 A JP2000180185 A JP 2000180185A JP 2000180185 A JP2000180185 A JP 2000180185A JP 3768073 B2 JP3768073 B2 JP 3768073B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- template image
- matching
- registered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、撮像装置を用いた監視装置に係り、特に撮像視野内に侵入した物体を、撮像装置から入力する映像信号の中から自動的に検出し、検出した物体の動きを自動的に追跡するようにした物体追跡方法と、検出した物体の動きに応じて撮像方向を調節するようにした物体追跡装置に関する。
【0002】
【従来の技術】
カメラ等の撮像装置を用いた映像監視装置は、従来から広く用いられている。しかし、このような映像監視装置を用いた監視システムにおいて、その監視視野内に入り込んでくる人間や自動車などの侵入物体の検出及び追跡を、監視員がモニタに表示される画像を見ながら行なう有人監視ではなく、カメラ等の画像入力手段から入力される画像から侵入物体を自動的に検出し、その動きを自動的に追跡するようにし、所定の報知や警報処置が得られるようにしたシステムが要求されるようになってきている。
【0003】
このようなシステムを実現するためには、まず、差分法などによって視野内の侵入物体を検出する。差分法とは、テレビジョンカメラ(以下、TVカメラと称する)等の撮像装置により得られた入力画像と、予め作成した基準背景画像、即ち、検出すべき物体の写っていない画像とを比較し、画素毎に輝度値の差分を求め、その差分値の大きい領域を物体として検出するものである。このようにして検出された侵入物体の位置に相当する入力画像の部分画像をテンプレートとして登録し、逐次入力される画像の中でテンプレート画像と一致度が最大となる位置を検出する。この方法は、テンプレートマッチングと呼ばれ広く知られ、例えば、1985年に総研出版より出版された田村秀行氏監修による『コンピュータ画像処理入門』と題する書籍のP149〜P153で解説されている。
通常、テンプレートマッチングを用いて対象物体を追跡する場合、対象物体の姿勢の変化に追従するため、マッチング処理によって検出された対象物体の位置の画像を新たにテンプレートとして逐次更新する。これらの処理を図4〜図7によって説明する。
【0004】
図4は差分法を用いた侵入物体検出処理の一例を表すフローチャート、図5はテンプレートマッチングを用いた侵入物体追跡の一例を表すフローチャート、図6は、図4と図5で表される侵入物体検出処理から初期のテンプレート画像登録までの流れを画像の例によって説明するための図である。また図7は、図5で表される侵入物体追跡処理の流れを画像の例を用いて説明するための図であり、一定の時間間隔で入力された画像が初期に与えられたテンプレート画像をもとにどのように実行されていくか(初期のテンプレートがどのように変化していくか)を説明する図である。
【0005】
図6で、601は入力画像、609は入力画像601中の人型の物体、602は基準背景画像、606は差分処理部、603は差分処理部606において差分処理された後の差分画像、610は人型の物体609に相当する差分画像603中の人型の差分画像、607は二値化処理部、604は二値化処理部607によって二値化処理された差分画像603の二値化画像、611は人型の差分画像610に相当する二値化画像604中の人型物体(人型の二値化画像)、612は人型の二値化画像611の外接矩形、608は画像抽出部、605は入力画像601から外接矩形612の囲む領域をテンプレート画像として切出すことを説明する画像、613は入力画像601から切出した初期テンプレート画像である。
【0006】
図4と図6において、まず、TVカメラから例えば320×240画素の入力画像601を入力する(画像入力ステップ401)。次に、差分処理部606において、入力画像601と、予め作成した基準背景画像602との画素毎の差分を計算し、差分画像603を取得する。この時、入力画像601中の人型の物体609は差分画像603中に、人型の差分画像610として現れる(差分処理ステップ402)。そして、二値化処理部607において、差分画像603の各画素に対しての差分値が所定のしきい値以下の画素の値を“0”、しきい値以上の画素の値を“255”(1画素を8ビットとして)に置換えて、二値化画像604を得る。この時、入力画像601に撮像された人型の物体609は、二値化画像604中の人型物体611として検出され、人型物体611の外接矩形612が生成される(二値化処理ステップ403)。
次に物体存在判定ステップ404では、画像抽出部608において、二値化画像604中で画素値が“255”となった画素のかたまりを検出し、画素値が“255”となる画素のかたまりが存在する場合は物体検出処理を終了し存在したかたまりの外接矩形に相当する入力画像に部分画像を初期テンプレート画像613として後述の画像メモリ305(図3)に登録し、存在しない場合は画像入力ステップ401へ分岐する。
【0007】
物体追跡処理の流れを図5に従って説明する。図5の物体検出処理ステップ101と初期テンプレート登録ステップ102とにおいて、図4と図6で説明したように物体検出処理と初期テンプレート画像の登録がなされた後の処理について図7を用いて説明する。
図4と図6で説明した物体検出処理が終了した後は、図5に示すフローチャートに従って物体追跡処理がなされる。
図7で、701aは時刻t0-1において更新された物体のテンプレート画像、701は時刻t0-1での入力画像におけるテンプレート画像701aの位置を示す図、702は時刻t0での入力画像、702aは時刻t0においてテンプレートマッチング処理によって検出された物体の位置(テンプレート画像)、702bは1フレーム前(t0-1)でのテンプレート画像の位置、702cはテンプレートマッチング処理(例えば、図5のフローチャート)で探索する探索範囲、702dは時刻t0-1からt0まで人型物体が移動した方向と軌跡を表す移動矢印(例えば、テンプレート画像701aの中心位置からテンプレート画像702aの中心位置へ向かう矢印)、702eはテンプレートマッチング処理で人型物体を検出した位置、703aは時刻t0で更新された物体のテンプレート画像、703は時刻t0での入力画像におけるテンプレート画像703aの位置を示す図、704は時刻t0+1での入力画像、704aは時刻t0+1においてテンプレートマッチング処理によって検出された物体の位置(テンプレート画像)、704bは1フレーム前(t0)でのテンプレート画像の位置、704cはテンプレートマッチング処理で探索する探索範囲、704dは時刻t0-1からt0+1まで人型物体が移動した方向と軌跡を表す移動矢印(例えば、テンプレート画像701aの中心位置からテンプレート画像703aの中心位置を経由して704aの中心位置へ向かう矢印)、705aは時刻t0+1で更新された物体のテンプレート画像、705は時刻t0+1での入力画像におけるテンプレート画像705aの位置を示す図、706は時刻t0+2での入力画像、706aは時刻t0+2においてテンプレートマッチング処理によって検出された物体の位置(テンプレート画像)、706bは1フレーム前(t0+1)でのテンプレート画像の位置、706cはテンプレートマッチング処理で探索する探索範囲、706dは時刻t0-1からt0+2まで人型物体が移動した方向と軌跡を表す移動矢印(例えば、テンプレート画像701aの中心位置からテンプレート画像703aの中心位置、テンプレート画像705aの中心位置を経由して706aの中心位置へ向かう矢印)、707aは時刻t0+2で更新された物体のテンプレート画像、707は時刻t0+2での入力画像におけるテンプレート画像707aの位置を示す図、708は時刻t0+3での入力画像、708aは時刻t0+3においてテンプレートマッチング処理によって検出された物体の位置(テンプレート画像)、708bは1フレーム前(t0+2)でのテンプレート画像の位置、708cはテンプレートマッチング処理で探索する探索範囲、708dは時刻t0-1からt0+3まで人型物体が移動した方向と軌跡を表す移動矢印(例えば、テンプレート画像701aの中心位置からテンプレート画像703aの中心位置、テンプレート画像705aの中心位置、テンプレート画像707aの中心位置を経由して708aの中心位置へ向かう矢印)である。
【0008】
即ち、図5と図7において、物体追跡処理が開始され、二値化画像604中に物体が存在すると判定され、物体検出処理ステップ101を終了する(図4)。そして、二値化画像604中の人型の二値化画像のかたまりの外接矩形に相当する入力画像601の部分画像を、初期テンプレート画像613(図7のテンプレート画像701a)として画像メモリ305(図3)に登録する(初期テンプレート登録ステップ102)。続いて、逐次入力される入力画像中の探索範囲702c内でテンプレート画像701aと一致度r(Δx,Δy)が最大となる部分画像702aを検出する(テンプレートマッチッングステップ103)。
即ち、テンプレートマッチッングステップ103では、最大一致度と、その最大一致度が求められた位置とを得る。
【0009】
この一致度r(Δx,Δy)を算出する方法として、例えば以下の式(1)で得られる正規化相関と呼ばれる指標を用いることができる。
【数1】
【0010】
ここで、入力画像702に対してテンプレートマッチングを行なった場合、f(x,y)は入力画像702、ft(x,y)はテンプレート画像701a、(x0,y0)は登録したテンプレート画像701aの左上の座標(画像は左上を原点としている)、Dtはテンプレートの探索範囲702cを表し、探索範囲702c内にテンプレート画像701aとまったく同じ画素値を持つ画像が存在した場合には、一致度r(Δx,Δy)は“1.0”となる。テンプレートマッチングステップ103では、この式(1)で表される指標を(Δx,Δy)∈Dで表される探索範囲702cに対して計算し、その中で一致度r(Δx,Δy)が最大となる位置(外接矩形)702aを検出する。この探索範囲702cは、対象物体の見かけの移動量によって決定される。例えば、速度40km/hで移動する物体を、50m離れたTVカメラ(素子サイズ6.5mm×4.8mmのCCD、焦点距離25mmのレンズ、入力画像サイズ320×240画素(pix)。処理間隔0.1frame/sec)で監視する場合、水平方向の物体の見かけの移動量は27.4pix/frame、垂直方向は27.8pix/frameとなり、Dを-30pix<Δx<30pix,-30pix<Δy<30pix程度に設定すればよい。
尚、一致度の算出方法は上述の正規化相関の指標に限られるものではない。例えば、入力画像とテンプレート画像間で各画素毎の差をとって、その絶対値の累積値の逆数を一致度としてもよい。
【0011】
次に、最大一致度判定ステップ104では、テンプレートマッチングステップ103において、テンプレート画像701aと一致度が最大となる入力画像702の位置に、物体が移動した(外接矩形702bから外接矩形702aに移動した)と判断したあと、次に、最大一致度が所定値以下に低下した場合(例えば“0.5”未満)、入力画像中に対象物体がいなくなったものとして、物体検出処理ステップ101へ分岐し、最大一致度が所定値以上であった場合(例えば“0.5”以上)は、テンプレート更新ステップ106へ分岐する。
テンプレート更新ステップ106では、入力画像中の探索範囲702c内でテンプレート画像701aと一致度r(△x,△y)が最大となる部分画像702aを使ってテンプレート画像701aをテンプレート画像703aに更新する。ここで、テンプレート画像を更新する理由は、対象物体の姿勢が変化(例えば、対象物体の人が手を上げたり、腰を曲げたり、足を上げたりして画像が変化)し、テンプレート画像を更新しないと一致度が低下してしまい、追跡結果の信頼性が低下するためである。従って、検出された物体の位置の部分画像702eを新たなテンプレート画像703aとして更新し、対象物体が姿勢を変えた場合でも安定な追跡を行なうようにしている。
【0012】
上述の実施例では、差分法によって検出した侵入物体について作成したテンプレート画像は、検出した画素のかたまりの外接矩形を取り込み、この外接矩形に囲まれた部分画像をテンプレート画像として切出した。
しかし、切出すテンプレート画像のサイズの決定方法はこの方法に限らない。例えば、外接矩形に一定の定数(例えば、0.8、または1.1等)を乗算してもよい。
更に、撮像素子としてCCD(Charge Coupled Device)を使用した場合には、CCDのサイズ、レンズの焦点距離、CCDから検出する物体の距離によって、対象とみなす物体の大きさを予め算出できるので、算出した大きさをテンプレート画像サイズとすることもできる。
【0013】
次に、カメラ雲台制御ステップ107に移る。
図10は入力画像とテンプレートマッチングで検出された対象物体の位置との関係を説明するための図である。図10に言及して、カメラ雲台制御ステップ107について説明する。
カメラ雲台制御ステップ107では、テンプレートマッチングによって検出された対象物体の位置と入力画像中央との変位、即ち、カメラの光軸(カメラの視野方向)に対して対象物体が存在する方向に基づいてカメラ雲台302のパン・チルトモータを制御する。
つまり、テンプレートマッチングによって検出された対象物体の中心位置(x0+△x+dx/2,y0+△y+dy/2)((dx,dy)はテンプレート画像の大きさを表す)と入力画像の中心位置(160,120)(画像サイズを320×240とする)とを比較し、検出された対象物体の中心位置が入力画像の中心位置に対して左側に位置する場合は、カメラ雲台のパンモータをカメラの光軸方向が左に移動するように制御し、右側に位置する場合はカメラ雲台のパンモータをカメラの光軸方向が右に移動するように制御する。また、検出された対象物体の中心位置が入力画像の中心位置に対して上側に位置する場合は、カメラ雲台のチルトモータをカメラの光軸方向が上に移動するように制御し、下側に位置する場合は、カメラ雲台のチルトモータをカメラの光軸方向が下に移動するように制御する。
尚、パンモータ、チルトモータは同時に制御可能で、例えば、検出された対象物体の中心位置が入力画像の中心位置に対して左上側に位置する場合は、カメラ雲台のパンモータをカメラの光軸方向が左に移動するように制御し、かつ、チルトモータをカメラの光軸方向が上に移動するように同時に制御する。このようにすることで、カメラの光軸上に対する対象物体を捉えるようにカメラ雲台を制御することが可能となる。
次に、警報・モニタ表示ステップ108では、例えば対象物体が所定の警報を出す範囲に存在する場合に警報を鳴らしたり、監視モニタに対象物体の画像を表示したりする。
【0014】
警報・モニタ表示ステップ108が終わると、画像入力ステップ401に戻り、新しい入力画像を得て、この現時刻での入力画像に対して再びテンプレートマッチッング処理を行う。即ち、時刻t0での入力画像702により更新したテンプレート画像703aと、時刻t0+1での入力画像704とによりテンプレートマッチング処理を行う。この時、探索範囲704cは時刻t0で更新されたテンプレート画像704bを中心とした位置に移動しており、新しい探索範囲で検索が行われる。そして、最大の一致度を持った物体が検出され、その検出された物体の位置704aを元に新しいテンプレート画像705aが生成される。
以上のように、対象物体が存在する間は、ステップ401,ステップ103,ステップ104,ステップ106,ステップ107,ステップ108の処理を繰返し、新しいテンプレート画像706a、708aと次々にテンプレート画像が更新されながら、対象物体を追跡し続ける。
【0015】
前述のテンプレートマッチングを用いた侵入物体の追跡法では、入力画像中でテンプレート画像と一致度が最大となる部分を検出する処理であるため、一時的に対象物体が物陰などに隠れると対象物体を見つけられなくなる。また、視野内に複数の動く物体(動物体)が存在する場合で、対象物体が別の動物体の背後に隠れてしまう場合、テンプレート画像の更新を行うと、対象物体の前面にある物体をテンプレート画像として更新してしまい、対象物体の追跡ができなくなる。
【0016】
対象物体の追跡ができなくなる一例を図8を用いて説明する。図8は、侵入物体追跡処理の流れを画像の例を用いて説明するための図であり、複数の動物体が重なって撮像された場合の追跡状態を説明する図である。801aは時刻t0-1において更新された物体のテンプレート画像、801は時刻t0-1での入力画像におけるテンプレート画像801aの位置を示す図、802は時刻t0での入力画像、802aは時刻t0においてテンプレートマッチング処理によって検出された物体の位置、802bは時刻t0に撮像された別の動物体、803aは時刻t0でのテンプレート画像、803は時刻t0での入力画像におけるテンプレート画像803aの位置を示す図、804は時刻t0+1での入力画像、804aは時刻t0+1においてテンプレートマッチング処理によって検出された物体の位置、804bは時刻t0+1に撮像された別の動物体、805aは時刻t0+1で更新された物体のテンプレート画像、805は時刻t0+1での入力画像におけるテンプレート画像805aの位置を示す図、806は時刻t0+2での入力画像、806aは時刻t0+2においてテンプレートマッチング処理によって検出された物体の位置、806bは時刻t0+2に撮像された別の動物体、807aは時刻t0+2で更新された物体のテンプレート画像、807は時刻t0+2での入力画像におけるテンプレート画像807aの位置を示す図、808は時刻t0+3での入力画像、808aは時刻t0+3においてテンプレートマッチング処理によって検出された物体の位置、808bは時刻t0+3に撮像された別の動物体である。
【0017】
図8においては、時刻t1-1で差分法によって検出された追跡対象物である人型の物体のテンプレート画像801aをもとに、逆方向から歩いてくる別の人型物体と交差する時の追跡処理がどのように実行されていくかを説明している。時刻t1では、登録したテンプレート画像801aを用いて入力画像802についてマッチング処理を行ない、対象物体の移動した位置802aを検出すると共に、テンプレート画像801aを図803の位置にあるテンプレート画像803aに更新する。この時、別の人型物体802bは離れているのでテンプレートマッチングでの交差の問題は発生しない。しかし、時刻t1+1と時刻t1+2では、別の移動物体804b,806bが対象物体の前を横切り、時刻t1+1の入力画像804では何とか対象物体の位置804aは正しい位置に認識できたが、時刻t1+2の入力画像806では対象物体の位置806aは別の物体806bとほぼ重なっているため、どちらか分らなくなり、テンプレート画像805a,807aと更新していく度に、前を横切った人型物体の画像がテンプレート画像の中に入り込む。即ち、本来の対象物体がテンプレート画像に占める割合より、別の動物体がテンプレート画像に占める割合が大きくなる。そして遂には、時刻t1+3では、前を横切った人型物体808bを対象物体の位置808aとして認識してしまい、以降はこの別の人型物体を追跡してしまうことになる。従って、テンプレートマッチングを用いた物体追跡法は、対象物体の前を別の物体が横切った場合には、対象としている物体を追跡している保証ができず、安定な追跡が行なうことができない。
【0018】
同様のことは、別の動物体が存在していなくても起る。即ち、対象物体が遮蔽物の陰に隠れてしまう場合である。この場合には、、テンプレート画像に占める対象物体の割合が落ちるため、追跡がその時刻で終了してしまうことになるか、または、テンプレート画像が更新された時点で、対象物体と異なるテンプレート画像に更新されてしまうため、次の時刻での追跡が困難となる。
【0019】
【発明が解決しようとする課題】
前述の従来技術には、対象物体の前を相対的に別の物体が横切る場合には、正確に追跡できない欠点があった。
本発明の目的は、上記のような欠点を除去し、対象物体の前を相対的に別の物体が横切る場合にも、正確に物体を検出および追跡することができる、信頼性の高い物体追跡方法を提供することにある。
【0020】
【課題を解決するための手段】
上記の目的を達成するために、本発明の物体追跡方法は、撮像装置によって逐次取得する入力画像から撮像視野内の物体を検出し、検出した物体を追跡する物体追跡方法において、所定数のテンプレート画像を保存及び更新する複数テンプレート保存ステップと、現時刻に取得した入力画像と、所定数のテンプレート画像それぞれとのテンプレートマッチングを行い、所定数のテンプレート画像それぞれについて、最大一致度と、その最大一致度が求められる位置とを取得するマッチングステップと、マッチングステップによって取得した最大一致度の中で、最大一致度が一番大きいテンプレート画像について最大一致度を求められる位置を、検出物体の位置として補正する位置補正ステップと、現時刻に取得した入力画像の中から、位置補正ステップによって補正された位置の部分画像を切出し、複数テンプレート保存ステップによって、所定数のテンプレート画像のいずれかを更新するテンプレート更新ステップとを備えて、検出した物体を追跡する。
【0021】
また、本発明の物体追跡方法において、所定数のテンプレート画像は、互いに異なった時刻の入力画像から切出され、保持される。
更に、テンプレート更新ステップで更新されるテンプレート画像は、保持された所定数のテンプレート画像のうち、最も古い時刻に切り出されたテンプレート画像であるか、または、一致度が最も低いテンプレート画像である。
【0022】
更にまた、本発明の物体追跡方法において、入力画像から差分法によって物体を検出し、検出した物体の少なくとも一部を含む入力画像の所定サイズの部分画像を初期テンプレート画像として登録する初期テンプレート登録ステップを備え、差分法によって検出した物体を追跡対象物体として、追跡を行なう。
また、位置補正ステップにおいて、取得した最大一致度すべてが所定の値未満であれば、差分法によって、現時刻の入力画像から物体を検出し、検出した物体を追跡対象物体として追跡する。
【0023】
更に本発明の物体追跡方法において、位置補正ステップによって検出された位置に基づいて、撮像装置の視野方向を変えるための制御信号を発生するカメラ雲台制御ステップを有し、制御信号によって撮像装置の視野方向を検出された位置に常に向けて、検出した物体を追跡する。
また、入力画像から差分法によって物体を検出し、検出した物体の少なくとも一部を含む入力画像の所定サイズの部分画像を前記テンプレート画像として登録する初期テンプレート登録ステップを備え、差分法によって検出した物体を追跡対象物体として、追跡を行なう。
【0024】
また本発明の物体追跡装置は、監視対象範囲を撮像する撮像装置と、撮像装置が取得した映像信号を逐次画像信号に変換する画像入力インターフェースと、画像入力インターフェースによって変換された画像信号を処理する画像処理手段と、テンプレート画像として登録された複数の画像を保存する手段とを備え、画像処理手段は、撮像装置から現時刻に入力した画像信号を、あらかじめ保存された複数のテンプレート画像それぞれによってテンプレートマッチングを行ない、テンプレートマッチングによってそれぞれ得られた複数のテンプレート画像それぞれの最大一致度の中で、一番大きな最大一致度を得るテンプレート画像について取得する部分画像の位置を検出物体の位置とし、同時に、検出物体の位置の部分画像を新たなテンプレート画像として更新することにより、撮像装置の撮像視野内に侵入した物体を追跡する。
【0025】
また、本発明の物体追跡装置は、撮像装置の視野方向を変えるための雲台と、画像処理手段によって撮像装置の視野方向を変えるために雲台を制御するための制御信号を供給する雲台制御インターフェースとを備え、画像処理手段が、物体の現時刻の検出位置に基づいて、物体の方向を検出し、得られた方向から雲台制御インターフェースを介して、撮像装置の視線方向を調節し、撮像装置の撮像視野内に侵入した物体を追跡する。
【0026】
【発明の実施の形態】
本発明の物体追跡方法では、複数の物体がすれ違うとマッチングの一致度が低くなる特徴を利用し、テンプレートマッチングに使用するテンプレート画像を追跡処理の過程で複数フレーム保持するようにし、異なる時刻に得られた複数のテンプレート画像それぞれに対して独立にマッチングを行ない、最も一致度が高いテンプレート画像に基づいて対象物体を追跡する。
即ち、本発明は、差分法によって物体を検出し、検出物体の画像をテンプレートとして所定フレーム数分保持し、それぞれのテンプレートに対してテンプレートマッチングを行ない、一致度が最大となるテンプレート及びその位置を検出することで、特に対象物体の前を別の物体が横切った場合でも安定に追跡をすることができる。
【0027】
図3に、本発明の各実施例に共通する物体追跡装置のハードウエア構成の一例を示す。301はTVカメラ、303は画像入力I/F、313はデータバス、305は画像メモリ、306はワークメモリ、307はCPU、308はプログラムメモリ、302はカメラ雲台、304は雲台制御I/F、309は出力I/F、310は画像出力I/F、311は警告灯、312は監視モニタである。TVカメラ301は画像入力I/F303に接続され、カメラ雲台302は雲台制御I/F304に接続され、警告灯311は出力I/F309に接続され、監視モニタ312は画像出力I/F310に接続されている。画像入力I/F303、雲台制御I/F304、画像メモリ305、ワークメモリ306、CPU307、プログラムメモリ308、出力I/F309及び画像出力I/F310は、データバス313に接続されている。また、TVカメラ301はカメラ雲台302に取付けられている。
【0028】
図3において、TVカメラ301は監視対象(視野範囲)を撮像する。撮像された映像信号は、画像入力I/F303からデータバス313を介して画像メモリ305に蓄積される。CPU307はプログラムメモリ308に保存されているプログラムに従って、ワークメモリ306内で画像メモリ305に蓄積された画像の解析を行なう。CPU307は、処理結果に応じてデータバス313から雲台制御I/F304を介してカメラ雲台302を制御してTVカメラ301の撮像視野を変えたり、出力I/F309を介して警告灯311を点灯し、画像出力I/F310を介して監視モニタ312に、例えば侵入物体検出結果画像を表示する。尚、画像メモリ305は、登録されたテンプレート画像を保存しておくためのテンプレート画像保持装置をも備えている。
【0029】
以降に説明するフローチャートは、すべて上記図3で説明した物体追跡監視装置のハードウエア構成を使って説明する。
本発明の第1の実施例を図1によって説明する。図1は本発明の一実施例の処理プロセスを説明するフローチャートである。図1は図5で示したテンプレートマッチング法の処理プロセスにテンプレート位置補正ステップ105を追加したものである。ステップ101、102、401、103、104、106、107、108については、図4と図5によって説明したものと同じであるので説明を省略する。
【0030】
本発明の一実施例を図1によって説明する。図1は、本発明の処理プロセスの一実施例を表すフローチャートである。図1は図5で説明した従来のテンプレートマッチング法の処理プロセスにおいて、最大一致度判定ステップ104とテンプレート更新ステップ106の代りに、分岐ステップ201、最大一致度判定ステップ104′、テンプレート位置補正ステップ105、複数テンプレート保存ステップ202とを置いて構成したものである。ステップ101、102、401、103、107、108については、図4と図5によって説明した従来技術のものと同じであるので説明を省略する。
【0031】
図1において処理が開始されると、既に説明した物体検出処理101からテンプレート登録ステップ102によって、時刻t0-1における入力画像から取得した画像を時刻t0-1のテンプレート画像として登録し、画像入力ステップ401で時刻t0における入力画像を取得した後、テンプレートマッチング処理103に進む。
次に、テンプレートマッチング処理ステップ103では、保存された時刻t0-1のテンプレート画像と、時刻t0における入力画像とテンプレートマッチング処理がなされる。そして、分岐ステップ201を通り、最大一致度判定ステップ104´に進む。
【0032】
分岐ステップ201では、保存されているすべてのテンプレート画像すべてについてテンプレートマッチング処理がなされているかどうかを調べる。そして、保存しているすべてのテンプレート画像とのテンプレートマッチング処理が終了している場合には最大一致度判定ステップ104′に処理を進め、終了していない場合には、テンプレートマッチッングステップ103に戻る。
【0033】
そして、再びテンプレートマッチッングステップ103に戻った時、保存されているテンプレートは時刻t0-2のテンプレートと時刻t0-1のテンプレートの2つである(時刻は“+1”進んでいるため“-1”が加えられる)。ここで、テンプレートマッチッングステップ103では時刻t0の入力画像と、先ず時刻t0-1のテンプレートとのテンプレートマッチング処理がなされ、分岐ステップ201に進む。
今、時刻t0-1のテンプレートとのテンプレートマッチング処理がなされたが、まだ時刻t0-2のテンプレートが残っている。従って、この時はステップ103に戻り、時刻t0-2のテンプレートと時刻t0の入力画像とのテンプレートマッチング処理を行う。このようにして、次々と残っているテンプレートとテンプレートマッチング処理を行い、すべてのテンプレートについてテンプレートマッチング処理が終了すれば、分岐ステップ201から処理ステップを最大一致度判定ステップ104´に進める。
【0034】
最大一致度判定ステップ104´では、テンプレートマッチング処理によって、複数のテンプレート画像それぞれについてに得られた最大一致度の中から一番大きな値を選ぶ。そして、その一番大きな値の最大一致度が所定値以上であった場合にはテンプレート位置補正ステップ105に進み、その一番大きな値の最大一致度が所定値未満であった場合には物体検出処理ステップ101に戻る。
【0035】
複数テンプレート保存ステップ202では、時刻t0の入力画像で検出された物体の中で、最大一致度判定ステップ104´において一番値の大きい最大一値度を得た位置の部分画像を切出して時刻t0のテンプレートを新たに保存する。
この時、既にテンプレート登録ステップ102において登録された時刻t0-1のテンプレ−ト画像はそのまま保存される。
この複数テンプレート保存ステップ202で保存するテンプレート画像の数は、あらかじめ所定数(例えば、“3”)を定めておき、所定数を超える時は、例えば、一番古い時刻に取得したテンプレートを削除する。
【0036】
次にカメラ雲台制御ステップ107に処理が進み、カメラ301の視野方向(光軸方向)を対象物体の方向に向ける。
そして次に、警報・モニタ表示ステップ108に処理が移り、例えば警報を鳴らしたり、例えば監視モニタに対象物体の画像を表示したりする。
警報・モニタ表示ステップ108が終了すると、画像入力ステップ401に戻り、新しい入力画像を取得し、再びテンプレートマッチッング処理を行う。
【0037】
上記の本発明の一実施例の効果について、図2を用いて説明する。図2は、侵入物体追跡の流れを、画像の例を用いて説明するための図で、撮像視野内に複数の動物体(人型物体)が重なって撮像された場合の追跡状態を説明する図である。図8で説明した物体追跡方法による物体追跡に比べるために、図8と同じ状況設定である。なお、保存するテンプレートの数は2(“テンプレートマッチングを行うフレーム数”= 2)としている。
【0038】
901aは時刻t0-1において更新された物体のテンプレート画像、901は時刻t0-1での入力画像におけるテンプレート画像901aの位置を示す図、902は時刻t0での入力画像、902aは時刻t0においてテンプレートマッチング処理によって検出された物体の位置、902cは時刻t0に撮像された別の動物体、903aは時刻t0でのテンプレート画像、903は時刻t0での入力画像におけるテンプレート画像903aの位置を示す図、904は時刻t0+1での入力画像、904aは時刻t0+1においてテンプレートマッチング処理によって検出された物体の位置、点線の矩形領域で示された904bは1つ前の処理時刻(この場合はt0-1)のテンプレート画像がマッチングした位置、904cは時刻t0+1に撮像された別の動物体、905aは時刻t0+1で更新された物体のテンプレート画像、905は時刻t0+1での入力画像におけるテンプレート画像905aの位置を示す図、906は時刻t0+2での入力画像、906aは時刻t0+2においてテンプレートマッチング処理によって検出された物体の位置、点線の矩形領域で示された906bは1つ前の処理時刻(この場合はt0)のテンプレート画像がマッチングした位置、906cは時刻t0+2に撮像された別の動物体、907aは時刻t0+2で更新された物体のテンプレート画像、907は時刻t0+2での入力画像におけるテンプレート画像907aの位置を示す図、908は時刻t0+3での入力画像、908aは時刻t0+3においてテンプレートマッチング処理によって検出された物体の位置、点線の矩形領域で示された908bは1つ前の処理時刻(この場合はt0+1)のテンプレート画像がマッチングした位置、908cは時刻t0+3に撮像された別の動物体である。
【0039】
図8による追跡状況(本発明を適用しない状況)、即ち、対象物体の時々刻々の検出位置の推移は、直前の時刻に(1つ前のフレームで)取得したテンプレート画像によって得られたマッチング位置であるので、図2において各時刻での入力画像902,904,906,908中の実線の矩形画像902a,904a,906a,908aが示していることになる。また、本発明の実施例による追跡状況は、各時刻での入力画像904,906,908中の点線の矩形画像904b,906b,908bである。
【0040】
入力画像904と906で見るように、複数物体がすれ違った時刻(2つの物体が重なる時刻)にテンプレートの更新を行うと、テンプレート画像中に2つの物体が写込んでしまう。このため、本来の追跡していた物体の画素がテンプレート画像に占める割合が減少する。従って、時刻t0の入力画像902ではまだすれ違っていないため追跡に問題はなく、追跡対象の小さい物体を追跡している。また、時刻to+1における、別の動物体904cと重なり始めた入力画像904では、作成されているテンプレート画像に、まだ別の動物体が写込んでいないため問題とならないので追跡対象をまだ捉えているが、このマッチング位置をもとに作成されるテンプレート画像905aには別の動物体904cが写込んでいる。そしてまた、別の動物体906cとほとんど重なっている入力画像906においても、別の動物体904cが写込んでいる割合が大きいテンプレート画像905aによってマッチングを行った場合の検出位置906aと1フレーム前のテンプレート画像903aを用いてマッチングを行った検出位置906bとは大きな位置ずれはない。しかしこの時点で保存されるテンプレート画像907aは大きい物体906cの画素がテンプレート画像に占める割合が、本来の追跡していた物体の画素がテンプレート画像に占める割合より大きくなるため、大きい物体906cにテンプレート画像が横取りされ、時刻t0+2以降では、大きい物体908cを追跡してしまう。
しかし本発明による結果、以前から保存していたテンプレート画像905aを使ってマッチングを行うため、検出位置908bは本来の追跡対象物体を捉えることができる。
【0041】
上記のように、図1の実施例によれば、テンプレートマッチングステップ103によって検出された位置をもとに、異なる時刻に得られた所定フレーム数分のテンプレート画像を独立にマッチングさせるため、対象物体の前を別の物体が横切ったり、対象物体が一時的に遮蔽物の影に隠れたとしても、過去の複数のテンプレート画像を対象として、最大の一致度を持つ領域をテンプレートマッチング位置として補正するため、テンプレートの位置が対象物体からずれることがなく、また別の物体を追跡することなく、対象物体を正確に追跡することができる。
【0042】
次に、本発明の第2の実施例を図9によって説明する。図9は、本発明の処理プロセスの一実施例を表すフローチャートである。図9は、図1で説明した本発明の第1の実施例を表す処理プロセスにおいて、テンプレートマッチングステップ103、分岐ステップ201、最大一致度判定ステップ104′の代わりに、テンプレートカウンタリセットステップ991、テンプレートマッチングステップ992、最大一致度判定ステップ993、カウンタ増加ステップ994、分岐ステップ995とを置いて構成したものである。その他のステップ101、102、401、106、107、108については、図1によって説明した実施例のものと同じであるので説明を省略する。
【0043】
図9において、処理が開始されると、既に説明した物体検出処理101から初期テンプレート登録ステップ102によって、時刻to-1における入力画像から取得した画像を時刻t0-1のテンプレートとして登録した後、画像入力ステップ401に進み、新しい画像を得る。
次に、テンプレートカウンタリセットステップ991では、ワークメモリ306内に記憶されているテンプレートカウンタの値iを1に変更する。続いて、テンプレートマッチングステップ992では、保存された時刻t0-i(iは整数)のテンプレート画像と、画像入力ステップ401によって得られた時刻t0の入力画像とテンプレートマッチング処理を行なう。
そして、最大一致度判定ステップ993では、テンプレートマッチングステップ992によって得られた最大一致度が所定値以上であった場合には複数テンプレート保存ステップ106に進み、最大一致度が所定値未満であった場合にはカウンタインクリメントステップ994に進む。
【0044】
カウンタインクリメントステップ994では、ワークメモリ306内に記憶されているテンプレートカウンタの値iに1を加算( i=i+1 )してテンプレートカウンタの値を更新する。次に分岐ステップ995では、ワークメモリ306内に記憶されているテンプレートカウンタの値iが所定の値(例えば、5、この値は、何フレーム前までのテンプレート画像が保存されているかを表す)以上になった場合には物体検出処理ステップ101に戻り、所定の値未満であった場合にはテンプレートマッチングステップ992に戻る。
【0045】
図9の実施例のよれば、入力画像に対して保存した複数のテンプレート画像を新しい順に(入力画像を取得した時刻に近いテンプレート画像の順に)適用して逐次テンプレートマッチング処理を行ない、一致度が、所定の値以上となった場合にそのマッチング位置を対象物体の存在する位置として判定する。従って、保存したすべてのテンプレート画像に対してテンプレートマッチング処理を行なわなくて済むため、テンプレートマッチング処理に要する計算時間を最低限に抑えることができる。
【0046】
【発明の効果】
以上のように本発明によれば、監視視野内に複数の動物体が存在したり、対象物体が遮蔽物の陰に一時的に隠れる場合でも、安定に物体を追跡することができ、撮像装置を用いた監視装置の適用範囲を大きく広げることができる。
【図面の簡単な説明】
【図1】 本発明の一実施例の処理動作を説明するためのフローチャート。
【図2】 本発明の物体追跡方法の一実施例を説明する図。
【図3】 本発明が適用された監視装置の一実施例を示すブロック構成図。
【図4】 従来の差分法による物体検出処理の一例を示すフローチャート。
【図5】 従来のテンプレートマッチング法による物体追跡処理の一例を示すフローチャート。
【図6】 従来の差分法による物体検出処理の動作を説明する図。
【図7】 従来のテンプレートマッチング法による物体追跡処理の動作を説明する図。
【図8】 従来のテンプレートマッチング法による物体追跡処理の問題点を説明する図。
【図9】 本発明の処理プロセスの一実施例を表すフローチャート。
【図10】 画像とテンプレートマッチングで検出された対象物体の位置との関係を説明するための図。
【符号の説明】
301:TVカメラ、 302:カメラ雲台、 303:画像入力I/F、 304:雲台制御I/F、 305:画像メモリ、 306:ワークメモリ、 307:CPU、 308:プログラムメモリ、 309は出力I/F、 310:画像出力I/F、 311:警告灯、 312:監視モニタ、 313はデータバス、 601:入力画像、 602:基準背景画像、 603:差分処理された後の差分画像、 604:二値化画像、 605:画像、 606:差分処理部、 607:二値化処理部、 608:画像抽出部、 609:人型の物体、 610:人型の差分画像、 611:人型の二値化画像、 612:外接矩形、 613:テンプレート画像、 701,703,705,707:画像、 701a,703a,705a,707a:テンプレート画像、 702,704,706,708:入力画像、 702a,704a,706a,708a:テンプレートマッチング処理によって検出された物体の位置、 702b,704b,706b,708b:1フレーム前でのテンプレート画像の位置、 702c,704c,706c,708c:探索範囲、 702d,704d,706d,708d:移動矢印、 702e:二値化画像、 801:テンプレート画像801aの位置を示す図、 801a:テンプレート画像、 802:入力画像、 802a:テンプレートマッチング処理によって検出された物体の位置、 802b:別の動物体、 803a:テンプレート画像、 803:テンプレート画像803aの位置を示す図、 804:入力画像、 804a:テンプレートマッチング処理によって検出された物体の位置、 804b:別の動物体、 805a:テンプレート画像、 805:テンプレート画像805aの位置を示す図、 806:入力画像、 806a:テンプレートマッチング処理によって検出された物体の位置、 806b:別の動物体、 807a:テンプレート画像、 807:テンプレート画像807aの位置を示す図、 808:入力画像、 808a:テンプレートマッチング処理によって検出された物体の位置、 808b:別の動物体、 901:テンプレート画像901aの位置を示す図、 901a:テンプレート画像、 902:入力画像、 902a:テンプレートマッチング処理によって検出された物体の位置、 902c:別の動物体、 903:テンプレート画像903aの位置を示す図、 903a:テンプレート画像、 904:入力画像、 904a:テンプレートマッチング処理によって検出された物体の位置、 904b:1つ前の処理時刻のテンプレート画像がマッチングした位置、 904c:動物体、 905:テンプレート画像905aの位置を示す図、 905a:テンプレート画像、 906:入力画像、 906a:テンプレートマッチング処理によって検出された物体の位置、 906b:1つ前の処理時刻のテンプレート画像がマッチングした位置、 906c:別の動物体、 907:テンプレート画像907aの位置を示す図、 907a:テンプレート画像、 908:入力画像、 908a:テンプレートマッチング処理によって検出された物体の位置、 908b:1つ前の処理時刻のテンプレート画像がマッチングした位置、 908c:別の動物体、[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring device using an imaging device, and in particular, automatically detects an object that has entered the imaging field of view from a video signal input from the imaging device, and automatically tracks the movement of the detected object. The present invention relates to an object tracking method and an object tracking apparatus that adjusts an imaging direction in accordance with a detected movement of an object.
[0002]
[Prior art]
2. Description of the Related Art Image monitoring devices that use imaging devices such as cameras have been widely used. However, in such a monitoring system using a video monitoring device, a manned person detects and tracks an intruding object such as a human being or a car entering the visual field of view while watching an image displayed on the monitor. A system in which an intruding object is automatically detected from an image input from an image input means such as a camera instead of monitoring, and its movement is automatically tracked, so that a predetermined notification or alarm treatment can be obtained. It is becoming required.
[0003]
In order to realize such a system, first, an intruding object in the field of view is detected by a difference method or the like. In the difference method, an input image obtained by an imaging device such as a television camera (hereinafter referred to as a TV camera) is compared with a reference background image created in advance, that is, an image in which an object to be detected is not captured. A difference in luminance value is obtained for each pixel, and a region having a large difference value is detected as an object. A partial image of the input image corresponding to the position of the intruding object detected in this way is registered as a template, and a position where the degree of coincidence with the template image is maximized is detected among the sequentially input images. This method is known as template matching and is widely known. For example, it is described in P149 to P153 of a book entitled “Introduction to Computer Image Processing”, which was published by Soken Publishing in 1985 and supervised by Hideyuki Tamura.
Normally, when tracking a target object using template matching, in order to follow a change in the posture of the target object, an image of the position of the target object detected by the matching process is sequentially updated as a template. These processes will be described with reference to FIGS.
[0004]
4 is a flowchart showing an example of an intruding object detection process using a difference method, FIG. 5 is a flowchart showing an example of an intruding object tracking using template matching, and FIG. 6 is an intruding object shown in FIGS. It is a figure for demonstrating the flow from a detection process to the initial template image registration by the example of an image. FIG. 7 is a diagram for explaining the flow of the intruding object tracking process shown in FIG. 5 using an example of an image. A template image to which an image input at a certain time interval is initially given is shown. It is a figure explaining how it is originally performed (how an initial template changes).
[0005]
In FIG. 6, 601 is an input image, 609 is a humanoid object in the
[0006]
4 and 6, first, an
Next, in the object
[0007]
The flow of the object tracking process will be described with reference to FIG. In the object
After the object detection process described with reference to FIGS. 4 and 6 is completed, the object tracking process is performed according to the flowchart shown in FIG.
In FIG. 7, 701a is a template image of an object updated at time t0-1, 701 is a diagram showing the position of the
[0008]
That is, in FIG. 5 and FIG. 7, object tracking processing is started, it is determined that an object is present in the
That is, in the template matching step 103, the maximum matching degree and the position where the maximum matching degree is obtained are obtained.
[0009]
As a method for calculating the degree of coincidence r (Δx, Δy), for example, an index called normalized correlation obtained by the following equation (1) can be used.
[Expression 1]
[0010]
Here, when template matching is performed on the
Note that the method for calculating the degree of coincidence is not limited to the above-described normalized correlation index. For example, a difference for each pixel may be taken between the input image and the template image, and the reciprocal of the accumulated value of the absolute values may be used as the degree of coincidence.
[0011]
Next, in the maximum matching
In the
[0012]
In the above-described embodiment, the template image created for the intruding object detected by the difference method takes in the circumscribed rectangle of the detected cluster of pixels, and cuts out a partial image surrounded by the circumscribed rectangle as the template image.
However, the method for determining the size of the template image to be cut out is not limited to this method. For example, the circumscribed rectangle may be multiplied by a certain constant (for example, 0.8 or 1.1).
In addition, when a CCD (Charge Coupled Device) is used as the image sensor, the size of the object that is considered as the target can be calculated in advance based on the CCD size, the focal length of the lens, and the distance of the object detected from the CCD. The obtained size can also be used as the template image size.
[0013]
Next, the camera pan
FIG. 10 is a diagram for explaining the relationship between the input image and the position of the target object detected by template matching. The camera pan
In the camera pan
In other words, the center position of the target object detected by template matching (x 0 + △ x + dx / 2, y 0 + △ y + dy / 2) ((dx, dy) indicates the size of the template image) and the center position of the input image (160,120) (image size is set to 320 × 240), and the detected target object When the center position of the camera is positioned on the left side of the center position of the input image, the pan motor of the camera pan head is controlled so that the optical axis direction of the camera moves to the left. The pan motor is controlled so that the optical axis direction of the camera moves to the right. If the center position of the detected target object is located above the center position of the input image, the tilt motor of the camera platform is controlled so that the optical axis direction of the camera moves upward. In the case of, the tilting motor of the camera platform is controlled so that the optical axis direction of the camera moves downward.
The pan motor and tilt motor can be controlled simultaneously. For example, when the center position of the detected target object is located on the upper left side with respect to the center position of the input image, the pan motor of the camera platform is moved in the direction of the optical axis of the camera. And the tilt motor are simultaneously controlled so that the direction of the optical axis of the camera moves upward. In this way, it is possible to control the camera platform so as to capture the target object on the optical axis of the camera.
Next, in the alarm /
[0014]
When the alarm /
As described above, while the target object exists, the processing of
[0015]
The intruding object tracking method using template matching described above is a process that detects the portion of the input image that has the highest degree of coincidence with the template image, so if the target object is temporarily hidden behind the object, I can't find it. Also, when there are multiple moving objects (animal bodies) in the field of view and the target object is hidden behind another animal body, updating the template image will cause the object in front of the target object to be The template image is updated, and the target object cannot be tracked.
[0016]
An example in which the target object cannot be tracked will be described with reference to FIG. FIG. 8 is a diagram for explaining the flow of the intruding object tracking process using an example of an image, and is a diagram for explaining the tracking state when a plurality of moving objects are imaged. 801a is the template image of the object updated at time t0-1, 801 is a diagram showing the position of the
[0017]
In FIG. 8, based on the
[0018]
The same thing happens even if there is no other animal body. That is, the target object is hidden behind the shield. In this case, since the ratio of the target object in the template image decreases, tracking ends at that time, or when the template image is updated, the template image is different from the target object. Since it is updated, tracking at the next time becomes difficult.
[0019]
[Problems to be solved by the invention]
The above-described prior art has a drawback that it cannot be accurately tracked when another object crosses in front of the target object.
The object of the present invention is to remove the above-described drawbacks and to reliably detect and track an object even when another object crosses in front of the target object with high reliability. It is to provide a method.
[0020]
[Means for Solving the Problems]
To achieve the above object, an object tracking method according to the present invention detects an object in an imaging field from an input image sequentially acquired by an imaging device, and tracks a detected object in a predetermined number of templates. Multiple template storage step for storing and updating images, template matching between the input image acquired at the current time and each of a predetermined number of template images, and the maximum matching degree and the maximum matching for each of the predetermined number of template images The matching step for obtaining the position where the degree is required, and the position where the maximum degree of matching is obtained for the template image having the largest maximum degree of matching among the maximum degree of matching obtained by the matching step is corrected as the position of the detected object. Position correction step and position correction from the input image acquired at the current time. Cut out partial image of the corrected position by step, by a plurality template storage step, and a template update step of updating one of the predetermined number of the template image, to track the detected object.
[0021]
In the object tracking method of the present invention, a predetermined number of template images are cut out from input images at different times and held.
Further, the template image updated in the template updating step is a template image cut out at the oldest time among the predetermined number of held template images, or a template image having the lowest degree of coincidence.
[0022]
Furthermore, in the object tracking method of the present invention, an initial template registration step of detecting an object from the input image by a difference method and registering a partial image of a predetermined size of the input image including at least a part of the detected object as an initial template image. And tracking is performed using an object detected by the difference method as a tracking target object.
In the position correction step, if all of the acquired maximum matching degrees are less than a predetermined value, an object is detected from the input image at the current time by the difference method, and the detected object is tracked as a tracking target object.
[0023]
The object tracking method of the present invention further includes a camera head control step for generating a control signal for changing the visual field direction of the image pickup device based on the position detected by the position correction step. The detected object is tracked with the viewing direction always directed to the detected position.
An object detected by the difference method includes an initial template registration step of detecting an object from the input image by a difference method, and registering a partial image of a predetermined size of the input image including at least a part of the detected object as the template image. Tracking is performed using as a tracking target object.
[0024]
In addition, the object tracking device of the present invention processes the image signal converted by the image input interface, the image pickup device that picks up the image to be monitored, the image input interface that sequentially converts the video signal acquired by the image pickup device into the image signal. Image processing means, and means for storing a plurality of images registered as template images, wherein the image processing means generates an image signal input from the imaging device at the current time as a template by each of the plurality of template images stored in advance. Performing matching, among the maximum matching degree of each of the plurality of template images obtained by template matching, the position of the partial image acquired for the template image that obtains the largest maximum matching degree is the position of the detected object, A new template is displayed for the partial image of the position of the detected object. By updating a preparative image tracking objects which has entered the imaging field of the imaging device.
[0025]
In addition, the object tracking device of the present invention includes a pan head for changing the visual field direction of the imaging device and a pan head for supplying a control signal for controlling the pan head to change the visual field direction of the imaging device by the image processing means. A control interface, and the image processing means detects the direction of the object based on the detection position of the current time of the object, and adjusts the line-of-sight direction of the imaging device from the obtained direction via the pan head control interface. Track an object that has entered the imaging field of the imaging device.
[0026]
DETAILED DESCRIPTION OF THE INVENTION
The object tracking method of the present invention uses a feature that the matching degree of matching is low when a plurality of objects pass each other, and holds a plurality of frames of template images used for template matching in the course of tracking processing. Matching is performed independently for each of the plurality of template images, and the target object is tracked based on the template image having the highest degree of matching.
That is, the present invention detects an object by a difference method, holds a predetermined number of frames as an image of the detected object as a template, performs template matching on each template, and determines the template and the position where the matching degree is maximum. By detecting, particularly when another object crosses in front of the target object, the tracking can be stably performed.
[0027]
FIG. 3 shows an example of the hardware configuration of the object tracking apparatus common to the embodiments of the present invention. 301 is a TV camera, 303 is an image input I / F, 313 is a data bus, 305 is an image memory, 306 is a work memory, 307 is a CPU, 308 is a program memory, 302 is a camera head, 304 is a head control I / F F and 309 are output I / Fs, 310 is an image output I / F, 311 is a warning lamp, and 312 is a monitor. The
[0028]
In FIG. 3, a
[0029]
All the flowcharts described below will be described using the hardware configuration of the object tracking monitoring apparatus described in FIG.
A first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a flowchart illustrating a processing process according to an embodiment of the present invention. FIG. 1 is obtained by adding a template
[0030]
An embodiment of the present invention will be described with reference to FIG. FIG. 1 is a flowchart showing an embodiment of the processing process of the present invention. FIG. 1 shows a processing process of the conventional template matching method described with reference to FIG. 5, instead of the maximum matching
[0031]
When the processing is started in FIG. 1, an image acquired from the input image at time t0-1 is registered as a template image at time t0-1 by the
Next, in template matching processing step 103, template matching processing is performed on the saved template image at time t0-1 and the input image at time t0. Then, the process proceeds through the branching
[0032]
In branching
[0033]
Then, when returning to the template matching step 103 again, the two stored templates are the template at time t0-2 and the template at time t0-1 (because the time has advanced by “+1”, “ -1 ”is added). Here, in the template matching step 103, template matching processing between the input image at time t0 and the template at time t0-1 is first performed, and the process proceeds to branching
Now, template matching processing with the template at time t0-1 has been performed, but the template at time t0-2 still remains. Accordingly, at this time, the process returns to step 103 to perform template matching processing between the template at time t0-2 and the input image at time t0. In this way, the template matching process is performed on the remaining templates one after another, and when the template matching process is completed for all templates, the processing step is advanced from the branching
[0034]
In the maximum matching
[0035]
In the multiple
At this time, the template image at time t0-1 already registered in the
A predetermined number (for example, “3”) is determined in advance as the number of template images to be stored in the multiple
[0036]
Next, the process proceeds to the camera
Then, the process proceeds to the alarm /
When the alarm /
[0037]
The effect of one embodiment of the present invention will be described with reference to FIG. FIG. 2 is a diagram for explaining the flow of tracking an intruding object by using an example of an image, and illustrates a tracking state when a plurality of moving objects (humanoid objects) are imaged in an imaging field of view. FIG. In order to compare with the object tracking by the object tracking method described in FIG. 8, the situation setting is the same as in FIG. Note that the number of templates to be stored is 2 (“the number of frames for template matching” = 2).
[0038]
901a is the template image of the object updated at time t0-1, 901 is a diagram showing the position of the
[0039]
The tracking situation (a situation where the present invention is not applied) according to FIG. 8, that is, the transition of the detection position of the target object every moment is the matching position obtained by the template image acquired at the immediately preceding time (in the previous frame). Therefore, in FIG. 2, solid line
[0040]
As seen in the
However, as a result of the present invention, since the matching is performed using the
[0041]
As described above, according to the embodiment of FIG. 1, based on the positions detected by the template matching step 103, template images for a predetermined number of frames obtained at different times are matched independently. Even if another object crosses in front of the target object or the target object is temporarily hidden by the shadow of the shield, the region with the highest degree of matching is corrected as the template matching position for multiple template images in the past. Therefore, the position of the template does not deviate from the target object, and the target object can be accurately tracked without tracking another object.
[0042]
Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 9 is a flowchart showing an embodiment of the processing process of the present invention. FIG. 9 is a flowchart showing the process of the first embodiment of the present invention described in FIG. 1, instead of the template matching step 103, the branching
[0043]
In FIG. 9, when processing is started, an image acquired from the input image at time to-1 is registered as a template at time t0-1 by the initial
Next, in the template counter reset
Then, in the maximum
[0044]
In the
[0045]
According to the embodiment of FIG. 9, a plurality of template images stored for an input image are applied in the new order (in the order of the template image close to the time when the input image was acquired), and the template matching process is sequentially performed. When the predetermined value is exceeded, the matching position is determined as the position where the target object exists. Accordingly, since it is not necessary to perform the template matching process for all stored template images, the calculation time required for the template matching process can be minimized.
[0046]
【The invention's effect】
As described above, according to the present invention, even when there are a plurality of moving objects in the monitoring visual field or the target object is temporarily hidden behind the shielding object, the object can be stably tracked, and the imaging apparatus The applicability of the monitoring device using can be greatly expanded.
[Brief description of the drawings]
FIG. 1 is a flowchart for explaining a processing operation according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining an embodiment of the object tracking method of the present invention.
FIG. 3 is a block diagram showing an embodiment of a monitoring device to which the present invention is applied.
FIG. 4 is a flowchart illustrating an example of a conventional object detection process using a difference method.
FIG. 5 is a flowchart showing an example of an object tracking process by a conventional template matching method.
FIG. 6 is a diagram for explaining the operation of object detection processing by a conventional difference method.
FIG. 7 is a diagram for explaining an operation of object tracking processing by a conventional template matching method.
FIG. 8 is a diagram for explaining problems of object tracking processing by a conventional template matching method.
FIG. 9 is a flowchart showing an embodiment of the processing process of the present invention.
FIG. 10 is a diagram for explaining a relationship between an image and a position of a target object detected by template matching.
[Explanation of symbols]
301: TV camera, 302: Camera head, 303: Image input I / F, 304: Head control I / F, 305: Image memory, 306: Work memory, 307: CPU, 308: Program memory, 309 is output I / F, 310: Image output I / F, 311: Warning light, 312: Monitoring monitor, 313: Data bus, 601: Input image, 602: Reference background image, 603: Difference image after differential processing, 604 : Binary image, 605: Image, 606: Difference processing unit, 607: Binarization processing unit, 608: Image extraction unit, 609: Humanoid object, 610: Humanoid difference image, 611: Humanoid Binary image, 612: circumscribed rectangle, 613: template image, 701, 703, 705, 707: image, 701a, 703a, 705a, 707a: template image, 702, 704, 706, 708: input image, 702a, 704a , 706a, 708a: the position of the object detected by the template matching process, 702b, 704b, 706b, 708b: the position of the template image before one frame 702c, 704c, 706c, 708c: search range, 702d, 704d, 706d, 708d: moving arrow, 702e: binarized image, 801: diagram showing the position of the template image 801a, 801a: template image, 802: input image 802a: the position of the object detected by the template matching process, 802b: another moving object, 803a: the template image, 803: a diagram showing the position of the template image 803a, 804: the input image, 804a: detected by the template matching process 804b: Another moving object, 805a: Template image, 805: Diagram showing the position of template image 805a, 806: Input image, 806a: Object position detected by template matching processing, 806b: Another Moving object, 807a: template image, 807: diagram showing the position of template image 807a, 808: input image, 808a: detected by template matching processing 808b: Another moving object, 901: Diagram showing the position of the template image 901a, 901a: Template image, 902: Input image, 902a: Position of the object detected by template matching processing, 902c: Another 903: diagram showing the position of the template image 903a, 903a: template image, 904: input image, 904a: position of the object detected by the template matching process, 904b: template image at the previous processing time Matched position, 904c: moving object, 905: diagram showing the position of template image 905a, 905a: template image, 906: input image, 906a: position of object detected by template matching process, 906b: previous process The position where the template image of the time matches, 906c: another moving object, 907: the position of the template image 907a, 907a Template image, 908: input image, 908a: position of the object detected by the template matching process, 908b: 1 single position the template image is matched in the previous processing time, 908c: another animal body,
Claims (6)
それぞれ異なる時刻の過去の入力画像に基づいて登録された同一物体に対する複数のテンプレート画像を用いて、現在の入力画像とのマッチング処理を行うマッチング処理ステップと、
前記マッチング処理の結果、前記入力画像のうち、一致度が最も高い位置、或いは、一致度が所定の値以上となる位置を現在の物***置とすると共に、当該位置の画像を新たなテンプレート画像として登録するテンプレート画像登録ステップと、
を備えることを特徴とする物体追跡方法。An object tracking method for detecting an object in an image based on an image signal obtained by an imaging unit, registering the detected object as a template image, and tracking the object in the image based on a registered template image,
A matching processing step for performing matching processing with the current input image using a plurality of template images for the same object registered based on past input images at different times,
As a result of the matching process, a position having the highest matching degree among the input images or a position where the matching degree is a predetermined value or more is set as the current object position, and the image at the position is set as a new template image. A template image registration step to be registered;
An object tracking method comprising:
それぞれ異なる時刻の過去の入力画像に基づいて登録された複数のテンプレート画像を用いて、現在の入力画像とのマッチング処理を行うマッチング処理ステップと、
前記マッチング処理の結果、前記入力画像のうち、一致度が最も高い位置、或いは、一致度が所定の値以上となる位置を現在の物***置とすると共に、当該位置の画像を新たなテンプレート画像として登録するテンプレート画像登録ステップと、
を備え、
前記テンプレート画像登録ステップにより新たに登録するテンプレート画像の代わりに、前記複数のテンプレート画像のうち、最も古い時刻に生成されたテンプレート画像を削除する、
ことを特徴とする物体追跡方法。 An object tracking method for detecting an object in an image based on an image signal obtained by an imaging unit, registering the detected object as a template image, and tracking the object in the image based on a registered template image,
A matching processing step for performing matching processing with the current input image using a plurality of template images registered based on past input images at different times,
As a result of the matching process, a position having the highest matching degree among the input images or a position where the matching degree is a predetermined value or more is set as the current object position, and the image at the position is set as a new template image. A template image registration step to be registered;
With
Instead of the template image newly registered by the template image registration step, the template image generated at the oldest time is deleted from the plurality of template images.
An object tracking method characterized by the above.
それぞれ異なる時刻の過去の入力画像に基づいて登録された複数のテンプレート画像を用いて、現在の入力画像とのマッチング処理を行うマッチング処理ステップと、
前記マッチング処理の結果、前記入力画像のうち、一致度が最も高い位置、或いは、一致度が所定の値以上となる位置を現在の物***置とすると共に、当該位置の画像を新たなテンプレート画像として登録するテンプレート画像登録ステップと、
を備え、
前記テンプレート画像登録ステップにより新たに登録するテンプレート画像の代わりに、前記複数のテンプレート画像のうち、前記マッチング処理の結果、一致度が最も低いテンプレート画像を削除する、
ことを特徴とする物体追跡方法。 An object tracking method for detecting an object in an image based on an image signal obtained by an imaging unit, registering the detected object as a template image, and tracking the object in the image based on a registered template image,
A matching processing step for performing matching processing with the current input image using a plurality of template images registered based on past input images at different times,
As a result of the matching process, a position having the highest matching degree among the input images or a position where the matching degree is a predetermined value or more is set as the current object position, and the image at the position is set as a new template image. A template image registration step to be registered;
With
Instead of the template image newly registered by the template image registration step, the template image having the lowest matching degree as a result of the matching process is deleted from the plurality of template images.
An object tracking method characterized by the above.
それぞれ異なる時刻の過去の入力画像に基づいて登録された同一物体に対する複数のテンプレート画像を用いて、現在の入力画像とのマッチング処理を行うマッチング処理手段と、
前記マッチング処理の結果、前記入力画像のうち、一致度が最も高い位置、或いは、一致度が所定の値以上となる位置を現在の物***置とすると共に、当該位置の画像を新たなテンプレート画像として登録するテンプレート画像登録手段と、
を備えることを特徴とする物体追跡装置。An object tracking device that detects an object in an image based on an image signal obtained by an imaging unit, registers the detected object as a template image, and tracks the object in the image based on a registered template image,
Matching processing means for performing matching processing with a current input image using a plurality of template images for the same object registered based on past input images at different times,
As a result of the matching process, a position having the highest matching degree among the input images or a position where the matching degree is a predetermined value or more is set as the current object position, and the image at the position is set as a new template image. A template image registration means to be registered;
An object tracking device comprising:
それぞれ異なる時刻の過去の入力画像に基づいて登録された複数のテンプレート画像を用いて、現在の入力画像とのマッチング処理を行うマッチング処理手段と、
前記マッチング処理の結果、前記入力画像のうち、一致度が最も高い位置、或いは、一致度が所定の値以上となる位置を現在の物***置とすると共に、当該位置の画像を新たなテンプレート画像として登録するテンプレート画像登録手段と、
を備え、
前記テンプレート画像登録手段により新たに登録するテンプレート画像の代わりに、前記複数のテンプレート画像のうち、最も古い時刻に生成されたテンプレート画像を削除する、
ことを特徴とする物体追跡装置。 An object tracking device that detects an object in an image based on an image signal obtained by an imaging unit, registers the detected object as a template image, and tracks the object in the image based on a registered template image,
Matching processing means for performing matching processing with the current input image using a plurality of template images registered based on past input images at different times,
As a result of the matching process, a position having the highest matching degree among the input images or a position where the matching degree is a predetermined value or more is set as the current object position, and the image at the position is set as a new template image. A template image registration means to be registered;
With
Instead of the template image newly registered by the template image registration means, the template image generated at the oldest time among the plurality of template images is deleted.
An object tracking device.
それぞれ異なる時刻の過去の入力画像に基づいて登録された複数のテンプレート画像を用いて、現在の入力画像とのマッチング処理を行うマッチング処理手段と、
前記マッチング処理の結果、前記入力画像のうち、一致度が最も高い位置、或いは、一致度が所定の値以上となる位置を現在の物***置とすると共に、当該位置の画像を新たなテンプレート画像として登録するテンプレート画像登録手段と、
を備え、
前記テンプレート画像登録手段により新たに登録するテンプレート画像の代わりに、前記複数のテンプレート画像のうち、前記マッチング処理の結果、一致度が最も低いテンプレート画像を削除する、
ことを特徴とする物体追跡装置。 An object tracking device that detects an object in an image based on an image signal obtained by an imaging unit, registers the detected object as a template image, and tracks the object in the image based on a registered template image,
Matching processing means for performing matching processing with the current input image using a plurality of template images registered based on past input images at different times,
As a result of the matching process, a position having the highest matching degree among the input images or a position where the matching degree is a predetermined value or more is set as the current object position, and the image at the position is set as a new template image. A template image registration means to be registered;
With
Instead of the template image newly registered by the template image registration means, the template image having the lowest matching degree as a result of the matching process is deleted from the plurality of template images.
An object tracking device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000180185A JP3768073B2 (en) | 1999-06-15 | 2000-06-15 | Object tracking method and object tracking apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16774799 | 1999-06-15 | ||
JP11-167747 | 1999-06-15 | ||
JP2000180185A JP3768073B2 (en) | 1999-06-15 | 2000-06-15 | Object tracking method and object tracking apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001060269A JP2001060269A (en) | 2001-03-06 |
JP3768073B2 true JP3768073B2 (en) | 2006-04-19 |
Family
ID=26491687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000180185A Expired - Lifetime JP3768073B2 (en) | 1999-06-15 | 2000-06-15 | Object tracking method and object tracking apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3768073B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8594371B2 (en) | 2009-04-08 | 2013-11-26 | Nikon Corporation | Subject tracking device and camera |
JP2015228552A (en) * | 2014-05-30 | 2015-12-17 | 株式会社ニコン | Tracking device, camera, tracking method and tracking program |
US9563967B2 (en) | 2012-07-17 | 2017-02-07 | Nikon Corporation | Photographic subject tracking device and camera |
US11074696B2 (en) | 2017-01-05 | 2021-07-27 | Nec Corporation | Image processing device, image processing method, and recording medium storing program |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4699056B2 (en) * | 2005-03-15 | 2011-06-08 | パナソニック株式会社 | Automatic tracking device and automatic tracking method |
WO2007099762A1 (en) | 2006-03-01 | 2007-09-07 | Nikon Corporation | Object-seeking computer program product, object-seeking device, and camera |
JP4961965B2 (en) | 2006-11-15 | 2012-06-27 | 株式会社ニコン | Subject tracking program, subject tracking device, and camera |
JP5067418B2 (en) | 2007-03-16 | 2012-11-07 | 株式会社ニコン | Subject tracking program, subject tracking device, and camera |
JP5322416B2 (en) * | 2007-09-12 | 2013-10-23 | 株式会社メガチップス | Block matching circuit and data update method |
JP5219795B2 (en) | 2008-12-26 | 2013-06-26 | キヤノン株式会社 | Subject tracking device, control method thereof, imaging device, display device, and program |
JP4798259B2 (en) | 2009-06-08 | 2011-10-19 | 株式会社ニコン | Subject tracking device and camera |
JP5233926B2 (en) * | 2009-09-10 | 2013-07-10 | 大日本印刷株式会社 | Fisheye monitoring system |
US8509482B2 (en) | 2009-12-21 | 2013-08-13 | Canon Kabushiki Kaisha | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor |
JP5167236B2 (en) * | 2009-12-21 | 2013-03-21 | キヤノン株式会社 | Subject tracking device and control method thereof |
DE102011079187A1 (en) * | 2011-07-14 | 2013-01-17 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for step detection of a pedestrian for a portable terminal |
JP6099973B2 (en) * | 2012-12-27 | 2017-03-22 | キヤノン株式会社 | Subject area tracking device, control method thereof, and program |
JP6521626B2 (en) | 2014-12-25 | 2019-05-29 | キヤノン株式会社 | Object tracking device, method and program |
JP6509027B2 (en) | 2015-05-12 | 2019-05-08 | キヤノン株式会社 | Object tracking device, optical apparatus, imaging device, control method of object tracking device, program |
JP6555940B2 (en) | 2015-06-12 | 2019-08-07 | キヤノン株式会社 | Subject tracking device, imaging device, and method for controlling subject tracking device |
JP6800628B2 (en) | 2016-06-22 | 2020-12-16 | キヤノン株式会社 | Tracking device, tracking method, and program |
JP6439757B2 (en) | 2016-07-08 | 2018-12-19 | オムロン株式会社 | Image processing apparatus and image processing method |
JP6390671B2 (en) | 2016-07-29 | 2018-09-19 | オムロン株式会社 | Image processing apparatus and image processing method |
CN110637268A (en) * | 2018-01-23 | 2019-12-31 | 深圳市大疆创新科技有限公司 | Target detection method and device and movable platform |
CN108229583B (en) * | 2018-02-02 | 2022-04-29 | 北京邮电大学 | Method and device for fast template matching based on main direction difference characteristics |
CN111028291B (en) * | 2019-12-10 | 2024-02-02 | 东莞市盛雄激光先进装备股份有限公司 | Element alignment method and device |
WO2023042337A1 (en) * | 2021-09-16 | 2023-03-23 | 株式会社日立国際電気 | Image processing system |
-
2000
- 2000-06-15 JP JP2000180185A patent/JP3768073B2/en not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8594371B2 (en) | 2009-04-08 | 2013-11-26 | Nikon Corporation | Subject tracking device and camera |
US9563967B2 (en) | 2012-07-17 | 2017-02-07 | Nikon Corporation | Photographic subject tracking device and camera |
JP2015228552A (en) * | 2014-05-30 | 2015-12-17 | 株式会社ニコン | Tracking device, camera, tracking method and tracking program |
US11074696B2 (en) | 2017-01-05 | 2021-07-27 | Nec Corporation | Image processing device, image processing method, and recording medium storing program |
US11074695B2 (en) | 2017-01-05 | 2021-07-27 | Nec Corporation | Image processing device, image processing method, and recording medium storing program |
Also Published As
Publication number | Publication date |
---|---|
JP2001060269A (en) | 2001-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3768073B2 (en) | Object tracking method and object tracking apparatus | |
US6687386B1 (en) | Object tracking method and object tracking apparatus | |
JP3279479B2 (en) | Video monitoring method and device | |
US20050052533A1 (en) | Object tracking method and object tracking apparatus | |
US7596240B2 (en) | Object tracking method and object tracking apparatus | |
CN108447091B (en) | Target positioning method and device, electronic equipment and storage medium | |
US7113616B2 (en) | Object tracking method and apparatus using template matching | |
EP3641298B1 (en) | Method and device for capturing target object and video monitoring device | |
US6226388B1 (en) | Method and apparatus for object tracking for automatic controls in video devices | |
WO2007088856A1 (en) | Automatic tracking device and automatic tracking method | |
JP3560326B2 (en) | Object tracking method and object tracking device | |
WO2018086050A1 (en) | Depth map generation method and unmanned aerial vehicle based on this method | |
CN113744348A (en) | Parameter calibration method and device and radar vision fusion detection equipment | |
JP2001076156A (en) | Device for monitoring image | |
US20170316278A1 (en) | Object Detecting Method and Object Detecting Apparatus | |
JP4578864B2 (en) | Automatic tracking device and automatic tracking method | |
CN109685062A (en) | A kind of object detection method, device, equipment and storage medium | |
US11790628B2 (en) | Apparatus and method for generating map | |
JP2010124028A (en) | Monitoring apparatus | |
JP3857558B2 (en) | Object tracking method and apparatus | |
CN108881846B (en) | Information fusion method and device and computer readable storage medium | |
US11557122B2 (en) | Control apparatus, control system, control method, and storage medium | |
JP2004213648A (en) | Method and device for tracking object | |
JP3319383B2 (en) | Roadway recognition device | |
KR20210103865A (en) | Vanishing point extraction device and method of extracting vanishing point |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041227 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050912 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3768073 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120210 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120210 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130210 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130210 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |