JP3560326B2 - Object tracking method and object tracking device - Google Patents
Object tracking method and object tracking device Download PDFInfo
- Publication number
- JP3560326B2 JP3560326B2 JP2000180186A JP2000180186A JP3560326B2 JP 3560326 B2 JP3560326 B2 JP 3560326B2 JP 2000180186 A JP2000180186 A JP 2000180186A JP 2000180186 A JP2000180186 A JP 2000180186A JP 3560326 B2 JP3560326 B2 JP 3560326B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- detected
- matching
- partial image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、撮像装置を用いた監視装置に係り、特に撮像視野内に侵入した物体を、撮像装置から入力する映像信号の中から自動的に検出し、検出した物体の動きを自動的に追跡するようにした物体追跡方法と、検出した物体の動きに応じて視野方向(撮像中心方向)を調節するようにした物体追跡装置に関する。
【0002】
【従来の技術】
カメラ等の撮像装置を用いた映像監視装置は、従来から広く用いられている。しかし、このような映像監視装置を用いた監視システムにおいて、その監視視野内に入り込んでくる人間や自動車などの侵入物体の検出及び追跡を、監視員がモニタに表示される画像を見ながら行なう有人監視ではなく、カメラ等の画像入力手段から入力される画像から侵入物体を自動的に検出し、その動きを自動的に追跡するようにし、所定の報知や警報処置が得られるようにしたシステムが要求されるようになってきている。
【0003】
このようなシステムを実現するためには、まず、差分法などによって視野内の侵入物体を検出する。差分法とは、テレビジョンカメラ(以下、TVカメラと称する)等の撮像装置により得られた入力画像と、予め作成した基準背景画像、即ち、検出すべき物体の写っていない画像とを比較し、画素毎に輝度値の差分を求め、その差分値の大きい領域を物体として検出するものである。このようにして検出された侵入物体の位置に相当する入力画像の部分画像をテンプレートとして登録し、逐次入力される画像の中でテンプレート画像と一致度が最大となる位置を検出する。この方法は、テンプレートマッチングと呼ばれ広く知られ、例えば、1985年に総研出版より出版された田村秀行氏監修による『コンピュータ画像処理入門』と題する書籍のP149〜P153で解説されている。
通常、テンプレートマッチングを用いて対象物体を追跡する場合、対象物体の姿勢の変化に追従するため、マッチング処理によって検出された対象物体の位置の画像を新たにテンプレートとして逐次更新する。これらの処理を図4〜図7によって説明する。
【0004】
図4は差分法を用いた侵入物体検出処理の一例を表すフローチャート、図5はテンプレートマッチングを用いた侵入物体追跡の一例を表すフローチャート、図6は、図4と図5で表される侵入物体検出処理から初期のテンプレート画像登録までの流れを画像の例によって説明するための図である。また図7は、図5で表される侵入物体追跡処理の流れを画像の例を用いて説明するための図であり、一定の時間間隔で入力された画像が初期に与えられたテンプレート画像をもとにどのように実行されていくか(初期のテンプレートがどのように変化していくか)を説明する図である。
【0005】
図6で、601は入力画像、609は入力画像601中の人型の物体、602は基準背景画像、606は差分処理部、603は差分処理部606において差分処理された後の差分画像、610は人型の物体609に相当する差分画像603中の人型の差分画像、607は二値化処理部、604は二値化処理部607によって二値化処理された差分画像603の二値化画像、611は人型の差分画像610に相当する二値化画像604中の人型物体(人型の二値化画像)、612は人型の二値化画像611の外接矩形、608は画像抽出部、605は入力画像601から外接矩形612の囲む領域をテンプレート画像として切出すことを説明する画像、613は入力画像601から切出した初期テンプレート画像である。
【0006】
図4と図6において、まず、TVカメラから例えば320×240画素の入力画像601を入力する(画像入力ステップ401)。次に、差分処理部606において、入力画像601と、予め作成した基準背景画像602との画素毎の差分を計算し、差分画像603を取得する。この時、入力画像601中の人型の物体609は差分画像603中に、人型の差分画像610として現れる(差分処理ステップ402)。そして、二値化処理部607において、差分画像603の各画素に対しての差分値が所定のしきい値以下の画素の値を“0”、しきい値以上の画素の値を“255”(1画素を8ビットとして)に置換えて、二値化画像604を得る。この時、入力画像601に撮像された人型の物体609は、二値化画像604中の人型物体611として検出され、人型物体611の外接矩形612が生成される(二値化処理ステップ403)。
次に物体存在判定ステップ404では、画像抽出部608において、二値化画像604中で画素値が“255”となった画素のかたまりを検出し、画素値が“255”となる画素のかたまりが存在する場合は物体検出処理を終了し、存在したかたまりの外接矩形に相当する入力画像に部分画像を初期テンプレート画像613として後述の画像メモリ305(図3)に登録する。また、画素値が“255”となる画素のかたまりが存在しない場合は画像入力ステップ401へ分岐する。
【0007】
物体追跡処理の流れを図5に従って説明する。図5の物体検出処理ステップ101と初期テンプレート登録ステップ102とにおいて、図4と図6で説明したように物体検出処理と初期テンプレート画像の登録がなされた後の処理について図7を用いて説明する。
図4と図6で説明した物体検出処理が終了した後は、図5に示すフローチャートに従って物体追跡処理がなされる。
【0008】
図7で、701aは時刻t0−1において更新された物体のテンプレート画像、701は時刻t0−1での入力画像におけるテンプレート画像701aの位置を示す図、702は時刻t0での入力画像、702aは時刻t0においてテンプレートマッチング処理によって検出された物体の位置(テンプレート画像)、702bは1フレーム前(t0−1)でのテンプレート画像の位置、702cはテンプレートマッチング処理(例えば、図5のフローチャート)で探索する探索範囲、702dは時刻t0−1からt0まで人型物体が移動した方向と軌跡を表す移動矢印(例えば、テンプレート画像701aの中心位置からテンプレート画像702aの中心位置へ向かう矢印)、702eはテンプレートマッチング処理で人型物体を検出した位置、703aは時刻t0で更新された物体のテンプレート画像、703は時刻t0での入力画像におけるテンプレート画像703aの位置を示す図、704は時刻t0+1での入力画像、704aは時刻t0+1においてテンプレートマッチング処理によって検出された物体の位置(テンプレート画像)、704bは1フレーム前(t0)でのテンプレート画像の位置、704cはテンプレートマッチング処理で探索する探索範囲、704dは時刻t0−1からt0+1まで人型物体が移動した方向と軌跡を表す移動矢印(例えば、テンプレート画像701aの中心位置からテンプレート画像703aの中心位置を経由して704aの中心位置へ向かう矢印)、705aは時刻t0+1で更新された物体のテンプレート画像、705は時刻t0+1での入力画像におけるテンプレート画像705aの位置を示す図、706は時刻t0+2での入力画像、706aは時刻t0+2においてテンプレートマッチング処理によって検出された物体の位置(テンプレート画像)、706bは1フレーム前(t0+1)でのテンプレート画像の位置、706cはテンプレートマッチング処理で探索する探索範囲、706dは時刻t0−1からt0+2まで人型物体が移動した方向と軌跡を表す移動矢印(例えば、テンプレート画像701aの中心位置からテンプレート画像703aの中心位置、テンプレート画像705aの中心位置を経由して706aの中心位置へ向かう矢印)、707aは時刻t0+2で更新された物体のテンプレート画像、707は時刻t0+2での入力画像におけるテンプレート画像707aの位置を示す図、708は時刻t0+3での入力画像、708aは時刻t0+3においてテンプレートマッチング処理によって検出された物体の位置(テンプレート画像)、708bは1フレーム前(t0+2)でのテンプレート画像の位置、708cはテンプレートマッチング処理で探索する探索範囲、708dは時刻t0−1からt0+3まで人型物体が移動した方向と軌跡を表す移動矢印(例えば、テンプレート画像701aの中心位置からテンプレート画像703aの中心位置、テンプレート画像705aの中心位置、テンプレート画像707aの中心位置を経由して708aの中心位置へ向かう矢印)である。
【0009】
即ち、図5と図7において、物体追跡処理が開始され、二値化画像604中に物体が存在すると判定され、物体検出処理ステップ101を終了する(図4)。そして、二値化画像604中の人型の二値化画像のかたまりの外接矩形に相当する入力画像601の部分画像を、初期テンプレート画像613(図7のテンプレート画像701a)として画像メモリ305(図3)に登録する(初期テンプレート登録ステップ102)。続いて、逐次入力される入力画像中の探索範囲702c内でテンプレート画像701aと一致度r(Δx,Δy)が最大となる部分画像702aを検出する(テンプレートマッチッングステップ103)。
即ち、テンプレートマッチッングステップ103では、最大一致度と、その最大一致度が求められた位置とを得る。
【0010】
この一致度r(Δx,Δy)を算出する方法として、例えば以下の式(1)で得られる正規化相関と呼ばれる指標を用いることができる。
【数1】
【0011】
ここで、入力画像702に対してテンプレートマッチングを行なった場合、f(x,y)は入力画像702、ft(x,y)はテンプレート画像701a、(x0,y0)は登録したテンプレート画像701aの左上の座標(画像は左上を原点としている)、Dtはテンプレートの探索範囲702cを表し、探索範囲702c内にテンプレート画像701aとまったく同じ画素値を持つ画像が存在した場合には、一致度r(Δx,Δy)は“1.0”となる。テンプレートマッチングステップ103では、この式(1)で表される指標を(Δx,Δy)∈Dで表される探索範囲702cに対して計算し、その中で一致度r(Δx,Δy)が最大となる位置(外接矩形)702aを検出する。この探索範囲702cは、対象物体の見かけの移動量によって決定される。例えば、速度40km/hで移動する物体を、50m離れたTVカメラ(素子サイズ6.5mm×4.8mmのCCD、焦点距離25mmのレンズ、入力画像サイズ320×240画素(pix)。処理間隔0.1frame/sec)で監視する場合、水平方向の物体の見かけの移動量は27.4pix/frame、垂直方向は27.8pix/frameとなり、Dを−30pix<Δx<30pix,−30pix<Δy<30pix程度に設定すればよい。
尚、一致度の算出方法は上述の正規化相関の指標に限られるものではない。例えば、入力画像とテンプレート画像間で各画素毎の差をとって、その絶対値の累積値の逆数を一致度としてもよい。
【0012】
次に、最大一致度判定ステップ104では、テンプレートマッチングステップ103において、テンプレート画像701aと一致度が最大となる入力画像702の位置に、物体が移動した(外接矩形702bから外接矩形702aに移動した)と判断したあと、次に、最大一致度が所定値以下に低下した場合(例えば“0.5”未満)、入力画像中に対象物体がいなくなったものとして、物体検出処理ステップ101へ分岐し、最大一致度が所定値以上であった場合(例えば“0.5”以上)は、テンプレート更新ステップ106へ分岐する。
テンプレート更新ステップ106では、入力画像中の探索範囲702c内でテンプレート画像701aと一致度r(△x,△y)が最大となる部分画像702aを使ってテンプレート画像701aをテンプレート画像703aに更新する。ここで、テンプレート画像を更新する理由は、対象物体の姿勢が変化(例えば、対象物体の人が手を上げたり、腰を曲げたり、足を上げたりして画像が変化)し、テンプレート画像を更新しないと一致度が低下してしまい、追跡結果の信頼性が低下するためである。従って、検出された物体の位置の部分画像702eを新たなテンプレート画像703aとして更新し、対象物体が姿勢を変えた場合でも安定な追跡を行なうようにしている。
【0013】
上述の実施例では、差分法によって検出した侵入物体について作成したテンプレート画像は、検出した画素のかたまりの外接矩形を取り込み、この外接矩形に囲まれた部分画像をテンプレート画像として切出した。
しかし、切出すテンプレート画像のサイズの決定方法はこの方法に限らない。例えば、外接矩形に一定の定数(例えば、0.8、または1.1等)を乗算してもよい。
更に、撮像素子としてCCD(Charge Coupled Device)を使用した場合には、CCDのサイズ、レンズの焦点距離、CCDから検出する物体の距離によって、対象とみなす物体の大きさを予め算出できるので、算出した大きさをテンプレート画像サイズとすることもできる。
【0014】
次に、カメラ雲台制御ステップ107に移る。
図11は入力画像とテンプレートマッチングで検出された対象物体の位置との関係を説明するための図である。図11に言及して、カメラ雲台制御ステップ107について説明する。
カメラ雲台制御ステップ107では、テンプレートマッチングによって検出された対象物体の位置と入力画像中央との変位、即ち、カメラの光軸(カメラの視野方向)に対して対象物体が存在する方向に基づいてカメラ雲台302のパン・チルトモータを制御する。
つまり、テンプレートマッチングによって検出された対象物体の中心位置(x0+△x+dx/2,y0+△y+dy/2)((dx,dy)はテンプレート画像の大きさを表す)と入力画像の中心位置(160,120)(画像サイズを320×240とする)とを比較し、検出された対象物体の中心位置が入力画像の中心位置に対して左側に位置する場合は、カメラ雲台のパンモータをカメラの光軸方向が左に移動するように制御し、右側に位置する場合はカメラ雲台のパンモータをカメラの光軸方向が右に移動するように制御する。また、検出された対象物体の中心位置が入力画像の中心位置に対して上側に位置する場合は、カメラ雲台のチルトモータをカメラの光軸方向が上に移動するように制御し、下側に位置する場合は、カメラ雲台のチルトモータをカメラの光軸方向が下に移動するように制御する。
尚、パンモータ、チルトモータは同時に制御可能で、例えば、検出された対象物体の中心位置が入力画像の中心位置に対して左上側に位置する場合は、カメラ雲台のパンモータをカメラの光軸方向が左に移動するように制御し、かつ、チルトモータをカメラの光軸方向が上に移動するように同時に制御する。このようにすることで、カメラの光軸上に対する対象物体を捉えるようにカメラ雲台を制御することが可能となる。
次に、警報・モニタ表示ステップ108では、例えば対象物体が所定の警報を出す範囲に存在する場合に警報を鳴らしたり、監視モニタに対象物体の画像を表示したりする。
【0015】
警報・モニタ表示ステップ108が終わると、画像入力ステップ401に戻り、新しい入力画像を得て、この現時刻での入力画像に対して再びテンプレートマッチッング処理を行う。即ち、時刻t0での入力画像702により更新したテンプレート画像703aと、時刻t0+1での入力画像704とによりテンプレートマッチング処理を行う。この時、探索範囲704cは時刻t0で更新されたテンプレート画像704bを中心とした位置に移動しており、新しい探索範囲で検索が行われる。そして、最大の一致度を持った物体が検出され、その検出された物体の位置704aを元に新しいテンプレート画像705aが生成される。
以上のように、対象物体が存在する間は、ステップ401,ステップ103,ステップ104,ステップ106,ステップ107,ステップ108の処理を繰返し、新しいテンプレート画像706a、708a,‥‥‥へと次々にテンプレート画像を更新しながら、対象物体を追跡し続ける。
【0016】
前述のテンプレートマッチングを用いた侵入物体の追跡法では、対象物体の向きが変化(例えば、対象物体の人が右を向いたり、後ろを向いたり)すると、対象物体とマッチング位置とのズレが大きくなり、正確かつ安定したな追跡ができないという問題がある。
即ち、テンプレートマッチングは、テンプレート内の高いコントラストの模様部分が一致するようにマッチングされるという性質がある。例えば、対象物体が車輌である場合において、はじめは正面を向いていて、車輌のほとんどすべてがマッチング対象となっていた場合(図8の入力画像802)と、その後進行方向(向き)が変わり横向きになってしまった車輌の前面部分だけがマッチング対象となり、車輌全体がマッチング対象となっていた時に比べて、マッチング中心が車両の中心から車輌の前部に移動するため、検出位置ズレが生ずる。
【0017】
これを図8を用いて説明する。図8は、侵入物体追跡処理の流れを画像の例を用いて説明するために、撮像視野内での曲線を描く車道内を通過する車輌を侵入物体とした場合の図である。801a,803a,805a,807aはそれぞれ時刻t1−1,時刻t1,時刻t1+1,時刻t1+2のテンプレート画像、801,803,805,807はそれぞれテンプレート画像801a,803a,805a,807aの更新時の位置を示す画像、802,804,806,808はそれぞれ時刻t1,時刻t1+1,時刻t1+2,時刻t1+3の入力画像、802a,804a,806a,809aは時刻t1,時刻t1+1,時刻t1+2,時刻t1+3においてそれぞれテンプレートマッチング処理によって検出された物体の位置、802b,804b,806b,808bはそれぞれ1フレーム前でのテンプレート画像(時刻t1−1,時刻t1,時刻t1+1,時刻t1+2でのそれぞれのテンプレート画像)の位置である。
図8において、時刻t1−1で登録されたテンプレート画像801aは、移動車輌のフロント部がほぼ正面を向いている画像である。時刻t1では、このテンプレート画像801aを用いてテンプレートマッチングを行ない、対象物体の移動した位置を検出すると共に、テンプレート画像801aをテンプレート画像803aに更新する。続いて、時刻t1+1ではテンプレート画像805aに更新され、更に時刻t1+2ではテンプレート画像807aに更新され、この処理を時刻t1+3まで行なうと、追跡開始時刻t1で車輌のライトなどがあるフロント部分をテンプレートマッチングしていたものが、時刻t1+3では、車輌の左側にずれてマッチングされてしまう。
【0018】
この現象は、テンプレートマッチングが対象とする入力画像とテンプレート画像中のコントラストが高い画像部分の位置のズレを小さくする様にマッチングが行われるように働くためで、この例では車輌のライト部分がそれにあたる。そのため、図8のように、対象物体が向かって右から左に向きを変えるような場合には左側にずれ、向って左側から右側に向きを変えるような場合には右側にずれる。
更に、時刻t1では、テンプレート画像801a中には車輌の画像だけが入っていたが、対象物体が向きを変えてテンプレート位置がずれたことによって、テンプレート画像807a中に対象物体以外の背景部分の画像が入り込んでしまう。このテンプレート画像807aのような対象物体以外の画像を多く含んだテンプレート画像を用いて追跡を続けた場合には、対象物体とマッチングできずに、テンプレートに入り込んだ背景部分とマッチングしてしまう。従って、テンプレートマッチングを用いた物体追跡法は、対象物体の向きが変化するような場合には、対象物体の模様が見かけ上移動し、それに引張られてテンプレートの位置がずれるため、対象としている物体を追跡している保証ができず、安定な追跡を行うことができない。
【0019】
【発明が解決しようとする課題】
前述の従来技術には、対象物体の向きの変化が大きい場合には安定な追跡を行うことができない欠点があった。
本発明の目的は、上記のような欠点を除去し、対象物体の向きの変化が大きい場合にも、正確に物体を検出および追跡することができる、信頼性の高く安定に動作する物体追跡方法及び装置を提供することにある。
【0020】
【課題を解決するための手段】
上記の目的を達成するために、本発明の物体追跡方法は、撮像装置によって逐次取得する入力画像から撮像視野内の物体を検出し、検出した物体を追跡する物体追跡方法において、現時刻に取得した入力画像と、テンプレート画像とのテンプレートマッチングを行い、現時刻に取得した入力画像の中からテンプレート画像と一致度が最大となる部分画像の位置を検出するマッチングステップと、マッチングステップによって検出した位置の部分画像を包含し、かつ検出した位置の部分画像より所定サイズ大きい拡張部分画像の領域についてエッジ検出を行い、エッジ検出によって検出した部分画像の位置を物体の現時刻の検出位置に補正するマッチング位置補正ステップと、マッチング位置補正ステップによって補正された位置の部分画像を新たなテンプレートとして更新するテンプレート更新ステップとを設け、撮像視野内の物体を追跡するものである。
また、本発明の物体追跡方法において、位置補正ステップは、現時刻の入力画像の拡張部分画像の領域内で、エッジの密度が最大になる部分画像の位置を検出したものである。
【0021】
更に本発明の物体追跡方法において、位置補正ステップは、拡張部分画像の領域内に含まれるエッジ成分を抽出し、x軸及びy軸上にそれぞれ、y軸方向及びx軸方向のエッジ成分量を累積表示し、x軸及びy軸上の累積エッジ成分量から最大エッジ密度範囲を検出したものである。
また更に本発明の物体追跡方法において、テンプレート画像のサイズは、物体の撮像視野内での見かけの移動量に基づき決定することができる。
【0022】
本発明の物体追跡方法はまた、入力画像から差分法によって物体を検出し、検出した物体の少なくとも一部を含む入力画像の所定サイズの部分画像をテンプレート画像として登録する初期テンプレート登録ステップを備え、記差分法によって検出した物体を追跡対象物体として、追跡を行なう。
更にまた、別の方法として、位置補正ステップにおいて、取得した最大一致度が所定の値未満であれば、差分法によって、現時刻の入力画像から物体を検出し、検出した物体を追跡対象物体として追跡する。
【0023】
また更に、本発明の物体追跡方法においては、位置補正ステップによって検出された位置に基づいて、撮像装置の視野方向を変えるための制御信号を発生するカメラ雲台制御ステップを有し、その制御信号によって撮像装置の視野方向を、出された位置に常に向け、検出した物体を追跡するものである。
【0024】
本発明の物体追跡装置は、監視対象範囲を逐次撮像する撮像装置と、撮像装置が取得した映像信号を逐次画像信号に変換する画像入力インターフェースと、画像入力インターフェースによって変換された画像信号を処理する画像処理手段と、登録されたテンプレート画像を格納する記憶装置とを備え、記画像処理手段は、撮像装置から現時刻に入力した画像信号を記憶装置にあらかじめ登録されたテンプレート画像によってテンプレートマッチングを行ない、現時刻に入力した画像信号の中から、テンプレート画像と最大の一致度を持つ部分画像の位置を検出し、検出した位置の部分画像を包含する、現時刻に入力した画像信号内の部分画像より所定サイズ大きい拡張部分画像の領域について、エッジの密度が最大となる部分画像の位置を検出し、エッジの密度が最大となる部分画像の位置を、物体の現時刻における検出位置とし、現時刻の検出位置の部分画像をを新たなテンプレートマッチング位置と更新することによって撮像装置の撮像視野内に侵入した物体を追跡するものである。
【0025】
また本発明の物体追跡装置は、撮像装置の視野方向を変えるための雲台と、画像処理手段によって撮像装置の視野方向を変えるために雲台を制御するための制御信号を供給する雲台制御インターフェースとを更に備え、画像処理手段が、物体の現時刻における検出位置に基づいて、物体の方向を検出し、得られた方向から雲台制御インターフェースを介して、撮像装置の視野方向を調節し、撮像装置の撮像視野内に侵入した物体を追跡するものである。
【0026】
【発明の実施の形態】
本発明の物体追跡方法では、従来からの対象物体の模様が見かけ上移動し、それに引張られてテンプレートの位置がずれる問題を解決するため、対象物体は背景部分に比べてエッジ成分が多いという特徴を利用して、追跡処理の過程で更新するテンプレート画像の位置を入力画像のエッジ画像の密度に基いて補正する。即ち本発明は、差分法によって物体を検出し、検出物体の画像をテンプレートとして保持し、検出位置の周辺でエッジ画像の密度が最大となる位置に検出位置を補正しながら対象物体を追跡することで、特に対象物体の向きの変化が起こった場合でも安定に追跡を行うことができる。
【0027】
図3に、本発明の各実施例に共通する物体追跡装置のハードウエア構成の一例を示す。301はTVカメラ、303は画像入力I/F、313はデータバス、305は画像メモリ、306はワークメモリ、307はCPU、308はプログラムメモリ、302はカメラ雲台、304は雲台制御I/F、309は出力I/F、310は画像出力I/F、311は警告灯、312は監視モニタである。TVカメラ301は画像入力I/F303に接続され、カメラ雲台302は雲台制御I/F304に接続され、警告灯311は出力I/F309に接続され、監視モニタ312は画像出力I/F310に接続されている。画像入力I/F303、雲台制御I/F304、画像メモリ305、ワークメモリ306、CPU307、プログラムメモリ308、出力I/F309及び画像出力I/F310は、データバス313に接続されている。また、TVカメラ301はカメラ雲台302に取付けられている。
【0028】
図3において、TVカメラ301は監視対象(視野範囲)を撮像する。撮像された映像信号は、画像入力I/F303からデータバス313を介して画像メモリ305に蓄積される。CPU307はプログラムメモリ308に保存されているプログラムに従って、ワークメモリ306内で画像メモリ305に蓄積された画像の解析を行なう。CPU307は、処理結果に応じてデータバス313から雲台制御I/F304を介してカメラ雲台302を制御してTVカメラ301の撮像視野を変えたり、出力I/F309を介して警告灯311を点灯し、画像出力I/F310を介して監視モニタ312に、例えば侵入物体検出結果画像を表示する。尚、画像メモリ305は、登録されたテンプレート画像を保存しておくためのテンプレート画像保持装置をも備えている。
【0029】
以降に説明するフローチャートは、すべて上記図3で説明した物体追跡監視装置のハードウエア構成を使って説明する。
本発明の第1の実施例を図1によって説明する。図1は本発明の一実施例の処理プロセスを説明するフローチャートである。図1は図5で示したテンプレートマッチング法の処理プロセスにテンプレート位置補正ステップ105を追加したものである。ステップ101、102、401、103、104、106、107、108については、図4と図5によって説明したものと同じであるので説明を省略する。
【0030】
さて、最大一致度判定ステップ104において、最大一致度が所定値以上であった場合、テンプレート位置補正ステップ105へ進む。テンプレート位置補正ステップ105での処理の内容を、図8において時刻t1+1に得られた入力画像804と図9を用いて説明する。図9は侵入物体追跡処理の流れを画像の例を用いて説明するために、撮像視野内での曲線を描く車道内を通過する車輌を侵入物体とした場合の図で、図8の入力画像804について処理を行った場合の一例ある。901は入力画像で図8の入力画像804と同じ画像が入力したもの、902は入力画像901から微分フィルタ(図示しない)を使って抽出したエッジ画像、903aは探索領域、903bは水平方向(x軸)への投影像、903cは垂直方向(y軸)への投影像、903は説明のために領域903aで切出したエッジ画像に投影像903bと903cとを重ねて表示した図、804aは図8で既に示したテンプレートマッチングで得られた検出位置を表す範囲、904はx軸への投影像903bを表すグラフ、904aはテンプレートマッチングによって得られた検出位置を表す範囲、904bは累積投影値が最大となる範囲、905はy軸への投影像903cを表す図、905aはテンプレートマッチングによって得られた検出位置を表す範囲、905bは累積投影位置が最大となる範囲である。
【0031】
図9において、テンプレート位置補正ステップ105では、入力画像901に対してエッジ抽出処理を施し、エッジ画像902を得る。このエッジ抽出処理は、例えば、入力画像901に対してSobel,Roberts等の微分フィルタを掛け、得られた画像を二値化する(エッジ部分を“255”、それ以外を“0”とする)ことによって行われる。この例については、例えば、1985年に総研出版より出版された田村秀行氏監修による『コンピュータ画像処理入門』と題する書籍のP118〜125に解説されている。
【0032】
次にエッジ画像902をテンプレートマッチングステップ103によって得られた検出位置804aの範囲(図903の実線枠部分:左上の座標(x0,y0)、大きさ(dx,dy))から上下左右を所定画素d分(dは対象物体の向きの変化に伴うマッチング位置のズレの許容値、例えばd= 5 pix)拡げた探索領域903a(図903の点線枠部分:左上の座標(x0−d,y0−d)、大きさ(dx+2d,dy+2d))で切出し、x軸方向に対するエッジ画像の投影像903bと、y軸方向に対するエッジ画像の投影像904cを求める。従って、探索領域903aは、上記検出位置804aの範囲を包含する拡張部分画像である。
【0033】
グラフ904において、横軸は水平(x軸)方向、縦軸はx軸方向の各画素(pix)毎のエッジ画像の投影像903bの値hx(x)であり、グラフ905において、横軸は垂直(y軸)方向、縦軸はy軸方向の各画素(pix)毎のエッジ画像の投影像903cの値hy(y)である。
x軸方向の投影像903bのx=x0における投影値x(x0)は、探索領域903aで切出したエッジ画像に対し、(x,y) を、x=x0において、y0−d<y<y0+dy+d と変化させ、画素値が“255”となる画素数を計数して得る。また、y軸方向の投影像903cのy=y0における投影値y(y0)は、探索領域903aで切出したエッジ画像に対し、(x,y) を、y=y0において、x0−d<x<x0+dx+d と変化させ画素値が“255”となる画素数を計数して得る。次に、図904はx軸への投影像903bを表すグラフであり、範囲904aはテンプレートマッチングによって得られた検出位置を表す。また、範囲904bはその範囲の累積投影値が最大となる範囲、すなわちエッジの密度が最大となる範囲(x1<x<x1+dx)を示しており、この位置は、次の式(2)によって得られる。
【0034】
【数2】
【0035】
この式(2) は、x1 をx0-d<x1<x0+d と変化させた場合に、x1<x<x1+dx において hx(x) の累積値が最も大きくなる x1 を求めることを表している。また同様にy軸に対する投影像に対してもエッジの累積値が最大となる範囲( y1<y<y1+dy )を得る。従って、テンプレートマッチングステップ103によって検出された対象物体の位置(左上の座標( x0 ,y0 ))は、テンプレート位置補正ステップ 105 によって補正された位置(左上の座標( x1 ,y1 ))に修正される。
なお、本実施例では、式 (2) で表される通り、 x1 を x0 − d < x1 < x0 + d と変化させた場合に、 x1 < x < x1 + dx において hx(x) の累積値が最も大きくなる x1 を求めているが、 x0 − d < x1 < x0 + d と変化させる過程で式 (2) の中カッコ内の値が所定のしきい値を超えた場合に式 (2) の計算を中止し、その時の x1 をテンプレートの補正位置としても良い。この場合、所定のしきい値とは、例えば累積値の最大値 255 ×( dy + 2d )(y軸に対しては 255 ×( dx + 2d ))の 30 %の値を設定し、求められる位置はエッジの最大累積値の 30% 以上のエッジを含む部分となり、式 (2) の計算量を減らすことができる。
【0036】
上記本発明の一実施例の効果について、図10を用いて説明する。図10は、侵入物体追跡処理の流れを画像の例を用いて説明するために、撮像視野内での曲線を描く車道内を通過する車輌を侵入物体とした場合の図で、図8と同じ条件設定であり、図8で示したマッチング処理の後に位置ズレ補正処理を追加したものである。1001a,1003a,1005a,1007aはそれぞれ時刻t1−1,時刻t1,時刻t1+1,時刻t1+2のテンプレート画像、1001,1003,1005,1007はそれぞれテンプレート画像1001a,1003a,1005a,1007aの更新時の位置を示す画像、1002,1004,1006,1008はそれぞれ時刻t1,時刻t1+1,時刻t1+2,時刻t1+3の入力画像、1002a,1004a,1006a,1009aは時刻t1,時刻t1+1,時刻t1+2,時刻t1+3においてそれぞれテンプレートマッチング処理によって検出された物体の位置、1002b,1004b,1006b,1008bはそれぞれ1フレーム前でのテンプレート画像(時刻t1−1,時刻t1,時刻t1+1,時刻t1+2でのそれぞれのテンプレート画像)の位置である。
【0037】
図8で示された方法では、テンプレートマッチングが対象とする入力画像と、テンプレート画像の中のコントラストが高い画像部分(図8の例では、車両のフロント部分)の位置のズレを小さくするようにテンプレートマッチングが行われるため、対象物体の向きの変化が起る場面では、テンプレート画像中の車両フロント部分の位置は変らないが、追跡処理を繰返す度に対象物体以外の画像(背景画像)の画素が含まれる割合が大きくなってしまう。
【0038】
それに対し、本発明の実施例を適用した図10の場合には、テンプレートマッチング処理後にテンプレート画像の位置をエッジが多く含まれる画素部分、即ち、対象物体の画素部分に逐次位置補正するため、図8の方法によるテンプレート画像に比べて、対象物体以外の画素分が含まれる割合を小さくすることができる。従って、図8と図10の同時刻のテンプレート位置、例えば、809aと1009aとを比較すると、位置809aの場合には、テンプレート画像中に含まれる背景部分の画素の割合が半分以上となっているが、位置1009aの場合には、テンプレート画像のほとんどの部分が対象物体の画素となっている。
【0039】
上述のテンプレート位置補正ステップ105の次に、テンプレート更新ステップ106の処理がなされ、位置補正された対象物体の位置を新しいテンプレート画像として更新する。以降、図5と同様な処理がなされる。
【0040】
上記のように本発明の実施例によれば、テンプレートマッチングステップ103によって検出された位置を対象物体に存在するエッジを検出し、そのエッジの密度が最大となる位置に検出位置を補正するため、対象物体が向きを変えたとしてもテンプレートの位置が対象物体からずれることがなく、正確に対象物体を追跡することができる。
【0041】
本発明の第2の実施例を図2を用いて説明する。図2は本発明の処理プロセスの一実施例を表すフローチャートである。図2は図1で表される第1の実施例を表すフローチャートの最大一致度判定ステップ104の代わりに分岐ステップ201と最大一致度判定ステップ104´を置き、テンプレート更新ステップ106の代わりに複数テンプレート保存ステップ202を置いて構成したものである。
【0042】
図2において処理が開始されると、既に説明した物体検出処理101から初期テンプレート登録ステップ102によって、時刻t0−1における入力画像から取得した画像を時刻t0−1のテンプレート画像として登録した後、画像入力ステップ401に進む。画像入力ステップ401で、時刻t0における入力画像を取得する。
次に、テンプレートマッチング処理ステップ103では、保存された時刻t0−1のテンプレート画像と、時刻t0における入力画像とテンプレートマッチング処理がなされる。そして、分岐ステップ201(後述する)を通り、最大一致度判定ステップ104´に進む。
最大一致度判定ステップ104´では、最大一致度が所定値以上であった場合にはテンプレート位置補正ステップ105に進み、最大一致度が所定値未満であった場合には物体検出処理ステップ101に戻る。
【0043】
テンプレート位置補正ステップ105では、最大一致度判定ステップ104´において抽出した位置を時刻t0での検出位置として補正する。そして、次の複数テンプレート保存ステップ202では、位置補正した時刻t0の検出位置をもとに時刻t0のテンプレートが新たに保存される。この時、既に初期テンプレート登録ステップ102において登録された時刻t0−1のテンプレ−ト画像はそのまま保存される。次に、カメラ雲台制御ステップ107に進み、カメラの視野(光軸方向)を時刻t0における検出位置に基づき対象物体の方向に向ける。
次に、警報・モニタ表示ステップ108に処理を移し、例えば警報を鳴らしたり、例えば監視モニタに対象物体の画像を表示したりする。
警報・モニタ表示ステップ108が終了すると、画像入力ステップ401に戻り、新しい入力画像を取得し、再びテンプレートマッチッング処理を行う。
【0044】
再びテンプレートマッチッングステップ103に戻った時、保存されているテンプレートは時刻t0−2のテンプレートと時刻t0−1のテンプレートの2つである(時刻は“1”進んでいるため“−1”が加えられる)。ここで、テンプレートマッチッングステップ103では時刻t0の入力画像と、先ず時刻t0−1のテンプレートとのテンプレートマッチング処理がなされ、分岐ステップ201に進む。
分岐ステップ201では、保存されているすべてのテンプレート画像すべてについてテンプレートマッチング処理がなされているかどうかを調べる。今、時刻t0−1のテンプレートとのテンプレートマッチング処理がなされたが、まだ時刻t0−2のテンプレートが残っている。従って、この時はステップ103に戻り、時刻t0−2のテンプレートと時刻t0の入力画像とのテンプレートマッチング処理を行う。このようにして、次々と残っているテンプレートとテンプレートマッチング処理を行い、すべてのテンプレートについてテンプレートマッチング処理が終了すれば、分岐ステップ201から処理ステップを最大一致度判定ステップ104´に進む。
【0045】
最大一致度判定ステップ104´では、テンプレートマッチング処理によって、複数のテンプレート画像それぞれについてに得られた最大一致度の中から一番大きな値を選ぶ。そして、その一番大きな値の最大一致度が所定値(例えば、0.5)以上であった場合にはテンプレート位置補正ステップ105に進み、その一番大きな値の最大一致度が所定値未満であった場合には、入力画像中に対象物体が存在しなくなったものとして、物体検出処理ステップ101に戻る。
【0046】
テンプレート位置補正ステップ105では、最大一致度判定ステップ104´において一番値の大きい最大一値度を得たテンプレート画像について入力画像のエッジ処理を行い、得られたエッジ画像から対象物体の位置を補正する。
そして、次の複数テンプレート保存ステップ202では、位置補正した時刻t0の検出位置をもとに時刻t0のテンプレートが新たに保存される。この時、既に初期テンプレート登録ステップ102において登録された時刻t0−1のテンプレ−ト画像はそのまま保存される。
この複数テンプレート保存ステップ202で保存するテンプレート画像の数は、あらかじめ所定数(例えば、“3”)を定めておき、所定数を超える時は、一番古い時刻に取得したテンプレートを削除する。次にカメラ雲台制御ステップ107に進み、カメラの視野方向(光軸方向)を制御する。
そして次に、警報・モニタ表示ステップ108に進み、例えば警報を鳴らしたり、例えば監視モニタに対象物体の画像を表示したりする。
警報・モニタ表示ステップ108が終わると、画像入力ステップ401に戻り、新しい入力画像を得、再びテンプレートマッチッング処理を続ける。
上述の場合には、一番古い時刻に取得したテンプレートを削除したが、テンプレートマッチングステップ103において算出した中で、最小の一致度が得られたテンプレートを削除することでもよい。
【0047】
この第2の実施例によれば、テンプレートマッチングステップ103によって検出された位置をもとに、対象物体に存在するエッジを検出し、そのエッジの密度が最大となる位置に検出位置を補正し、異なる時刻に得られた所定フレーム数分のテンプレート画像を独立にマッチングさせるため、対象物体が向きを変えたり、対象物体の前を別の物体が横切ったとしても、過去の複数のテンプレート画像を対象として、最大の一致度を持つ領域をテンプレートマッチング位置として補正するため、テンプレートの位置が対象物体からずれることがなく、また別の物体を追跡することなく、対象物体を正確に追跡することができる。
【0048】
【発明の効果】
以上のように本発明によれば、対象物体の向きが変化する物体を追跡安定に物体を追跡することができ、撮像装置を用いた監視装置の適用範囲を大きく広げることができる。
【図面の簡単な説明】
【図1】本発明の一実施例の処理動作を説明するためのフローチャート。
【図2】本発明の一実施例の処理動作を説明するためのフローチャート。
【図3】本発明が適用された監視装置の一実施例を示すブロック構成図。
【図4】従来の差分法による物体検出処理の一例を示すフローチャート。
【図5】従来のテンプレートマッチング法による物体追跡処理の一例を示すフローチャート。
【図6】従来の差分法による物体検出処理の動作を説明する図。
【図7】従来のテンプレートマッチング法による物体追跡処理の動作を説明する図。
【図8】従来のテンプレートマッチング法による物体追跡処理の問題点を説明する図。
【図9】本発明の物体追跡方法の一実施例を説明する図。
【図10】本発明の物体追跡方法の一実施例を説明する図。
【図11】画像とテンプレートマッチングで検出された対象物体の位置との関係を説明するための図。
【符号の説明】
301:TVカメラ、 302:カメラ雲台、 303:画像入力I/F、 304:雲台制御I/F、 305:画像メモリ、 306:ワークメモリ、 307:CPU、 308:プログラムメモリ、 309は出力I/F、 310:画像出力I/F、 311:警告灯、 312:監視モニタ、 313はデータバス、 601:入力画像、 602:基準背景画像、 603:差分処理された後の差分画像、 604:二値化画像、 605:画像、 606:差分処理部、 607:二値化処理部、 608:画像抽出部、 609:人型の物体、 610:人型の差分画像、 611:人型の二値化画像、 612:外接矩形、 613:初期テンプレート画像、 701,703,705,707:画像、 701a,703a,705a,707a:テンプレート画像、 702,704,706,708:入力画像、 702a,704a,706a,708a:テンプレートマッチング処理によって検出された物体の位置、 702b,704b,706b,708b:1フレーム前でのテンプレート画像の位置、 702c,704c,706c,708c:探索範囲、 702d,704d,706d,708d:移動矢印、 702e:二値化画像、 801,803,805,807:画像、 801a,803a,805a,807a:テンプレート画像、 802,804,806,808:入力画像、 802a,804a,806a,809a:テンプレートマッチング処理によって検出された物体の位置、 802b,804b,806b,808b:1フレーム前でのテンプレート画像の位置、 901:入力画像、 902:エッジ画像、 903a:領域、 903b,903c:投影像、 903:説明のために領域903aで切出したエッジ画像に投影像903bと903cとを重ねて表示した図、 904:x軸への投影像903bを表す図、 904a:テンプレートマッチングによって得られた検出位置を表す範囲、 904b:累積投影位置が最大となる範囲、 905:y軸への投影像903cを表す図、 905a:テンプレートマッチングによって得られた検出位置を表す範囲、 905b:累積投影位置が最大となる範囲、 1001,1003,1005,1007:画像、 1001a,1003a,1005a,1007a:テンプレート画像、 1002,1004,1006,1008:入力画像、 1002a,1004a,1006a,1009a:テンプレートマッチング処理によって検出された物体の位置、 1002b,1004b,1006b,1008b:1フレーム前でのテンプレート画像の位置。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a monitoring device using an imaging device, and in particular, automatically detects an object that has entered a field of view from a video signal input from the imaging device, and automatically tracks the movement of the detected object. The present invention relates to an object tracking method and an object tracking device that adjusts a visual field direction (imaging center direction) according to a detected movement of an object.
[0002]
[Prior art]
2. Description of the Related Art A video monitoring device using an imaging device such as a camera has been widely used. However, in a surveillance system using such a video surveillance device, a manned person who monitors and detects an intruding object such as a human or a car entering the surveillance field of view while watching the image displayed on the monitor. Instead of monitoring, a system that automatically detects intruding objects from images input from image input means such as cameras and automatically tracks their movements so that predetermined notifications and alarm actions can be obtained It is becoming required.
[0003]
In order to realize such a system, first, an intruding object in a visual field is detected by a difference method or the like. The difference method compares an input image obtained by an imaging device such as a television camera (hereinafter, referred to as a TV camera) with a reference background image created in advance, that is, an image without an object to be detected. , A difference in luminance value is obtained for each pixel, and an area having a large difference value is detected as an object. A partial image of the input image corresponding to the position of the intruding object detected in this way is registered as a template, and a position having the highest degree of coincidence with the template image is detected among sequentially input images. This method is widely known as template matching, and is described in, for example, pages 149 to P153 of a book entitled "Introduction to Computer Image Processing" supervised by Mr. Hideyuki Tamura published by Soken Shuppan in 1985.
Normally, when tracking a target object using template matching, an image of the position of the target object detected by the matching process is sequentially updated as a new template in order to follow a change in the posture of the target object. These processes will be described with reference to FIGS.
[0004]
4 is a flowchart illustrating an example of an intruding object detection process using the difference method, FIG. 5 is a flowchart illustrating an example of intruding object tracking using the template matching, and FIG. 6 is an intruding object illustrated in FIGS. 4 and 5. FIG. 9 is a diagram for explaining a flow from detection processing to initial template image registration by using an example of an image. FIG. 7 is a diagram for explaining the flow of the intruding object tracking process shown in FIG. 5 using an example of an image. An image input at a fixed time interval is a template image initially given. FIG. 9 is a diagram for explaining how the process is executed based on the original condition (how the initial template changes).
[0005]
In FIG. 6, 601 is an input image, 609 is a human-shaped object in the
[0006]
4 and 6, first, an
Next, in the object presence determination step 404, the
[0007]
The flow of the object tracking process will be described with reference to FIG. The processing after the object detection processing and the registration of the initial template image as described in FIGS. 4 and 6 in the object
After the object detection processing described with reference to FIGS. 4 and 6, the object tracking processing is performed according to the flowchart shown in FIG.
[0008]
In FIG. 7,
[0009]
That is, in FIG. 5 and FIG. 7, the object tracking processing is started, it is determined that an object exists in the binary image 604, and the object
That is, in the template matching step 103, the maximum matching degree and the position where the maximum matching degree is obtained are obtained.
[0010]
As a method of calculating the degree of coincidence r (Δx, Δy), for example, an index called a normalized correlation obtained by the following equation (1) can be used.
(Equation 1)
[0011]
Here, when the template matching is performed on the
The method of calculating the degree of coincidence is not limited to the above-described index of the normalized correlation. For example, the difference between each pixel between the input image and the template image may be calculated, and the reciprocal of the accumulated value of the absolute values may be used as the degree of coincidence.
[0012]
Next, in the maximum matching
In the
[0013]
In the above-described embodiment, the template image created for the intruding object detected by the difference method captures a circumscribed rectangle of a cluster of detected pixels, and cuts out a partial image surrounded by the circumscribed rectangle as a template image.
However, the method for determining the size of the template image to be cut out is not limited to this method. For example, the circumscribed rectangle may be multiplied by a certain constant (for example, 0.8 or 1.1).
Further, when a CCD (Charge Coupled Device) is used as an image pickup device, the size of an object regarded as a target can be calculated in advance based on the size of the CCD, the focal length of the lens, and the distance of the object detected from the CCD. The determined size can be used as the template image size.
[0014]
Next, the process proceeds to a camera
FIG. 11 is a diagram for explaining the relationship between the input image and the position of the target object detected by template matching. The camera
In the camera
That is, the center position (x0+ △ x + dx / 2, y0+ △ y + dy / 2) ((dx, dy) represents the size of the template image) and the center position (160, 120) of the input image (the image size is set to 320 × 240) and detected. When the center position of the target object is located on the left side with respect to the center position of the input image, the pan motor of the camera platform is controlled so that the optical axis direction of the camera moves to the left. The pan motors are controlled so that the optical axis direction of the camera moves to the right. When the center position of the detected target object is located above the center position of the input image, the tilt motor of the camera head is controlled so that the optical axis direction of the camera moves upward, and In this case, the tilt motor of the camera platform is controlled so that the optical axis direction of the camera moves downward.
Note that the pan motor and the tilt motor can be controlled simultaneously. For example, when the center position of the detected target object is located on the upper left side with respect to the center position of the input image, the pan motor of the camera platform is moved in the optical axis direction of the camera. Is controlled to move to the left, and the tilt motor is simultaneously controlled so that the optical axis direction of the camera moves upward. This makes it possible to control the camera platform so as to capture the target object on the optical axis of the camera.
Next, in the alarm /
[0015]
When the alarm /
As described above, while the target object exists, the processing of
[0016]
In the tracking method of an intruding object using the template matching described above, when the direction of the target object changes (for example, when the target object person turns right or backward), the deviation between the target object and the matching position becomes large. Therefore, there is a problem that accurate and stable tracking cannot be performed.
That is, the template matching has a property that matching is performed such that pattern parts having high contrast in the template are matched. For example, in the case where the target object is a vehicle, the vehicle is initially facing the front, and almost all of the vehicles are to be matched (
[0017]
This will be described with reference to FIG. FIG. 8 is a diagram illustrating a case where a vehicle passing through a road that draws a curve in an imaging field of view is set as an intruding object in order to explain the flow of the intruding object tracking process using an example of an image.
In FIG. 8, a
[0018]
This phenomenon is because the matching works so as to reduce the displacement between the input image targeted by the template matching and the high-contrast image portion in the template image.In this example, the light portion of the vehicle is Hit. Therefore, as shown in FIG. 8, when the target object turns from right to left, it shifts to the left, and when it turns from left to right, it shifts to the right.
Further, at the time t1, only the image of the vehicle is included in the
[0019]
[Problems to be solved by the invention]
The above-described conventional technique has a disadvantage that stable tracking cannot be performed when the direction of the target object changes greatly.
SUMMARY OF THE INVENTION It is an object of the present invention to eliminate the above-mentioned drawbacks and to reliably and stably operate an object tracking method capable of accurately detecting and tracking an object even when the direction of the target object is largely changed. And a device.
[0020]
[Means for Solving the Problems]
In order to achieve the above object, an object tracking method of the present invention detects an object in an imaging field of view from an input image sequentially acquired by an imaging device, and acquires the object at a current time in an object tracking method of tracking the detected object. A matching step of performing template matching between the input image obtained and the template image, and detecting a position of a partial image having a maximum matching degree with the template image from the input images acquired at the current time, and a position detected by the matching step. Matching for detecting the edge of the extended partial image area that includes the partial image and is larger than the partial image at the detected position by a predetermined size, and corrects the position of the partial image detected by the edge detection to the detected position of the object at the current time. A partial image of the position corrected by the position correction step and the matching position correction step A template updating step of updating the Tana template provided, is intended to track an object in the imaging field.
In the object tracking method according to the present invention, the position correction step detects a position of a partial image having a maximum edge density in an extended partial image region of the input image at the current time.
[0021]
Further, in the object tracking method of the present invention, the position correction step extracts an edge component included in the area of the extended partial image, and calculates the edge component amounts in the y-axis direction and the x-axis direction on the x-axis and the y-axis, respectively. The cumulative display is performed, and the maximum edge density range is detected from the cumulative edge component amounts on the x-axis and the y-axis.
Further, in the object tracking method of the present invention, the size of the template image can be determined based on the apparent movement amount of the object within the field of view of the image.
[0022]
The object tracking method of the present invention also includes an initial template registration step of detecting an object from the input image by a difference method, and registering a partial image of a predetermined size of the input image including at least a part of the detected object as a template image, Tracking is performed using the object detected by the difference method as a tracking target object.
Further, as another method, in the position correction step, if the acquired maximum matching degree is less than a predetermined value, an object is detected from the input image at the current time by a difference method, and the detected object is set as a tracking target object. Chase.
[0023]
Still further, the object tracking method of the present invention includes a camera pan head control step of generating a control signal for changing a view direction of the imaging device based on the position detected by the position correction step, and the control signal In this case, the direction of the field of view of the image pickup device is always directed to the output position, and the detected object is tracked.
[0024]
The object tracking device of the present invention processes an image capturing device that sequentially captures an area to be monitored, an image input interface that sequentially converts a video signal acquired by the image capturing device into an image signal, and an image signal converted by the image input interface. An image processing means, and a storage device for storing the registered template image, wherein the image processing means performs template matching of the image signal input from the imaging device at the current time by using a template image registered in the storage device in advance. Detecting the position of the partial image having the highest degree of coincidence with the template image from the image signal input at the current time, and including the partial image at the detected position in the image signal input at the current time. In the area of the extended partial image that is larger than the predetermined size, the position of the partial image having the maximum edge density is detected. Then, the position of the partial image where the edge density is maximum is set as the detection position of the object at the current time, and the partial image at the detection position of the current time is updated with the new template matching position, so that the position is within the field of view of the imaging device. This is to track the object that has entered the.
[0025]
The object tracking device of the present invention further comprises a pan head for changing the viewing direction of the imaging device and a pan head control for supplying a control signal for controlling the pan head for changing the viewing direction of the imaging device by the image processing means. Further comprising an interface, wherein the image processing means detects the direction of the object based on the detected position of the object at the current time, and adjusts the direction of the field of view of the imaging device via the camera platform control interface from the obtained direction. And for tracking an object that has entered the imaging field of view of the imaging device.
[0026]
BEST MODE FOR CARRYING OUT THE INVENTION
In the object tracking method of the present invention, in order to solve the problem that the pattern of the conventional target object apparently moves and is pulled by the pattern, and the position of the template is shifted, the target object has more edge components than the background portion. , The position of the template image to be updated in the tracking process is corrected based on the density of the edge image of the input image. That is, the present invention detects an object by the difference method, holds an image of the detected object as a template, and tracks the target object while correcting the detection position to a position where the density of the edge image is maximum around the detection position. Therefore, tracking can be performed stably even when the direction of the target object changes.
[0027]
FIG. 3 shows an example of a hardware configuration of an object tracking device common to the embodiments of the present invention. 301 is a TV camera, 303 is an image input I / F, 313 is a data bus, 305 is an image memory, 306 is a work memory, 307 is a CPU, 308 is a program memory, 302 is a camera platform, and 304 is a platform controller I / F. F and 309 are output I / Fs, 310 is an image output I / F, 311 is a warning light, and 312 is a monitoring monitor. The
[0028]
In FIG. 3, a
[0029]
The flowcharts described below are all described using the hardware configuration of the object tracking and monitoring device described in FIG.
A first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a flowchart illustrating a processing process according to an embodiment of the present invention. FIG. 1 is obtained by adding a template
[0030]
If the maximum matching degree is equal to or more than the predetermined value in the maximum matching
[0031]
9, in a template
[0032]
Next, the
[0033]
In the
x = x of the projected
[0034]
(Equation 2)
[0035]
Equation (2) indicates that when x1 is changed to x0-d <x1 <x0 + d, x1 that maximizes the accumulated value of hx (x) is obtained when x1 <x <x1 + dx. ing. Similarly, a range (y1 <y <y1 + dy) in which the cumulative value of the edge is maximum for the projection image on the y-axis is obtained. Therefore, the position of the target object (the upper left coordinates (x0, y0)) detected by the template matching step 103 is corrected to the position (the upper left coordinates (x1, y1)) corrected by the template
In the present embodiment, the expression (2) As represented by x1 To x0 − d < x1 < x0 + d If you change x1 < x < x1 + dx At hx (x) Has the largest cumulative value of x1 But x0 − d < x1 < x0 + d And in the process of changing (2) Expression if the value in braces exceeds a predetermined threshold (2) Stop the calculation of x1 May be used as the correction position of the template. In this case, the predetermined threshold is, for example, the maximum value of the accumulated value. 255 × ( dy + 2d ) (For the y-axis 255 × ( dx + 2d ))of 30 % Value and the required position is the maximum cumulative value of the edge. 30% It becomes a part including the above edge, and the expression (2) Can be reduced.
[0036]
The effect of the embodiment of the present invention will be described with reference to FIG. FIG. 10 is a diagram illustrating a case where a vehicle passing through a road that draws a curve in an imaging field of view is set as an intruding object in order to explain the flow of the intruding object tracking process using an example of an image. This is a condition setting in which a position shift correction process is added after the matching process shown in FIG. 1001a, 1003a, 1005a, and 1007a indicate template images at time t1-1, time t1,
[0037]
In the method shown in FIG. 8, the displacement between the position of the input image targeted for template matching and the position of the image portion having high contrast in the template image (the front portion of the vehicle in the example of FIG. 8) is reduced. Since the template matching is performed, the position of the front part of the vehicle in the template image does not change in a scene in which the orientation of the target object changes, but each time the tracking process is repeated, the pixels of the image (background image) other than the target object are repeated. Becomes large.
[0038]
On the other hand, in the case of FIG. 10 to which the embodiment of the present invention is applied, since the position of the template image is sequentially corrected to the pixel portion including many edges, that is, the pixel portion of the target object after the template matching processing, As compared with the template image according to the method 8, the ratio of pixels other than the target object can be reduced. Therefore, when comparing the template positions at the same time in FIGS. 8 and 10, for example, 809a and 1009a, in the case of the
[0039]
Subsequent to the above-described template
[0040]
As described above, according to the embodiment of the present invention, the position detected by the template matching step 103 is used to detect an edge present in the target object, and to correct the detected position to a position where the density of the edge is maximum. Even if the target object changes direction, the position of the template does not deviate from the target object, and the target object can be accurately tracked.
[0041]
A second embodiment of the present invention will be described with reference to FIG. FIG. 2 is a flowchart showing one embodiment of the processing process of the present invention. FIG. 2 shows a flowchart representing the first embodiment shown in FIG. 1 in which a branching
[0042]
When the process is started in FIG. 2, the image acquired from the input image at time t0-1 is registered as the template image at time t0-1 by the initial
Next, in the template matching processing step 103, template matching processing is performed between the stored template image at time t0-1 and the input image at time t0. Then, the process proceeds to a maximum matching degree determination step 104 'through a branch step 201 (described later).
In the maximum matching
[0043]
In the template
Next, the processing is moved to the alarm /
When the alarm /
[0044]
When the process returns to the template matching step 103 again, the stored templates are the template at the time t0-2 and the template at the time t0-1 (the time is advanced by "1" and thus "-1"). Is added). Here, in the template matching step 103, a template matching process between the input image at time t0 and the template at time t0-1 is performed first, and the process proceeds to the branching
In the branching
[0045]
In the maximum matching score determination step 104 ', the largest value is selected from the maximum matching scores obtained for each of the plurality of template images by the template matching process. If the maximum matching degree of the largest value is equal to or more than a predetermined value (for example, 0.5), the process proceeds to the template
[0046]
In the template
Then, in the next multiple
A predetermined number (for example, “3”) is determined in advance as the number of template images to be stored in the multiple
Then, the process proceeds to an alarm /
When the alarm /
In the above case, the template acquired at the oldest time is deleted. However, the template having the lowest matching degree obtained in the template matching step 103 may be deleted.
[0047]
According to the second embodiment, based on the position detected in the template matching step 103, an edge existing in the target object is detected, and the detected position is corrected to a position where the density of the edge becomes maximum, In order to independently match a predetermined number of template images obtained at different times, even if the target object changes direction or another object crosses in front of the target object, multiple past template image As the region having the highest degree of coincidence is corrected as the template matching position, the target object can be accurately tracked without shifting the position of the template from the target object and without tracking another object. .
[0048]
【The invention's effect】
As described above, according to the present invention, an object in which the direction of a target object changes can be tracked stably, and the applicable range of a monitoring device using an imaging device can be greatly expanded.
[Brief description of the drawings]
FIG. 1 is a flowchart illustrating a processing operation according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a processing operation according to an embodiment of the present invention.
FIG. 3 is a block diagram showing an embodiment of a monitoring device to which the present invention is applied.
FIG. 4 is a flowchart illustrating an example of an object detection process using a conventional difference method.
FIG. 5 is a flowchart showing an example of an object tracking process according to a conventional template matching method.
FIG. 6 is a view for explaining an operation of an object detection process by a conventional difference method.
FIG. 7 is a diagram for explaining the operation of an object tracking process using a conventional template matching method.
FIG. 8 is a view for explaining a problem of an object tracking process using a conventional template matching method.
FIG. 9 is a view for explaining an embodiment of the object tracking method of the present invention.
FIG. 10 is a view for explaining an embodiment of the object tracking method of the present invention.
FIG. 11 is a view for explaining a relationship between an image and a position of a target object detected by template matching.
[Explanation of symbols]
301: TV camera, 302: camera head, 303: image input I / F, 304: head control I / F, 305: image memory, 306: work memory, 307: CPU, 308: program memory, 309: output I / F, 310: image output I / F, 311: warning light, 312: monitoring monitor, 313: data bus, 601: input image, 602: reference background image, 603: difference image after differential processing, 604 : Binarized image, 605: image, 606: difference processing unit, 607: binarization processing unit, 608: image extraction unit, 609: human-shaped object, 610: human-shaped difference image, 611: human-shaped 612: circumscribed rectangle, 613: initial template image, 701, 703, 705, 707: image, 701a, 703a, 705a, 07a: template image, 702, 704, 706, 708: input image, 702a, 704a, 706a, 708a: position of an object detected by template matching processing, 702b, 704b, 706b, 708b: template image one frame before 702c, 704c, 706c, 708c: search range, 702d, 704d, 706d, 708d: moving arrow, 702e: binarized image, 801, 803, 805, 807: image, 801a, 803a, 805a, 807a: 802, 804, 806, 808: input image, 802a, 804a, 806a, 809a: position of object detected by template matching processing, 802b, 804b, 806b, 808b: one frame 901: input image, 902: edge image, 903a: area, 903b, 903c: projection image, 903: projection image 903b and 903c are superimposed on the edge image cut out in area 903a for explanation. 904: a diagram representing a projected
Claims (9)
現時刻に取得した前記入力画像と、テンプレート画像とのテンプレートマッチングを行い、前記現時刻に取得した入力画像の中から前記テンプレート画像と一致度が最大となる部分画像の位置を検出するマッチングステップと、
前記マッチングステップによって検出した位置の部分画像を包含し、かつ前記検出した位置の部分画像より所定サイズ大きい拡張部分画像の領域についてエッジの密度が最大になる部分画像の位置を検出し、該検出した部分画像の位置を物体の現時刻の検出位置に補正するマッチング位置補正ステップと、
該マッチング位置補正ステップによって補正された位置の部分画像を新たなテンプレートとして更新するテンプレート更新ステップとを設け、
前記撮像視野内の物体を追跡することを特徴とする物体追跡方法。In an object tracking method for detecting an object in an imaging field of view from an input image sequentially obtained by an imaging device and tracking the detected object,
A matching step of performing template matching between the input image acquired at the current time and a template image, and detecting a position of a partial image having a maximum matching degree with the template image from the input image acquired at the current time; ,
Including the partial image at the position detected by the matching step, and detecting the position of the partial image at which the edge density is maximum for the region of the extended partial image that is larger than the partial image at the detected position by a predetermined size. A matching position correction step of correcting the position of the partial image to a detection position of the current time of the object,
Providing a template update step of updating the partial image at the position corrected by the matching position correction step as a new template,
An object tracking method, comprising tracking an object in the field of view.
現時刻に取得した前記入力画像と、テンプレート画像とのテンプレートマッチングを行い、前記現時刻に取得した入力画像の中から前記テンプレート画像と一致度が最大となる部分画像の位置を検出するマッチングステップと、
前記マッチングステップによって検出した位置の部分画像を包含し、かつ前記検出した位置の部分画像より所定サイズ大きい拡張部分画像の領域についてエッジの密度が所定のしきい値以上になる部分画像の位置を検出し、該検出した部分画像の位置を物体の現時刻の検出位置に補正するマッチング位置補正ステップと、
該マッチング位置補正ステップによって補正された位置の部分画像を新たなテンプレートとして更新するテンプレート更新ステップとを設け、
前記撮像視野内の物体を追跡することを特徴とする物体追跡方法。In an object tracking method for detecting an object in an imaging field of view from an input image sequentially obtained by an imaging device and tracking the detected object,
A matching step of performing template matching between the input image acquired at the current time and a template image, and detecting a position of a partial image having a maximum matching degree with the template image from the input image acquired at the current time; ,
Detecting the position of the partial image that includes the partial image at the position detected by the matching step and has an edge density equal to or greater than a predetermined threshold value in an area of the extended partial image that is larger than the partial image at the detected position by a predetermined size. A matching position correction step of correcting the position of the detected partial image to a detection position of the object at the current time;
Providing a template update step of updating the partial image at the position corrected by the matching position correction step as a new template,
An object tracking method, comprising tracking an object in the field of view.
前記入力画像から差分法によって物体を検出し、該検出した物体の少なくとも一部を含む前記入力画像の所定サイズの部分画像を前記テンプレート画像として登録する初期テンプレート登録ステップを備え、
前記差分法によって検出した物体を追跡対象物体として、追跡を行なうことを特徴とする物体追跡方法。In the object tracking method according to any one of claims 1 to 4,
An initial template registration step of detecting an object from the input image by a difference method and registering a partial image of a predetermined size of the input image including at least a part of the detected object as the template image,
An object tracking method, wherein tracking is performed using an object detected by the difference method as a tracking target object.
前記位置補正ステップにおいて、取得した最大一致度が所定の値未満であれば、前記差分法によって、現時刻の入力画像から物体を検出し、該検出した物体を追跡対象物体として追跡することを特徴とする物体追跡方法。The object tracking method according to claim 5,
In the position correction step, if the acquired maximum matching degree is less than a predetermined value, an object is detected from the input image at the current time by the difference method, and the detected object is tracked as a tracking target object. Object tracking method.
前記位置補正ステップによって検出された位置に基づいて、前記撮像装置の視野方向を変えるための制御信号を発生するカメラ雲台制御ステップを有し、
該制御信号によって前記撮像装置の視野方向を前記検出された位置に常に向けて、前記検出した物体を追跡することを特徴とする物体追跡方法。The object tracking method according to any one of claims 1 to 6,
Based on the position detected by the position correction step, comprising a camera head control step of generating a control signal for changing the direction of view of the imaging device,
An object tracking method, wherein the detected object is tracked by always directing the visual field direction of the imaging device to the detected position by the control signal.
監視対象範囲を逐次撮像する撮像装置と、
該撮像装置が取得した映像信号を逐次画像信号に変換する画像入力インターフェースと、
該画像入力インターフェースによって変換された前記画像信号を処理する画像処理手段と、
テンプレート画像として登録された画像を格納する記憶装置とを備え、
前記画像処理手段は、前記撮像装置から現時刻に入力した画像信号を前記記憶装置にあらかじめ登録されたテンプレート画像によってテンプレートマッチングを行ない、
前記現時刻に入力した画像信号の中から、前記テンプレート画像と最大の一致度を持つ部分画像の位置を検出し、
前記検出した位置の前記部分画像を包含する、前記現時刻に入力した画像信号内の前記部分画像より所定サイズ大きい拡張部分画像の領域について、エッジの密度が最大となる部分画像の位置を検出し、
該エッジの密度が最大となる部分画像の位置を、物体の現時刻における検出位置とし、
該現時刻の検出位置の部分画像を新たなテンプレートマッチング位置と更新することによって前記撮像装置の撮像視野内に侵入した物体を追跡することを特徴とする物体追跡装置。In an object tracking method for detecting an object in an imaging field of view and tracking the detected object,
An imaging device for sequentially imaging a monitoring target range,
An image input interface for sequentially converting a video signal obtained by the imaging device into an image signal,
Image processing means for processing the image signal converted by the image input interface,
A storage device for storing an image registered as a template image,
The image processing means performs template matching with an image signal input at the current time from the imaging device using a template image registered in advance in the storage device,
From the image signal input at the current time, the position of the partial image having the highest matching degree with the template image is detected,
For the region of the extended partial image larger than the partial image by a predetermined size in the image signal input at the current time, including the partial image at the detected position, the position of the partial image having the maximum edge density is detected. ,
The position of the partial image at which the density of the edge is the maximum is determined as the detection position of the object at the current time,
An object tracking apparatus, characterized in that an object that has entered the imaging field of view of the imaging apparatus is tracked by updating the partial image at the detection position at the current time with a new template matching position.
前記撮像装置の視野方向を変えるための雲台と、
前記画像処理手段によって前記撮像装置の視野方向を変えるために前記雲台を制御するための制御信号を供給する雲台制御インターフェースとを更に備え、
前記画像処理手段が、前記物体の現時刻における検出位置に基づいて、前記物体の方向を検出し、得られた方向から前記雲台制御インターフェースを介して、前記撮像装置の視野方向を調節し、前記撮像装置の撮像視野内に侵入した物体を追跡することを特徴とする物体追跡装置。The object tracking device according to claim 8,
A camera platform for changing the viewing direction of the imaging device,
A camera platform control interface that supplies a control signal for controlling the camera platform to change the viewing direction of the imaging device by the image processing unit;
The image processing means detects a direction of the object based on a detection position of the object at a current time, and adjusts a visual field direction of the imaging device from the obtained direction via the camera platform control interface, An object tracking device, which tracks an object that has entered the field of view of the imaging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000180186A JP3560326B2 (en) | 1999-06-15 | 2000-06-15 | Object tracking method and object tracking device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16774699 | 1999-06-15 | ||
JP11-167746 | 1999-06-15 | ||
JP2000180186A JP3560326B2 (en) | 1999-06-15 | 2000-06-15 | Object tracking method and object tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001060263A JP2001060263A (en) | 2001-03-06 |
JP3560326B2 true JP3560326B2 (en) | 2004-09-02 |
Family
ID=26491685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000180186A Expired - Fee Related JP3560326B2 (en) | 1999-06-15 | 2000-06-15 | Object tracking method and object tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3560326B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006267221A (en) * | 2005-03-22 | 2006-10-05 | Fujinon Corp | Auto focus system |
JP2006267220A (en) * | 2005-03-22 | 2006-10-05 | Fujinon Corp | Auto focus system |
JP2006258943A (en) * | 2005-03-15 | 2006-09-28 | Fujinon Corp | Autofocus system |
JP5219795B2 (en) * | 2008-12-26 | 2013-06-26 | キヤノン株式会社 | Subject tracking device, control method thereof, imaging device, display device, and program |
JP5193944B2 (en) * | 2009-05-20 | 2013-05-08 | 株式会社日立国際電気 | Image processing method |
JP5859958B2 (en) * | 2010-11-11 | 2016-02-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Image processing apparatus, image processing method, and program |
JP2012208887A (en) * | 2011-03-30 | 2012-10-25 | Denso Corp | Object tracing device and object tracing system |
JP5709255B2 (en) * | 2011-04-05 | 2015-04-30 | 株式会社日立国際電気 | Image processing method and monitoring apparatus |
CN103473542B (en) * | 2013-09-16 | 2017-01-11 | 清华大学 | Multi-clue fused target tracking method |
JP6390671B2 (en) | 2016-07-29 | 2018-09-19 | オムロン株式会社 | Image processing apparatus and image processing method |
JP7047362B2 (en) * | 2017-12-11 | 2022-04-05 | 株式会社デンソー | Image processing equipment, control system, and image processing method |
JP6977667B2 (en) * | 2018-06-01 | 2021-12-08 | 日本電信電話株式会社 | Object-likeness estimation device, method, and program |
US20210256711A1 (en) * | 2018-10-18 | 2021-08-19 | Nec Corporation | Object tracking apparatus, object tracking method, and program |
CN112070084B (en) * | 2020-09-04 | 2024-01-12 | 北京百度网讯科技有限公司 | Method and device for determining position of repeated image unit |
-
2000
- 2000-06-15 JP JP2000180186A patent/JP3560326B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001060263A (en) | 2001-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6687386B1 (en) | Object tracking method and object tracking apparatus | |
JP3768073B2 (en) | Object tracking method and object tracking apparatus | |
JP3279479B2 (en) | Video monitoring method and device | |
JP3560326B2 (en) | Object tracking method and object tracking device | |
US7113616B2 (en) | Object tracking method and apparatus using template matching | |
KR101449295B1 (en) | Apparatus and method for tracking parking-lot | |
US7860276B2 (en) | Image processing device and method | |
JP3064928B2 (en) | Subject extraction method | |
KR100676232B1 (en) | Object tracking method, object tracking apparatus and computer-readable record medium with recorded object tracking program | |
JP4157620B2 (en) | Moving object detection apparatus and method | |
JP3644668B2 (en) | Image monitoring device | |
US20090052742A1 (en) | Image processing apparatus and method thereof | |
JP2002197444A (en) | Run lane recognition device for vehicle | |
JP2001216520A (en) | Surroundings monitor device for vehicle | |
JP6570904B2 (en) | Correction information output apparatus, image processing apparatus, correction information output method, imaging control system, and moving body control system | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
CN111210386A (en) | Image shooting and splicing method and system | |
JP2000293693A (en) | Obstacle detecting method and device | |
JPH1023322A (en) | Camera shake correcting method and picture monitoring system | |
JP2002342762A (en) | Object tracing method | |
JP2002104113A (en) | Rear monitoring device | |
JPH11345392A (en) | Device and method for detecting obstacle | |
JP2004213648A (en) | Method and device for tracking object | |
CN117014716A (en) | Target tracking method and electronic equipment | |
JP3828096B2 (en) | Object tracking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040524 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3560326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080604 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100604 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110604 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120604 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130604 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140604 Year of fee payment: 10 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |