JP5027758B2 - 画像監視装置 - Google Patents

画像監視装置 Download PDF

Info

Publication number
JP5027758B2
JP5027758B2 JP2008210280A JP2008210280A JP5027758B2 JP 5027758 B2 JP5027758 B2 JP 5027758B2 JP 2008210280 A JP2008210280 A JP 2008210280A JP 2008210280 A JP2008210280 A JP 2008210280A JP 5027758 B2 JP5027758 B2 JP 5027758B2
Authority
JP
Japan
Prior art keywords
image
partial
model
monitoring
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008210280A
Other languages
English (en)
Other versions
JP2010049297A (ja
Inventor
高晴 黒川
史比古 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2008210280A priority Critical patent/JP5027758B2/ja
Publication of JP2010049297A publication Critical patent/JP2010049297A/ja
Application granted granted Critical
Publication of JP5027758B2 publication Critical patent/JP5027758B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、監視空間を撮像した監視画像から対象物体を検出する画像監視装置に関し、特に、対象物体の画像特徴を記憶して当該画像特徴を有する対象物体を、隠蔽を考慮に入れつつ検出する画像監視装置に関する。
侵入者検知等のため、監視空間を撮像した監視画像から監視対象の対象物体に関する画像を抽出し、その画像情報に基づいて対象物体の検出や追跡を行う技術が知られている。下記特許文献1は、現フレームの物体候補領域と直前フレームの物体候補領域とが、それら領域の画像特徴量の類似度に基づいて同一の物体の画像を含むかを判定し、直前フレームの物体候補領域に対応付けられる現フレームの物体候補領域を求めることで移動物体の追跡を行う技術を開示している。
すなわち、前後する時刻における移動物体像を画像特徴により対応付けるにあたり、直前時刻又は数時刻前の移動物体像の画像特徴を逐次記憶して利用する。
特開2006−318064号公報
従来は、各時刻の監視画像に現れる1つの対象物をひとまとまりの像、すなわち2次元画像として把握・抽出することが多い。その際、基本的には、対象物体の立体的な構造は捨象されてしまう。しかし、現実には、対象物体は立体的な構造を有し、物体の移動によりカメラの撮影方向に対する物体の配置が変化すると、物体を構成する部分間で生じる隠蔽(オクルージョン)の状態が変化し、カメラが撮影した監視画像上にて物体の見え方が変わる。例えば、カメラで俯瞰撮影する場合、人物がカメラの直下から遠ざかるにつれて、頭に隠されていた胴や、胴に隠されていた脚が画像上に現れてくる。このような隠蔽状態の変化により、直前の1フレーム又は数フレームの画像特徴を記憶する従来の方法では、物体のそれまで隠れていた部分が画像に現れ、新たな画像特徴を生じることに対応できない。そのため、現時刻に撮像された監視画像内に存在する対象物体の像と、記憶されている画像特徴との対応付けが困難となり、対象物体の検出や追跡の継続ができなくなるという問題があった。
本発明は上記問題点を解決するためになされたものであり、対象物体の移動に伴って隠蔽状態が変化しても対象物体の検出や追跡の継続を好適に実現できる画像監視装置を提供することを目的とする。
本発明に係る画像監視装置は、監視空間を透視投影した監視画像についての投影条件と、監視対象となる対象物体の複数の構成部分毎の立体形状を表す部分モデルと当該部分モデル相互の配置関係とで表される前記対象物体の物体モデルと、前記対象物体の前記構成部分毎の参照画像及び参照画像隠蔽度とを記憶する記憶部と、前記監視画像、及び前記監視空間内の位置を入力され、当該位置に前記物体モデルを仮想的に配置して前記投影条件に基づき透視投影を行い、前記部分モデル毎に、その投影像のうち前記透視投影にて手前に位置する他の前記部分モデルによる隠蔽領域を除いた部分モデル可視領域と、前記隠蔽領域による当該投影像の隠蔽度とを求めると共に、前記監視画像から当該部分モデル可視領域に対応する部分を前記対象物体の前記構成部分毎の部分画像として抽出する部分画像抽出手段と、前記対象物体が存在し得る候補位置での前記部分画像と前記参照画像とを複数の前記候補位置について比較し、比較一致した候補位置に基づいて、前記対象物体が存在する物***置を判定する物体判定手段と、前記物***置での前記隠蔽度が前記参照画像隠蔽度以下である前記構成部分について、前記参照画像及び前記参照画像隠蔽度を、当該隠蔽度及び当該物***置での前記部分画像で更新する物体情報更新手段と、を有するものである。
他の本発明に係る画像監視装置においては、前記物体判定手段が、基準位置に配置した前記物体モデルにより得られる基準投影像上に、前記部分画像を前記投影条件に基づいて写像した基準部分画像と、同じく前記基準投影像上に前記参照画像を写像した基準参照画像とが互いに重複する共通領域を求め、当該共通領域において前記基準部分画像と前記基準参照画像とを比較して前記物***置を判定する。この本発明の画像監視装置の好適な態様は、前記物体判定手段が、前記候補位置と、前記参照画像の取得に際して配置された前記物体モデルの位置とのうち視点位置からの距離が遠い方を前記基準位置に設定する画像監視装置である。
別の本発明に係る画像監視装置においては、前記物体判定手段が、前記部分モデルに高さ方向に層をなして複数の水平帯状領域を設定し、前記共通領域を前記水平帯状領域と対応する複数の小領域に分割し、当該小領域毎に前記基準部分画像と前記基準参照画像とを比較する。
本発明によれば、隠蔽が少ない参照画像を保持できるので、対象物体が移動して隠蔽状態が変化しても隠蔽部分の画像情報が参照画像から失われず、対象物体の検出や追跡の精度が向上する。
また、本発明によれば、部分画像と参照画像とのいずれか一方において隠蔽されている領域を除いて比較するので、部分画像と参照画像との互いに対応する領域(共通領域)に基づく比較が行われ、対象物体の検出や追跡の精度が向上する。
また、部分画像と参照画像とのうち視点からの距離が近く解像度が高い一方の画像を、距離が遠く解像度が低い他方の画像に合わせて変換するので、解像度を揃えて比較することができる。すなわち、解像度が高い画像が有する高周波成分により生じる誤差を低減した比較が行われ、対象物体の検出や追跡の精度が向上する。
また、同一構成部分内の高さ方向に複数の異なる画像特徴が分布している対象物体をも精度良く判定できる。
以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、例えば、ビルのエントランスや金融機関のATMコーナー等の監視空間にて対象物として人を検出・追跡する。画像監視装置1はさらに、その追跡結果に基づいて、例えば、長時間滞留する不審人物を検出し、異常を報知する等の処理を行うように構成されている。
図1は、実施形態に係る画像監視装置1のブロック構成図である。画像監視装置1は、撮像部2、操作部3、記憶部4、制御部5及び出力部6を含んで構成される。
撮像部2は、監視カメラであり、監視空間内に設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は制御部5へ出力される。以下、撮像部2の撮像タイミングを時刻と称する。監視空間をX,Y,Z軸からなる直交座標系で表し、鉛直上方をZ軸の正方向に設定すると、XY平面内での人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では撮像部2は、監視カメラの光軸を鉛直下方(Z軸負方向)に向けて天井に設置される。
操作部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。
記憶部4は、RAM、ROM、ハードディスク等の記憶装置であり、制御部5に接続される。記憶部4は、制御部5で使用されるプログラムやデータを記憶する。これに記憶されるデータには、物体情報40、移動軌跡41、及び撮像条件42が含まれる。
物体情報40は、監視空間内に検出された対象物体に関する情報であり、対象物体ごとに識別可能に記憶される。物体情報40は、物体モデル400、参照画像401、参照画像隠蔽度402、参照画像取得位置404を含む。
物体モデル400は、対象物体を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。画像監視装置1が監視対象とする対象物体は人であり、本実施形態では、例えば、人の構成部分として頭部、胴部、脚部の3つが設定される。また、各構成部分の立体形状を近似的に表す部分モデルとして、長軸が鉛直方向に設定され短軸が水平方向に設定された楕円を鉛直軸(Z軸)の周りに回転させて得られる回転楕円体を用いる。図2には、XYZ空間内での物体モデル400が模式的に示されている。物体モデル400は、脚部の部分モデルの下端を床面又は地表面等の基準面(Z=0)に接地し、その脚部の部分モデルの上に胴部、頭部の部分モデルを順にZ軸方向に積み重ねた配置関係を有する。基準面から頭部中心までの高さh、胴部の最大幅w(胴部短軸直径)は対象物体毎に設定する。高さhに対する頭部中心から胴部中心までの長さ、頭部中心から脚部中心までの長さ、頭部長軸半径、胴部長軸半径及び脚部長軸半径それぞれの比と、幅wに対する頭部短軸半径及び脚部短軸半径それぞれの比とは、各対象物体に共通の値に設定する。このようにして物体モデル400の高さ及び幅が対象物体毎に設定され、これにより、後述する隠蔽状態の推定及び各構成部分の画像抽出が対象物体の体格差の影響を受けにくくなり、精度良い抽出処理が可能となる。なお、撮像部2との位置関係から、頭部は他の構成部分に隠蔽されにくく、監視画像に良好に現れることから、頭部中心を基準としている。
参照画像401は対象物体を特徴付ける画像情報である。参照画像401は、対象物体それぞれについて、構成部分毎に記憶される。追跡の過程で撮像部2により撮像された画像から各対象物体の各構成部分の画像(部分画像)が抽出され、当該部分画像のうち後述の処理に従い選択されたものが参照画像401として記憶される。以下、構成部分pの参照画像401をFと表す。
参照画像隠蔽度402は、参照画像401の隠蔽状態の度合いを表すデータであり、参照画像401のそれぞれに対応して記憶される。具体的には、構成部分pについて他の構成部分が存在しなければ撮像されたであろう画像のうち、他の構成部分に隠れて参照画像Fに現れていない部分の割合が当該構成部分pの参照画像隠蔽度402である。以下、参照画像Fの参照画像隠蔽度402をEと表す。追跡の過程で部分画像の抽出と共に推定される隠蔽度のうち、参照画像Fとされる部分画像に対応するものが参照画像隠蔽度Eとして記憶される。
参照画像取得位置404は、対象物体のそれぞれの参照画像401が取得されたときの当該対象物体の位置であり、参照画像401のそれぞれに対応して記憶される。
移動軌跡41は、各対象物体の位置(以下、物***置)の履歴である。物***置は頭部中心の3次元座標とする。
撮像条件42は、撮像部2が監視空間を透視投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが、画像監視装置1の使用に際して予め操作部3から入力され、記憶部4に格納される。
撮像条件42は、監視空間に仮想的に置かれた物体モデル400を撮像部2の撮像面に投影する処理に用いられる。例えば、公知のピンホールカメラモデル等のカメラモデルに撮像条件42を適用して、監視空間の任意の位置座標を監視画像の座標系へ変換する座標変換式や、監視画像内の任意の位置座標を監視空間の座標系へ変換する座標変換式を設定できる。図2は、当該座標変換を説明する模式図であり、XYZ座標系で定義される監視空間70に配置した物体モデル400と撮像面71上の投影像との間の変換を示している。
上記座標変換式を用いると、監視空間70内の位置Q0に仮想配置された物体モデル400を撮像面71へ投影でき(図中の矢印73)、投影像として2次元画像72aを得ることができる。また、上記座標変換式を用いると、撮像面71から監視空間70への逆射影を行うことができ、これにより、監視画像上の2次元画像72aが、位置Q0に置かれた物体モデル400の表面に投影され(図中の矢印74)、2次元画像72aのテクスチャが物体モデル400の表面に貼り付けられた3次元テクスチャを得ることができる。
さらに、上記座標変換式を用いると、位置Q0と対応する位置にある監視画像上の2次元画像72aを、監視空間70内の別の位置Q1と対応する監視画像上の位置に写像することができる。この写像は、2次元画像72aを位置Q0に仮想配置された物体モデル400の表面に投影し(図中の矢印74)、この物体モデル400を位置Q1に移動又は複製した後(図中の矢印75)、撮像面71へ投影する(図中の矢印76)ことで実現される。
制御部5は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、撮像部2、記憶部4及び出力部6と接続される。制御部5は、記憶部4からプログラムを読み出して実行し、物体像抽出手段50、追跡手段52、異常判定手段54として機能する。制御部5は、撮像部2から入力される監視画像を画像処理して物体の追跡、不審者の検出等を行い、不審者を検出すると異常信号を出力部6へ出力する。
物体像抽出手段50は、撮像部2により得られた監視画像から対象物体の物体像を抽出し、抽出された物体像の情報を物体判定手段526へ出力する。具体的には、物体像抽出手段50は、対象物体が映っていないと判断する監視画像を背景画像に設定し、記憶部4に格納する。そして、物体像抽出手段50は、撮像部2から監視画像を入力されると、当該監視画像と背景画像との差分処理を行い、背景画像に存在しない像を検出し、検出した像のうち所定値以上の大きさを有する像を物体像として抽出する。ここで、所定値はノイズによる像を除去するための閾値であり、予め設定される。
追跡手段52は、監視画像内に参照画像401と一致する像を同定することにより時刻毎に対象物体を検出し、移動軌跡を生成する。追跡手段52は、位置予測手段520、部分画像抽出手段522、物体判定手段526及び物体情報更新手段528を含んで構成される。
位置予測手段520は、移動軌跡41(過去の物***置)に等速運動モデル等の運動モデル、又はカルマンフィルタ等の予測フィルタを適用することにより、現時刻における物***置を予測する。位置予測手段520は、運動モデル又は予測フィルタにより直接的に得られる現時刻の予測位置に加え、その周りに、運動の変化による予測の誤りを吸収するために複数の予測位置をさらに設定する。その際、中心の予測位置を最頻値とする正規分布等の確率関数を設定し、確率の高い領域ほど予測位置を密に分布させることが好ましい。なお、対象物体は基準面に接地して立っているとの拘束条件から予測位置の高さには物体モデル400の高さhを設定する。
部分画像抽出手段522は、位置予測手段520から対象物体の位置を入力されると、監視空間70内の当該位置に物体モデル400を仮想的に配置し、撮像条件42を用いて物体モデル400を撮像部2の撮像面71に投影する。また、部分画像抽出手段522は、各構成部分に対応する部分モデルの投影像と重なる監視画像の一部を当該構成部分の部分画像として抽出するとともに、構成部分間での部分モデルの投影像の重複関係から各構成部分の隠蔽度を算出する。以下、構成部分pに対応して抽出される部分画像をf、構成部分pについて算出される隠蔽度をeと表す。
部分画像抽出手段522による処理が行われるのは次の3つの場合であり、それぞれの場合にて、部分画像抽出手段522に入力される位置には違いがある。第1の場合は、新規出現した物体の物体情報40を生成する場合であり、この場合には、物体像抽出手段50が物体像を抽出した位置が入力される。第2の場合は、物体の同定を行う場合であり、この場合には、位置予測手段520により設定された予測位置が入力される。第3の場合は、物体情報40を更新する場合であり、この場合には、物体判定手段526により決定された物体の現在位置が入力される。
図3は、部分画像抽出手段522の処理の説明図である。図3を参照して、部分画像抽出手段522の処理を詳細に説明する。
まず、撮像条件42を用いて撮像面に各部分モデルを単独で投影し、隠蔽がない場合の各構成部分の投影像の全体領域80を演算する。これにより、頭部の全体領域80a、胴部の全体領域80b、脚部の全体領域80cが求められる。
次に、各構成部分について当該構成部分よりも撮像部2に近い構成部分の部分モデルを投影し、監視画像上で当該構成部分を隠蔽し得る領域である隠蔽領域81を演算する。本実施形態では、各構成部分と撮像部2との距離は頭部・胴部・脚部の順に近く、この順序は予め設定しておくことができる。頭部の部分モデルに対しては、それより投影線上、手前の他の部分モデルはないので、隠蔽領域は存在しない。一方、胴部の部分モデルに対しては、頭部の部分モデルが手前に位置するので、その投影像が胴部に対する隠蔽領域81bとなる。また、脚部の部分モデルに対しては、頭部及び胴部の部分モデルが手前に位置するので、それらの投影像が脚部に対する隠蔽領域81cとなる。
なお、上記順序は、撮像部2と各部分モデルとの距離を算出して比較することによって判定してもよい。また、隠蔽領域81はさらに当該対象物体より手前に位置する他の対象物体の部分モデルが投影された領域を減じて演算することもできる。
続いて、各構成部分の全体領域80から当該構成部分の隠蔽領域81との重複部分を除くことにより、監視画像上で現に当該構成部分を観測可能な領域である観測領域82(部分モデル可視領域)を演算する。その結果、頭部に対しては隠蔽を生じていない観測領域82aが得られ、一方、胴部、脚部については楕円の一部が隠蔽された形状の観測領域82b,82cが得られる。
部分画像抽出手段522は、監視画像のうち、こうして求められた各構成部分の観測領域82と重なる部分を各構成部分毎の部分画像として抽出する。また、各構成部分について、次式に示すように、全体領域80の面積S1から観測領域82の面積S2を減じた値を全体領域80の面積S1で除することで隠蔽度eを算出する。
=(S1−S2)/S1 ………(1)
部分画像抽出手段522は、物体の同定を行う場合には、位置予測手段520から入力される予測位置を対象物体が存在し得る監視空間内の候補位置として、当該候補位置に、物体モデル400を仮想的に配置して、部分画像f及び隠蔽度eを求める。
物体判定手段526は、部分画像抽出手段522により抽出された部分画像fと参照画像Fとを画像特徴について構成部分p毎に比較し、その比較結果を対象物体を構成する複数の構成部分について統合して統合類似度Uを算出する。そして、当該統合類似度Uが所定の判定基準を満たした場合に、候補位置に参照画像と同じ対象物体が存在すると判定する。そして、当該候補位置を対象物体の物***置と定め、当該対象物体の移動軌跡41に追加記憶させる。
具体的には、まず、物体判定手段526は、部分画像抽出手段522により抽出された現時刻の部分画像fから画像特徴量を抽出し、これと、追跡対象物体の画像情報として記憶部4に記憶されている参照画像401から抽出される画像特徴量とを構成部分p毎に比較して、その比較結果として構成部分毎の類似度uを算出する。例えば、部分画像fを分析して色ヒストグラムをhfpを算出し、また、参照画像Fを分析して色ヒストグラムをhFpを算出し、例えば、次式で定義するように両者のユークリッド距離に−1を乗じた値をuとして用いることができる。なお、Σは色ヒストグラムの全要素に関する総和を意味する。
≡−Σ‖hFp−hfp………(2)
次に物体判定手段526は、対象物体毎に各構成部分の類似度uを加算することにより、各対象物体についての上述の統合類似度Uを算出する。そして、統合類似度Uを予め定めた閾値と比較し、Uが閾値以上であれば、現時刻に抽出された物体像が参照画像401の対象物体と同一であると判定する。
構成部分毎の類似度uは当該部分に関する画像部分のみを精度良く抽出した上述の部分画像fを用いて算出されたものであるので、当該uを統合して物体像の同定を行うことで、構成部分間で隠蔽が生じる場合であっても高精度の同定が可能となる。
ここで、物体判定手段526は、次式に示すように、構成部分p毎に算出した信頼度gで、部分類似度uを重み付けし、重み付けされた構成部分p毎の類似度を統合して統合類似度Uを算出するように構成できる。ここで次式のΣはpについての総和、すなわち、構成部分(頭部、胴部、脚部)について合計することを意味する。こうすることで、信頼度が高い構成部分ほど同定に大きく寄与させることができ、物体像を高精度に同定できる。
U≡Σg ………(3)
信頼度gは隠蔽度ep、参照画像隠蔽度Eの関数として予め設定される。信頼度gの一例は、次式で定義されるgである。
≡αmax(E,e)+β (但し、α>0,β≧0) ………(4)
ちなみに、(4)式の信頼度gを用いることで、部分類似度uが部分画像fと参照画像Fとのうち、部分画像fの隠蔽度eと参照画像隠蔽度Eとのいずれか高い方、すなわち情報量が少ない方の画像に対応した信頼性しか有していないことを考慮に入れた同定が行われる。
ここで、比較される部分画像fと参照画像Fとは、一般的には、互いに異なる物***置に置かれた物体モデルや対象物体によるものであり、画像の形状や隠蔽状態が異なる。そして、隠蔽状態が異なるもの同士を比較すると、比較結果に誤差が含まれやすい。つまり、部分画像fと参照画像Fとの一方のみで隠蔽されており他方で隠蔽されていない領域は、比較結果の精度を低下させる。そこで、撮像条件42を用いて部分画像fと参照画像Fとを、互いに共通の位置(基準位置)に対象物体又は物体モデルが存在するとした場合の形状に座標変換して、変換後の両画像f,F内の同じ位置を構成部分内の共通の位置に対応付ける。そして、座標変換後の部分画像f(基準部分画像)と座標変換後の参照画像F(基準参照画像)とを互いに重ね合わせて、重複する共通領域を求め、求められた共通領域において上記比較を行う。これによって、部分画像fと参照画像Fとの一方のみで隠蔽されている領域を除いた比較が行われるので、比較結果の精度を向上させることができる。
図4,図5は、部分画像fと参照画像Fとを基準位置に配置した共通の物体モデルにより得られる基準投影像上に座標変換する具体例を説明する模式図である。
図4に示す例では、基準位置は、参照画像取得位置404に記憶されている物***置Qに設定される。部分画像f(像90)を参照画像取得位置404(位置Q)に置かれた物体モデルの投影像に射影して射影像92を生成する。この像92は参照画像F(像91)の位置に射影される。そして、当該射影像92と参照画像F(像91)との共通領域を算出し、共通領域における射影像92の色ヒストグラムhfpと参照画像Fの色ヒストグラムhFpを比較する。像90から像92への射影をより詳細に説明すると、位置Qの物体モデル400aの投影像である像90を、当該物体モデルへ逆投影し(逆投影ステップ)、当該物体モデルを位置QRへ座標変換する(移動ステップ)。この物体モデルの座標変換は、位置Qの物体モデル400aにて撮像部2に向いている面が位置Qへの移動後も撮像部2に向くように、撮像部2の光軸を中心とする回転移動と光軸からの距離方向の並進移動とを合成した変換により行うのが好適である。物体モデル400aを位置Qに移動後、これを撮像部2の撮像面71に投影して(投影ステップ)、射影像92を得ることができる。これら逆投影ステップ、移動ステップ及び投影ステップは、図4(a)にて太い矢印で表されている。図4(b)は、像90,92における各部分画像fと、像91における参照画像Fとを模式的に示している。
図5に示す例では、基準位置は、部分画像fの投影元となる物体モデル400bの位置、すなわち候補位置Qに設定される。参照画像F(像91)を、位置Qに置かれた物体モデル400bの投影像に射影して射影像93を生成する。この像93は部分画像f(像90)の位置に射影される。そして、当該射影像93と部分画像f(像90)との共通領域を算出し、共通領域における射影像93の色ヒストグラムhFpと部分画像fの色ヒストグラムhfpを比較する。像91から像93への射影は、図4に示す場合とは逆向きに行われ、その一連の逆投影ステップ、移動ステップ及び投影ステップは、図5(a)にて太い矢印で表されている。図5(b)は、像91,93における各参照画像Fと、像90における部分画像fとを模式的に示している。
また、部分画像fと参照画像Fとの比較を監視空間70の座標系にて行うことも可能である。図6は、部分画像f及び参照画像Fをそれぞれ監視空間70に配置された物体モデル400a,400bに逆投影して、それら物体モデル間にて部分画像f及び参照画像Fを比較する例を説明する模式図である。この場合には、部分画像f(像90)を候補位置(位置Q)に仮想配置した物体モデル400aに逆投影して3次元テクスチャ94を算出し、参照画像F(像91)を参照画像取得位置404(位置Q)に仮想配置した物体モデル400bに逆投影して3次元テクスチャ95を算出し、2つの物体モデル400a及び400bを重ね合わせて共通領域を算出し、共通領域における色ヒストグラムを比較する。図6(a)は像90,91から物体モデル400a,400bへの逆投影を示す模式図であり、図6(b)は、部分画像fに対応する3次元テクスチャ94と参照画像Fに対応する3次元テクスチャ95との模式図である。
ここで、部分画像抽出手段522により抽出された部分画像fと参照画像Fとの間の比較誤差は解像度の違いによっても生じる。すなわち、解像度が高いものと低いものとを比較すると解像度が高い側の色ヒストグラムにのみ存在する高周波成分が比較誤差の要因となる。解像度は対象物体と撮像部2との間の距離が遠いほど低くなる。そこで、撮像条件42及び参照画像取得位置404から、撮像部2と参照画像取得位置404の間の距離dを、撮像条件42及び予測位置(候補位置)から撮像部2と予測位置との問の距離dをそれぞれ算出し、これら距離を比較し、距離が遠い側へ射影して上記比較を行う。すなわち、部分画像と参照画像とのうち視点からの距離が近く解像度が高い一方画像を、距離が遠く解像度が低い他方画像に合わせて変換するので、解像度を揃えて比較することができる。これにより、解像度が高い画像が有する高周波成分により生じる誤差を低減した比較が行われ、対象物体の検出や追跡の精度が向上する。
具体的には、d≦dの場合は、図5を用いて説明したように、参照画像Fを予測位置に対応した像へ射影し、d>dの場合は、図4を用いて説明したように、部分画像fを参照画像取得位置404に対応した像へ射影する。これにより解像度の違いにより生じる比較誤差が低減され、比較結果の精度を向上させることができる。
ここで、対象物体には、短いスカートや短パンを着用した人物のように1つの構成部分内に複数の特徴が層をなして分布しているものもある。そこで、物体モデル400を構成する部分モデルの表面に高さ方向に層をなして複数の水平帯状領域を設定し、当該水平帯状領域を撮像面71に投影した投影像に対応させて、共通領域を複数の小領域に分割し、小領域ごとの色ヒストグラムを比較する。これにより、構成部分内において画像特徴が層状に分布している対象物体を精度よく判定できる。
なお、監視画像上において、物体モデル400の高さh方向は、監視画像の中心と参照画像取得位置404に対応する点或いは予測位置に対応する点を結ぶ直線の方向として特定できる。また、上記直線は監視空間70に仮想配置された物体モデル400の最下端と最上端を結ぶ直線を監視画像に投影することによって求めることもできる。ちなみに、監視空間70において、高さh方向は鉛直方向である。
また、小領域への分割は、小領域の高さを固定値として分割してもよいし、小領域の数を固定値として分割してもよいし、監視画像上のスケールで分割してもよいし、物体モデル400上のスケールで分割してもよい。
物体情報更新手段528は、物体判定手段526により位置が判定された対象物体について、判定された位置において部分画像抽出手段522により算出された隠蔽度eが参照画像隠蔽度E以下の場合に、物体情報40を現時刻の画像情報により更新する。逆に、隠蔽度eが参照画像隠蔽度Eを超えている場合は物体情報40の更新を行わない。
物体情報40の更新では、具体的には、参照画像401として記憶されている参照画像Fが、判定された位置において部分画像抽出手段522により抽出された部分画像fにより上書きされる。参照画像隠蔽度402に記憶されている参照画像隠蔽度Eは、判定された位置において部分画像抽出手段522により算出された隠蔽度eにより上書きされる。また、参照画像取得位置404の記憶内容は、判定された物***置により上書きされる。
例えば、図7のように監視画像に映る対象物体の像が像100,101,102,103,104と順に変化した場合、最も隠蔽度が小さい像101に基づいた物体情報が記憶される。この場合、像104が得られたときに、もし一時刻前の像103が参照画像として記憶されていれば脚部の類似度が低下するが、本実施形態の画像監視装置1によれば、像101が参照画像として記憶されており、これにより類似度の低下を防ぐことができる。すなわち、過去に最も隠蔽度が小さかったときの物体情報40が保持されるので、隠蔽状態が変化して隠蔽されている領域が広がっても、その部分の情報が参照画像401から失われることを防止できる。そのため、過去に取得された最大限の情報を用いて物体判定ができ、隠蔽による追跡の失敗を最小限に抑えることができる。
また、物体情報更新手段528は、物体像抽出手段50により抽出された物体像の中に、物体判定手段526により判定された対象物体の位置のいずれにも存在しない物体像があるとき、当該物体像に関する新たな物体情報40を作成する。一方、部分画像抽出手段522により物***置なしと判定された対象物体があるとき、当該対象物体の物体情報40を削除する。
異常判定手段54は、記憶部4に記憶されている移動軌跡41を分析して長時間滞留している物体(不審者)が存在すれば異常と判定して出力部6に異常信号を出力する。具体的には、移動軌跡41のそれぞれに含まれる位置データの数を計数して所定数以上(例 えば10分間相当以上)の位置データを含む移動軌跡41があれば異常と判定する。
出力部6は、センタ装置等の外部装置と通信線により接続され、外部装置へ異常信号を送信する通信回路を備える。
次に、画像監視装置1の動作について説明する。図8は、画像監視装置1の動作の概略のフロー図である。
監視空間が無人であることを確認して管理者が電源を投入すると、画像監視装置1の各部、各手段が動作を開始し、所定の初期化が行われる(S10)。このとき、制御部5は撮像部2からの監視画像を背景画像として記憶部4に記憶させる。
続いて、制御部5は記憶部4に撮像条件42が設定されているかを確認し(S15)、設定されていなければ管理者による操作部3からの撮像条件42の入力を受け付け、入力された撮像条件42を記憶部4に格納する(S20)。その後、撮像部2から制御部5へ監視画像が新たに入力されるたびにS25〜S75の一連の処理が繰り返される。
まず、制御部5は撮像部2が新たに撮像した監視画像を取得し(S25)、制御部5の物体像抽出手段50は取得された監視画像を、記憶部4に記憶されている背景画像と比較して物体像(人物像)を抽出する(S30)。
続く物***置判定処理において制御部5の追跡手段52は、監視画像中に参照画像401が表す対象物体の像を同定することにより、対象物体の現在位置を判定する(S35)。
図9は物***置判定処理S35の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の位置予測手段520は、対象物体の移動軌跡41から当該対象物体の現在位置を予測して、各対象物体それぞれについて複数の予測位置を設定する(S350)。
追跡手段52は各対象物体の予測位置(分布の中心位置)と撮像部2との距離を求め、求めた距離が近い対象物体から順に処理対象に設定し(S351)、処理対象の対象物体について処理S352〜S385を行う。
処理S352〜S384は、処理対象として選択された対象物体の複数の予測位置についてのループ処理となっており、予測位置が順次設定され(S352)、当該設定された予測位置に関して処理S353〜S380が行われる。
まず、制御部5の部分画像抽出手段522は、処理対象の予測位置に物体モデル400を配置して撮像部2の撮像面71に投影することにより各構成部分に対応する部分画像fを抽出し(S353)、抽出した部分画像fのそれぞれについて隠蔽度eを算出する(S354)。
次に、制御部5の物体判定手段526は、S354にて算出された隠蔽度e、及び参照画像隠蔽度Eを(4)式に代入して信頼度gを算出する(S355)。
続いて、制御部5の物体判定手段526は、処理S353にて抽出された部分画像fを参照画像Fと比較して部分類似度uを算出する(S360)。
図10は、部分類似度算出処理S360の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の物体判定手段526は、各構成部分を順次処理対象に設定して(S361)、処理対象の構成部分について処理S361〜S370を行う。
まず、制御部5の物体判定手段526は、参照画像取得位置404と撮像条件42の一部として記憶されている撮像部2の設置位置とから両者の間の距離dを算出し(S362)、さらに図9の処理S352にて処理対象に設定された予測位置と撮像部2の位置とから両者の間の距離dを算出し(S363)、距離dと距離dとを比較する(S364)。
距離dが距離d以下であれば(S364にてYES)、部分画像fの方が低解像度であるとして参照画像Fを予測位置に対応した像へ射影し、(S365)、射影像と部分画像fとの共通領域を算出する(S366)。
一方、距離dが距離dより大きければ(S364にてNO)、参照画像Fの方が低解像度であるとして部分画像fを参照画像取得位置404に対応した像へ射影し、(S367)、射影像と参照画像Fとの共通領域を算出する(S368)。
こうして共通領域が算出されると、共通領域において色ヒストグラムを比較して部分類似度uを算出する(S369)。
以上の処理が全構成部分について終了すると(S370にてYES)、処理は図9の処理S380へ進む。
図9のフローチャートに戻り、物***置判定処理の続きを説明する。
制御部5の物体判定手段526は、部分類似度算出処理S360にて算出された部分類似度uを、処理S355にて算出された信頼度gにより重み付け加算し、統合類似度Uを算出する(S380)。こうして処理対象の物体に設定された全予測位置について統合類似度Uが算出されると(S381にてYES)、制御部5の物体判定手段526は、最大の統合類似度Uを選択し、選択した統合類似度Uが予め設定された基準値以上であるか否かを判定する(S382)。
基準値以上であれば(S382にてYES)最大の統合類似度Uが算出された予測位置に存在する画像情報を処理対象の物体の像と同定し、当該予測位置を処理対象の物体の物***置と判定する(S383)。
一方、基準値未満であれば(S382にてNO)処理対象の物体を同定せず、処理対象の物体を消失して物***置は不明と判定する(S384)。
以上の処理を全ての物体について終えると(S385にてYES)、制御部5は処理を図8の処理S40へ戻す。
再び図8を参照して全体処理の続きを説明する。
物***置判定処理が終わると、制御部5の物体判定手段526は、判定された物***置を記憶部4の移動軌跡41に追加記憶させる(S40)。なお、処理S30にて抽出された物体像の中に物***置判定処理S35にて判定された物***置に存在しない物体像があれば、当該物体像が示す物***置を新規物体の情報として移動軌跡41に記憶させる。
続いて、制御部5の物体情報更新手段528は、次時刻における物***置判定処理に備えて物体情報40の更新を行う(S45)。
図11は、物体情報更新処理S45の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の物体情報更新手段528は、物体情報40が表す各物体を処理対象に順次、設定し(S450)、処理対象の物体について処理S451〜S456を行う。
まず、制御部5の物体情報更新手段528は、処理対象の物体が図9の処理S383にて物***置が判定された物体であるか否かを確認し(S451)、物***置が判定された物体でなければ消失物体であるとして当該物体の物体情報40を削除する(S452)。
一方、物***置が判定された物体であれば、制御部5の物体情報更新手段528は、各構成部分を順次、処理対象に設定し(S453)、処理対象の構成部分pについて図9のS354にて算出された隠蔽度eと参照画像隠蔽度Eとを比較し(S454)、隠蔽度eが参照画像隠蔽度Eより小さければ(S454にてYES)、処理対象の構成部分pについて物体情報40の更新を行う(S455)。
すなわち、処理S455にて制御部5の物体情報更新手段528は、参照画像Fを、判定された物***置において図9の処理S353にて抽出された部分画像fに書き換え、参照画像隠蔽度Eを隠蔽度eに書き換え、参照画像取得位置404を、判定された物***置に書き換える。このように、隠蔽度が最も小さいときの物体情報を保持することで、隠蔽の大小によらない高精度な物体同定が可能になる。
以上の更新を全構成部分について終え(S456にてYES)、さらに全対象物体について終えると(S457にてYES)、処理S458へ移行する。
処理S458にて制御部5の物体情報更新手段528は、図8の処理S30にて抽出された物体像の中に図9のS383にて判定された物***置のいずれにも存在しない物体像があるか否かを確認する。該当する物体像があれば、新規に出現した物体であるとして、当該物体像の画像情報から新たな物体情報40を作成する(S459)。
すなわち、当該物体像内に複数の探索位置を設定し、各探索位置に物体モデル400の全身を投影し、投影像と物体像の形状を比較する。比較の結果、最も形状が一致する探索位置を物***置に決定する。
そして、決定した物***置を部分画像抽出手段522に与えて部分画像の抽出と隠蔽度の算出とを行わせ、抽出された各部分画像を参照画像F、算出された各隠蔽度を参照画像隠蔽度E、物***置を参照画像取得位置404としてそれぞれ記憶部4に記憶させる。
また、このとき、物体モデル400の高さ及び幅を、標準的な対象物体の高さ及び幅を基準とする所定範囲内で複数設定して探索を行い、最も形状が一致する高さ及び幅を新たな物体情報の物体モデル400の高さh及び幅wとする。
こうして物体情報更新処理が終了すると、制御部5は処理を図8の処理S55へ戻す。
再び図8を参照して全体処理の続きを説明する。
物体情報更新処理を終えると、制御部5は、全物体が消失しているか否かを確認する(S55)。全物体が消失している場合(S55にてYES)、制御部5の物体像抽出手段50は記憶部4に記憶されている背景画像を監視画像により更新する(S60)。その後、制御部5は処理をS25へ戻す。
一方、1以上の物体が存在する場合(S55にてNO)、制御部5の異常判定手段54は、移動軌跡41を分析して異常な移動軌跡41を有する物体が存在するか否かを判定し(S65)、異常があれば(S70にてYES)異常判定手段54は出力部6に異常を判定された物体の位置及び監視画像を含む異常信号を出力する(S75)。異常信号が入力された出力部6は該信号をセンタ装置へ送信する。センタ装置は異常信号に含まれる情報を表示して監視員へ異常を報知し、表示を見た監視員は不審者の排除などの対処を行う。
一方、異常が判定されない場合(S70にてNO)、処理S75はスキップされる。
以上の処理が終了すると、制御部5は処理を再びS25へ戻す。
上述の実施形態では、部分画像抽出手段522が隠蔽度を算出する例を示したが、これに代えて非隠蔽度を算出してもよい。非隠蔽度は、各構成部分について、当該構成部分の全体領域の面積に対する当該構成部分の観測領域の面積の比(S2/S1)として算出できる。この場合、物体情報更新手段528は非隠蔽度が高い場合に物体情報40を更新すればよい。
また、上述の実施形態では、統合類似度Uが最大の候補位置を物***置と判定した。別の実施形態では、統合類似度Uが判定基準を満たした複数の候補位置を平均して、或いは統合類似度Uにより重み付け平均して、物***置を算出する。
また、画像特徴量は、色ヒストグラムに限らず、輝度ヒストグラム、エッジ強度のヒストグラム、エッジ方向のヒストグラム、又はテクスチャなど種々の画像特徴量を採用することができる。2以上の画像特徴量を組み合わせても良い。
本発明の実施形態に係る画像監視装置のブロック構成図である。 XYZ座標系で定義される監視空間に配置した物体モデルと撮像面上の投影像との間の変換を示す模式図である。 部分画像抽出手段の処理の説明図である。 部分画像を参照画像と同様に参照画像取得位置に配置した物体モデルにより得られる投影像上に座標変換する具体例を説明する模式図である。 参照画像を部分画像と同様に候補位置に配置した物体モデルにより得られる投影像上に座標変換する具体例を説明する模式図である。 部分画像及び参照画像をそれぞれ監視空間に配置された物体モデルに逆投影して、それら物体モデル間にて部分画像及び参照画像を比較する例を説明する模式図である。 監視空間内での対象物体の位置の変化に応じた投影像での隠蔽度の変化を表す模式的な監視画像である。 画像監視装置の動作の概略のフロー図である。 物***置判定処理の概略のフロー図である。 部分類似度算出処理の概略のフロー図である。 物体情報更新処理の概略のフロー図である。
符号の説明
1 画像監視装置、2 撮像部、3 操作部、4 記憶部、5 制御部、6 出力部、40 物体情報、41 移動軌跡、42 撮像条件、50 物体像抽出手段、52 追跡手段、54 異常判定手段、400 物体モデル、401 参照画像、402 参照画像隠蔽度、404 参照画像取得位置、520 位置予測手段、522 部分画像抽出手段、526 物体判定手段、528 物体情報更新手段。

Claims (4)

  1. 監視空間を透視投影した監視画像についての投影条件と、監視対象となる対象物体の複数の構成部分毎の立体形状を表す部分モデルと当該部分モデル相互の配置関係とで表される前記対象物体の物体モデルと、前記対象物体の前記構成部分毎の参照画像及び参照画像隠蔽度とを記憶する記憶部と、
    前記監視画像、及び前記監視空間内の位置を入力され、当該位置に前記物体モデルを仮想的に配置して前記投影条件に基づき透視投影を行い、前記部分モデル毎に、その投影像のうち前記透視投影にて手前に位置する他の前記部分モデルによる隠蔽領域を除いた部分モデル可視領域と、前記隠蔽領域による当該投影像の隠蔽度とを求めると共に、前記監視画像から当該部分モデル可視領域に対応する部分を前記対象物体の前記構成部分毎の部分画像として抽出する部分画像抽出手段と、
    前記対象物体が存在し得る候補位置での前記部分画像と前記参照画像とを複数の前記候補位置について比較し、比較一致した候補位置に基づいて、前記対象物体が存在する物***置を判定する物体判定手段と、
    前記物***置での前記隠蔽度が前記参照画像隠蔽度以下である前記構成部分について、前記参照画像及び前記参照画像隠蔽度を、当該隠蔽度及び当該物***置での前記部分画像で更新する物体情報更新手段と、
    を有することを特徴とする画像監視装置。
  2. 請求項1に記載の画像監視装置において、
    前記物体判定手段は、基準位置に配置した前記物体モデルにより得られる基準投影像上に、前記部分画像を前記投影条件に基づいて写像した基準部分画像と、同じく前記基準投影像上に前記参照画像を写像した基準参照画像とが互いに重複する共通領域を求め、当該共通領域において前記基準部分画像と前記基準参照画像とを比較して前記物***置を判定すること、を特徴とする画像監視装置。
  3. 請求項2に記載の画像監視装置において、
    前記物体判定手段は、前記候補位置と、前記参照画像の取得に際して配置された前記物体モデルの位置とのうち視点位置からの距離が遠い方を前記基準位置に設定すること、を特徴とする画像監視装置。
  4. 請求項2又は請求項3に記載の画像監視装置において、
    前記物体判定手段は、前記部分モデルに高さ方向に層をなして複数の水平帯状領域を設定し、前記共通領域を前記水平帯状領域と対応する複数の小領域に分割し、当該小領域毎に前記基準部分画像と前記基準参照画像とを比較すること、を特徴とする画像監視装置。
JP2008210280A 2008-08-19 2008-08-19 画像監視装置 Expired - Fee Related JP5027758B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008210280A JP5027758B2 (ja) 2008-08-19 2008-08-19 画像監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008210280A JP5027758B2 (ja) 2008-08-19 2008-08-19 画像監視装置

Publications (2)

Publication Number Publication Date
JP2010049297A JP2010049297A (ja) 2010-03-04
JP5027758B2 true JP5027758B2 (ja) 2012-09-19

Family

ID=42066353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008210280A Expired - Fee Related JP5027758B2 (ja) 2008-08-19 2008-08-19 画像監視装置

Country Status (1)

Country Link
JP (1) JP5027758B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5667846B2 (ja) * 2010-11-15 2015-02-12 セコム株式会社 対象物画像判定装置
JP2012155595A (ja) * 2011-01-27 2012-08-16 Secom Co Ltd 対象物画像判定装置
JP5594672B2 (ja) * 2011-04-14 2014-09-24 株式会社 日立産業制御ソリューションズ 物体認識装置および物体認識方法
KR101505557B1 (ko) 2013-08-30 2015-03-25 고려대학교 산학협력단 축사 내 각각의 객체 간의 겹침 처리장치 및 방법
JP6166705B2 (ja) * 2014-09-29 2017-07-19 セコム株式会社 対象識別装置
JP6924064B2 (ja) * 2016-06-21 2021-08-25 キヤノン株式会社 画像処理装置およびその制御方法、ならびに撮像装置
JP6851241B2 (ja) * 2017-03-31 2021-03-31 セコム株式会社 画像解析装置
CN111753601B (zh) * 2019-03-29 2024-04-12 华为技术有限公司 一种图像处理的方法、装置以及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005351814A (ja) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc 検出装置および検出方法
JP4900204B2 (ja) * 2007-11-22 2012-03-21 株式会社Ihi 物体認識方法

Also Published As

Publication number Publication date
JP2010049297A (ja) 2010-03-04

Similar Documents

Publication Publication Date Title
US10417503B2 (en) Image processing apparatus and image processing method
JP5027758B2 (ja) 画像監視装置
JP5487298B2 (ja) 3次元画像生成
JP5027741B2 (ja) 画像監視装置
JP5180733B2 (ja) 移動物体追跡装置
JP5687082B2 (ja) 移動物体追跡装置
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
WO2016199244A1 (ja) 物体認識装置及び物体認識システム
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
KR20080020595A (ko) 보안 어플리케이션을 위한 사람을 감지하고 추적하는시스템
CN111144213B (zh) 一种对象检测方法和相关设备
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
US20220366570A1 (en) Object tracking device and object tracking method
JP5147760B2 (ja) 画像監視装置
JP5687035B2 (ja) 人物追跡装置
JP5667846B2 (ja) 対象物画像判定装置
KR101469099B1 (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
JP5552069B2 (ja) 移動物体追跡装置
US20220366716A1 (en) Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program
JP6336935B2 (ja) 移動物体追跡装置
JP6504711B2 (ja) 画像処理装置
JP6548683B2 (ja) 対象物画像推定装置および対象物画像判定装置
CN117994737B (zh) 一种智慧工地管控平台的监控报警***及方法
US20230368528A1 (en) Method and device for setting a value of an object property in a sequence of metadata frames corresponding to a sequence of video frames
JP6548682B2 (ja) 対象物画像判定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120622

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5027758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees