JP3910551B2 - Aiming position detection system - Google Patents

Aiming position detection system Download PDF

Info

Publication number
JP3910551B2
JP3910551B2 JP2003082055A JP2003082055A JP3910551B2 JP 3910551 B2 JP3910551 B2 JP 3910551B2 JP 2003082055 A JP2003082055 A JP 2003082055A JP 2003082055 A JP2003082055 A JP 2003082055A JP 3910551 B2 JP3910551 B2 JP 3910551B2
Authority
JP
Japan
Prior art keywords
light emitting
unit
light
image
emitting unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003082055A
Other languages
Japanese (ja)
Other versions
JP2004286399A (en
Inventor
悟章 池野
敬 菱沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Radio Co Ltd
Original Assignee
Japan Radio Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Radio Co Ltd filed Critical Japan Radio Co Ltd
Priority to JP2003082055A priority Critical patent/JP3910551B2/en
Publication of JP2004286399A publication Critical patent/JP2004286399A/en
Application granted granted Critical
Publication of JP3910551B2 publication Critical patent/JP3910551B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Position Input By Displaying (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、スクリーン上の指示目標に対する照準位置を検出するシステムに関する。
【0002】
【従来の技術】
従来の照準位置検出システムとしては、例えば特許文献1に開示されるものが知られている。このシステムでは、指示器具に取り付けられた赤外線発光器によってスクリーン上の照準位置に対応する位置に赤外線スポットが投射され、CCDカメラによってスクリーン上に投影された目標と前記赤外線スポットとを含む画像が取得され、取得された画像内でのそれらの相対的な位置関係からスクリーン上での赤外線スポットの位置すなわち照準位置が検出される。
【0003】
【特許文献1】
特開平3−134499号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来システムでは、赤外線スポットは赤外線発光器から放射された赤外光をスクリーン上で反射するスポットであるため、当該赤外線スポットからの光量が不足して、その位置を精度良く検出できない場合があるという問題があった。
【0005】
【課題を解決するための手段】
本発明にかかる照準位置検出システムは、スクリーン上に間隔をあけて複数設置される不可視光線の発光部と、上記複数の発光部の発光/消光を制御する発光制御部と、スクリーン上の照準位置に対応する撮影領域の不可視光線画像を取得する撮像部と、上記撮像部によって取得された不可視光線画像から上記発光部の画像を検出する発光部画像検出部と、上記発光部画像検出部によって発光部の画像が検出されたときそれに対応するタイミングで上記発光制御部が発光させていた発光部として、上記撮影領域内にある発光部を特定する特定部と、上記特定部によって特定された発光部の位置座標と、撮影領域の不可視光線画像におけるその発光部と照準位置との相対的な位置関係と、に基づいて、照準位置の位置座標を検出する照準位置検出部と、を備える。
【0006】
また上記本発明にかかる照準位置検出システムでは、上記発光制御部は、発光部を順次発光させるのが好適である。
【0007】
また上記本発明にかかる照準位置検出システムでは、上記発光制御部は、上記発光部画像検出部の検出結果に基づいて次に発光させる発光部を決定するのが好適である。
【0008】
また上記本発明にかかる照準位置検出システムでは、上記発光制御部は、複数の発光部を、発光させる発光群と消光させる消光群とに区分する二分法を用いて、上記撮影領域内に存在する発光部を含む群を絞り込み、次に発光させる発光部を決定するのが好適である。
【0009】
また上記本発明にかかる照準位置検出システムでは、照準位置の履歴から照準位置の移動先を予測する移動先予測部を備え、上記発光制御部は、その予測結果に基づいてその移動先側に位置する発光部を発光させるのが好適である。
【0010】
また、本発明にかかる検出装置は、照準位置検出システム用の検出装置であって、上記発光部画像検出部、特定部、および照準位置検出部を備える。
【0011】
また本発明にかかる照準位置検出システムは、スクリーン上に間隔をあけて複数設置される不可視光線の発光部と、スクリーン上の照準位置に対応する撮影領域の不可視光線画像を取得する撮像部と、上記撮像部によって取得された不可視光線画像から上記発光部の画像を検出する発光部画像検出部と、上記発光部画像検出部の検出結果に基づいて複数の発光部のうち上記撮影領域内にある発光部を特定する特定部と、上記特定部によって特定された発光部の位置座標と、撮影領域の不可視光線画像におけるその発光部と照準位置との相対的な位置関係と、に基づいて、照準位置の位置座標を検出する照準位置検出部と、を備え、上記発光部は、該発光部の画像がスクリーン上の該発光部の位置によって異なるものとなるように設置される。
【0012】
【発明の実施の形態】
まず、本発明の第一の実施形態について図面を参照して説明する。図1は、本実施形態にかかる照準位置検出システム10を備えた照準訓練システムの一例を示す外観図である。この図1に示すように、照準位置検出システム10は半球状のドーム14を備える。ドーム14の内壁はスクリーン16となっており、このスクリーン16上に、図示しないプロジェクタ等によって、移動する目標18を含む映像が投射される。訓練者は、指示器具20の軸が目標18を指向するように、例えば指示器具20に設けられた照準器(図示せず)を用いて目標18を追尾する。この指示器具20には撮影機構22が設けられており、検出装置24は、その撮影機構22による撮影領域Aの画像に基づいて照準位置を検出する。そして、検出装置24あるいは別の装置によって照準位置と目標18との誤差が算出され、この誤差に基づいて目標追尾成績が算出される。なお、スクリーン16の表面には、不可視光線(例えば赤外線)を発する発光部(例えば赤外線発光ダイオード等)26が間隔を空けて複数設置されており、撮影機構22は、その不可視光線の画像を取得する。不可視光線を用いることで、訓練等の妨げとなるのを防止しつつ発光部26の発光/消光の制御を自在に行うことができる。また撮影機構22は、少なくとも発光部26の画像を取得できるものであればよく、スクリーン16上に投影される目標18あるいはその他の画像を取得する機能は必須ではない。
【0013】
ここで、本実施形態にかかる照準位置検出システム10による照準位置検出の原理について、図2および図3を参照して説明する。図2は、スクリーン16上に投射された目標18、撮影機構22による撮影領域A、および照準位置Mを模式的に示す図であり、図3は、撮影機構22によって取得された図2の撮影領域Aの画像に所定の画像処理を施して得られた画像の一例を示す図である。なお、図3では、不可視光線の強度が所定の閾値より大きくなる部分(すなわち発光部26の画像)を黒く塗りつぶしている。
【0014】
図2に示すように、スクリーン16には、複数の発光部26(26a〜26t)が例えば千鳥配置で設けられている。なお図2は、これら複数の発光部26のうち、撮影領域A内に位置するもののうち二つの発光部26f,26kのみが発光し(太い線で示す)、その他の発光部(26a〜26e,26g〜26j,26l〜26t;細い線で示す)が消光しているときの様子を示している。
【0015】
撮影機構22は、発光部26の発する不可視光線の画像を取得する。すなわち図3に示すように、撮影機構22が取得した図2の撮影領域Aの画像には、発光している発光部26f,26kの画像は含まれるが、消光している発光部(26a〜26e,26g〜26j,26l〜26t)の画像は含まれない。そして検出装置24(の照準位置検出部38;図4)は、この画像から照準位置Mを検出する。具体的には、検出装置24は、画像スケール(x,y)における二つの発光部26f,26kの画像の中心の座標(x1,y1),(x2,y2)を求める。撮影領域Aおよび画像スケールは照準位置Mに対して相対的に固定されているので、画像スケール上での発光部26f,26kの座標から、発光部26f,26kに対する照準位置M(例えば撮影領域Aの中心に設定される)の相対的な位置がわかる。そして、発光部26f,26kのスクリーン16上の位置座標(三次元座標)は既知であるから、検出装置24は、当該発光部26f,26kのスクリーン16上の位置座標と前記相対的な位置関係とから、照準位置Mのスクリーン16上の位置座標を取得することができる。さらに、目標18のスクリーン16上の位置座標は既知であるので、目標18のスクリーン16上の位置座標と照準位置Mのスクリーン16上の位置座標との誤差を算出することができ、さらに、その誤差に基づいて訓練成績を算出することができる。なお、ここでは、発光部26f,26kの画像に基づいて照準位置Mのスクリーン16上の位置座標を取得する例について示したが、これには限られず、撮影領域A内の発光部26(すなわち図2の場合は、26f,26g,26j,26k,26n,26o)の発光画像であればどれを用いても同様に照準位置Mを取得することができる。スクリーン16上の撮影領域Aの姿勢や倍率が既知(または固定値)である場合には、撮影領域A内にある一つの発光部26の画像から照準位置Mを取得することができる。
【0016】
次に、図4を参照して、本実施形態にかかる照準位置検出システム10の概略構成について説明する。図4は、照準位置検出システム10のブロック図である。
【0017】
照準位置検出システム10は、撮影機構22、検出装置24および発光機構を含む。上述したように、撮影機構22は、スクリーン16上の撮影領域Aの不可視光線画像を取得する。取得された不可視光線画像は検出装置24に送られる。
【0018】
検出装置24は、その不可視光線画像から照準位置Mを検出する。まず、画像処理部32は、撮影機構22によって取得された不可視光線画像に所定の画像処理(例えば、二値化処理、フィルタリング、グルーピング、ラベリング等)を施す。これによって例えば図3に示した画像が取得される。発光部画像検出部34は、その画像中に所定の条件を満たす画素グループ(例えばその画素数や形状等が所定の条件を満たすもの)がある場合に、その画素グループを発光部26の画像として検出する。例えば図3の場合には、二つの画素群が発光部26の画像として認定されることになる。
【0019】
ここで、発光部画像検出部34では、撮影領域A内に発光している発光部26があるときには発光部26の画像が検出されるが、撮影領域A内に発光している発光部26が無いときには当然ながら発光部26の画像は検出されない。これを利用して、スクリーン16上の複数の発光部26から、撮影領域A内にある発光部26を特定することができる。その一例について図5を参照して説明する。図5は、発光部26の発光パターンの一例を示す図である。この図5では、発光している発光部26を太線で示し、消光している発光部26を細線で示している。この例では、(a)〜(c)に示すように、発光させる発光部26を順次切り替えるとともに、各発光タイミングでは全発光部26のうち二つの発光部26のみが発光するようにしている。こうしてスクリーン16上の全ての発光部26を順次発光させれば、撮影領域A内に存在する発光部26も所定のタイミングで必ず発光し、そのときには発光部画像検出部34でその発光部26の画像が検出されることになる。すなわち、特定部36は、発光部画像検出部34で発光部26の画像が所定数(撮影領域A内の発光部26を最終的に特定するときに一度に発光させる発光部26の数)検出されたときに、その画像が検出されたタイミングに対応して発光していた発光部26を示す情報を取得し、その発光部26の画像に対応する発光部26を特定する。この手法は、訓練開始時など、検出装置24で指示器具20の指示方向すなわち撮影領域Aを把握することができず、まずはそれを特定する必要がある場合に有効である。なお、この処理のため、撮影領域Aの大きさおよび発光部26の分布密度は、撮影領域Aがスクリーン16上のどの位置にあっても少なくとも前記所定数の発光部26が含まれるように設定しておく。
【0020】
検出された発光部26が特定部36によって特定されると、照準位置検出部38は、上述した手法を用いて、その発光部26のスクリーン16上の位置座標と、画像(すなわち画像処理部32によって画像処理された後の画像)中の発光部26の位置と照準位置Mとの相対的な位置関係とから、スクリーン16上の照準位置Mを検出する。各タイミングで検出された照準位置Mを示す情報は、照準位置履歴情報として、照準位置履歴記憶部40に格納される。この照準位置履歴情報は、照準の成績算出に用いられる。すなわち、成績算出部42は、照準位置履歴情報と、各タイミングにおける目標18の位置を示す目標位置履歴情報とを比較し、それらの誤差の程度あるいは誤差が所定の閾値を超えた率などから、訓練成績を算出する。なお、目標位置履歴情報は、例えば、画像投影システム44から取得され、目標位置履歴記憶部46に格納される。
【0021】
また、照準位置検出システム10は、発光機構として、発光制御部48、発光パターン記憶部50、駆動回路52、発光履歴記憶部54を備える。このうち発光制御部48は、例えば、発光パターン記憶部50に格納される発光パターン(例えば、図5に例示したような発光部26を二個ずつ順次発光させる発光パターン等)に基づいて、複数の発光部26の発光/消光を制御することができる。発光制御部48で生成された制御信号は駆動回路52に入力され、駆動回路52は、この制御信号に基づいて複数の発光部26を発光あるいは消光させる。また、発光履歴記憶部54は、各発光部26の各タイミングにおける発光/消光を示す情報、すなわち発光履歴情報を格納する。発光制御部48は、この発光履歴情報に基づいて発光/消光を制御することもできる。
【0022】
そして、この発光制御部48によって複数の発光部26の発光/消光を適切に制御することで、撮影領域A内にある発光部26をより迅速に特定することができる。その一例について図6を参照して説明する。図6は、発光部26の発光パターンの他の一例を示す図であり、具体的には、複数の発光部26を、発光させる発光群と消光させる消光群とに区分する手法(いわゆる二分法)を用いて、スクリーン16上の全発光部26から、撮影領域A内にある発光部26を絞り込む例である。まず、発光制御部48は、図6(a)に示すように、例えば、スクリーン16上の全ての発光部26を群a1と群a2とに分け、そのうちいずれか一方の群(発光群;例えば群a1)に属する発光部26を発光させ、他方の群(消光群;例えば群a2)の発光部26を消光させる。ここで、発光部画像検出部34において、このときの画像から発光部26の画像が検出された場合には、撮影領域A内には発光群(群a1)の発光部26が含まれていることを意味し、逆に発光部26の画像が検出されなかった場合には、撮影領域A内には消光群(群a2)の発光部26が含まれることを意味する。さらに、発光制御部48は、発光履歴情報と発光部画像検出部34の検出結果に基づき、撮影領域A内の発光部26を含む群(図6(a)の例では群a1)を、さらに発光群(例えば群b1)と消光群(例えば群b2)とに分け、同様の処理を実行する。かかる処理を繰り返すことで、撮影領域A内にある発光部26が絞り込まれる。こうして特定部36は、撮影領域A内にある発光部26を、図5の場合よりさらに迅速に特定することができるようになる。
【0023】
そして、本実施形態にかかる照準位置検出システム10では、一旦撮影領域A内の発光部26が特定されると、その後は、照準位置の移動を予測して発光部26の発光を制御するため、撮影領域Aが移動したとしても、当該撮影領域A内に位置する発光部26が発光する状態をより容易に維持することができる。その一例について、図7を参照して説明する。図7は、照準位置の移動先の予測に基づく発光部26の制御の一例を示す図である。図7(a)に示すように、目標18が矢印の方向に移動している場合などには、通常、それを追尾する照準位置Mも矢印の方向に移動することになるが、このとき、発光している発光部26が撮影領域Aから外れ、その撮影領域A内に発光状態の発光部26が無くなると、図5あるいは図6に例示した手法等により、再度、撮影領域A内の発光部26を探し出す必要が生じる。そこで、本実施形態では、移動先予測部56により、照準位置履歴記憶部40から取得した照準位置履歴情報に基づいて照準位置Mpおよび撮影領域Aの移動先を予測し、その移動先にある発光部26を発光させる(図7(b))。例えば、最近の数回のタイミングでの照準位置情報を取得し、それら位置座標から外挿することによって次の照準位置Mpを予測する。具体的には、過去2回の二つの照準位置を通る一次関数を算出し、その一次関数上で最近の照準位置からそれら二つの照準位置間の距離だけ離れた点として移動先Mpの位置座標を求めることができる。そして、移動先予測部56は、例えば、撮影領域A近傍の発光部26のうち、移動先側に照準位置の予測位置Mpに対して所定の距離内に位置する発光部26(図7(b)では発光部26pr)があったときは、それを示す情報を発光制御部48に伝える。発光制御部48は、その情報に基づいて当該発光部26(同発光部26pr)を発光させる。こうして、発光状態の発光部26を撮影領域A内に捕捉した状態が維持されやすくなり、より精度良く照準位置Mを検出することができるようになる。
【0024】
次に、本発明の他の実施形態について図8および図9を参照して説明する。図8は、本発明の第二の実施形態にかかるスクリーン16aを示す図、また図9は、本発明の第三の実施形態にかかるスクリーン16bを示す図である。これら実施形態では、発光部26の配置パターンをその位置に応じて異なるものとし、発光部26の画像からその発光部26を特定できるようにしている。このため、特定部36(図4)は、発光部26のスクリーン上の配置パターンや形状を示す情報を記憶する発光部情報記憶部58を参照して、検出された発光部26を特定する。さて、図8の例では、発光部26の各群における発光部26の数を行毎に変え、さらに各発光部26の群の姿勢(回転角度)を列毎に変えている。また、図9の例では、列方向(上下方向)に隣接する二つの発光部26の間隔を列方向で変え(下側ほど大きくなっており)、さらに隣接する行の間隔を行方向で変えている(右側ほど行間隔を大きくしている)。これらの例のように発光部26の配置をその位置に応じた固有のものとすることで、撮影領域Aの位置によってその撮影領域Aの画像中の発光部26の画像が異なるようになるので、当該発光部26の画像のパターンからその発光部26を特定することができる。なお、配置パターンは、全スクリーン16について固有とするのが好適であるが、スクリーンの一部領域で固有とし、上記第一の実施形態の手法を併用して撮影領域A中の発光部26を特定するようにしてもよい。また、形状の異なる発光部26を複数種類用い、スクリーン16上の位置固有の発光部26の形状および配置パターンとすることで、発光部26を特定できるようにしてもよい。
【0025】
なお、本発明にかかる照準位置検出システムは、射撃訓練や消防放水訓練等の照準訓練システムに適用することができるほか、ゲーム機器等に適用することも可能である。また、スクリーンは平面であってもよいし、不可視光線が取得できる距離が確保できればシステムの規模等も特に限定されるものではない。
【0026】
【発明の効果】
以上、説明したように、本発明によれば、不可視光線の発光部をスクリーンに設けたため、不可視光線のスポットをスクリーン上に形成していた場合に比べ、十分な光量を得ることができ、照準位置の検出精度が向上するという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の実施形態にかかる照準位置検出システムを含む照準訓練システムの外観図である。
【図2】 本発明の実施形態にかかる照準位置検出システムのスクリーン上の目標、撮影領域および照準位置を模式的に示す図である。
【図3】 本発明の実施形態にかかる照準位置検出システムによって取得された図2の撮影領域Aの画像に所定の画像処理を施して得られた画像の一例を示す図である。
【図4】 本発明の実施形態にかかる照準位置検出システムのブロック図である。
【図5】 本発明の第一の実施形態にかかる照準位置検出システムの発光部の発光パターンの一例を示す図である。
【図6】 本発明の第一の実施形態にかかる照準位置検出システムの発光部の発光パターンの他の例を示す図である。
【図7】 本発明の第一の実施形態にかかる照準位置検出システムによる照準位置の移動先の予測およびその予測に基づく発光部の制御の一例を示すための図である。
【図8】 本発明の第二の実施形態にかかる照準位置検出システムにおけるスクリーン上の発光部の配置パターンを示す図である。
【図9】 本発明の第三の実施形態にかかる照準位置検出システムにおけるスクリーン上の発光部の配置パターンを示す図である。
【符号の説明】
10 照準位置検出システム、14 ドーム、16,16a,16b スクリーン、18 目標、20 指示器具、22 撮影機構、24 検出装置、26(26a〜26t,26pr) 発光部、32 画像処理部、34 発光部画像検出部、36 特定部、38 照準位置検出部、40 照準位置履歴記憶部、42成績算出部、44 画像投影システム、46 目標位置履歴記憶部、48 発光制御部、50 発光パターン記憶部、52 駆動回路、54 発光履歴記憶部、56 移動先予測部、58 発光部情報記憶部、A 撮影領域、M 照準位置、Mp 移動先(照準位置)。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a system for detecting an aiming position with respect to an indicated target on a screen.
[0002]
[Prior art]
As a conventional aiming position detection system, for example, one disclosed in Patent Document 1 is known. In this system, an infrared spot is projected at a position corresponding to the aiming position on the screen by an infrared emitter attached to the pointing device, and an image including the target projected on the screen by the CCD camera and the infrared spot is acquired. The position of the infrared spot on the screen, that is, the aiming position is detected from the relative positional relationship in the acquired image.
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 3-134499 [0004]
[Problems to be solved by the invention]
However, in the above-described conventional system, the infrared spot is a spot that reflects the infrared light emitted from the infrared emitter on the screen, and therefore the amount of light from the infrared spot is insufficient and the position cannot be detected accurately. There was a problem that there was.
[0005]
[Means for Solving the Problems]
An aiming position detection system according to the present invention includes a plurality of invisible light emitting units installed at intervals on a screen, a light emission control unit for controlling light emission / extinction of the plurality of light emitting units, and an aiming position on the screen. An imaging unit that acquires an invisible light image of an imaging region corresponding to the light-emitting unit, a light-emitting unit image detection unit that detects an image of the light-emitting unit from the invisible light image acquired by the imaging unit, and light emission by the light-emitting unit image detection unit A light-emitting part that is emitted by the light-emission control unit at a timing corresponding to the detected image, and a light-emitting part that is identified by the light-identifying part Sighting position detection that detects the position coordinates of the aiming position based on the position coordinates of the light emitting unit and the aiming position in the invisible light image of the imaging region. It comprises a part, a.
[0006]
In the aiming position detection system according to the present invention, it is preferable that the light emission control unit sequentially causes the light emitting units to emit light.
[0007]
In the aiming position detection system according to the present invention, it is preferable that the light emission control unit determines a light emitting unit to emit light next based on a detection result of the light emitting unit image detection unit.
[0008]
In the aiming position detection system according to the present invention, the light emission control unit exists in the imaging region by using a bisection method that divides a plurality of light emitting units into a light emitting group that emits light and a quenching group that extinguishes light. It is preferable to narrow down the group including the light emitting units and determine the light emitting unit to be emitted next.
[0009]
The aim position detection system according to the present invention further includes a destination prediction unit that predicts the destination of the aim position from the history of the aim position, and the light emission control unit is located on the destination side based on the prediction result. It is preferable to cause the light emitting portion to emit light.
[0010]
A detection device according to the present invention is a detection device for an aiming position detection system, and includes the light emitting unit image detection unit, the specifying unit, and the aiming position detection unit.
[0011]
The aiming position detection system according to the present invention includes a plurality of invisible light emitting units installed on the screen at intervals, an imaging unit for obtaining an invisible light image of an imaging region corresponding to the aiming position on the screen, A light emitting unit image detecting unit that detects an image of the light emitting unit from an invisible light image acquired by the imaging unit, and a plurality of light emitting units within the imaging region based on a detection result of the light emitting unit image detecting unit Based on the specifying unit for specifying the light emitting unit, the position coordinates of the light emitting unit specified by the specifying unit, and the relative positional relationship between the light emitting unit and the aiming position in the invisible light image of the imaging region, An aiming position detecting unit that detects position coordinates of the position, and the light emitting unit is installed so that an image of the light emitting unit differs depending on the position of the light emitting unit on the screen.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
First, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an external view showing an example of an aiming training system provided with an aiming position detection system 10 according to the present embodiment. As shown in FIG. 1, the aiming position detection system 10 includes a hemispherical dome 14. The inner wall of the dome 14 is a screen 16, and an image including the moving target 18 is projected onto the screen 16 by a projector or the like (not shown). The trainer tracks the target 18 using, for example, a sighting device (not shown) provided in the pointing device 20 so that the axis of the pointing device 20 is directed toward the target 18. The pointing device 20 is provided with an imaging mechanism 22, and the detection device 24 detects the aiming position based on the image of the imaging area A by the imaging mechanism 22. Then, an error between the aiming position and the target 18 is calculated by the detection device 24 or another device, and a target tracking result is calculated based on this error. Note that a plurality of light emitting units (for example, infrared light emitting diodes) 26 that emit invisible light (for example, infrared light) are disposed on the surface of the screen 16 at intervals, and the imaging mechanism 22 acquires an image of the invisible light. To do. By using invisible light, it is possible to freely control the light emission / extinction of the light emitting unit 26 while preventing the training from being hindered. The photographing mechanism 22 only needs to acquire at least the image of the light emitting unit 26, and the function of acquiring the target 18 or other image projected on the screen 16 is not essential.
[0013]
Here, the principle of the aim position detection by the aim position detection system 10 according to the present embodiment will be described with reference to FIGS. 2 and 3. FIG. 2 is a diagram schematically showing the target 18 projected on the screen 16, the imaging area A by the imaging mechanism 22, and the aiming position M, and FIG. 3 shows the imaging of FIG. 2 acquired by the imaging mechanism 22. It is a figure which shows an example of the image obtained by giving a predetermined image process to the image of the area | region A. FIG. In FIG. 3, a portion where the intensity of invisible light is greater than a predetermined threshold (that is, the image of the light emitting unit 26) is blacked out.
[0014]
As shown in FIG. 2, the screen 16 is provided with a plurality of light emitting portions 26 (26a to 26t) in, for example, a staggered arrangement. In FIG. 2, only two of the plurality of light emitting units 26 located in the imaging region A emit light (indicated by thick lines), and the other light emitting units (26a to 26e, 26g to 26j, 26l to 26t; indicated by thin lines) shows the state when the light is extinguished.
[0015]
The imaging mechanism 22 acquires an image of invisible light emitted from the light emitting unit 26. That is, as shown in FIG. 3, the image of the imaging region A in FIG. 2 acquired by the imaging mechanism 22 includes the images of the light emitting units 26 f and 26 k that are emitting light, but the light emitting units (26 a to 26 a to 26. 26e, 26g to 26j, and 26l to 26t) are not included. Then, the detection device 24 (the aim position detection unit 38; FIG. 4) detects the aim position M from this image. Specifically, the detection device 24 obtains the coordinates (x1, y1) and (x2, y2) of the center of the image of the two light emitting units 26f and 26k on the image scale (x, y). Since the imaging area A and the image scale are fixed relative to the aiming position M, the aiming position M (for example, the imaging area A) with respect to the light emitting parts 26f and 26k is determined from the coordinates of the light emitting parts 26f and 26k on the image scale. The relative position is set. Since the position coordinates (three-dimensional coordinates) of the light emitting units 26f and 26k on the screen 16 are known, the detection device 24 determines the relative positional relationship between the position coordinates of the light emitting units 26f and 26k on the screen 16 and the relative position relationship. From the above, the position coordinates on the screen 16 of the aiming position M can be acquired. Further, since the position coordinates of the target 18 on the screen 16 are known, an error between the position coordinates of the target 18 on the screen 16 and the position coordinates of the aiming position M on the screen 16 can be calculated. Training results can be calculated based on the error. Here, although an example in which the position coordinates on the screen 16 of the aiming position M are acquired based on the images of the light emitting units 26f and 26k is shown, the present invention is not limited to this, and the light emitting unit 26 in the imaging region A (that is, In the case of FIG. 2, the aiming position M can be obtained in the same manner using any of the light emission images 26f, 26g, 26j, 26k, 26n, and 26o). When the posture and magnification of the shooting area A on the screen 16 are known (or fixed values), the aiming position M can be acquired from the image of one light emitting unit 26 in the shooting area A.
[0016]
Next, a schematic configuration of the aiming position detection system 10 according to the present embodiment will be described with reference to FIG. FIG. 4 is a block diagram of the aiming position detection system 10.
[0017]
The aiming position detection system 10 includes an imaging mechanism 22, a detection device 24, and a light emission mechanism. As described above, the imaging mechanism 22 acquires an invisible light image of the imaging area A on the screen 16. The acquired invisible light image is sent to the detection device 24.
[0018]
The detection device 24 detects the aiming position M from the invisible light image. First, the image processing unit 32 performs predetermined image processing (for example, binarization processing, filtering, grouping, labeling, etc.) on the invisible light image acquired by the imaging mechanism 22. Thereby, for example, the image shown in FIG. 3 is acquired. The light emitting unit image detecting unit 34 uses the pixel group as an image of the light emitting unit 26 when there is a pixel group satisfying a predetermined condition in the image (for example, a pixel group or a shape satisfying a predetermined condition). To detect. For example, in the case of FIG. 3, two pixel groups are recognized as images of the light emitting unit 26.
[0019]
Here, in the light emitting unit image detecting unit 34, when there is a light emitting unit 26 emitting light in the photographing region A, an image of the light emitting unit 26 is detected, but the light emitting unit 26 emitting light in the photographing region A is detected. Of course, when there is no image, the image of the light emitting unit 26 is not detected. By utilizing this, it is possible to identify the light emitting unit 26 in the imaging region A from the plurality of light emitting units 26 on the screen 16. One example will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a light emission pattern of the light emitting unit 26. In FIG. 5, the light emitting portion 26 that emits light is indicated by a thick line, and the light emitting portion 26 that is extinguished is indicated by a thin line. In this example, as shown in (a) to (c), the light emitting units 26 that emit light are sequentially switched, and only two of the light emitting units 26 emit light at each light emission timing. If all the light emitting units 26 on the screen 16 are caused to emit light sequentially in this way, the light emitting units 26 existing in the photographing area A also emit light at a predetermined timing, and at that time, the light emitting unit image detection unit 34 uses the light emitting unit 26 of the light emitting unit 26. An image will be detected. That is, the specifying unit 36 detects a predetermined number of images of the light emitting unit 26 by the light emitting unit image detecting unit 34 (the number of light emitting units 26 that emit light at a time when the light emitting unit 26 in the imaging region A is finally specified). When this is done, information indicating the light emitting unit 26 emitting light corresponding to the timing at which the image was detected is acquired, and the light emitting unit 26 corresponding to the image of the light emitting unit 26 is specified. This method is effective when the detection device 24 cannot grasp the pointing direction of the pointing device 20, that is, the imaging region A, at the start of training or the like, and first needs to specify it. For this processing, the size of the shooting area A and the distribution density of the light emitting units 26 are set so that at least the predetermined number of the light emitting units 26 is included regardless of the position of the shooting area A on the screen 16. Keep it.
[0020]
When the detected light emitting unit 26 is specified by the specifying unit 36, the aiming position detecting unit 38 uses the above-described technique to detect the position coordinates of the light emitting unit 26 on the screen 16 and the image (that is, the image processing unit 32). The aiming position M on the screen 16 is detected from the relative positional relationship between the position of the light emitting unit 26 and the aiming position M in the image after the image processing is performed. Information indicating the aiming position M detected at each timing is stored in the aiming position history storage unit 40 as aiming position history information. This aiming position history information is used for aiming result calculation. That is, the grade calculation unit 42 compares the aim position history information with the target position history information indicating the position of the target 18 at each timing, and based on the degree of error or the rate at which the error exceeds a predetermined threshold, etc. Calculate training results. The target position history information is acquired from, for example, the image projection system 44 and stored in the target position history storage unit 46.
[0021]
The aiming position detection system 10 includes a light emission control unit 48, a light emission pattern storage unit 50, a drive circuit 52, and a light emission history storage unit 54 as a light emission mechanism. Among these, the light emission control unit 48 includes, for example, a plurality of light emission patterns stored in the light emission pattern storage unit 50 (for example, a light emission pattern that sequentially emits two light emitting units 26 as illustrated in FIG. 5). The light emission / extinction of the light emitting unit 26 can be controlled. The control signal generated by the light emission control unit 48 is input to the drive circuit 52, and the drive circuit 52 causes the plurality of light emission units 26 to emit light or extinguish based on the control signal. Further, the light emission history storage unit 54 stores information indicating light emission / extinction at each timing of each light emitting unit 26, that is, light emission history information. The light emission control unit 48 can also control light emission / quenching based on this light emission history information.
[0022]
Then, by appropriately controlling the light emission / extinction of the plurality of light emitting units 26 by the light emission control unit 48, the light emitting units 26 in the imaging region A can be identified more quickly. One example thereof will be described with reference to FIG. FIG. 6 is a diagram showing another example of the light emission pattern of the light emitting unit 26. Specifically, a method of dividing a plurality of light emitting units 26 into a light emitting group to emit light and a quenching group to quench (so-called bisection method). ) Is used to narrow down the light emitting units 26 in the imaging region A from all the light emitting units 26 on the screen 16. First, as shown in FIG. 6A, for example, the light emission control unit 48 divides all the light emitting units 26 on the screen 16 into a group a1 and a group a2, and one of these groups (light emitting group; for example, The light emitting units 26 belonging to the group a1) are caused to emit light, and the light emitting units 26 of the other group (quenching group; for example, group a2) are extinguished. Here, when the light emitting unit image detecting unit 34 detects the image of the light emitting unit 26 from the image at this time, the imaging region A includes the light emitting unit 26 of the light emitting group (group a1). Conversely, if the image of the light emitting unit 26 is not detected, it means that the light emitting unit 26 of the extinction group (group a2) is included in the imaging region A. Further, the light emission control unit 48 further selects a group including the light emitting units 26 in the imaging region A (the group a1 in the example of FIG. 6A) based on the light emission history information and the detection result of the light emitting unit image detection unit 34. The same processing is executed by dividing into a light emitting group (for example, group b1) and a quenching group (for example, group b2). By repeating such processing, the light emitting units 26 in the imaging area A are narrowed down. In this way, the specifying unit 36 can specify the light emitting unit 26 in the imaging region A more quickly than in the case of FIG.
[0023]
In the aiming position detection system 10 according to the present embodiment, once the light emitting unit 26 in the imaging region A is identified, thereafter, the movement of the aiming position is predicted and the light emission of the light emitting unit 26 is controlled. Even if the shooting area A moves, the state in which the light emitting unit 26 located in the shooting area A emits light can be more easily maintained. One example thereof will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of the control of the light emitting unit 26 based on the prediction of the movement destination of the aiming position. As shown in FIG. 7A, when the target 18 is moving in the direction of the arrow, the aiming position M for tracking the target 18 is usually moved in the direction of the arrow. When the light emitting unit 26 that emits light is out of the imaging region A and the light emitting unit 26 in the light emitting state disappears in the imaging region A, the light emission in the imaging region A is performed again by the method illustrated in FIG. 5 or FIG. The part 26 needs to be found out. Therefore, in the present embodiment, the movement destination prediction unit 56 predicts the aiming position Mp and the movement destination of the imaging region A based on the aiming position history information acquired from the aiming position history storage unit 40, and emits light at the movement destination. The part 26 is caused to emit light (FIG. 7B). For example, the aiming position information at the latest several times is acquired, and the next aiming position Mp is predicted by extrapolating from the position coordinates. Specifically, a linear function passing through the two aiming positions in the past two times is calculated, and the position coordinates of the movement destination Mp are defined as points that are separated from the most recent aiming position by the distance between the two aiming positions on the linear function. Can be requested. Then, the movement destination prediction unit 56, for example, among the light emission units 26 in the vicinity of the imaging region A, the light emission unit 26 (see FIG. ), When there is a light emitting unit 26pr), information indicating it is transmitted to the light emission control unit 48. The light emission control unit 48 causes the light emitting unit 26 (the light emitting unit 26pr) to emit light based on the information. Thus, the state where the light emitting unit 26 in the light emitting state is captured in the imaging region A is easily maintained, and the aiming position M can be detected with higher accuracy.
[0024]
Next, another embodiment of the present invention will be described with reference to FIGS. FIG. 8 is a view showing a screen 16a according to the second embodiment of the present invention, and FIG. 9 is a view showing a screen 16b according to the third embodiment of the present invention. In these embodiments, the arrangement pattern of the light emitting units 26 is different depending on the position, and the light emitting units 26 can be specified from the image of the light emitting units 26. Therefore, the specifying unit 36 (FIG. 4) specifies the detected light emitting unit 26 with reference to the light emitting unit information storage unit 58 that stores information indicating the arrangement pattern and shape of the light emitting unit 26 on the screen. In the example of FIG. 8, the number of light emitting units 26 in each group of light emitting units 26 is changed for each row, and the posture (rotation angle) of each light emitting unit 26 is changed for each column. In the example of FIG. 9, the interval between the two light emitting units 26 adjacent in the column direction (vertical direction) is changed in the column direction (becomes larger toward the lower side), and the interval between adjacent rows is changed in the row direction. (The line spacing increases toward the right). By making the arrangement of the light emitting unit 26 unique according to the position as in these examples, the image of the light emitting unit 26 in the image of the shooting area A differs depending on the position of the shooting area A. The light emitting unit 26 can be identified from the image pattern of the light emitting unit 26. The arrangement pattern is preferably unique for all the screens 16, but is unique for a partial area of the screen, and the light emitting unit 26 in the photographing area A is used in combination with the technique of the first embodiment. It may be specified. Further, the light emitting unit 26 may be specified by using a plurality of types of light emitting units 26 having different shapes and using the shape and arrangement pattern of the light emitting units 26 specific to the position on the screen 16.
[0025]
The aiming position detection system according to the present invention can be applied to aiming training systems such as shooting training and firefighting water discharge training, and can also be applied to game machines and the like. In addition, the screen may be a flat surface, and the scale of the system is not particularly limited as long as a distance capable of acquiring invisible light can be secured.
[0026]
【The invention's effect】
As described above, according to the present invention, since the invisible light emitting part is provided on the screen, a sufficient amount of light can be obtained compared to the case where the spot of invisible light is formed on the screen, The effect that the position detection accuracy is improved is obtained.
[Brief description of the drawings]
FIG. 1 is an external view of an aiming training system including an aiming position detection system according to an embodiment of the present invention.
FIG. 2 is a diagram schematically showing a target on the screen, an imaging region, and an aim position of the aim position detection system according to the embodiment of the present invention.
3 is a diagram illustrating an example of an image obtained by performing predetermined image processing on the image of the imaging region A of FIG. 2 acquired by the aiming position detection system according to the embodiment of the present invention.
FIG. 4 is a block diagram of an aim position detection system according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example of a light emission pattern of a light emitting unit of the aiming position detection system according to the first embodiment of the present invention.
FIG. 6 is a diagram showing another example of the light emission pattern of the light emitting unit of the aiming position detection system according to the first embodiment of the present invention.
FIG. 7 is a diagram showing an example of prediction of the movement destination of the aiming position by the aiming position detection system according to the first embodiment of the present invention and control of the light emitting unit based on the prediction.
FIG. 8 is a diagram showing an arrangement pattern of light emitting units on a screen in an aim position detection system according to a second embodiment of the present invention.
FIG. 9 is a diagram showing an arrangement pattern of light emitting units on a screen in an aim position detection system according to a third embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Aiming position detection system, 14 Dome, 16, 16a, 16b Screen, 18 Target, 20 Pointer, 22 Imaging mechanism, 24 Detection device, 26 (26a-26t, 26pr) Light emitting part, 32 Image processing part, 34 Light emitting part Image detection unit, 36 identification unit, 38 aim position detection unit, 40 aim position history storage unit, 42 result calculation unit, 44 image projection system, 46 target position history storage unit, 48 light emission control unit, 50 light emission pattern storage unit, 52 Drive circuit, 54 light emission history storage unit, 56 movement destination prediction unit, 58 light emission unit information storage unit, A imaging area, M aiming position, Mp movement destination (aiming position).

Claims (3)

スクリーン上に間隔をあけて複数設置される不可視光線の発光部と、
前記複数の発光部の発光/消光を制御する発光制御部と、
スクリーン上の照準位置に対応する撮影領域の不可視光線画像を取得する撮像部と、
前記撮像部によって取得された不可視光線画像から前記発光部の画像を検出する発光部画像検出部と、
前記発光部画像検出部によって発光部の画像が検出されたときそれに対応するタイミングで前記発光制御部が発光させていた発光部として、前記撮影領域内にある発光部を特定する特定部と、
前記特定部によって特定された発光部の位置座標と、撮影領域の不可視光線画像におけるその発光部と照準位置との相対的な位置関係と、に基づいて、照準位置の位置座標を検出する照準位置検出部と、を備え
前記発光制御部は、前記発光部画像検出部の検出結果に基づいて、複数の発光部を、発光させる発光群と消光させる消光群とに区分する二分法を用いて、前記撮影領域内に存在する発光部を含む群を絞り込み、次に発光させる発光部を決定することを特徴とする照準位置検出システム。
A plurality of invisible light emitting parts installed at intervals on the screen;
A light emission control unit for controlling light emission / extinction of the plurality of light emitting units;
An imaging unit that acquires an invisible light image of an imaging region corresponding to the aiming position on the screen;
A light emitting unit image detecting unit that detects an image of the light emitting unit from an invisible light image acquired by the imaging unit;
When the light emitting unit image detecting unit detects an image of the light emitting unit, the light emitting unit that emits light at a timing corresponding thereto, and a specifying unit that identifies the light emitting unit in the photographing area;
Aiming position for detecting the position coordinate of the aiming position based on the position coordinates of the light emitting part specified by the specifying part and the relative positional relationship between the light emitting part and the aiming position in the invisible light image of the imaging region A detection unit ,
The light emission control unit is present in the imaging region using a bisection method that divides a plurality of light emitting units into a light emitting group to emit light and a quenching group to quench based on the detection result of the light emitting unit image detecting unit. A sighting position detection system characterized by narrowing down a group including light emitting units to be emitted and determining a light emitting unit to be emitted next .
スクリーン上に間隔をあけて複数設置される不可視光線の発光部と、
前記複数の発光部の発光/消光を制御する発光制御部と、
スクリーン上の照準位置に対応する撮影領域の不可視光線画像を取得する撮像部と、
前記撮像部によって取得された不可視光線画像から前記発光部の画像を検出する発光部画像検出部と、
前記発光部画像検出部によって発光部の画像が検出されたときそれに対応するタイミングで前記発光制御部が発光させていた発光部として、前記撮影領域内にある発光部を特定する特定部と
前記特定部によって特定された発光部の位置座標と、撮影領域の不可視光線画像におけるその発光部と照準位置との相対的な位置関係と、に基づいて、照準位置の位置座標を検出する照準位置検出部と、
照準位置の履歴から照準位置の移動先を予測する移動先予測部と、を備え、
前記発光制御部は、前記移動先予測部による予測結果に基づいてその移動先側に位置する発光部を発光させることを特徴とする照準位置検出システム。
A plurality of invisible light emitting parts installed at intervals on the screen;
A light emission control unit for controlling light emission / extinction of the plurality of light emitting units;
An imaging unit that acquires an invisible light image of an imaging region corresponding to the aiming position on the screen;
A light emitting unit image detecting unit that detects an image of the light emitting unit from an invisible light image acquired by the imaging unit;
When the light emitting unit image detecting unit detects an image of the light emitting unit, the light emitting unit that emits light at a timing corresponding thereto, and a specifying unit that identifies the light emitting unit in the photographing area ;
Aiming position for detecting the position coordinate of the aiming position based on the position coordinates of the light emitting part specified by the specifying part and the relative positional relationship between the light emitting part and the aiming position in the invisible light image of the imaging region A detection unit;
A destination prediction unit that predicts the destination of the aim position from the history of the aim position, and
The light emission control unit causes the light emitting unit located on the movement destination side to emit light based on a prediction result by the movement destination prediction unit.
前記発光制御部は、発光部を順次発光させることを特徴とする請求項1又は2に記載の照準位置検出システム。The aim position detection system according to claim 1, wherein the light emission control unit causes the light emitting unit to emit light sequentially.
JP2003082055A 2003-03-25 2003-03-25 Aiming position detection system Expired - Fee Related JP3910551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003082055A JP3910551B2 (en) 2003-03-25 2003-03-25 Aiming position detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003082055A JP3910551B2 (en) 2003-03-25 2003-03-25 Aiming position detection system

Publications (2)

Publication Number Publication Date
JP2004286399A JP2004286399A (en) 2004-10-14
JP3910551B2 true JP3910551B2 (en) 2007-04-25

Family

ID=33295440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003082055A Expired - Fee Related JP3910551B2 (en) 2003-03-25 2003-03-25 Aiming position detection system

Country Status (1)

Country Link
JP (1) JP3910551B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2229943B1 (en) * 2003-10-15 2005-12-01 Instalaza, S.A. OPTICAL POSITIONING SYSTEM FOR VIRTUAL SIMULATOR OF SHOOTING GUN FROM THE SHOULDER.
JP2010078188A (en) * 2008-09-24 2010-04-08 Hitachi Kokusai Electric Inc Shooting training system
CN111256537A (en) * 2013-10-31 2020-06-09 威罗门飞行公司 Interactive weapon aiming system displaying remote sensing image of target area
JP6019283B2 (en) * 2014-03-13 2016-11-02 株式会社スカイワーカーズ Shooting system and data processing apparatus

Also Published As

Publication number Publication date
JP2004286399A (en) 2004-10-14

Similar Documents

Publication Publication Date Title
JP3422383B2 (en) Method and apparatus for detecting relative position between video screen and gun in shooting game machine
US20130343071A1 (en) Light distribution controller
JP2007533966A5 (en)
US10564250B2 (en) Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same
JP2006030127A (en) Camera calibrating system and three-dimensional measuring system
US9778029B2 (en) Self-position calculating apparatus and self-position calculating method
KR20180032400A (en) multiple object tracking apparatus based Object information of multiple camera and method therefor
WO2015125298A1 (en) Local location computation device and local location computation method
US20150356737A1 (en) System and method for multiple sensor fiducial tracking
CA2414849A1 (en) Image segmentation system and method
JP2000259340A (en) Device and method for input, input system, and distribution medium
CN105864706B (en) Projection system and projective techniques
JP5300694B2 (en) Detection device
US20110123067A1 (en) Method And System for Tracking a Target
JP3910551B2 (en) Aiming position detection system
US8282104B2 (en) Game system, detection program, and detection method
JP2001202497A (en) Method and system for detecting preceding vehicle
JP5505363B2 (en) Motion tracker device
JP4908523B2 (en) POSITION INFORMATION DETECTING DEVICE, POSITION INFORMATION DETECTING METHOD, AND POSITION INFORMATION DETECTING PROGRAM
JP2017191544A (en) Fire detector and method for detecting fire
JP2008020981A (en) Monitoring system
CN106599930B (en) Virtual reality space positioning feature point screening method
CN110782495B (en) Apparatus and method for generating and monitoring a secure area in a workspace
JP2001060406A (en) Automatically tracking lighting system
JP4322145B2 (en) Optical tag system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070124

R150 Certificate of patent or registration of utility model

Ref document number: 3910551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120202

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140202

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees