JP5225047B2 - 追尾撮像装置、追尾撮像方法、及びコンピュータプログラム - Google Patents
追尾撮像装置、追尾撮像方法、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP5225047B2 JP5225047B2 JP2008309939A JP2008309939A JP5225047B2 JP 5225047 B2 JP5225047 B2 JP 5225047B2 JP 2008309939 A JP2008309939 A JP 2008309939A JP 2008309939 A JP2008309939 A JP 2008309939A JP 5225047 B2 JP5225047 B2 JP 5225047B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- area
- detection processing
- target object
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Description
尚、撮像画像における移動物体の抽出処理に、異なった時点での2つ以上の撮像画像による相関情報を利用しているものもある。
以下に、図面を参照しながら、本発明の第1の実施形態について説明する。
図1は、追尾撮像装置のハードウェア構成の一例を示すブロック図である。図1において、本実施形態では、追尾撮像装置は、撮像装置100とコントローラ装置110とを備えている。
撮像装置100は、光学的に撮像した映像を電気的な画像信号に変換するカメラ装置101と、カメラ装置101をパン方向及びチルト方向に駆動するための雲台105とを備えている。雲台105には、パン・チルト駆動機構(パン軸駆動モータ及びチルト軸駆動モータ)が備わっている。パン軸駆動モータは、カメラ装置101が撮像する方向である撮像光軸102の方向を、パン軸103を中心(回転軸)として所定の角度範囲内で回転させるためのものである。チルト軸駆動モータは、撮像光軸102の方向を、チルト軸104を中心(回転軸)として所定の角度範囲内で回転させるためのものである。尚、パン軸駆動モータ及びチルト軸駆動モータには、ステッピングモータや超音波モータ等が用いられ、後述するパン・チルト駆動制御部117によって制御される。
揮発性メモリ(RAM114)は、CPU112が動作するときに作業領域として使用される。また、RAM114の一部の領域には、画像バッファ115が含まれる。尚、本実施形態では、CPU112の作業領域と画像バッファ115とが、同一のRAM114に含まれる場合を例に挙げて示しているが、これらを別々のRAMに分割する構成としてもよい。また、画像バッファ115を、後述する画像取得部118或いは物体検出処理部119に内蔵する構成とすることも可能である。
パン・チルト駆動制御部117は、撮像装置100のパン軸駆動モータ及びチルト軸駆動モータに接続されている。パン・チルト駆動制御部117は、不図示のパルス発生回路やドライバ回路等を内蔵し、CPU112からの指令に基づき、所望のパン・チルト駆動を撮像装置100に指示する。また、パン・チルト駆動制御部117は、撮像装置100に内蔵される不図示の位置センサ(エンコーダ等)からの出力に基づき、現在のパン及びチルト角の位置情報を取得し、CPU112に通知する。尚、本実施形態のように、パン・チルト駆動制御部117をシステムバス111に直接接続しなくてもよい。すなわち、パン・チルト駆動制御部117をコントローラ装置110の外部に独立した筐体として設け、シリアルやネットワーク回線等の所定のI/Fを介して、パン・チルト駆動制御部117とCPU112とが相互に通信する構成にすることもできる。
ユーザI/F装置116からの指令、或いはコントローラ装置110の電源のオン、不図示のネットワーク回線を通じた指令等をトリガとして、CPU112は、図2に示す処理を行う追尾制御プログラムを起動する。追尾制御プログラムは、起動すると、システムバス111に接続された各装置/処理部に対し所定の初期設定等を行う。
まず、ステップS201において、CPU112は、撮像される画像領域内における検出処理領域の初期設定を行う。図3は、初期の検出処理領域の一例を示す図である。
図3に示すように、初期の検出処理領域302は、撮像領域全体310の中心位置Cを中心とする所定の大きさ(Sw,Sh)の領域として配置される。ここで、Swは検出処理領域302の幅であり、Shは検出処理領域302の高さを表す。本実施形態では、検出処理領域の大きさ(Sw,Sh)は、検出処理領域の位置に寄らず常に一定としている。
ax=(Iw−Sw)/2 ・・・(1)
ay=(Ih−Sh)/2 ・・・(2)
ここで、Iwは、撮像領域全体310の幅であり、Ihは、撮像領域全体310の高さである。
以上のように本実施形態では、例えば、ステップS203の処理を行うことにより物***置検出手段の一例が実現される。
そして、ステップS204において、CPU112は物体検出処理部119の検出処理結果フラグをチェックし、検出が成功した場合にはステップS206の処理を、失敗した場合にはステップS205の処理を実行する。
このように本実施形態では、例えば、撮像領域401の中心位置Cが基準点の一例となり、中心位置Cからの位置ベクトルDで表される位置が基準点からの相対位置の一例となる。
Mp=Cp・Dx ・・・(3)
Mt=Ct・Dy ・・・(4)
ここで、Cp、Ctは、カメラ装置101の視野角及び分解能と、パン軸駆動モータ及びチルト軸駆動モータ夫々に対して指定された駆動量に対応する移動角度とによって定めることのできる定数である。
以上のように本実施形態では、例えば、ステップS206の処理を行うことにより駆動量算出手段の一例が実現される。
以上のように本実施形態では、例えば、ステップS207の処理を行うことにより駆動手段の一例が実現される。
前述したように、処理領域設定部120には、左上端点Zを原点として、検出処理領域302の開始位置の座標(ax,ay)を設定する必要がある。そこで、CPU112は、以下の(5)式、(6)式に従って、次回の検出処理領域302の開始位置の座標(ax,ay)を計算する。
ax=(Iw−Sw)/2+α・Dx ・・・(5)
ay=(Ih−Sh)/2+α・Dy ・・・(6)
このように本実施形態では、(5)式、(6)式の計算を行うことにより、位置ベクトルDの方向へ、位置ベクトルDの長さに割合αを乗算した距離だけ、検出処理領域302を移動させることができる。
以上のように本実施形態では、例えば、ステップS208の処理を行うことにより領域位置算出手段の一例が実現される。
以上のように本実施形態では、例えば、ステップS209の処理を行うことにより領域設定手段の一例が実現される。
また、いくら追尾対象の物体106が速く動いていたとしても、検出処理領域302を撮像領域401からはみ出すような位置に配置してしまうと、検出可能範囲を狭めるだけであり意味がない。従って、本実施形態では、検出処理領域302の開始位置の座標(ax,ay)が、以下の(7)式で表される範囲に収まるように検出処理領域302の移動範囲を制限している。
(0,0)≦(ax,ay)<(Iw−Sw,Ih−Sh) ・・・(7)
α=β・|D| ・・・(8)
ここで、βは、パン、チルト方向の駆動量Mp、Mtに応じて予め定められた定数値である。すなわち、次回の検出処理領域をずらす割合αは、パン、チルト方向の駆動量Mp、Mtが大きいときには大きな値となり、小さいときには小さな値となる。すなわち、物体を追尾する処理が連続して行われている場合であって、当該物体の移動が速い場合には、1回の物体の検出に対するパン・チルト方向の移動量Mp、Mtも大きくなる。一方、物体を追尾する処理が連続して行われている場合であって、当該物体の移動が遅い場合には、パン・チルト方向の駆動量Mp、Mtも小さくなる。一般にパン・チルト方向の駆動量Mp、Mtが大きければ、駆動が完了するまでの時間も長くなる。従って、追尾対象の物体106の移動が速ければ速いほど、パン・チルト駆動機構の駆動が完了するまでの間に、図4(c)に示すように、追尾対象106の物体が撮像領域401の中心付近より遠くへ行ってしまうことになる。このため、このような場合には、(8)式に従って、次回の検出処理領域をずらす割合αを大きく設定することによって、検出処理領域302を大きく動かすようにする。このようにすることによって、追尾撮像装置が一旦捕らえた物体106を「見失う」ことが少なくなり、良好な追尾性能を発揮する。
以上のように本実施形態では、例えば、ステップS208の処理を行うことにより移動量決定手段の一例が実現される。
このように、追尾対象の物体106を連続して検出し続けて当該物体106を追尾している最中は、当該物体の位置ベクトルDに基づいて次回の検出処理領域302を設定することは、当該物体106の追尾を継続させるために極めて有効である。しかしながら、追尾対象の物体106が検出できていない状態から、当該物体106の検出が成功した1回目のみに関しては、このようにして次回の検出処理領域302を移動する処理を行うことによってかえって当該物体106を見失い易くなる場合がある。
次に、本発明の第2の実施形態について説明する。本実施形態では、前述した第1の実施のステップS208に相当する処理において、追尾対象の物体の移動速度及び方向の変化を考慮する処理を行っている。このように本実施形態と前述した第1の実施形態とは、図2のステップS208の処理の一部が主として異なる。例えば、本実施形態の追尾撮像装置のハードウェア構成は図1と同じであり、また、本実施形態の追尾撮像装置の基本的な処理の流れは図2と同等である。したがって、本実施形態の説明において、前述した第1の実施形態と同一の部分については、図1〜図6に付した符号と同一の符号を付すこと等により詳細な説明を省略する。
vn=Dn/tn-1 ・・・(9)
尚、時間tn-1の間に、追尾対象の物体106の位置ベクトルDn-1の検出処理(ステップS203)と、位置ベクトルDn-1に相当するパン・チルト駆動機構の駆動処理(ステップS206、S207)と、次の撮像で必要とされる各種設定が行われる。
vn-1=Dn-1/tn-2 ・・・(10)
更に、図7(b)に示す撮像時から位置ベクトルDnを得るまでの経過時間に、位置ベクトルDnに相当するパン・チルト駆動機構の駆動処理を行うのに要すると推測される時間と、その後に必要な設定等の処理時間とを加えた時間をtnとする。すなわち、今回の撮影を行った時から次回の撮像を開始するまでに要する時間をtnとする。
勿論、以降の計算や設定等の処理が間に合うなら、位置ベクトルDnに相当するパン・チルト駆動機構の駆動処理の完了後に、図7(b)の撮像時刻から実際に掛かった実績時間を取得し、その実績時間にその後の処理時間見込み分を加えて時間tnとしてもよい。
gn-1=(vn−vn-1)/tn-1=(Dn/tn-1−Dn-1/tn-2)/tn-1 ・・・(11)
すなわち、単位時間あたりの速度の変化量(平均加速度ベクトル)gn-1は、図9に示すように変化していることが分かる。このように次回の撮像時(サイクル)における"追尾対象の物体106の速度ベクトルvn+1"を求めるには、先に述べた時間tnと、このときの平均加速度ベクトルgnが分かれば良い。そこで、本実施形態では、CPU112は、平均加速度ベクトルgn、gn-1が等しいとみなし、以下の(12)式に従って、次回の撮像時における"追尾対象の物体106の速度ベクトルvn+1"を計算(推定)する。
vn+1=vn+gn・tn ・・・(12)
Dn+1=vn+1・tn ・・・(13)
尚、平均加速度gn-1は、検出処理領域を設定する毎に計算し直すようにしているので、平均加速度gn-1に誤差が蓄積されることはない。
そして図7(d)に示すように、CPU112は、このようにして求めた位置ベクトルDn+1に、第1の実施形態で説明した割合αを掛けた位置が中心となるように、次回の検出処理領域302の位置を算出し設定する。
以上のように本実施形態では、例えば、ステップS208で、CPU112が(11)式〜(13)式の計算を行うことにより、移動速度推定手段の一例が実現される。また、本実施形態では、例えば、位置ベクトルDn、Dn-1が、既に検出された対象物体の位置情報の一例となり、時間tn-1、tn-2が、撮像間隔を示す時間情報の一例となる。
前述した本発明の実施形態における追尾撮像装置を構成する各手段、並びに追尾撮像方法の各ステップは、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
101 カメラ装置
102 光軸
103 パン軸
104 チルト軸
105 雲台
106 物体
110 コントローラ装置
112 CPU
113 不揮発性メモリ装置
114 RAM
115 画像バッファ
117 パン・チルト駆動制御部
118 画像取得部
119 物体検出処理部
120 処理領域設定部
Claims (8)
- 撮像光軸の方向の画像を撮像する撮像手段と、
前記撮像手段により撮像される画像内の対象物体を追尾するために、前記撮像光軸の方向を変化させるべく前記撮像手段を駆動する駆動手段と、
前記撮像手段により撮像された画像の一部の領域に検出処理領域を設定する領域設定手段と、
前記領域設定手段により設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像手段により撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物***置検出手段と、
前記物***置検出手段により検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出手段と、
前記物***置検出手段により検出された前記対象物体の位置情報に基づき、前記駆動手段による前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出手段と、
前記駆動量算出手段により算出された駆動量に応じた値として所定の割合を決定する割合決定手段とを有し、
前記領域設定手段は、前記領域位置算出手段により算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、
前記領域位置算出手段は、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とする追尾撮像装置。 - 前記物***置検出手段により検出された対象物体の位置情報に基づいて、前記対象物体の移動速度を推定する移動速度推定手段を有し、
前記領域設定手段は、前記移動速度推定手段により推定された、前記対象物体の移動速度の情報に基づいて、次回の撮像時における前記検出処理領域を設定することを特徴とする請求項1に記載の追尾撮像装置。 - 前記移動速度推定手段は、前記物***置検出手段により既に検出された対象物体の位置情報と、前記撮像手段による撮像間隔を示す時間情報とに基づいて、前記対象物体の速度の変化量を算出し、当該対象物体の速度の変化量を用いて、次回の撮像時における対象物体の移動速度を算出することを特徴とする請求項2に記載の追尾撮像装置。
- 前記駆動手段は、パン軸を回転軸として前記撮像手段を回転させる駆動機構と、チルト軸を回転軸として前記撮像手段を回転させる駆動機構とを備えることを特徴とする請求項1〜3の何れか1項に記載の追尾撮像装置。
- 前記物***置検出手段は、ニューラルネットワークを用いて、前記対象物体の位置情報を検出することを特徴とする請求項1〜4の何れか1項に記載の追尾撮像装置。
- 前記領域設定手段は、前記物***置検出手段により、前記対象物体の位置の検出が継続されている場合に、前記物***置検出手段により検出された対象物体の位置情報に基づいて、次回の撮像時における前記検出処理領域を設定することを特徴とする請求項1〜5の何れか1項に記載の追尾撮像装置。
- 撮像光軸の方向の画像を撮像手段により撮像する撮像ステップと、
前記撮像ステップにより撮像される画像内の対象物体を追尾するために、前記撮像光軸の方向を変化させるべく前記撮像手段を駆動する駆動ステップと、
前記撮像ステップにより撮像された画像の一部の領域に検出処理領域を設定する領域設定ステップと、
前記領域設定ステップにより設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像ステップにより撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物***置検出ステップと、
前記物***置検出ステップにより検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出ステップと、
前記物***置検出ステップにより検出された前記対象物体の位置情報に基づき、前記駆動ステップによる前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出ステップと、
前記駆動量算出ステップにより算出された駆動量に応じた値として所定の割合を決定する割合決定ステップとを有し、
前記領域設定ステップでは、前記領域位置算出ステップにより算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、
前記領域位置算出ステップでは、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とする追尾撮像方法。 - 撮像光軸の方向の画像を撮像する撮像手段により撮像される画像内の対象物体を追尾するために、前記撮像光軸の方向を変化させるべく前記撮像手段を駆動することを駆動手段に指示する駆動ステップと、
前記撮像手段により撮像された画像の一部の領域に検出処理領域を設定する領域設定ステップと、
前記領域設定ステップにより設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像手段により撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物***置検出ステップと、
前記物***置検出ステップにより検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出ステップと、
前記物***置検出ステップにより検出された前記対象物体の位置情報に基づき、前記駆動ステップによる前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出ステップと、
前記駆動量算出ステップにより算出された駆動量に応じた値として所定の割合を決定する割合決定ステップとをコンピュータに実行させ、
前記領域設定ステップでは、前記領域位置算出ステップにより算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、
前記領域位置算出ステップでは、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008309939A JP5225047B2 (ja) | 2008-12-04 | 2008-12-04 | 追尾撮像装置、追尾撮像方法、及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008309939A JP5225047B2 (ja) | 2008-12-04 | 2008-12-04 | 追尾撮像装置、追尾撮像方法、及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010136095A JP2010136095A (ja) | 2010-06-17 |
JP5225047B2 true JP5225047B2 (ja) | 2013-07-03 |
Family
ID=42346928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008309939A Active JP5225047B2 (ja) | 2008-12-04 | 2008-12-04 | 追尾撮像装置、追尾撮像方法、及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5225047B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012199601A (ja) * | 2011-03-18 | 2012-10-18 | Nikon Corp | 画像追尾装置 |
JP6238569B2 (ja) * | 2013-05-22 | 2017-11-29 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
JP6302302B2 (ja) * | 2014-03-14 | 2018-03-28 | 株式会社デンソー | カメラ制御装置 |
KR102532230B1 (ko) | 2018-03-30 | 2023-05-16 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
JP7204356B2 (ja) * | 2018-06-28 | 2023-01-16 | セコム株式会社 | 監視装置 |
JP7325180B2 (ja) * | 2018-12-11 | 2023-08-14 | キヤノン株式会社 | 追尾装置および方法 |
CN110443984B (zh) * | 2019-06-27 | 2021-01-26 | 维沃移动通信有限公司 | 一种监控方法及移动终端 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3174869B2 (ja) * | 1992-09-04 | 2001-06-11 | 株式会社ニコン | 目標物体追尾装置 |
JPH08223467A (ja) * | 1995-02-20 | 1996-08-30 | Fujitsu Ltd | 二値化しきい値算出方法及び回路 |
JP3440916B2 (ja) * | 2000-03-30 | 2003-08-25 | 日本電気株式会社 | 自動追尾装置、自動追尾方法及び自動追尾プログラムを記録した記録媒体 |
JP2005160122A (ja) * | 2005-03-04 | 2005-06-16 | Canon Inc | 撮像装置及びコンピュータ読み取り可能な記憶媒体 |
-
2008
- 2008-12-04 JP JP2008309939A patent/JP5225047B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010136095A (ja) | 2010-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5225047B2 (ja) | 追尾撮像装置、追尾撮像方法、及びコンピュータプログラム | |
US7548256B2 (en) | Image processing scheme | |
US7064776B2 (en) | Object tracking apparatus, object tracking method and recording medium | |
JP4345722B2 (ja) | 動体追跡制御装置、動体追跡システム、動体追跡制御方法及びプログラム | |
US8644556B2 (en) | Image processing apparatus and method and program | |
JP6806188B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP6347211B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP2012151796A (ja) | 画像処理装置と画像処理方法およびプログラム | |
JP2021517415A (ja) | ビデオ記録方法および電子デバイス | |
JP2017084055A (ja) | 情報処理装置、動作制御方法及び動作制御プログラム | |
JP6575845B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
WO2020184539A1 (ja) | 物体追跡装置、物体追跡方法、及び、記録媒体 | |
US20170171475A1 (en) | Zoom control apparatus, image capturing apparatus and zoom control method | |
JP2010146522A (ja) | 顔画像追跡装置及び顔画像追跡方法並びにプログラム | |
JP6866210B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20210374543A1 (en) | System, training device, training method, and predicting device | |
JP6846963B2 (ja) | 映像再生装置、映像再生方法、映像再生プログラム及び映像再生システム | |
JP2018201102A (ja) | 撮像装置 | |
US11451705B2 (en) | Imaging control apparatus, imaging control method, and storage medium | |
JP5353457B2 (ja) | 撮像装置およびプログラム | |
EP4187912A1 (en) | Camera control apparatus, camera control method, and non-transitory storage medium | |
JP2001325597A (ja) | 画像入力装置及びコンピュータ読取可能な記録媒体 | |
KR20240099578A (ko) | 다중 카메라 영상에 대한 효율적 객체 검출 및 추적을 수행하는 전자 장치 및 그 동작 방법 | |
JP2022086194A (ja) | 情報処理装置及びその制御方法、並びにプログラム | |
CN115393245A (zh) | 机器人打滑的检测方法、装置、机器人及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130312 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5225047 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |