JP2004048621A - Image compositing apparatus and method - Google Patents
Image compositing apparatus and method Download PDFInfo
- Publication number
- JP2004048621A JP2004048621A JP2002206484A JP2002206484A JP2004048621A JP 2004048621 A JP2004048621 A JP 2004048621A JP 2002206484 A JP2002206484 A JP 2002206484A JP 2002206484 A JP2002206484 A JP 2002206484A JP 2004048621 A JP2004048621 A JP 2004048621A
- Authority
- JP
- Japan
- Prior art keywords
- image
- opening
- camera
- door
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像合成装置および画像合成方法に係り、特に、車両に設置した複数の撮影手段で撮影した画像を、車両上方に設定した視点位置から見下ろした画像に変換し、複数の変換画像を1つの画像に合成して表示器に表示する画像合成装置および画像合成方法に関する。
【0002】
【従来の技術】
近年、車両に設置した電子式のカメラによって車両の周辺を撮影し、監視することによって、安全運転を支援する装置が実用化され、普及しつつある。
このような技術は、例えば特開2001−339716号公報に記載されている。
この従来技術は、視点位置をダイナミックに変更して、運転者からの死角を低減したり、運転操作を容易にするため、車内に設置した表示装置に運転状況に応じて最適な合成画像を表示しようとする車両周辺監視装置および方法である。
【0003】
【発明が解決しようとする課題】
車両に取り付けられているカメラは、撮影したい範囲と車両形状を考慮し、その取り付け位置が決定されているが、車両のドア、トランクなど(以下、これらをまとめて開閉体と称す)が開いた場合、開いた部位がカメラに映り込んだり、また、開閉体にカメラが取り付けられている場合にはカメラの位置および向きが変わってしまい、表示映像に影響が出て運転者に誤解を与えるという問題点があった。上記従来技術においては、このような実情は考慮されていなかった。
【0004】
具体的には、各カメラが撮影する範囲は、カメラの位置などをもとに決定されている。各カメラの位置は、通常、車両のドアやトランクやリヤゲートなどの開閉体は閉じている状態を基準に決定されているため、これらの開閉体が開いている場合、カメラの映像内に開いた開閉体が映り込み、撮影範囲に死角が生じ、期待した範囲の映像が取得できなくなる。また、トランクやリヤゲートなどの開閉体にカメラが設置されている場合もあり、このカメラが設置された開閉体の開閉により、該カメラの向きおよび位置が変わり、期待した範囲の映像を取得できなくなる。このように従来においては、開閉体の開閉を検知していないため、前述のように期待した範囲の映像が取得できない場合にも、取得した映像をもとに表示映像を作成するため、運転者が混乱する場合があった。
【0005】
本発明の目的は、車両のドア等の開閉体が開いた場合でも、運転者に画像を表示できる画像合成装置および画像合成方法を提供することにある。
【0006】
【課題を解決するための手段】
この目的を達成するため、本発明は、車両に設置した複数の撮影手段によって撮影された複数の画像データを合成し、合成されたデータを表示し、車両の開閉体の開閉により撮影手段の撮影範囲に死角が生じる場合、撮影手段の担当範囲を変更することを特徴とする。
【0007】
【発明の効果】
本発明によれば、車両のドア等の開閉体が開いた場合でも、運転者に画像を表示することができる。
【0008】
【発明の実施の形態】
実施の形態1
図1は、本発明の実施の形態1の画像合成装置の構成を示す図である。
5a〜5dはそれぞれ車両に複数個設置され、車両の周囲を撮影する電子式のカメラ、1はECU(エレクトロニック・コントロール・ユニット)、2はカメラ5a〜5dからの画像の処理等の各種処理を行うCPU(中央演算処理装置)、3はCPU2の制御プログラムやあらかじめ与えられる設定値などを保持するROM、4はCPU2の演算実行時に必要なデータを一時的に保持するRAM、6は表示器、7はドア等の車両の開閉体の開閉を検知する開閉検知センサである。
本発明は、車両に設置した複数のカメラ5a〜5dで撮影した複数の画像を、車両の上方に設定した視点位置から見下ろした画像にそれぞれ変換し、これら複数の変換画像を1つの画像に合成して表示器6の表示画面に表示する画像合成装置に関するものである。
【0009】
図2はこのような表示画面の一例を示す図であり、101は車両である。
画像変換、視点変換、ならびに画像の合成については、後で図9〜図11を用いて詳述する。
【0010】
車両に設置した複数のカメラ5a〜5d(ここでは、4個のみ図示)によって撮影された複数の画像データをCPU2によって合成し、合成されたデータを表示器6に表示する。
【0011】
図3は、本実施の形態1における車両を上から見た概略図である。
101は車両、102、103はカメラ、104、105は撮影の範囲、106は分割線である。
【0012】
図3に示すように、車両101の例えば右前方にカメラ102、右後方にカメラ103が取り付けられ、それぞれ範囲104と範囲105を撮影している。撮影された映像は、車両101の上空の仮想カメラの映像に変換・合成され(詳細は後述)、表示画像を作成する。範囲104と範囲105は一部重複しているため、ここでは分割線106で分割し、分割線106より前側はカメラ102の映像を用い、分割線106より後ろ側はカメラ103の映像を用いることとする。
【0013】
図4は、本実施の形態1におけるドアが開いた状態の車両を上から見た概略図である。
図4に示すように、車両101のドア201が開いた場合、開いたドア201によって範囲202は、カメラ102では撮影できなくなる。この場合、範囲202を撮影するはずだった部分には、開いたドア201が映っている。同様に、開いたドア201によって範囲203は、カメラ103で撮影できなくなる。この場合、範囲203を撮影するはずだった部分には、開いたドア201が映っている。
【0014】
範囲202および範囲203は、カメラ特性、それぞれのカメラ102、103の取り付け位置と角度、車両101の形状、ドア201の形状、およびドア201の開度から計算できる。
【0015】
ドア201が開いているときに、ドア201が閉じているときの画像変換・合成ルール(分割線106を用いたルール)を適用して画像の合成を行なうと、ドア201が映った画像をもとに変換・合成された表示画像が作成されてしまう。そこで、ドア201が開いたことを開閉検知センサ(図4では図示せず。図1の開閉検知センサ7参照)で検知し、ドア201が開いている場合は、範囲104から範囲202を除いた範囲についてカメラ102の映像を用い、撮影範囲105から範囲203を除いた範囲についてカメラ103の映像を用いて、CPU2(図1)により複数の画像データを合成し、表示画像の作成を行なう。すなわち、車両101のドア201の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、合成のためのカメラ102、103の担当範囲を変更するものである。
【0016】
ドア201の開閉検知センサ7(図1)で、ドア201が開いている角度が検知可能な場合は、ドア201の開度に応じて、範囲202および範囲203を変更して、最適な画像合成を行なう。ドア201の開閉検知センサ7がドア201の角度を検知できず、ドア201が開いているか閉じているかを検知するだけである場合には、ドア201の開度に応じた範囲202および範囲203の設定が不可能である。この場合には、ドア201が閉まった状態から全開の状態になるまで通過する領域すべてに物体があるものとして、範囲202および範囲203の計算を行なう。
【0017】
ドア201の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算はあらかじめ行なって、ROM3(図1)内に記録しておき、ドア201の開き方に応じて情報を呼び出してもよい。
【0018】
また、ドア201が開いたことにより、どのカメラ102、103にも映らなくなる範囲が発生することがある(例えば図4では、範囲204、205)。この範囲の発生は、ドア201の開度の取得が不可能で、ドア201が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、撮影不能範囲の計算を行なった場合により顕著である。その領域が変換・合成した結果の表示画像に含まれる場合には、もともとカメラで撮影されない領域として処理するか、黒で塗りつぶした状態で表示する。ドア201が開いたことにより表示されなくなった領域であることがわかるように、赤や他の色で明示的に表示してもよい。このようなどのカメラでも撮影できない範囲は、ドアが複数同時に開いた場合にはより多く発生する。また、表示画像上には開いたドア201を表す表示を行なったり、同時にドアが開いているメッセージを表示して、注意を喚起しても良い。
【0019】
図5は、本実施の形態1におけるフローを示す図である。
以下、本実施の形態1におけるフローについて説明する。
【0020】
まず、S1において、図3の車両101の開閉体(例えば図4のドア201)の開閉を、開閉検知センサ7(図1)からの信号によりCPU2(図1)が検出する。
【0021】
次に、開閉体の開閉が検出された場合には、カメラ(例えば図3、図4のカメラ102、103)の撮影範囲に死角が生じるので、S2において、開閉体が全閉〜全開の間に通る範囲に物体があるものとして、各カメラの撮影範囲をCPU2が再計算する。あるいは、開閉体の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算をあらかじめ行なって、ROM3(図1)内に記録しておき、ドア201の開き方に応じてCPU2が情報を呼び出す(すなわち、開閉体の開閉の状況によりテーブルを切り替える)。開閉体の開閉が検出されない場合には、S2の処理は行なわない(このフローは図示省略)。
【0022】
次に、S3において、CPU2が、担当範囲が変更されたカメラ102、103からの複数の画像データを合成し、表示画像の作成を行なう。
【0023】
次に、S4において、CPU2が、撮影不能範囲を合成画像上に描画する。
【0024】
最後に、S5において、処理された画像をCPU2が表示器6(図1)に表示する。
【0025】
すなわち、本実施の形態1の画像合成装置は、車両101(図3、図4)に設置した複数のカメラ102、103(図1では5a〜5d)と、カメラ102、103によって撮影された複数の画像データを合成し、また車両101のドア201等の開閉体の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、カメラ102、103の担当範囲を変更するCPU2(図1)と、合成されたデータを表示する表示器6とを有する。なお、図1のCPU2が、特許請求の範囲の変更手段および合成手段に相当し、表示器6が表示手段に相当する。
【0026】
また、本実施の形態1の画像合成方法は、車両101のドア201等の開閉体の開閉を図1の開閉検知センサ7からの信号によりCPU2により検出する工程と、車両101に取り付けられた複数のカメラ102、103によって撮影された複数の画像データを合成する工程と、合成されたデータを表示する工程と、車両101の開閉体の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、合成のためのカメラ102、103の担当範囲を変更する工程とを有する。なお、図5のS1が開閉体の開閉を検出する工程に相当し、S2が撮影手段の担当範囲を変更する工程に相当し、S3が複数の画像データを合成する工程に相当し、S5が合成されたデータを表示する工程に相当する。
【0027】
以上により、本実施の形態1では、ドア201等の開閉体の少なくとも一部が開いた際に、カメラの担当範囲を変更することにより、映像に開閉体の一部が写りこんだ影響を最低限に抑えることができ、また、開閉体が開くことで、あるカメラで撮影不能になった部分を他のカメラでフォローすることができる。その結果、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。
【0028】
また、開閉体が開いた際に、開閉体が開いたことでカメラの撮影に影響が出た範囲を表示器6の表示画面に明示することにより、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。また、画面を通じて開閉体が開いていることを運転者に明示することにより、従来のように開閉体が開いていることが表示されない画面だけを見て移動することを未然に防ぐことができ、信頼性を向上することができる。
【0029】
このように、本実施の形態1によれば、ドアを開くなどして、車両形状が変化した場合にも適切な画像変換・合成を行なうことが可能となり、運転者に最適な映像を表示することができる。
【0030】
実施の形態2
本実施の形態2においても、画像合成装置の基本構成は図1に示したものと同一である。
図6は、本実施の形態2におけるドアが閉じた状態の車両を上から見た概略図である。
301は車両、302はドア、303、304はカメラ、305、306は撮影の範囲、307は分割線である。
【0031】
図6に示すように、本実施の形態2では、車両301のドア302にカメラ303が取り付けられている。また、車両301の右後方にカメラ304が取り付けられ、それぞれ範囲305、範囲306を撮影する。撮影された映像は、後述の手法を用いて、CPU2(図1)により、車両301の上空の仮想カメラの映像に変換・合成され、表示画像を作成する。範囲305と範囲306は一部重複しているため、ここでは分割線307で分割し、分割線307より前側はカメラ303の映像を用い、分割線307より後ろ側はカメラ304の映像を用いることとする。
【0032】
図7は、本実施の形態2におけるドアが開いた状態の車両を上から見た概略図である。
図7に示すように、車両301のドア302が開いた場合、ドア302に取り付けられたカメラ303の位置および向きが変化し、図6の範囲305はカメラ303では撮影できなくなり、カメラ303は範囲401を撮影することになる。また、開いたドア302によって範囲402はカメラ304で撮影できなくなる。この場合、範囲402を撮影するはずだった部分には、開いたドア302が映っている。
【0033】
範囲401および範囲402は、カメラ特性、それぞれのカメラ303、304の取り付け位置と角度、車両301の形状、ドア302の形状、およびドア302の開度から計算できる。
【0034】
ドア302が開いているときに、ドア302が閉まったときと同じ画像変換・合成ルール(図6の分割線307を用いたルール)を適用して画像の変換・合成を行なうと、カメラ303の撮影している範囲が異なり、かつ、カメラ304では、ドア302が映った画像を撮影しているため、変換・合成された表示画像は期待したものとは違うものが作成されてしまう。
【0035】
そこで、ドア302が開いたことを図1の開閉検知センサ7で検知し、ドア302が開いている場合は、カメラ303の撮影する範囲として図7の範囲401を用い、カメラ304の撮影する範囲としては、図6の範囲305から図7の範囲402を除いた範囲を用いて、表示画像の作成を行なう。
【0036】
ドア302の開閉検知センサ7(図1)が、ドア302が開いている角度を検知可能な場合は、ドア302の開度に応じて、範囲401および範囲402を変更して、最適な画像合成を行なう。ドア302の開閉検知センサ7がドア302の角度を検知できず、ドア302が開いているか閉じているかを検知するだけである場合には、ドア302の開度に応じた範囲401および範囲402の設定が不可能である。この場合には、ドア302に取り付けられたカメラ303の位置および向きの確定が不可能なため、カメラ303の撮影した映像を画像の変換・合成に用いることはできない。よって、ドア302の開度が取得不能な場合は、ドア302が開いたときには、ドア302に取り付けられたカメラ303の映像を使わないようにする。また、カメラ304の撮影可能範囲については、ドア302が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、範囲402の計算を行ない、決定する。ドア302の開き方(軌跡、開く面積など)は毎回一定なので、計算はあらかじめ行なって、図1のROM3内に記録しておき、ドア302の開き方に応じて情報を呼び出してもよい。
【0037】
また、ドア302が開いたことにより、どのカメラ303、304にも映らなくなる範囲が発生することがある。この範囲の発生は、ドア302の開度の取得が不可能で、ドア302が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、撮影不能範囲の計算を行なった場合により顕著である。その領域が変換・合成した結果の表示画像に含まれる場合には、もともとカメラで撮影されない領域として処理するか、黒で塗りつぶした状態で表示する。ドア302が開いたことにより表示されなくなった領域であることがわかるように、赤や他の色で明示的に表示してもよい。このようなどのカメラでも撮影できない範囲は、ドアが複数同時に開いた場合にはより多く発生する。また、表示画像上には開いたドア302を表す表示を行ない、同時にドアが開いているメッセージを表示して、注意を喚起しても良い。
【0038】
図8は、本実施の形態2におけるフローを示す図である。
以下、本実施の形態2におけるフローについて説明する。
【0039】
まず、S1において、車両301の開閉体(例えば図6のドア302)の開閉を、開閉検知センサ7(図1)からの信号によりCPU2(図1)が検出する。
【0040】
次に、開閉体の開閉が検出された場合には、カメラ(例えば図6、図7のカメラ303、304)の撮影範囲に死角が生じるので、S2において、車両301の開閉体の開閉の度合いに応じて各カメラの撮影範囲をCPU2が再計算する。あるいは、開閉体の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算をあらかじめ行なって、ROM3(図1)内に記録しておき、ドア302の開き方に応じてCPU2が情報を呼び出す(すなわち、開閉体の開閉の状況によりテーブルを切り替える)。開閉体の開閉が検出されない場合には、S2の処理は行なわない(このフローは図示省略)。
【0041】
次に、S3において、CPU2が、担当範囲が変更されたカメラ303、304からの複数の画像データを合成し、表示画像の作成を行なう。
【0042】
次に、S4において、CPU2が、撮影不能範囲を合成画像上に描画する。
【0043】
最後に、S5において、処理された画像をCPU2が表示器6(図1)に表示する。
【0044】
以上により、本実施の形態2では、ドア302等の開閉体の少なくとも一部が開いた際に、カメラの担当範囲を変更することにより、映像に開閉体の一部が写りこんだ影響を最低限に抑えることができ、また、開閉体が開くことで、あるカメラで撮影不能になった部分を他のカメラでフォローすることができる。その結果、運転者にわかりやすく信頼性の高い周囲画像を表示することができ、安全性を向上することができる。また、開閉体が開いた際に、開閉体が開いたことでカメラの撮影に影響が出た範囲を表示器6の表示画面に明示することにより、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。また、画面を通じて開閉体が開いていることを運転者に明示することにより、従来のように開閉体が開いていることが表示されない画面だけを見て移動することを未然に防ぐことができ、信頼性を向上することができる。
【0045】
このように、本実施の形態2によれば、ドアが開くなどして、車両形状が変化し、かつ、カメラの一部が移動した場合にも、適切な画像変換・合成を行なうことが可能となり、運転者に最適な映像を表示することができる。
【0046】
《画像の変換・合成》
既述のように、本発明では、車両に設置した複数のカメラで撮影した複数の画像を、車両の上方に設定した視点位置から見下ろした画像にそれぞれ変換し、これら複数の変換画像を1つの画像に合成して表示6の表示画面に表示する画像合成装置である(図2に表示例を図示)。以下、本発明の画像合成装置および画像合成方法における画像変換、視点変換、ならびに画像の合成について説明する。
【0047】
本発明では、画像を出力する実カメラ(図1の5a〜5d。図3、図4の102、103。図6、図7の303、304。後述図11の11)で撮影した撮影画像について実カメラの内部への出射角を実カメラの外部からの入射角未満として図1のCPU2により画像変換を行ない、この画像変換された画像変換画像の視点変換をCPU2により行なう。視点変換された複数の視点変換画像は、CPU2により1つの画像に合成され、その合成された画像が表示器6に表示される。
【0048】
次に、図9、図10を用いて画像変換について説明する。図に示すように、実カメラモデル11aのカメラ本体21外の光線25(図10)は必ず代表点22(レンズの焦点位置や中心点を用いることが多い)を通り、カメラ本体21内の光線26(図10)はカメラ本体21内に設けられた撮像面23に入る。そして、実カメラモデル11aの向きを示すカメラ光軸24に垂直に撮像面23が設けられ、また撮像面23の中心をカメラ光軸24が通るように、撮像面23が配置されている。もちろん、シミュレートする対象の実カメラの特性によっては、撮像面23の中心をカメラ光軸24が通らなくともよいし、撮像面23とカメラ光軸24が垂直でなくともよい場合もある。また、代表点22と撮像面23との距離は計算の都合上単位距離(1)とするのがよい。また、CCDカメラなどをシミュレートする場合には、撮像面23はシミュレートする対象の実カメラの画素数を再現するように格子状に分割される。最終的には、光線26が撮像面23のどの位置(画素)に入射するかのシミュレーションを行なうことになるため、代表点22と撮像面23との距離および撮像面23の縦横の長さの比率だけが問題になり、実距離は問題にならない。
【0049】
そして、CPU2による画像変換は、実カメラで撮影された撮影画像について、実カメラモデル11a(図5)のカメラ本体21の内部への出射角αO、βO(出射角αOはカメラ光軸24に対する光線26の角、出射角βOはカメラ光軸24に直交する軸に対する光線26の角)を実カメラモデル11aのカメラ本体21の外部からの入射角αI、βI(入射角αIはカメラ光軸24に対する光線25の角、入射角βIはカメラ光軸24に直交する軸に対する光線25の角)未満として画像変換する。
【0050】
すなわち、光線25は必ず代表点22を通り光線26となる。また、極座標系の考え方を用いると、光線25は代表点22を原点に入射角αI、βIの2つの角度で示すことができる。そして、光線25は代表点22を通過する際に、次式によって定まる出射角αO、βOを有する光線26となる。
【0051】
(αO,βO)=f(αI,βI) (1)
このとき、αO<αIの関係式が常に成立するようにする。この場合、光線25は代表点22を通過する際に(1)式によって方向が変えられ、光線26は撮像面23と交点27において交わる。例えば、CCDカメラをシミュレートしている場合には、交点27の座標(位置)から撮像面23上のどの画素に光線26が入射するかを求めることができる。
【0052】
なお、撮像面23の設定によっては光線26と撮像面23とが交わらない場合もあるが、この場合には光線25は実カメラモデル11aには映らないということになる。
【0053】
また、シミュレーションする対象の実カメラの最大画角をM(度)とした場合には、カメラ本体21内部に入射を許される光線25はαI<(M/2)を満たす必要がある。この条件を満たさない光線25は実カメラモデル11aに映らないということになる。このときの出射角αOの最大値はf(M/2)で計算される。また、(1)式の関数f(αI,βI)を決定した上で、代表点22と撮像面23との距離(前述の通り単位距離とするのがよい)と撮像面23の縦横の長さとを決定し、実カメラモデル11aの撮像範囲を規定する。なお、図9に示すように、最大出射角θOmaxの大きさは最大入射角θImaxの大きさよりも小さい。
【0054】
以上の手順により、代表点22に入射した光線25が実カメラモデル11aの撮像面23上のどの画素(位置)に入射するかを計算することができ、実カメラで撮影された撮影画像すなわち光線25が代表点22を通って直進したときの撮影画像について画像変換して、画像変換画像を得ることができる。したがって、(1)式によって実カメラに入射する光線の入射角αI、βIと画像変換画像の画素(位置)との関係を求めることができる。
【0055】
また、(1)式とともに、次式を用いることによって実カメラモデル11aの撮像面23上の任意の点に入射する光線26が代表点22に対してどの方向から入射したかを計算することが可能になる。
【0056】
(αI,βI)=fi(αO,βO) (2)
また、最も簡単な(1)式の例は、次のような入射角αI、βIと出射角αO、βOとが比例関係を持つ式である。
【0057】
αO=kαI (3)
βO=βI (4)
ここで、kは実カメラモデル11aのレンズ特性を決定するパラメータであり、k<1である。仮にk=1の場合には、従来のピンホールカメラモデルと同じ動作となる。実際のレンズの歪曲収差特性はレンズの目的(設計意図)によるが、通常の広角レンズはパラメータkを、1<k<0の範囲で適当に設定することで近似することができ、ピンホールカメラモデルを用いたカメラシミュレーションよりも正確なカメラシミュレーションが可能となる。
【0058】
また、レンズシミュレーションをより精密に行ないたい場合には、関数f(αI,βI)を(3)式、(4)式に示すような比例関係ではなく、実カメラのレンズ特性を実際に測定し、実カメラのレンズ特性を示す関数で画像変換する。この場合、もちろん出射角αOを入射角αI未満とする。
【0059】
以上の画像変換を行なったのちに、視点変換を行なう。最も単純な視点変換は、空間上にカメラモデルと投影面を置き、カメラで撮影した映像を投影面に対して投影することで実現される。
【0060】
次に、図11を用いてCPU2による視点変換について説明する。まず、実空間に合わせて仮想空間を設定し、仮想空間上に位置および向きを合わせて実カメラ11と仮想カメラ32とを配置する。次に、投影面を設定する。図11ではxy平面を投影面に設定しているが、実空間の地形や物体の存在に合わせて、投影面を複数設けてもよい。次に、仮想カメラ32の画素の1つに注目し、注目した画素を画素Vとする。仮想カメラ32の画素Vは面積を持っているので、画素Vの中心点の座標を画素Vの座標とする。仮想カメラ32の位置および向きの情報と合わせ、投影面と光線35との交点33を求める。次に、交点33から実カメラ11への光線34を考える。光線34の実カメラ11への入射が実カメラ11の撮影範囲内の場合には、光線34が実カメラ11のどの画素に入射するかを計算する。この場合、図9、10で説明した画像変換後の画像変換画像について光線34が実カメラ11のどの画素に入射するかを計算する。この光線34が入射する画素を画素Rとすると、画素Vと画素Rとが対応し、画素Vの色および輝度を画素Rの色および輝度とする。
【0061】
なお、光線34の実カメラ11への入射が実カメラ11の撮影範囲外の場合や、光線34が実カメラ11の撮像面に入射しない場合には、交点33は実カメラ11に映っていないので、仮想カメラ32の画素Vには何も映っていないとする。この場合の画素Vの色はシステムのデフォルト値(黒など。もちろん黒以外でもよい)を用いるものとする。
【0062】
また、画素Vを代表する座標は上記例では1画素につき1点としたが、代表する代表座標を画素V内に複数設けてもよい。この場合には、各代表座標それぞれに対して光線34が実カメラ11のどの画素に入射するかを計算し、得られた複数の色および輝度をブレンディングし、画素Vの色および輝度とする。この場合、ブレンディングの比率は等しくする。また、色および輝度のブレンディンクの手法としてはアルファブレンディングなどの手法があり、コンピュータグラフィックの分野では一般的な手法である。
【0063】
以上の処理を仮想カメラ32の画素すべてについて行ない、仮想カメラ32の各画素の色および輝度を確定することで仮想カメラ32の画像すなわち視点変換画像を作成することができ、空間上の実カメラ11の画像すなわち画像変換画像を視点変換画像へと視点変換することができる。
【0064】
この手法は撮影画像を投影面に対して単純に投影する方法に比べ、仮想カメラ32の特性や位置が自由に設定でき、かつ仮想カメラ32の特性や位置の変化にも容易に対応できる。
【0065】
なお、仮想カメラ32の各画素は基本的に実カメラ11の画素との対応になり、その対応は仮想カメラ32および実カメラ11の位置および向きおよび投影面の設定が変わらない限り変わらないので、計算能力に余裕のない処理装置を用いる場合には、対応関係を変換テーブルとして保存し、実行時に参照してもよい。また、仮想カメラ32の画素数が増加するにつれ、変換テーブルの容量も比例して増加するので、仮想カメラ32の画素数が多い場合には、大容量のメモリを持つ処理装置(コンピュータ)を用いるよりも、視点変換の計算を高速に行なうことができる処理装置を用いた方がコスト的に有利になる。
【0066】
このような視点変換装置においては、出射角αOの変化に対する撮像面23上の位置の変化は、撮像面23の中心部と輪郭部とでほぼ同じであるから、輪郭部付近の画像や、画角の大きなカメラで撮影した画像についても、歪みの少ない視点変換画像を得ることができ、しかも補正関数を算出するためにパターン画像を撮影する必要がないから、容易に視点変換することができる。また、出射角αOと入射角αIとが比例する関数で画像変換したときには、画像変換された画像変換画像の中心部と輪郭部では同倍率となるから、歪みの少ない視点変換画像を得ることができる。また、実カメラ11のレンズ特性を示す関数で画像変換したときには、実カメラ11のレンズ(収差)による歪みの少ない視点変換画像を得ることができる。また、視点変換手段13は視点変換画像の各画素の色および輝度を画像変換画像の各画素の中心点に位置する色および輝度としているから、色および輝度の平均値などの計算を行なう必要がないので、視点変換時の計算量を少なくすることができる。
【0067】
以上本発明を実施の形態に基づいて具体的に説明したが、本発明は上記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【図面の簡単な説明】
【図1】本発明の実施の形態1の画像合成装置の構成を示す図である。
【図2】変換・合成後の表示画面の一例を示す図である。
【図3】本実施の形態1におけるドアが閉じた状態の車両を上から見た概略図である。
【図4】本実施の形態1におけるドアが開いた状態の車両を上から見た概略図である。
【図5】本実施の形態1におけるフローを示す図である。
【図6】本実施の形態2におけるドアが閉じた状態の車両を上から見た概略図である。
【図7】本実施の形態2におけるドアが開いた状態の車両を上から見た概略図である。
【図8】本実施の形態2におけるフローを示す図である。
【図9】図1に示した画像合成装置のCPUによる画像変換についての説明図である。
【図10】図1に示した画像合成装置のCPUによる画像変換についての説明図である。
【図11】図1に示した画像合成装置のCPUによる視点変換についての説明図である。
【符号の説明】
5a〜5d…カメラ
1…ECU(エレクトロニック・コントロール・ユニット)
2…CPU(中央演算処理装置)
3…ROM
4…RAM
6…表示器
7…開閉検知センサ
11…実カメラ
11a…実カメラモデル
12…画像変換手段
13…視点変換手段
14…表示手段
21…カメラ本体
22…代表点
23…撮像面
24…カメラ光軸
25…光線
26…光線
27…交点
32…仮想カメラ
33…交点
34…光線
35…光線
101、301…車両
102、103、303、304…カメラ
104、105、305、306、401…撮影の範囲
106、307…分割線
201、302…ドア
202、203、402…ドアが開いたことにより撮影できない範囲
204、205…ドアが開いたことによりどのカメラにも映らなくなる範囲[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image synthesizing apparatus and an image synthesizing method, and in particular, converts an image photographed by a plurality of photographing means installed on a vehicle into an image looking down from a viewpoint position set above the vehicle, and converts the plurality of converted images. The present invention relates to an image synthesizing apparatus and an image synthesizing method for synthesizing one image and displaying the image on a display.
[0002]
[Prior art]
2. Description of the Related Art In recent years, devices that support safe driving by photographing and monitoring the periphery of a vehicle with an electronic camera installed in the vehicle have been put into practical use and are becoming popular.
Such a technique is described in, for example, JP-A-2001-339716.
This conventional technology dynamically changes the viewpoint position to reduce the blind spot from the driver and to display the optimum synthesized image according to the driving situation on the display device installed in the vehicle in order to facilitate the driving operation. An apparatus and method for monitoring the periphery of a vehicle.
[0003]
[Problems to be solved by the invention]
The camera attached to the vehicle has its mounting position determined in consideration of the area to be photographed and the shape of the vehicle, but the door, trunk, etc. of the vehicle (hereinafter, these are collectively referred to as an open / close body) are opened. In such a case, the open part is reflected on the camera, and if the camera is attached to the opening / closing body, the position and orientation of the camera will change, which will affect the displayed image and mislead the driver. There was a problem. In the above prior art, such a situation was not considered.
[0004]
Specifically, the range in which each camera captures an image is determined based on the position of the camera. Normally, the position of each camera is determined based on the state that the doors, trunks, rear gates, etc. of the vehicle are closed, so if these doors are open, they will open in the camera image. The opening / closing body is reflected, a blind spot occurs in the shooting range, and an image in an expected range cannot be obtained. Further, there are cases where a camera is installed on an opening / closing body such as a trunk or a rear gate, and the opening and closing of the opening / closing body on which the camera is installed changes the direction and position of the camera, so that it is impossible to obtain an image in an expected range. . As described above, in the related art, since the opening / closing of the opening / closing body is not detected, even when the image in the expected range cannot be acquired as described above, the display image is created based on the acquired image. Was sometimes confused.
[0005]
An object of the present invention is to provide an image synthesizing apparatus and an image synthesizing method capable of displaying an image to a driver even when an opening / closing body such as a door of a vehicle is opened.
[0006]
[Means for Solving the Problems]
In order to achieve this object, the present invention combines a plurality of image data taken by a plurality of photographing means installed in a vehicle, displays the combined data, and opens and closes a vehicle opening / closing body to photograph the photographing means. When the blind spot occurs in the range, the range in which the photographing unit is responsible is changed.
[0007]
【The invention's effect】
According to the present invention, an image can be displayed to a driver even when an opening / closing body such as a door of a vehicle is opened.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram illustrating a configuration of an image synthesizing apparatus according to
A plurality of
The present invention converts a plurality of images taken by a plurality of
[0009]
FIG. 2 is a diagram showing an example of such a display screen, where 101 is a vehicle.
Image conversion, viewpoint conversion, and image synthesis will be described later in detail with reference to FIGS.
[0010]
The
[0011]
FIG. 3 is a schematic view of the vehicle according to the first embodiment as viewed from above.
101 is a vehicle, 102 and 103 are cameras, 104 and 105 are shooting ranges, and 106 is a dividing line.
[0012]
As shown in FIG. 3, for example, a
[0013]
FIG. 4 is a schematic view of the vehicle with the door open according to the first embodiment viewed from above.
As shown in FIG. 4, when the
[0014]
The
[0015]
When the image conversion / synthesis rule (the rule using the dividing line 106) when the
[0016]
When the opening / closing detection sensor 7 (FIG. 1) of the
[0017]
Since the way of opening the
[0018]
In addition, when the
[0019]
FIG. 5 is a diagram showing a flow in the first embodiment.
Hereinafter, the flow according to the first embodiment will be described.
[0020]
First, in S1, the CPU 2 (FIG. 1) detects opening / closing of the opening / closing body (for example, the
[0021]
Next, when the opening / closing of the opening / closing body is detected, a blind spot occurs in the photographing range of the camera (for example, the
[0022]
Next, in S3, the
[0023]
Next, in S4, the
[0024]
Finally, in S5, the
[0025]
That is, the image synthesizing apparatus according to the first embodiment includes a plurality of
[0026]
The image synthesizing method according to the first embodiment includes a step of detecting the opening and closing of an opening / closing body such as a
[0027]
As described above, in the first embodiment, when at least a part of the opening and closing body such as the
[0028]
Further, when the opening / closing body is opened, by displaying on the display screen of the display unit 6 a range in which opening and closing of the opening / closing body affects the photographing of the camera, it is possible to display a surrounding image which is easy for the driver to understand. And reliability can be improved. In addition, by clearly indicating to the driver that the opening / closing body is open through the screen, it is possible to prevent the user from moving by looking at only the screen where the opening / closing body is not displayed as in the related art, Reliability can be improved.
[0029]
As described above, according to the first embodiment, it is possible to perform appropriate image conversion / synthesis even when the vehicle shape is changed by opening a door or the like, and an optimal image is displayed for the driver. be able to.
[0030]
Also in the second embodiment, the basic configuration of the image synthesizing apparatus is the same as that shown in FIG.
FIG. 6 is a schematic view of a vehicle with the door closed according to the second embodiment as viewed from above.
301 is a vehicle, 302 is a door, 303 and 304 are cameras, 305 and 306 are shooting ranges, and 307 is a dividing line.
[0031]
As shown in FIG. 6, in the second embodiment, a
[0032]
FIG. 7 is a schematic view of the vehicle with the door open according to the second embodiment viewed from above.
As shown in FIG. 7, when the
[0033]
The
[0034]
When the same image conversion / synthesis rule (rule using the
[0035]
Therefore, the opening /
[0036]
When the opening / closing detection sensor 7 (FIG. 1) of the
[0037]
Further, when the
[0038]
FIG. 8 is a diagram showing a flow in the second embodiment.
Hereinafter, the flow according to the second embodiment will be described.
[0039]
First, in S1, the CPU 2 (FIG. 1) detects opening / closing of an opening / closing body of the vehicle 301 (for example, the
[0040]
Next, when the opening / closing of the opening / closing body is detected, a blind spot occurs in the photographing range of the camera (for example, the
[0041]
Next, in S3, the
[0042]
Next, in S4, the
[0043]
Finally, in S5, the
[0044]
As described above, in the second embodiment, when at least a part of the opening / closing body such as the
[0045]
As described above, according to the second embodiment, it is possible to perform appropriate image conversion / composition even when the vehicle shape changes due to a door opening or the like and a part of the camera moves. Thus, an optimal image can be displayed to the driver.
[0046]
《Conversion and composition of images》
As described above, in the present invention, a plurality of images taken by a plurality of cameras installed in a vehicle are respectively converted into images looked down from a viewpoint set above the vehicle, and the plurality of converted images are converted into one image. This is an image synthesizing device that synthesizes an image and displays it on the display screen of display 6 (a display example is shown in FIG. 2). Hereinafter, image conversion, viewpoint conversion, and image synthesis in the image synthesis device and the image synthesis method of the present invention will be described.
[0047]
In the present invention, images taken by a real camera (5a to 5d in FIG. 1, 102 and 103 in FIGS. 3 and 4, 303 and 304 in FIGS. 6 and 7, and 11 in FIG. 11 to be described later) that output images are used. The image conversion is performed by the
[0048]
Next, image conversion will be described with reference to FIGS. As shown in the figure, the light ray 25 (FIG. 10) outside the
[0049]
Then, the image conversion by the
[0050]
That is, the
[0051]
(Α O , Β O ) = F (α I , Β I (1)
At this time, α O <Α I Is always satisfied. In this case, when the
[0052]
Depending on the setting of the
[0053]
If the maximum angle of view of the real camera to be simulated is M (degrees), the
[0054]
According to the above-described procedure, it is possible to calculate which pixel (position) on the
[0055]
In addition, by using the following expression together with the expression (1), it is possible to calculate from which direction the
[0056]
(Α I , Β I ) = Fi (α O , Β O ) (2)
Further, the simplest example of the expression (1) is an incident angle α as follows. I , Β I And emission angle α O , Β O Is an equation having a proportional relationship.
[0057]
α O = Kα I (3)
β O = Β I (4)
Here, k is a parameter for determining the lens characteristics of the real camera model 11a, and k <1. If k = 1, the operation is the same as that of the conventional pinhole camera model. Although the actual distortion characteristic of the lens depends on the purpose (design intention) of the lens, a normal wide-angle lens can be approximated by appropriately setting the parameter k in the range of 1 <k <0. A more accurate camera simulation can be performed than a camera simulation using a model.
[0058]
In order to perform lens simulation more precisely, the function f (α I , Β I ) Is not a proportional relationship as shown in the equations (3) and (4), but the lens characteristics of the real camera are actually measured, and image conversion is performed using a function indicating the lens characteristics of the real camera. In this case, of course, the emission angle α O Is the incident angle α I Less than
[0059]
After performing the above image conversion, the viewpoint conversion is performed. The simplest viewpoint conversion is realized by placing a camera model and a projection plane in space, and projecting an image captured by the camera onto the projection plane.
[0060]
Next, viewpoint conversion by the
[0061]
When the
[0062]
In addition, in the above example, one coordinate is set for one pixel in the above example, but a plurality of representative coordinates may be provided in the pixel V. In this case, it is calculated which pixel of the
[0063]
The above processing is performed for all the pixels of the
[0064]
This method can freely set the characteristics and the position of the
[0065]
Note that each pixel of the
[0066]
In such a viewpoint conversion device, the emission angle α O Since the change in the position on the
[0067]
Although the present invention has been specifically described based on the embodiments, the present invention is not limited to the above-described embodiments, and it is needless to say that various modifications can be made without departing from the gist of the present invention.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an image synthesizing apparatus according to
FIG. 2 is a diagram showing an example of a display screen after conversion and synthesis.
FIG. 3 is a schematic view of the vehicle with the door closed according to the first embodiment as viewed from above.
FIG. 4 is a schematic view of the vehicle with the door opened according to the first embodiment as viewed from above.
FIG. 5 is a diagram showing a flow in the first embodiment.
FIG. 6 is a schematic view of a vehicle with a door closed according to the second embodiment as viewed from above.
FIG. 7 is a schematic view of a vehicle with a door opened according to the second embodiment viewed from above.
FIG. 8 is a diagram showing a flow in the second embodiment.
FIG. 9 is an explanatory diagram of image conversion by a CPU of the image synthesizing apparatus shown in FIG. 1;
FIG. 10 is an explanatory diagram of image conversion by a CPU of the image synthesizing apparatus shown in FIG. 1;
FIG. 11 is an explanatory diagram of viewpoint conversion by a CPU of the image synthesizing apparatus shown in FIG. 1;
[Explanation of symbols]
5a-5d… Camera
1 ... ECU (Electronic Control Unit)
2. CPU (Central Processing Unit)
3 ROM
4 ... RAM
6 ... Display
7 Open / close detection sensor
11 ... Real camera
11a ... Real camera model
12 ... Image conversion means
13. Viewpoint conversion means
14 Display means
21 ... Camera body
22 ... Representative point
23 ... Imaging surface
24 ... Camera optical axis
25 ... ray
26 ... ray
27 ... intersection
32 ... Virtual camera
33 ... intersection
34 ... ray
35 ... ray
101,301 ... vehicle
102, 103, 303, 304 ... camera
104, 105, 305, 306, 401... Shooting range
106, 307 ... dividing line
201, 302 ... door
202, 203, 402... Range that cannot be photographed due to opening of the door
204, 205: Range that cannot be reflected on any camera by opening the door
Claims (4)
前記撮影手段によって撮影された複数の画像データを合成する合成手段と、
前記合成されたデータを表示する表示手段と、
前記車両の開閉体の開閉により前記撮影手段の撮影範囲に死角が生じる場合、前記合成のための前記撮影手段の担当範囲を変更する変更手段と
を有することを特徴とする画像合成装置。A plurality of photographing means installed on the vehicle,
Synthesizing means for synthesizing a plurality of image data shot by the shooting means,
Display means for displaying the synthesized data;
An image synthesizing apparatus, comprising: changing means for changing a range in which the photographing unit is responsible for the composition when a blind spot occurs in a photographing range of the photographing unit due to opening and closing of the opening and closing body of the vehicle.
車両に設置した複数の撮影手段によって撮影された複数の画像データを合成する工程と、
前記合成されたデータを表示する工程と、
前記車両の開閉体の開閉により前記撮影手段の撮影範囲に死角が生じる場合、前記合成のための前記撮影手段の担当範囲を変更する工程と
を有することを特徴とする画像合成方法。Detecting the opening and closing of the opening and closing body of the vehicle;
Combining a plurality of image data taken by a plurality of photographing means installed in the vehicle,
Displaying the synthesized data;
A step of changing the range of responsibility of the photographing means for the composition when a blind spot occurs in the photographing range of the photographing means due to opening and closing of the opening / closing body of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002206484A JP3928509B2 (en) | 2002-07-16 | 2002-07-16 | Image composition apparatus and image composition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002206484A JP3928509B2 (en) | 2002-07-16 | 2002-07-16 | Image composition apparatus and image composition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004048621A true JP2004048621A (en) | 2004-02-12 |
JP3928509B2 JP3928509B2 (en) | 2007-06-13 |
Family
ID=31711455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002206484A Expired - Lifetime JP3928509B2 (en) | 2002-07-16 | 2002-07-16 | Image composition apparatus and image composition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3928509B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7592928B2 (en) | 2005-06-07 | 2009-09-22 | Nissan Motor Co., Ltd. | Image display device and method |
US7734417B2 (en) | 2005-05-20 | 2010-06-08 | Nissan Motor., Ltd. | Image processing device and method for parking support |
KR20180044698A (en) * | 2016-10-24 | 2018-05-03 | 현대자동차주식회사 | Duel Camera-Based Blind Spot Monitoring System for Bus |
JP2019199151A (en) * | 2018-05-16 | 2019-11-21 | アルパイン株式会社 | Image processing apparatus and image processing method |
JP2021110631A (en) * | 2020-01-10 | 2021-08-02 | 株式会社デンソー | Posture/position detection system of detector and posture/position detection method of detector |
-
2002
- 2002-07-16 JP JP2002206484A patent/JP3928509B2/en not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7734417B2 (en) | 2005-05-20 | 2010-06-08 | Nissan Motor., Ltd. | Image processing device and method for parking support |
US7592928B2 (en) | 2005-06-07 | 2009-09-22 | Nissan Motor Co., Ltd. | Image display device and method |
KR20180044698A (en) * | 2016-10-24 | 2018-05-03 | 현대자동차주식회사 | Duel Camera-Based Blind Spot Monitoring System for Bus |
KR102373159B1 (en) | 2016-10-24 | 2022-03-10 | 현대자동차주식회사 | Duel Camera-Based Blind Spot Monitoring System for Bus |
JP2019199151A (en) * | 2018-05-16 | 2019-11-21 | アルパイン株式会社 | Image processing apparatus and image processing method |
JP7077131B2 (en) | 2018-05-16 | 2022-05-30 | アルパイン株式会社 | Image processing device and image processing method |
JP2021110631A (en) * | 2020-01-10 | 2021-08-02 | 株式会社デンソー | Posture/position detection system of detector and posture/position detection method of detector |
Also Published As
Publication number | Publication date |
---|---|
JP3928509B2 (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9858639B2 (en) | Imaging surface modeling for camera modeling and virtual view synthesis | |
TWI554976B (en) | Surveillance systems and image processing methods thereof | |
US20140114534A1 (en) | Dynamic rearview mirror display features | |
CN107835372A (en) | Imaging method, device, mobile terminal and storage medium based on dual camera | |
US20150042799A1 (en) | Object highlighting and sensing in vehicle image display systems | |
JP2002019556A (en) | Monitoring system | |
JP2007311970A (en) | Vehicle surrounding image generating apparatus and photometry adjustment method for imaging apparatus | |
JP2009100095A (en) | Image processing apparatus and image processing method | |
AU2018225269B2 (en) | Method, system and apparatus for visual effects | |
JP3960092B2 (en) | Image processing apparatus for vehicle | |
JPWO2017217296A1 (en) | Image processing device | |
CA3165230A1 (en) | System and method of capturing and generating panoramic three-dimensional images | |
JP2015506030A (en) | System for shooting video movies | |
JP2010141836A (en) | Obstacle detecting apparatus | |
KR20180123302A (en) | Method and Apparatus for Visualizing a Ball Trajectory | |
JP3695377B2 (en) | Image composition apparatus and image composition method | |
CN111798374A (en) | Image splicing method, device, equipment and medium | |
JP3928509B2 (en) | Image composition apparatus and image composition method | |
TW201824852A (en) | Display method for synchronously displaying rear panorama and turning view during vehicle turning using single lens to display images at rear and turning direction to enhance driving safety | |
WO2010116801A1 (en) | Image processing device | |
JP7021036B2 (en) | Electronic devices and notification methods | |
JPH10262164A (en) | Image input device, image input method and storage medium | |
WO2015141185A1 (en) | Imaging control device, imaging control method, and storage medium | |
KR20170044319A (en) | Method for extending field of view of head mounted display | |
JP2003333380A (en) | Imaging apparatus, method for confirming photographed image, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3928509 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100316 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110316 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110316 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120316 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130316 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130316 Year of fee payment: 6 |
|
EXPY | Cancellation because of completion of term |