JP2004048621A - Image compositing apparatus and method - Google Patents

Image compositing apparatus and method Download PDF

Info

Publication number
JP2004048621A
JP2004048621A JP2002206484A JP2002206484A JP2004048621A JP 2004048621 A JP2004048621 A JP 2004048621A JP 2002206484 A JP2002206484 A JP 2002206484A JP 2002206484 A JP2002206484 A JP 2002206484A JP 2004048621 A JP2004048621 A JP 2004048621A
Authority
JP
Japan
Prior art keywords
image
opening
camera
door
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002206484A
Other languages
Japanese (ja)
Other versions
JP3928509B2 (en
Inventor
Ken Oizumi
大泉  謙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002206484A priority Critical patent/JP3928509B2/en
Publication of JP2004048621A publication Critical patent/JP2004048621A/en
Application granted granted Critical
Publication of JP3928509B2 publication Critical patent/JP3928509B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image compositing apparatus and method which can display an image with high reliability to a driver even when an opening/closing body such as the door of a vehicle is opened in driving the vehicle. <P>SOLUTION: This image compositing apparatus is provided with a plurality of cameras 5a to 5d installed in the vehicle, and a CPU 2 which composites a plurality of pieces of image data photographed by the cameras 5a to 5d and changes duty ranges of the cameras 5a to 5d when a dead angle is caused in ranges 104, 105 of photography of the cameras 5a to 5d by opening/closing of the opening/closing body such as the door of the vehicle, and a display unit 6 which displays the composited data. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像合成装置および画像合成方法に係り、特に、車両に設置した複数の撮影手段で撮影した画像を、車両上方に設定した視点位置から見下ろした画像に変換し、複数の変換画像を1つの画像に合成して表示器に表示する画像合成装置および画像合成方法に関する。
【0002】
【従来の技術】
近年、車両に設置した電子式のカメラによって車両の周辺を撮影し、監視することによって、安全運転を支援する装置が実用化され、普及しつつある。
このような技術は、例えば特開2001−339716号公報に記載されている。
この従来技術は、視点位置をダイナミックに変更して、運転者からの死角を低減したり、運転操作を容易にするため、車内に設置した表示装置に運転状況に応じて最適な合成画像を表示しようとする車両周辺監視装置および方法である。
【0003】
【発明が解決しようとする課題】
車両に取り付けられているカメラは、撮影したい範囲と車両形状を考慮し、その取り付け位置が決定されているが、車両のドア、トランクなど(以下、これらをまとめて開閉体と称す)が開いた場合、開いた部位がカメラに映り込んだり、また、開閉体にカメラが取り付けられている場合にはカメラの位置および向きが変わってしまい、表示映像に影響が出て運転者に誤解を与えるという問題点があった。上記従来技術においては、このような実情は考慮されていなかった。
【0004】
具体的には、各カメラが撮影する範囲は、カメラの位置などをもとに決定されている。各カメラの位置は、通常、車両のドアやトランクやリヤゲートなどの開閉体は閉じている状態を基準に決定されているため、これらの開閉体が開いている場合、カメラの映像内に開いた開閉体が映り込み、撮影範囲に死角が生じ、期待した範囲の映像が取得できなくなる。また、トランクやリヤゲートなどの開閉体にカメラが設置されている場合もあり、このカメラが設置された開閉体の開閉により、該カメラの向きおよび位置が変わり、期待した範囲の映像を取得できなくなる。このように従来においては、開閉体の開閉を検知していないため、前述のように期待した範囲の映像が取得できない場合にも、取得した映像をもとに表示映像を作成するため、運転者が混乱する場合があった。
【0005】
本発明の目的は、車両のドア等の開閉体が開いた場合でも、運転者に画像を表示できる画像合成装置および画像合成方法を提供することにある。
【0006】
【課題を解決するための手段】
この目的を達成するため、本発明は、車両に設置した複数の撮影手段によって撮影された複数の画像データを合成し、合成されたデータを表示し、車両の開閉体の開閉により撮影手段の撮影範囲に死角が生じる場合、撮影手段の担当範囲を変更することを特徴とする。
【0007】
【発明の効果】
本発明によれば、車両のドア等の開閉体が開いた場合でも、運転者に画像を表示することができる。
【0008】
【発明の実施の形態】
実施の形態1
図1は、本発明の実施の形態1の画像合成装置の構成を示す図である。
5a〜5dはそれぞれ車両に複数個設置され、車両の周囲を撮影する電子式のカメラ、1はECU(エレクトロニック・コントロール・ユニット)、2はカメラ5a〜5dからの画像の処理等の各種処理を行うCPU(中央演算処理装置)、3はCPU2の制御プログラムやあらかじめ与えられる設定値などを保持するROM、4はCPU2の演算実行時に必要なデータを一時的に保持するRAM、6は表示器、7はドア等の車両の開閉体の開閉を検知する開閉検知センサである。
本発明は、車両に設置した複数のカメラ5a〜5dで撮影した複数の画像を、車両の上方に設定した視点位置から見下ろした画像にそれぞれ変換し、これら複数の変換画像を1つの画像に合成して表示器6の表示画面に表示する画像合成装置に関するものである。
【0009】
図2はこのような表示画面の一例を示す図であり、101は車両である。
画像変換、視点変換、ならびに画像の合成については、後で図9〜図11を用いて詳述する。
【0010】
車両に設置した複数のカメラ5a〜5d(ここでは、4個のみ図示)によって撮影された複数の画像データをCPU2によって合成し、合成されたデータを表示器6に表示する。
【0011】
図3は、本実施の形態1における車両を上から見た概略図である。
101は車両、102、103はカメラ、104、105は撮影の範囲、106は分割線である。
【0012】
図3に示すように、車両101の例えば右前方にカメラ102、右後方にカメラ103が取り付けられ、それぞれ範囲104と範囲105を撮影している。撮影された映像は、車両101の上空の仮想カメラの映像に変換・合成され(詳細は後述)、表示画像を作成する。範囲104と範囲105は一部重複しているため、ここでは分割線106で分割し、分割線106より前側はカメラ102の映像を用い、分割線106より後ろ側はカメラ103の映像を用いることとする。
【0013】
図4は、本実施の形態1におけるドアが開いた状態の車両を上から見た概略図である。
図4に示すように、車両101のドア201が開いた場合、開いたドア201によって範囲202は、カメラ102では撮影できなくなる。この場合、範囲202を撮影するはずだった部分には、開いたドア201が映っている。同様に、開いたドア201によって範囲203は、カメラ103で撮影できなくなる。この場合、範囲203を撮影するはずだった部分には、開いたドア201が映っている。
【0014】
範囲202および範囲203は、カメラ特性、それぞれのカメラ102、103の取り付け位置と角度、車両101の形状、ドア201の形状、およびドア201の開度から計算できる。
【0015】
ドア201が開いているときに、ドア201が閉じているときの画像変換・合成ルール(分割線106を用いたルール)を適用して画像の合成を行なうと、ドア201が映った画像をもとに変換・合成された表示画像が作成されてしまう。そこで、ドア201が開いたことを開閉検知センサ(図4では図示せず。図1の開閉検知センサ7参照)で検知し、ドア201が開いている場合は、範囲104から範囲202を除いた範囲についてカメラ102の映像を用い、撮影範囲105から範囲203を除いた範囲についてカメラ103の映像を用いて、CPU2(図1)により複数の画像データを合成し、表示画像の作成を行なう。すなわち、車両101のドア201の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、合成のためのカメラ102、103の担当範囲を変更するものである。
【0016】
ドア201の開閉検知センサ7(図1)で、ドア201が開いている角度が検知可能な場合は、ドア201の開度に応じて、範囲202および範囲203を変更して、最適な画像合成を行なう。ドア201の開閉検知センサ7がドア201の角度を検知できず、ドア201が開いているか閉じているかを検知するだけである場合には、ドア201の開度に応じた範囲202および範囲203の設定が不可能である。この場合には、ドア201が閉まった状態から全開の状態になるまで通過する領域すべてに物体があるものとして、範囲202および範囲203の計算を行なう。
【0017】
ドア201の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算はあらかじめ行なって、ROM3(図1)内に記録しておき、ドア201の開き方に応じて情報を呼び出してもよい。
【0018】
また、ドア201が開いたことにより、どのカメラ102、103にも映らなくなる範囲が発生することがある(例えば図4では、範囲204、205)。この範囲の発生は、ドア201の開度の取得が不可能で、ドア201が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、撮影不能範囲の計算を行なった場合により顕著である。その領域が変換・合成した結果の表示画像に含まれる場合には、もともとカメラで撮影されない領域として処理するか、黒で塗りつぶした状態で表示する。ドア201が開いたことにより表示されなくなった領域であることがわかるように、赤や他の色で明示的に表示してもよい。このようなどのカメラでも撮影できない範囲は、ドアが複数同時に開いた場合にはより多く発生する。また、表示画像上には開いたドア201を表す表示を行なったり、同時にドアが開いているメッセージを表示して、注意を喚起しても良い。
【0019】
図5は、本実施の形態1におけるフローを示す図である。
以下、本実施の形態1におけるフローについて説明する。
【0020】
まず、S1において、図3の車両101の開閉体(例えば図4のドア201)の開閉を、開閉検知センサ7(図1)からの信号によりCPU2(図1)が検出する。
【0021】
次に、開閉体の開閉が検出された場合には、カメラ(例えば図3、図4のカメラ102、103)の撮影範囲に死角が生じるので、S2において、開閉体が全閉〜全開の間に通る範囲に物体があるものとして、各カメラの撮影範囲をCPU2が再計算する。あるいは、開閉体の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算をあらかじめ行なって、ROM3(図1)内に記録しておき、ドア201の開き方に応じてCPU2が情報を呼び出す(すなわち、開閉体の開閉の状況によりテーブルを切り替える)。開閉体の開閉が検出されない場合には、S2の処理は行なわない(このフローは図示省略)。
【0022】
次に、S3において、CPU2が、担当範囲が変更されたカメラ102、103からの複数の画像データを合成し、表示画像の作成を行なう。
【0023】
次に、S4において、CPU2が、撮影不能範囲を合成画像上に描画する。
【0024】
最後に、S5において、処理された画像をCPU2が表示器6(図1)に表示する。
【0025】
すなわち、本実施の形態1の画像合成装置は、車両101(図3、図4)に設置した複数のカメラ102、103(図1では5a〜5d)と、カメラ102、103によって撮影された複数の画像データを合成し、また車両101のドア201等の開閉体の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、カメラ102、103の担当範囲を変更するCPU2(図1)と、合成されたデータを表示する表示器6とを有する。なお、図1のCPU2が、特許請求の範囲の変更手段および合成手段に相当し、表示器6が表示手段に相当する。
【0026】
また、本実施の形態1の画像合成方法は、車両101のドア201等の開閉体の開閉を図1の開閉検知センサ7からの信号によりCPU2により検出する工程と、車両101に取り付けられた複数のカメラ102、103によって撮影された複数の画像データを合成する工程と、合成されたデータを表示する工程と、車両101の開閉体の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、合成のためのカメラ102、103の担当範囲を変更する工程とを有する。なお、図5のS1が開閉体の開閉を検出する工程に相当し、S2が撮影手段の担当範囲を変更する工程に相当し、S3が複数の画像データを合成する工程に相当し、S5が合成されたデータを表示する工程に相当する。
【0027】
以上により、本実施の形態1では、ドア201等の開閉体の少なくとも一部が開いた際に、カメラの担当範囲を変更することにより、映像に開閉体の一部が写りこんだ影響を最低限に抑えることができ、また、開閉体が開くことで、あるカメラで撮影不能になった部分を他のカメラでフォローすることができる。その結果、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。
【0028】
また、開閉体が開いた際に、開閉体が開いたことでカメラの撮影に影響が出た範囲を表示器6の表示画面に明示することにより、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。また、画面を通じて開閉体が開いていることを運転者に明示することにより、従来のように開閉体が開いていることが表示されない画面だけを見て移動することを未然に防ぐことができ、信頼性を向上することができる。
【0029】
このように、本実施の形態1によれば、ドアを開くなどして、車両形状が変化した場合にも適切な画像変換・合成を行なうことが可能となり、運転者に最適な映像を表示することができる。
【0030】
実施の形態2
本実施の形態2においても、画像合成装置の基本構成は図1に示したものと同一である。
図6は、本実施の形態2におけるドアが閉じた状態の車両を上から見た概略図である。
301は車両、302はドア、303、304はカメラ、305、306は撮影の範囲、307は分割線である。
【0031】
図6に示すように、本実施の形態2では、車両301のドア302にカメラ303が取り付けられている。また、車両301の右後方にカメラ304が取り付けられ、それぞれ範囲305、範囲306を撮影する。撮影された映像は、後述の手法を用いて、CPU2(図1)により、車両301の上空の仮想カメラの映像に変換・合成され、表示画像を作成する。範囲305と範囲306は一部重複しているため、ここでは分割線307で分割し、分割線307より前側はカメラ303の映像を用い、分割線307より後ろ側はカメラ304の映像を用いることとする。
【0032】
図7は、本実施の形態2におけるドアが開いた状態の車両を上から見た概略図である。
図7に示すように、車両301のドア302が開いた場合、ドア302に取り付けられたカメラ303の位置および向きが変化し、図6の範囲305はカメラ303では撮影できなくなり、カメラ303は範囲401を撮影することになる。また、開いたドア302によって範囲402はカメラ304で撮影できなくなる。この場合、範囲402を撮影するはずだった部分には、開いたドア302が映っている。
【0033】
範囲401および範囲402は、カメラ特性、それぞれのカメラ303、304の取り付け位置と角度、車両301の形状、ドア302の形状、およびドア302の開度から計算できる。
【0034】
ドア302が開いているときに、ドア302が閉まったときと同じ画像変換・合成ルール(図6の分割線307を用いたルール)を適用して画像の変換・合成を行なうと、カメラ303の撮影している範囲が異なり、かつ、カメラ304では、ドア302が映った画像を撮影しているため、変換・合成された表示画像は期待したものとは違うものが作成されてしまう。
【0035】
そこで、ドア302が開いたことを図1の開閉検知センサ7で検知し、ドア302が開いている場合は、カメラ303の撮影する範囲として図7の範囲401を用い、カメラ304の撮影する範囲としては、図6の範囲305から図7の範囲402を除いた範囲を用いて、表示画像の作成を行なう。
【0036】
ドア302の開閉検知センサ7(図1)が、ドア302が開いている角度を検知可能な場合は、ドア302の開度に応じて、範囲401および範囲402を変更して、最適な画像合成を行なう。ドア302の開閉検知センサ7がドア302の角度を検知できず、ドア302が開いているか閉じているかを検知するだけである場合には、ドア302の開度に応じた範囲401および範囲402の設定が不可能である。この場合には、ドア302に取り付けられたカメラ303の位置および向きの確定が不可能なため、カメラ303の撮影した映像を画像の変換・合成に用いることはできない。よって、ドア302の開度が取得不能な場合は、ドア302が開いたときには、ドア302に取り付けられたカメラ303の映像を使わないようにする。また、カメラ304の撮影可能範囲については、ドア302が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、範囲402の計算を行ない、決定する。ドア302の開き方(軌跡、開く面積など)は毎回一定なので、計算はあらかじめ行なって、図1のROM3内に記録しておき、ドア302の開き方に応じて情報を呼び出してもよい。
【0037】
また、ドア302が開いたことにより、どのカメラ303、304にも映らなくなる範囲が発生することがある。この範囲の発生は、ドア302の開度の取得が不可能で、ドア302が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、撮影不能範囲の計算を行なった場合により顕著である。その領域が変換・合成した結果の表示画像に含まれる場合には、もともとカメラで撮影されない領域として処理するか、黒で塗りつぶした状態で表示する。ドア302が開いたことにより表示されなくなった領域であることがわかるように、赤や他の色で明示的に表示してもよい。このようなどのカメラでも撮影できない範囲は、ドアが複数同時に開いた場合にはより多く発生する。また、表示画像上には開いたドア302を表す表示を行ない、同時にドアが開いているメッセージを表示して、注意を喚起しても良い。
【0038】
図8は、本実施の形態2におけるフローを示す図である。
以下、本実施の形態2におけるフローについて説明する。
【0039】
まず、S1において、車両301の開閉体(例えば図6のドア302)の開閉を、開閉検知センサ7(図1)からの信号によりCPU2(図1)が検出する。
【0040】
次に、開閉体の開閉が検出された場合には、カメラ(例えば図6、図7のカメラ303、304)の撮影範囲に死角が生じるので、S2において、車両301の開閉体の開閉の度合いに応じて各カメラの撮影範囲をCPU2が再計算する。あるいは、開閉体の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算をあらかじめ行なって、ROM3(図1)内に記録しておき、ドア302の開き方に応じてCPU2が情報を呼び出す(すなわち、開閉体の開閉の状況によりテーブルを切り替える)。開閉体の開閉が検出されない場合には、S2の処理は行なわない(このフローは図示省略)。
【0041】
次に、S3において、CPU2が、担当範囲が変更されたカメラ303、304からの複数の画像データを合成し、表示画像の作成を行なう。
【0042】
次に、S4において、CPU2が、撮影不能範囲を合成画像上に描画する。
【0043】
最後に、S5において、処理された画像をCPU2が表示器6(図1)に表示する。
【0044】
以上により、本実施の形態2では、ドア302等の開閉体の少なくとも一部が開いた際に、カメラの担当範囲を変更することにより、映像に開閉体の一部が写りこんだ影響を最低限に抑えることができ、また、開閉体が開くことで、あるカメラで撮影不能になった部分を他のカメラでフォローすることができる。その結果、運転者にわかりやすく信頼性の高い周囲画像を表示することができ、安全性を向上することができる。また、開閉体が開いた際に、開閉体が開いたことでカメラの撮影に影響が出た範囲を表示器6の表示画面に明示することにより、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。また、画面を通じて開閉体が開いていることを運転者に明示することにより、従来のように開閉体が開いていることが表示されない画面だけを見て移動することを未然に防ぐことができ、信頼性を向上することができる。
【0045】
このように、本実施の形態2によれば、ドアが開くなどして、車両形状が変化し、かつ、カメラの一部が移動した場合にも、適切な画像変換・合成を行なうことが可能となり、運転者に最適な映像を表示することができる。
【0046】
《画像の変換・合成》
既述のように、本発明では、車両に設置した複数のカメラで撮影した複数の画像を、車両の上方に設定した視点位置から見下ろした画像にそれぞれ変換し、これら複数の変換画像を1つの画像に合成して表示6の表示画面に表示する画像合成装置である(図2に表示例を図示)。以下、本発明の画像合成装置および画像合成方法における画像変換、視点変換、ならびに画像の合成について説明する。
【0047】
本発明では、画像を出力する実カメラ(図1の5a〜5d。図3、図4の102、103。図6、図7の303、304。後述図11の11)で撮影した撮影画像について実カメラの内部への出射角を実カメラの外部からの入射角未満として図1のCPU2により画像変換を行ない、この画像変換された画像変換画像の視点変換をCPU2により行なう。視点変換された複数の視点変換画像は、CPU2により1つの画像に合成され、その合成された画像が表示器6に表示される。
【0048】
次に、図9、図10を用いて画像変換について説明する。図に示すように、実カメラモデル11aのカメラ本体21外の光線25(図10)は必ず代表点22(レンズの焦点位置や中心点を用いることが多い)を通り、カメラ本体21内の光線26(図10)はカメラ本体21内に設けられた撮像面23に入る。そして、実カメラモデル11aの向きを示すカメラ光軸24に垂直に撮像面23が設けられ、また撮像面23の中心をカメラ光軸24が通るように、撮像面23が配置されている。もちろん、シミュレートする対象の実カメラの特性によっては、撮像面23の中心をカメラ光軸24が通らなくともよいし、撮像面23とカメラ光軸24が垂直でなくともよい場合もある。また、代表点22と撮像面23との距離は計算の都合上単位距離(1)とするのがよい。また、CCDカメラなどをシミュレートする場合には、撮像面23はシミュレートする対象の実カメラの画素数を再現するように格子状に分割される。最終的には、光線26が撮像面23のどの位置(画素)に入射するかのシミュレーションを行なうことになるため、代表点22と撮像面23との距離および撮像面23の縦横の長さの比率だけが問題になり、実距離は問題にならない。
【0049】
そして、CPU2による画像変換は、実カメラで撮影された撮影画像について、実カメラモデル11a(図5)のカメラ本体21の内部への出射角α、β(出射角αはカメラ光軸24に対する光線26の角、出射角βはカメラ光軸24に直交する軸に対する光線26の角)を実カメラモデル11aのカメラ本体21の外部からの入射角α、β(入射角αはカメラ光軸24に対する光線25の角、入射角βはカメラ光軸24に直交する軸に対する光線25の角)未満として画像変換する。
【0050】
すなわち、光線25は必ず代表点22を通り光線26となる。また、極座標系の考え方を用いると、光線25は代表点22を原点に入射角α、βの2つの角度で示すことができる。そして、光線25は代表点22を通過する際に、次式によって定まる出射角α、βを有する光線26となる。
【0051】
(α,β)=f(α,β)       (1)
このとき、α<αの関係式が常に成立するようにする。この場合、光線25は代表点22を通過する際に(1)式によって方向が変えられ、光線26は撮像面23と交点27において交わる。例えば、CCDカメラをシミュレートしている場合には、交点27の座標(位置)から撮像面23上のどの画素に光線26が入射するかを求めることができる。
【0052】
なお、撮像面23の設定によっては光線26と撮像面23とが交わらない場合もあるが、この場合には光線25は実カメラモデル11aには映らないということになる。
【0053】
また、シミュレーションする対象の実カメラの最大画角をM(度)とした場合には、カメラ本体21内部に入射を許される光線25はα<(M/2)を満たす必要がある。この条件を満たさない光線25は実カメラモデル11aに映らないということになる。このときの出射角αの最大値はf(M/2)で計算される。また、(1)式の関数f(α,β)を決定した上で、代表点22と撮像面23との距離(前述の通り単位距離とするのがよい)と撮像面23の縦横の長さとを決定し、実カメラモデル11aの撮像範囲を規定する。なお、図9に示すように、最大出射角θOmaxの大きさは最大入射角θImaxの大きさよりも小さい。
【0054】
以上の手順により、代表点22に入射した光線25が実カメラモデル11aの撮像面23上のどの画素(位置)に入射するかを計算することができ、実カメラで撮影された撮影画像すなわち光線25が代表点22を通って直進したときの撮影画像について画像変換して、画像変換画像を得ることができる。したがって、(1)式によって実カメラに入射する光線の入射角α、βと画像変換画像の画素(位置)との関係を求めることができる。
【0055】
また、(1)式とともに、次式を用いることによって実カメラモデル11aの撮像面23上の任意の点に入射する光線26が代表点22に対してどの方向から入射したかを計算することが可能になる。
【0056】
(α,β)=fi(α,β)      (2)
また、最も簡単な(1)式の例は、次のような入射角α、βと出射角α、βとが比例関係を持つ式である。
【0057】
α=kα               (3)
β=β                (4)
ここで、kは実カメラモデル11aのレンズ特性を決定するパラメータであり、k<1である。仮にk=1の場合には、従来のピンホールカメラモデルと同じ動作となる。実際のレンズの歪曲収差特性はレンズの目的(設計意図)によるが、通常の広角レンズはパラメータkを、1<k<0の範囲で適当に設定することで近似することができ、ピンホールカメラモデルを用いたカメラシミュレーションよりも正確なカメラシミュレーションが可能となる。
【0058】
また、レンズシミュレーションをより精密に行ないたい場合には、関数f(α,β)を(3)式、(4)式に示すような比例関係ではなく、実カメラのレンズ特性を実際に測定し、実カメラのレンズ特性を示す関数で画像変換する。この場合、もちろん出射角αを入射角α未満とする。
【0059】
以上の画像変換を行なったのちに、視点変換を行なう。最も単純な視点変換は、空間上にカメラモデルと投影面を置き、カメラで撮影した映像を投影面に対して投影することで実現される。
【0060】
次に、図11を用いてCPU2による視点変換について説明する。まず、実空間に合わせて仮想空間を設定し、仮想空間上に位置および向きを合わせて実カメラ11と仮想カメラ32とを配置する。次に、投影面を設定する。図11ではxy平面を投影面に設定しているが、実空間の地形や物体の存在に合わせて、投影面を複数設けてもよい。次に、仮想カメラ32の画素の1つに注目し、注目した画素を画素Vとする。仮想カメラ32の画素Vは面積を持っているので、画素Vの中心点の座標を画素Vの座標とする。仮想カメラ32の位置および向きの情報と合わせ、投影面と光線35との交点33を求める。次に、交点33から実カメラ11への光線34を考える。光線34の実カメラ11への入射が実カメラ11の撮影範囲内の場合には、光線34が実カメラ11のどの画素に入射するかを計算する。この場合、図9、10で説明した画像変換後の画像変換画像について光線34が実カメラ11のどの画素に入射するかを計算する。この光線34が入射する画素を画素Rとすると、画素Vと画素Rとが対応し、画素Vの色および輝度を画素Rの色および輝度とする。
【0061】
なお、光線34の実カメラ11への入射が実カメラ11の撮影範囲外の場合や、光線34が実カメラ11の撮像面に入射しない場合には、交点33は実カメラ11に映っていないので、仮想カメラ32の画素Vには何も映っていないとする。この場合の画素Vの色はシステムのデフォルト値(黒など。もちろん黒以外でもよい)を用いるものとする。
【0062】
また、画素Vを代表する座標は上記例では1画素につき1点としたが、代表する代表座標を画素V内に複数設けてもよい。この場合には、各代表座標それぞれに対して光線34が実カメラ11のどの画素に入射するかを計算し、得られた複数の色および輝度をブレンディングし、画素Vの色および輝度とする。この場合、ブレンディングの比率は等しくする。また、色および輝度のブレンディンクの手法としてはアルファブレンディングなどの手法があり、コンピュータグラフィックの分野では一般的な手法である。
【0063】
以上の処理を仮想カメラ32の画素すべてについて行ない、仮想カメラ32の各画素の色および輝度を確定することで仮想カメラ32の画像すなわち視点変換画像を作成することができ、空間上の実カメラ11の画像すなわち画像変換画像を視点変換画像へと視点変換することができる。
【0064】
この手法は撮影画像を投影面に対して単純に投影する方法に比べ、仮想カメラ32の特性や位置が自由に設定でき、かつ仮想カメラ32の特性や位置の変化にも容易に対応できる。
【0065】
なお、仮想カメラ32の各画素は基本的に実カメラ11の画素との対応になり、その対応は仮想カメラ32および実カメラ11の位置および向きおよび投影面の設定が変わらない限り変わらないので、計算能力に余裕のない処理装置を用いる場合には、対応関係を変換テーブルとして保存し、実行時に参照してもよい。また、仮想カメラ32の画素数が増加するにつれ、変換テーブルの容量も比例して増加するので、仮想カメラ32の画素数が多い場合には、大容量のメモリを持つ処理装置(コンピュータ)を用いるよりも、視点変換の計算を高速に行なうことができる処理装置を用いた方がコスト的に有利になる。
【0066】
このような視点変換装置においては、出射角αの変化に対する撮像面23上の位置の変化は、撮像面23の中心部と輪郭部とでほぼ同じであるから、輪郭部付近の画像や、画角の大きなカメラで撮影した画像についても、歪みの少ない視点変換画像を得ることができ、しかも補正関数を算出するためにパターン画像を撮影する必要がないから、容易に視点変換することができる。また、出射角αと入射角αとが比例する関数で画像変換したときには、画像変換された画像変換画像の中心部と輪郭部では同倍率となるから、歪みの少ない視点変換画像を得ることができる。また、実カメラ11のレンズ特性を示す関数で画像変換したときには、実カメラ11のレンズ(収差)による歪みの少ない視点変換画像を得ることができる。また、視点変換手段13は視点変換画像の各画素の色および輝度を画像変換画像の各画素の中心点に位置する色および輝度としているから、色および輝度の平均値などの計算を行なう必要がないので、視点変換時の計算量を少なくすることができる。
【0067】
以上本発明を実施の形態に基づいて具体的に説明したが、本発明は上記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【図面の簡単な説明】
【図1】本発明の実施の形態1の画像合成装置の構成を示す図である。
【図2】変換・合成後の表示画面の一例を示す図である。
【図3】本実施の形態1におけるドアが閉じた状態の車両を上から見た概略図である。
【図4】本実施の形態1におけるドアが開いた状態の車両を上から見た概略図である。
【図5】本実施の形態1におけるフローを示す図である。
【図6】本実施の形態2におけるドアが閉じた状態の車両を上から見た概略図である。
【図7】本実施の形態2におけるドアが開いた状態の車両を上から見た概略図である。
【図8】本実施の形態2におけるフローを示す図である。
【図9】図1に示した画像合成装置のCPUによる画像変換についての説明図である。
【図10】図1に示した画像合成装置のCPUによる画像変換についての説明図である。
【図11】図1に示した画像合成装置のCPUによる視点変換についての説明図である。
【符号の説明】
5a〜5d…カメラ
1…ECU(エレクトロニック・コントロール・ユニット)
2…CPU(中央演算処理装置)
3…ROM
4…RAM
6…表示器
7…開閉検知センサ
11…実カメラ
11a…実カメラモデル
12…画像変換手段
13…視点変換手段
14…表示手段
21…カメラ本体
22…代表点
23…撮像面
24…カメラ光軸
25…光線
26…光線
27…交点
32…仮想カメラ
33…交点
34…光線
35…光線
101、301…車両
102、103、303、304…カメラ
104、105、305、306、401…撮影の範囲
106、307…分割線
201、302…ドア
202、203、402…ドアが開いたことにより撮影できない範囲
204、205…ドアが開いたことによりどのカメラにも映らなくなる範囲
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image synthesizing apparatus and an image synthesizing method, and in particular, converts an image photographed by a plurality of photographing means installed on a vehicle into an image looking down from a viewpoint position set above the vehicle, and converts the plurality of converted images. The present invention relates to an image synthesizing apparatus and an image synthesizing method for synthesizing one image and displaying the image on a display.
[0002]
[Prior art]
2. Description of the Related Art In recent years, devices that support safe driving by photographing and monitoring the periphery of a vehicle with an electronic camera installed in the vehicle have been put into practical use and are becoming popular.
Such a technique is described in, for example, JP-A-2001-339716.
This conventional technology dynamically changes the viewpoint position to reduce the blind spot from the driver and to display the optimum synthesized image according to the driving situation on the display device installed in the vehicle in order to facilitate the driving operation. An apparatus and method for monitoring the periphery of a vehicle.
[0003]
[Problems to be solved by the invention]
The camera attached to the vehicle has its mounting position determined in consideration of the area to be photographed and the shape of the vehicle, but the door, trunk, etc. of the vehicle (hereinafter, these are collectively referred to as an open / close body) are opened. In such a case, the open part is reflected on the camera, and if the camera is attached to the opening / closing body, the position and orientation of the camera will change, which will affect the displayed image and mislead the driver. There was a problem. In the above prior art, such a situation was not considered.
[0004]
Specifically, the range in which each camera captures an image is determined based on the position of the camera. Normally, the position of each camera is determined based on the state that the doors, trunks, rear gates, etc. of the vehicle are closed, so if these doors are open, they will open in the camera image. The opening / closing body is reflected, a blind spot occurs in the shooting range, and an image in an expected range cannot be obtained. Further, there are cases where a camera is installed on an opening / closing body such as a trunk or a rear gate, and the opening and closing of the opening / closing body on which the camera is installed changes the direction and position of the camera, so that it is impossible to obtain an image in an expected range. . As described above, in the related art, since the opening / closing of the opening / closing body is not detected, even when the image in the expected range cannot be acquired as described above, the display image is created based on the acquired image. Was sometimes confused.
[0005]
An object of the present invention is to provide an image synthesizing apparatus and an image synthesizing method capable of displaying an image to a driver even when an opening / closing body such as a door of a vehicle is opened.
[0006]
[Means for Solving the Problems]
In order to achieve this object, the present invention combines a plurality of image data taken by a plurality of photographing means installed in a vehicle, displays the combined data, and opens and closes a vehicle opening / closing body to photograph the photographing means. When the blind spot occurs in the range, the range in which the photographing unit is responsible is changed.
[0007]
【The invention's effect】
According to the present invention, an image can be displayed to a driver even when an opening / closing body such as a door of a vehicle is opened.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiment 1
FIG. 1 is a diagram illustrating a configuration of an image synthesizing apparatus according to Embodiment 1 of the present invention.
A plurality of electronic cameras 5a to 5d are installed in the vehicle, respectively, for photographing the periphery of the vehicle, 1 is an electronic control unit (ECU), and 2 is for various processes such as processing of images from the cameras 5a to 5d. CPU (Central Processing Unit) 3, ROM for holding a control program of the CPU 2, a preset value and the like, 4, a RAM for temporarily holding data required when the CPU 2 executes the calculation, 6 a display, Reference numeral 7 denotes an opening / closing detection sensor for detecting opening / closing of a vehicle opening / closing body such as a door.
The present invention converts a plurality of images taken by a plurality of cameras 5a to 5d installed in a vehicle into images viewed from a viewpoint set above the vehicle, and combines the plurality of converted images into one image. And an image synthesizing device for displaying the image on the display screen of the display device 6.
[0009]
FIG. 2 is a diagram showing an example of such a display screen, where 101 is a vehicle.
Image conversion, viewpoint conversion, and image synthesis will be described later in detail with reference to FIGS.
[0010]
The CPU 2 combines a plurality of image data captured by a plurality of cameras 5 a to 5 d (here, only four are shown) installed in the vehicle, and displays the combined data on the display 6.
[0011]
FIG. 3 is a schematic view of the vehicle according to the first embodiment as viewed from above.
101 is a vehicle, 102 and 103 are cameras, 104 and 105 are shooting ranges, and 106 is a dividing line.
[0012]
As shown in FIG. 3, for example, a camera 102 is mounted on the front right of the vehicle 101 and a camera 103 is mounted on the rear right, and captures a range 104 and a range 105, respectively. The captured video is converted and combined with a video of a virtual camera in the sky above the vehicle 101 (details will be described later), and a display image is created. Since the range 104 and the range 105 partially overlap with each other, they are divided by the dividing line 106, and the image of the camera 102 is used before the dividing line 106, and the image of the camera 103 is used after the dividing line 106. And
[0013]
FIG. 4 is a schematic view of the vehicle with the door open according to the first embodiment viewed from above.
As shown in FIG. 4, when the door 201 of the vehicle 101 is opened, the camera 102 cannot capture an image of the range 202 due to the opened door 201. In this case, an open door 201 is reflected in a portion where the range 202 was supposed to be photographed. Similarly, the range 203 cannot be photographed by the camera 103 due to the opened door 201. In this case, an open door 201 is reflected in a portion where the range 203 was supposed to be photographed.
[0014]
The range 202 and the range 203 can be calculated from the camera characteristics, the mounting positions and angles of the cameras 102 and 103, the shape of the vehicle 101, the shape of the door 201, and the opening of the door 201.
[0015]
When the image conversion / synthesis rule (the rule using the dividing line 106) when the door 201 is closed and the image is synthesized when the door 201 is open, the image of the door 201 is also displayed. Then, a converted and synthesized display image is created. Therefore, the opening / closing detection sensor (not shown in FIG. 4; see the opening / closing detection sensor 7 in FIG. 1) detects that the door 201 has been opened, and when the door 201 is open, the range 202 is excluded from the range 104. Using the image of the camera 102 for the range and the image of the camera 103 for the range excluding the range 203 from the shooting range 105, the CPU 2 (FIG. 1) combines a plurality of image data to create a display image. That is, when blind spots occur in the shooting ranges 104 and 105 of the cameras 102 and 103 due to the opening and closing of the door 201 of the vehicle 101, the assigned range of the cameras 102 and 103 for combining is changed.
[0016]
When the opening / closing detection sensor 7 (FIG. 1) of the door 201 can detect the angle at which the door 201 is open, the range 202 and the range 203 are changed according to the degree of opening of the door 201 to obtain an optimal image synthesis. Perform When the opening / closing detection sensor 7 for the door 201 cannot detect the angle of the door 201 and only detects whether the door 201 is open or closed, the range 202 and the range 203 corresponding to the opening degree of the door 201 are determined. Setting is not possible. In this case, the calculation of the range 202 and the range 203 is performed on the assumption that the object is present in all the areas that pass from the state where the door 201 is closed to the state where the door 201 is fully opened.
[0017]
Since the way of opening the door 201, that is, the trajectory, the area to be opened, and the like are constant each time, the calculation may be performed in advance, recorded in the ROM 3 (FIG. 1), and the information may be called according to the way of opening the door 201. .
[0018]
In addition, when the door 201 is opened, there may be a range where the image is not displayed on any of the cameras 102 and 103 (for example, the ranges 204 and 205 in FIG. 4). The occurrence of this range is due to the fact that it is impossible to obtain the opening degree of the door 201, and the non-capturable range is calculated assuming that there is an object in the entire area where the door 201 passes from the fully closed state to the fully opened state. Is more pronounced. When the area is included in the display image obtained as a result of the conversion and synthesis, the area is processed as an area that is not originally captured by the camera, or is displayed in black. The area may be explicitly displayed in red or another color so that the user can recognize that the area is no longer displayed when the door 201 is opened. Such a range that cannot be photographed by any camera occurs more frequently when a plurality of doors are simultaneously opened. A display indicating the opened door 201 may be displayed on the display image, or a message indicating that the door is open may be displayed at the same time to call attention.
[0019]
FIG. 5 is a diagram showing a flow in the first embodiment.
Hereinafter, the flow according to the first embodiment will be described.
[0020]
First, in S1, the CPU 2 (FIG. 1) detects opening / closing of the opening / closing body (for example, the door 201 in FIG. 4) of the vehicle 101 in FIG. 3 based on a signal from the opening / closing detection sensor 7 (FIG. 1).
[0021]
Next, when the opening / closing of the opening / closing body is detected, a blind spot occurs in the photographing range of the camera (for example, the cameras 102 and 103 in FIGS. 3 and 4). The CPU 2 recalculates the photographing range of each camera assuming that there is an object in the range passing through. Alternatively, since the manner of opening the opening / closing body, that is, the locus, the area to be opened, and the like are constant each time, the calculation is performed in advance and recorded in the ROM 3 (FIG. 1). Call (that is, switch the table according to the opening / closing state of the opening / closing body). If the opening / closing of the opening / closing body is not detected, the process of S2 is not performed (this flow is not shown).
[0022]
Next, in S3, the CPU 2 synthesizes a plurality of image data from the cameras 102 and 103 whose assigned ranges have been changed, and creates a display image.
[0023]
Next, in S4, the CPU 2 draws the non-shooting range on the composite image.
[0024]
Finally, in S5, the CPU 2 displays the processed image on the display 6 (FIG. 1).
[0025]
That is, the image synthesizing apparatus according to the first embodiment includes a plurality of cameras 102 and 103 (5a to 5d in FIG. 1) installed on the vehicle 101 (FIGS. 3 and 4) and a plurality of images captured by the cameras 102 and 103. CPU2 that combines the image data of the cameras 102 and 103 and changes the range of responsibility of the cameras 102 and 103 when the opening and closing of the opening and closing members such as the door 201 of the vehicle 101 causes blind spots in the shooting ranges 104 and 105 of the cameras 102 and 103 (FIG. 1) and a display 6 for displaying the synthesized data. Note that the CPU 2 in FIG. 1 corresponds to the changing means and the combining means in the claims, and the display 6 corresponds to the displaying means.
[0026]
The image synthesizing method according to the first embodiment includes a step of detecting the opening and closing of an opening / closing body such as a door 201 of the vehicle 101 by the CPU 2 based on a signal from the opening / closing detection sensor 7 in FIG. Combining the plurality of image data captured by the cameras 102 and 103, displaying the combined data, and opening / closing the opening / closing body of the vehicle 101 to form a blind spot in the shooting range 104/105 of the camera 102/103. If the error occurs, changing the range of responsibility of the cameras 102 and 103 for composition. Note that S1 in FIG. 5 corresponds to a step of detecting opening / closing of the opening / closing body, S2 corresponds to a step of changing the range of responsibility of the photographing unit, S3 corresponds to a step of combining a plurality of image data, and S5 corresponds to S5. This corresponds to a step of displaying the synthesized data.
[0027]
As described above, in the first embodiment, when at least a part of the opening and closing body such as the door 201 is opened, the influence of the part of the opening and closing body in the image is minimized by changing the range of responsibility of the camera. When the opening / closing body is opened, a portion that cannot be photographed by one camera can be followed by another camera. As a result, a surrounding image that is easy for the driver to understand can be displayed, and reliability can be improved.
[0028]
Further, when the opening / closing body is opened, by displaying on the display screen of the display unit 6 a range in which opening and closing of the opening / closing body affects the photographing of the camera, it is possible to display a surrounding image which is easy for the driver to understand. And reliability can be improved. In addition, by clearly indicating to the driver that the opening / closing body is open through the screen, it is possible to prevent the user from moving by looking at only the screen where the opening / closing body is not displayed as in the related art, Reliability can be improved.
[0029]
As described above, according to the first embodiment, it is possible to perform appropriate image conversion / synthesis even when the vehicle shape is changed by opening a door or the like, and an optimal image is displayed for the driver. be able to.
[0030]
Embodiment 2
Also in the second embodiment, the basic configuration of the image synthesizing apparatus is the same as that shown in FIG.
FIG. 6 is a schematic view of a vehicle with the door closed according to the second embodiment as viewed from above.
301 is a vehicle, 302 is a door, 303 and 304 are cameras, 305 and 306 are shooting ranges, and 307 is a dividing line.
[0031]
As shown in FIG. 6, in the second embodiment, a camera 303 is attached to a door 302 of a vehicle 301. Further, a camera 304 is attached to the right rear of the vehicle 301, and photographs a range 305 and a range 306, respectively. The captured image is converted and synthesized into an image of a virtual camera over the vehicle 301 by the CPU 2 (FIG. 1) by using a method described later, and a display image is created. Since the range 305 and the range 306 partially overlap with each other, the image is divided by the dividing line 307, and the image of the camera 303 is used before the dividing line 307, and the image of the camera 304 is used after the dividing line 307. And
[0032]
FIG. 7 is a schematic view of the vehicle with the door open according to the second embodiment viewed from above.
As shown in FIG. 7, when the door 302 of the vehicle 301 is opened, the position and the direction of the camera 303 attached to the door 302 change, and the range 305 in FIG. 401 will be photographed. Further, the range 402 cannot be photographed by the camera 304 due to the opened door 302. In this case, an open door 302 is reflected in a portion where the range 402 was supposed to be photographed.
[0033]
The range 401 and the range 402 can be calculated from the camera characteristics, the mounting positions and angles of the cameras 303 and 304, the shape of the vehicle 301, the shape of the door 302, and the opening of the door 302.
[0034]
When the same image conversion / synthesis rule (rule using the dividing line 307 in FIG. 6) is applied when the door 302 is open and the image is converted / synthesized, the camera 303 Since the shooting range is different and the camera 304 shoots an image showing the door 302, a converted and synthesized display image different from the expected one is created.
[0035]
Therefore, the opening / closing detection sensor 7 shown in FIG. 1 detects that the door 302 is opened. When the door 302 is opened, the range 401 shown in FIG. For example, a display image is created using a range excluding the range 305 of FIG. 6 from the range 305 of FIG.
[0036]
When the opening / closing detection sensor 7 (FIG. 1) of the door 302 can detect the angle at which the door 302 is open, the range 401 and the range 402 are changed according to the degree of opening of the door 302 to obtain an optimal image synthesis. Perform When the opening / closing detection sensor 7 of the door 302 cannot detect the angle of the door 302 but only detects whether the door 302 is open or closed, the range 401 and the range 402 corresponding to the opening degree of the door 302 Setting is not possible. In this case, since the position and orientation of the camera 303 attached to the door 302 cannot be determined, the video captured by the camera 303 cannot be used for image conversion / composition. Therefore, when the opening of the door 302 cannot be acquired, when the door 302 is opened, the image of the camera 303 attached to the door 302 is not used. Further, the photographable range of the camera 304 is determined by calculating the range 402, assuming that there is an object in the entire area where the door 302 passes from the fully closed state to the fully opened state. Since the way of opening the door 302 (trajectory, opening area, etc.) is constant each time, the calculation may be performed in advance, recorded in the ROM 3 of FIG. 1, and the information may be called according to the way of opening the door 302.
[0037]
Further, when the door 302 is opened, a range in which the camera 303 or 304 does not show the image may occur. The occurrence of this range is due to the fact that it is impossible to obtain the opening of the door 302 and the calculation of the non-shooting range is performed assuming that there is an object in the entire area where the door 302 passes from the fully closed state to the fully opened state. Is more pronounced. If the area is included in the display image obtained as a result of the conversion and synthesis, the area is processed as an area that is not originally captured by the camera, or is displayed in a black-out state. The region may be explicitly displayed in red or another color so that the region is not displayed anymore because the door 302 is opened. Such a range that cannot be photographed by any camera occurs more frequently when a plurality of doors are simultaneously opened. Further, a display indicating the opened door 302 may be displayed on the display image, and a message indicating that the door is open may be displayed at the same time to draw attention.
[0038]
FIG. 8 is a diagram showing a flow in the second embodiment.
Hereinafter, the flow according to the second embodiment will be described.
[0039]
First, in S1, the CPU 2 (FIG. 1) detects opening / closing of an opening / closing body of the vehicle 301 (for example, the door 302 in FIG. 6) based on a signal from the opening / closing detection sensor 7 (FIG. 1).
[0040]
Next, when the opening / closing of the opening / closing body is detected, a blind spot occurs in the photographing range of the camera (for example, the cameras 303 and 304 in FIGS. 6 and 7). The CPU 2 recalculates the photographing range of each camera according to. Alternatively, since the way of opening and closing the opening / closing body, that is, the locus, the area to be opened, and the like are constant each time, the calculation is performed in advance and recorded in the ROM 3 (FIG. 1). Call (that is, switch the table according to the opening / closing state of the opening / closing body). If the opening / closing of the opening / closing body is not detected, the process of S2 is not performed (this flow is not shown).
[0041]
Next, in S3, the CPU 2 synthesizes a plurality of image data from the cameras 303 and 304 whose assigned range has been changed, and creates a display image.
[0042]
Next, in S4, the CPU 2 draws the non-shooting range on the composite image.
[0043]
Finally, in S5, the CPU 2 displays the processed image on the display 6 (FIG. 1).
[0044]
As described above, in the second embodiment, when at least a part of the opening / closing body such as the door 302 is opened, the influence of the part of the opening / closing body on the image is minimized by changing the range of responsibility of the camera. When the opening / closing body is opened, a part that cannot be photographed by one camera can be followed by another camera. As a result, the surrounding image that is easy to understand for the driver and has high reliability can be displayed, and safety can be improved. Further, when the opening / closing body is opened, by displaying on the display screen of the display unit 6 a range in which opening and closing of the opening / closing body affects the photographing of the camera, it is possible to display a surrounding image which is easy for the driver to understand. And reliability can be improved. In addition, by clearly indicating to the driver that the opening / closing body is open through the screen, it is possible to prevent the user from moving by looking at only the screen where the opening / closing body is not displayed as in the related art, Reliability can be improved.
[0045]
As described above, according to the second embodiment, it is possible to perform appropriate image conversion / composition even when the vehicle shape changes due to a door opening or the like and a part of the camera moves. Thus, an optimal image can be displayed to the driver.
[0046]
《Conversion and composition of images》
As described above, in the present invention, a plurality of images taken by a plurality of cameras installed in a vehicle are respectively converted into images looked down from a viewpoint set above the vehicle, and the plurality of converted images are converted into one image. This is an image synthesizing device that synthesizes an image and displays it on the display screen of display 6 (a display example is shown in FIG. 2). Hereinafter, image conversion, viewpoint conversion, and image synthesis in the image synthesis device and the image synthesis method of the present invention will be described.
[0047]
In the present invention, images taken by a real camera (5a to 5d in FIG. 1, 102 and 103 in FIGS. 3 and 4, 303 and 304 in FIGS. 6 and 7, and 11 in FIG. 11 to be described later) that output images are used. The image conversion is performed by the CPU 2 shown in FIG. 1 by setting the outgoing angle to the inside of the real camera to be smaller than the incident angle from the outside of the real camera, and the CPU 2 performs the viewpoint conversion of the converted image. The plurality of viewpoint-converted images whose viewpoints have been converted are combined into one image by the CPU 2, and the combined image is displayed on the display 6.
[0048]
Next, image conversion will be described with reference to FIGS. As shown in the figure, the light ray 25 (FIG. 10) outside the camera body 21 of the real camera model 11a always passes through the representative point 22 (often using the focal position or center point of the lens), and the light ray inside the camera body 21. 26 (FIG. 10) enters the imaging surface 23 provided in the camera body 21. An imaging surface 23 is provided perpendicular to the camera optical axis 24 indicating the direction of the real camera model 11a, and the imaging surface 23 is arranged so that the camera optical axis 24 passes through the center of the imaging surface 23. Of course, depending on the characteristics of the real camera to be simulated, the camera optical axis 24 may not pass through the center of the imaging surface 23, and the imaging surface 23 and the camera optical axis 24 may not be perpendicular. The distance between the representative point 22 and the imaging plane 23 is preferably set to the unit distance (1) for the sake of calculation. In the case of simulating a CCD camera or the like, the imaging surface 23 is divided into a grid so as to reproduce the number of pixels of the real camera to be simulated. Ultimately, a simulation is performed to determine which position (pixel) on the imaging surface 23 the light ray 26 enters. Therefore, the distance between the representative point 22 and the imaging surface 23 and the length and width of the imaging surface 23 are determined. Only the ratio matters, not the actual distance.
[0049]
Then, the image conversion by the CPU 2 is performed on the image taken by the real camera, the emission angle α of the real camera model 11a (FIG. 5) into the camera body 21. O , Β O (Emission angle α O Is the angle of the ray 26 with respect to the camera optical axis 24, the exit angle β O Is the angle of the light ray 26 with respect to the axis orthogonal to the camera optical axis 24) and the incident angle α from the outside of the camera body 21 of the real camera model 11a. I , Β I (Incident angle α I Is the angle of the ray 25 with respect to the camera optical axis 24, the angle of incidence β I Is smaller than the angle of the light ray 25 with respect to the axis orthogonal to the camera optical axis 24).
[0050]
That is, the light ray 25 always passes through the representative point 22 and becomes a light ray 26. Further, using the concept of the polar coordinate system, the light ray 25 is incident on the representative point 22 with the incident angle α I , Β I Can be indicated by two angles. Then, when the light ray 25 passes through the representative point 22, the emission angle α determined by the following equation O , Β O Becomes a light ray 26 having
[0051]
O , Β O ) = F (α I , Β I (1)
At this time, α OI Is always satisfied. In this case, when the light ray 25 passes through the representative point 22, the direction is changed according to the equation (1), and the light ray 26 intersects the imaging surface 23 at the intersection 27. For example, when a CCD camera is simulated, it is possible to determine from the coordinates (position) of the intersection 27 to which pixel on the imaging surface 23 the light ray 26 is incident.
[0052]
Depending on the setting of the imaging surface 23, the light ray 26 may not intersect with the imaging surface 23, but in this case, the light ray 25 is not reflected on the real camera model 11a.
[0053]
If the maximum angle of view of the real camera to be simulated is M (degrees), the ray 25 allowed to enter the camera body 21 is α I <(M / 2) must be satisfied. The light ray 25 that does not satisfy this condition is not reflected on the real camera model 11a. Output angle α at this time O Is calculated by f (M / 2). Also, the function f (α) of the equation (1) I , Β I ), The distance between the representative point 22 and the imaging surface 23 (preferably the unit distance as described above) and the length and width of the imaging surface 23 are determined, and the imaging range of the real camera model 11a is determined. Stipulate. In addition, as shown in FIG. Omax Is the maximum incident angle θ Imax Smaller than the size of.
[0054]
According to the above-described procedure, it is possible to calculate which pixel (position) on the imaging surface 23 of the real camera model 11a the light ray 25 incident on the representative point 22 can be calculated. Image conversion can be performed on the captured image when the straight line 25 has passed through the representative point 22 to obtain an image-converted image. Therefore, the incident angle α of the light beam incident on the actual camera is obtained by the equation (1) I , Β I And the pixel (position) of the converted image can be determined.
[0055]
In addition, by using the following expression together with the expression (1), it is possible to calculate from which direction the light ray 26 incident on an arbitrary point on the imaging surface 23 of the real camera model 11a is incident on the representative point 22. Will be possible.
[0056]
I , Β I ) = Fi (α O , Β O ) (2)
Further, the simplest example of the expression (1) is an incident angle α as follows. I , Β I And emission angle α O , Β O Is an equation having a proportional relationship.
[0057]
α O = Kα I (3)
β O = Β I (4)
Here, k is a parameter for determining the lens characteristics of the real camera model 11a, and k <1. If k = 1, the operation is the same as that of the conventional pinhole camera model. Although the actual distortion characteristic of the lens depends on the purpose (design intention) of the lens, a normal wide-angle lens can be approximated by appropriately setting the parameter k in the range of 1 <k <0. A more accurate camera simulation can be performed than a camera simulation using a model.
[0058]
In order to perform lens simulation more precisely, the function f (α I , Β I ) Is not a proportional relationship as shown in the equations (3) and (4), but the lens characteristics of the real camera are actually measured, and image conversion is performed using a function indicating the lens characteristics of the real camera. In this case, of course, the emission angle α O Is the incident angle α I Less than
[0059]
After performing the above image conversion, the viewpoint conversion is performed. The simplest viewpoint conversion is realized by placing a camera model and a projection plane in space, and projecting an image captured by the camera onto the projection plane.
[0060]
Next, viewpoint conversion by the CPU 2 will be described with reference to FIG. First, a virtual space is set in accordance with the real space, and the real camera 11 and the virtual camera 32 are arranged in the virtual space with their positions and orientations adjusted. Next, a projection plane is set. In FIG. 11, the xy plane is set as the projection plane, but a plurality of projection planes may be provided according to the terrain in the real space or the existence of the object. Next, attention is paid to one of the pixels of the virtual camera 32, and the noted pixel is defined as a pixel V. Since the pixel V of the virtual camera 32 has an area, the coordinates of the center point of the pixel V are set as the coordinates of the pixel V. The intersection 33 between the projection plane and the light ray 35 is obtained by combining the position and orientation information of the virtual camera 32. Next, a light ray 34 from the intersection 33 to the real camera 11 is considered. If the light beam 34 is incident on the real camera 11 within the shooting range of the real camera 11, a calculation is made as to which pixel of the real camera 11 the light beam 34 is incident on. In this case, for the converted image after the image conversion described with reference to FIGS. Assuming that the pixel on which the light ray 34 is incident is a pixel R, the pixel V corresponds to the pixel R, and the color and luminance of the pixel V are the color and luminance of the pixel R.
[0061]
When the light ray 34 enters the real camera 11 outside the shooting range of the real camera 11 or when the light ray 34 does not enter the imaging surface of the real camera 11, the intersection 33 is not reflected on the real camera 11. Assume that nothing is reflected on the pixel V of the virtual camera 32. In this case, the color of the pixel V uses a system default value (such as black, but may be other than black).
[0062]
In addition, in the above example, one coordinate is set for one pixel in the above example, but a plurality of representative coordinates may be provided in the pixel V. In this case, it is calculated which pixel of the real camera 11 the light ray 34 enters for each of the representative coordinates, and the obtained plural colors and luminances are blended to obtain the color and luminance of the pixel V. In this case, the blending ratios are made equal. As a method of blending colors and brightness, there is a method such as alpha blending, which is a general method in the field of computer graphics.
[0063]
The above processing is performed for all the pixels of the virtual camera 32, and the color and luminance of each pixel of the virtual camera 32 are determined, whereby an image of the virtual camera 32, that is, a viewpoint conversion image can be created. Of the image, that is, the image-converted image, can be converted into the viewpoint-converted image.
[0064]
This method can freely set the characteristics and the position of the virtual camera 32 and can easily cope with changes in the characteristics and the position of the virtual camera 32, as compared with a method of simply projecting a captured image on a projection plane.
[0065]
Note that each pixel of the virtual camera 32 basically corresponds to a pixel of the real camera 11, and the correspondence does not change unless the positions and orientations of the virtual camera 32 and the real camera 11 and the setting of the projection plane change. When using a processing device that does not have enough computing power, the correspondence may be stored as a conversion table and referred to at the time of execution. Further, as the number of pixels of the virtual camera 32 increases, the capacity of the conversion table also increases in proportion. Therefore, when the number of pixels of the virtual camera 32 is large, a processing device (computer) having a large-capacity memory is used. It is more cost-effective to use a processing device that can perform the calculation of the viewpoint transformation at a higher speed than that.
[0066]
In such a viewpoint conversion device, the emission angle α O Since the change in the position on the imaging surface 23 with respect to the change in the image is substantially the same at the center portion and the outline of the imaging surface 23, the distortion of the image near the outline and the image photographed by the camera having a large angle of view is also large. It is possible to obtain a viewpoint-converted image with few points, and it is not necessary to take a pattern image in order to calculate a correction function. Also, the emission angle α O And the incident angle α I When the image is converted by a function proportional to the above, the center and the outline of the converted image have the same magnification, so that a viewpoint-converted image with less distortion can be obtained. Further, when image conversion is performed using a function indicating the lens characteristics of the real camera 11, it is possible to obtain a viewpoint-converted image with less distortion due to the lens (aberration) of the real camera 11. In addition, since the viewpoint conversion unit 13 uses the color and luminance of each pixel of the viewpoint converted image as the color and luminance located at the center point of each pixel of the image converted image, it is necessary to calculate the average value of the color and luminance. Since there is no calculation, the amount of calculation at the time of viewpoint conversion can be reduced.
[0067]
Although the present invention has been specifically described based on the embodiments, the present invention is not limited to the above-described embodiments, and it is needless to say that various modifications can be made without departing from the gist of the present invention.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an image synthesizing apparatus according to Embodiment 1 of the present invention.
FIG. 2 is a diagram showing an example of a display screen after conversion and synthesis.
FIG. 3 is a schematic view of the vehicle with the door closed according to the first embodiment as viewed from above.
FIG. 4 is a schematic view of the vehicle with the door opened according to the first embodiment as viewed from above.
FIG. 5 is a diagram showing a flow in the first embodiment.
FIG. 6 is a schematic view of a vehicle with a door closed according to the second embodiment as viewed from above.
FIG. 7 is a schematic view of a vehicle with a door opened according to the second embodiment viewed from above.
FIG. 8 is a diagram showing a flow in the second embodiment.
FIG. 9 is an explanatory diagram of image conversion by a CPU of the image synthesizing apparatus shown in FIG. 1;
FIG. 10 is an explanatory diagram of image conversion by a CPU of the image synthesizing apparatus shown in FIG. 1;
FIG. 11 is an explanatory diagram of viewpoint conversion by a CPU of the image synthesizing apparatus shown in FIG. 1;
[Explanation of symbols]
5a-5d… Camera
1 ... ECU (Electronic Control Unit)
2. CPU (Central Processing Unit)
3 ROM
4 ... RAM
6 ... Display
7 Open / close detection sensor
11 ... Real camera
11a ... Real camera model
12 ... Image conversion means
13. Viewpoint conversion means
14 Display means
21 ... Camera body
22 ... Representative point
23 ... Imaging surface
24 ... Camera optical axis
25 ... ray
26 ... ray
27 ... intersection
32 ... Virtual camera
33 ... intersection
34 ... ray
35 ... ray
101,301 ... vehicle
102, 103, 303, 304 ... camera
104, 105, 305, 306, 401... Shooting range
106, 307 ... dividing line
201, 302 ... door
202, 203, 402... Range that cannot be photographed due to opening of the door
204, 205: Range that cannot be reflected on any camera by opening the door

Claims (4)

車両に設置した複数の撮影手段と、
前記撮影手段によって撮影された複数の画像データを合成する合成手段と、
前記合成されたデータを表示する表示手段と、
前記車両の開閉体の開閉により前記撮影手段の撮影範囲に死角が生じる場合、前記合成のための前記撮影手段の担当範囲を変更する変更手段と
を有することを特徴とする画像合成装置。
A plurality of photographing means installed on the vehicle,
Synthesizing means for synthesizing a plurality of image data shot by the shooting means,
Display means for displaying the synthesized data;
An image synthesizing apparatus, comprising: changing means for changing a range in which the photographing unit is responsible for the composition when a blind spot occurs in a photographing range of the photographing unit due to opening and closing of the opening and closing body of the vehicle.
車両の開閉体の開閉を検出する工程と、
車両に設置した複数の撮影手段によって撮影された複数の画像データを合成する工程と、
前記合成されたデータを表示する工程と、
前記車両の開閉体の開閉により前記撮影手段の撮影範囲に死角が生じる場合、前記合成のための前記撮影手段の担当範囲を変更する工程と
を有することを特徴とする画像合成方法。
Detecting the opening and closing of the opening and closing body of the vehicle;
Combining a plurality of image data taken by a plurality of photographing means installed in the vehicle,
Displaying the synthesized data;
A step of changing the range of responsibility of the photographing means for the composition when a blind spot occurs in the photographing range of the photographing means due to opening and closing of the opening / closing body of the vehicle.
前記開閉体が開いた際に、前記開閉体が開いたことにより前記撮影手段の撮影に影響が出た範囲を表示することを特徴とする請求項2記載の画像合成方法。3. The image combining method according to claim 2, wherein when the opening and closing body is opened, a range in which the opening of the opening and closing body influences the photographing of the photographing unit is displayed. 前記開閉体が開いた際に、前記開閉体が開いていることを表示することを特徴とする請求項2記載の画像合成方法。3. The image synthesizing method according to claim 2, wherein when the opening / closing body is opened, an indication that the opening / closing body is open is displayed.
JP2002206484A 2002-07-16 2002-07-16 Image composition apparatus and image composition method Expired - Lifetime JP3928509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002206484A JP3928509B2 (en) 2002-07-16 2002-07-16 Image composition apparatus and image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002206484A JP3928509B2 (en) 2002-07-16 2002-07-16 Image composition apparatus and image composition method

Publications (2)

Publication Number Publication Date
JP2004048621A true JP2004048621A (en) 2004-02-12
JP3928509B2 JP3928509B2 (en) 2007-06-13

Family

ID=31711455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002206484A Expired - Lifetime JP3928509B2 (en) 2002-07-16 2002-07-16 Image composition apparatus and image composition method

Country Status (1)

Country Link
JP (1) JP3928509B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7592928B2 (en) 2005-06-07 2009-09-22 Nissan Motor Co., Ltd. Image display device and method
US7734417B2 (en) 2005-05-20 2010-06-08 Nissan Motor., Ltd. Image processing device and method for parking support
KR20180044698A (en) * 2016-10-24 2018-05-03 현대자동차주식회사 Duel Camera-Based Blind Spot Monitoring System for Bus
JP2019199151A (en) * 2018-05-16 2019-11-21 アルパイン株式会社 Image processing apparatus and image processing method
JP2021110631A (en) * 2020-01-10 2021-08-02 株式会社デンソー Posture/position detection system of detector and posture/position detection method of detector

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734417B2 (en) 2005-05-20 2010-06-08 Nissan Motor., Ltd. Image processing device and method for parking support
US7592928B2 (en) 2005-06-07 2009-09-22 Nissan Motor Co., Ltd. Image display device and method
KR20180044698A (en) * 2016-10-24 2018-05-03 현대자동차주식회사 Duel Camera-Based Blind Spot Monitoring System for Bus
KR102373159B1 (en) 2016-10-24 2022-03-10 현대자동차주식회사 Duel Camera-Based Blind Spot Monitoring System for Bus
JP2019199151A (en) * 2018-05-16 2019-11-21 アルパイン株式会社 Image processing apparatus and image processing method
JP7077131B2 (en) 2018-05-16 2022-05-30 アルパイン株式会社 Image processing device and image processing method
JP2021110631A (en) * 2020-01-10 2021-08-02 株式会社デンソー Posture/position detection system of detector and posture/position detection method of detector

Also Published As

Publication number Publication date
JP3928509B2 (en) 2007-06-13

Similar Documents

Publication Publication Date Title
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
TWI554976B (en) Surveillance systems and image processing methods thereof
US20140114534A1 (en) Dynamic rearview mirror display features
CN107835372A (en) Imaging method, device, mobile terminal and storage medium based on dual camera
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
JP2002019556A (en) Monitoring system
JP2007311970A (en) Vehicle surrounding image generating apparatus and photometry adjustment method for imaging apparatus
JP2009100095A (en) Image processing apparatus and image processing method
AU2018225269B2 (en) Method, system and apparatus for visual effects
JP3960092B2 (en) Image processing apparatus for vehicle
JPWO2017217296A1 (en) Image processing device
CA3165230A1 (en) System and method of capturing and generating panoramic three-dimensional images
JP2015506030A (en) System for shooting video movies
JP2010141836A (en) Obstacle detecting apparatus
KR20180123302A (en) Method and Apparatus for Visualizing a Ball Trajectory
JP3695377B2 (en) Image composition apparatus and image composition method
CN111798374A (en) Image splicing method, device, equipment and medium
JP3928509B2 (en) Image composition apparatus and image composition method
TW201824852A (en) Display method for synchronously displaying rear panorama and turning view during vehicle turning using single lens to display images at rear and turning direction to enhance driving safety
WO2010116801A1 (en) Image processing device
JP7021036B2 (en) Electronic devices and notification methods
JPH10262164A (en) Image input device, image input method and storage medium
WO2015141185A1 (en) Imaging control device, imaging control method, and storage medium
KR20170044319A (en) Method for extending field of view of head mounted display
JP2003333380A (en) Imaging apparatus, method for confirming photographed image, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070226

R150 Certificate of patent or registration of utility model

Ref document number: 3928509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100316

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120316

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

EXPY Cancellation because of completion of term