JP5178454B2 - 車両周囲監視装置及び車両周囲監視方法 - Google Patents

車両周囲監視装置及び車両周囲監視方法 Download PDF

Info

Publication number
JP5178454B2
JP5178454B2 JP2008276893A JP2008276893A JP5178454B2 JP 5178454 B2 JP5178454 B2 JP 5178454B2 JP 2008276893 A JP2008276893 A JP 2008276893A JP 2008276893 A JP2008276893 A JP 2008276893A JP 5178454 B2 JP5178454 B2 JP 5178454B2
Authority
JP
Japan
Prior art keywords
dimensional object
image
camera
vehicle
overhead image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008276893A
Other languages
English (en)
Other versions
JP2010109451A (ja
Inventor
久哉 福田
大朋 塚原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008276893A priority Critical patent/JP5178454B2/ja
Publication of JP2010109451A publication Critical patent/JP2010109451A/ja
Application granted granted Critical
Publication of JP5178454B2 publication Critical patent/JP5178454B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両周囲を撮影する複数のカメラの撮影画像から車両周囲を俯瞰可能な俯瞰画像を合成する車両周囲監視装置及び車両周囲監視方法に関する。
近年、車両の上方の仮想視点から車両の周囲を見下ろした俯瞰画像をモニタに表示する車両周囲監視装置の普及が進んでいる。多くの車両周囲監視装置は、車両周囲を広範囲に映し出せるように、複数のカメラを利用して俯瞰画像を生成する(例えば特許文献1,2参照)。
図33は、特許文献1,2に記載の車両周囲監視装置(以下「従来装置」という)におけるカメラ配置及び各カメラの撮影画像から得られる俯瞰画像の一例を示す図である。
図33に示すように、車両10には、第1〜第4のカメラ20−1〜20−4が取り付けられる。第1〜第4のカメラ20−1〜20−4は、車両10の前方、後方、左側方、及び右側方の路面を、斜めに見下ろす向きでそれぞれ撮影する。第1〜第4のカメラ20−1〜20−4の撮影画像からは、車両の上方の仮想視点から見下ろしたときの画像に近似した第1〜第4のカメラ俯瞰画像30−1〜30−4を得ることができる。
表示される俯瞰画像は、できるだけ広い範囲で連続した画像であることが望ましい。そこで、従来装置は、複数のカメラの撮影画像から1つの俯瞰画像を合成するようにしている。以下、複数のカメラの撮影画像から合成された俯瞰画像を、「合成俯瞰画像」という。
従来装置は、第1〜第4のカメラ20−1〜20−4の撮影画像を、路面を基準として合成し、車両10の全周で連続した合成俯瞰画像を生成する。また、従来装置では、合成俯瞰画像に抜けを生じさせないために、隣り合うカメラ20の撮影範囲が重複している。以下、撮影範囲が重複する領域を、「重複エリア」という。
重複エリアの路面標示や木陰など、実質的に高さが無い物体(非立体物)の位置は、両方のカメラ20のカメラ俯瞰画像30において一致する。ところが、重複エリアに位置し高さがある立体物の位置は、カメラ俯瞰画像ごとに異なる。これは、カメラ20から見たときの立体物の射影方向が、カメラ20ごとに異なるためである。
図34は、第2のカメラ20−2及び第3のカメラ20−3の重複エリアに、第1及び第2の立体物40−1及び40−2が位置するような状況における、第3のカメラ俯瞰画像30−3を例示する図である。また、図35は、上記と同じ状況における第2のカメラ俯瞰画像30−2の一例を示す図である。
図34において、第1及び第2の立体物40−1、40−2は、基部41−1、41−2と、立体部分42−1、42−2とに分けられる。基部は、各立体物において、路面を基準とする高さが実質的に無い部分であり、立体部分は、各立体物において、路面を基準として高さ成分を有する部分である。第3のカメラ俯瞰画像30−3において、立体部分42−1、42−2が、基部41−1、41−2から、車両10に対し後方向に伸びた状態で運転者により視認される。すなわち、第3のカメラ俯瞰画像30−3では、第1及び第2の立体物40−1、40−2は、車両10の後方向に向けて倒れ込んだ状態となっている。一方、図35に示すように、第2のカメラ俯瞰画像30−2では、第1及び第2の立体物40−1、40−2は、車両10の左方向に向けて倒れ込んだ状態となっている。
このように、重複エリアの立体物の倒れ込みの方向(射影方向)は、カメラ俯瞰画像ごとに異なる。重複エリアにおいて2つのカメラ俯瞰画像を単純に重ね合わせて合成俯瞰画像を作成すると、1つの立体物に対して2つの立体物が現れ、二重像となってしまう。したがって、重複エリアの立体物をどのように処理するかが問題となる。
そこで、従来装置は、図36及び図37に示すように、境界60を境として一方のカメラ俯瞰画像の立体物40のみを採用して、合成俯瞰画像50を生成するようにしている。また、より具体的には、従来装置は、図38及び図39に示すように、重複エリアの内部に境界60を設定している。これにより、立体物が重複して表示されるのを防ぐことができる。
特開2008−48317号公報 特開2007−180720号公報
しかしながら、従来装置では、例えば、図38及び図39に示すように、実際には平行な2つの立体物が、境界60の両側で大きく異なる向きで画像表示されることがある。また、図39に示すように、実際には重なっていない2つの立体物が、境界60において重なった状態で画像表示されることがある。すなわち、実際の複数の立体物の間の配置関係(以下単に「立体物の配置関係」という)とは大きく異なる配置関係で、立体物が表示される場合がある。したがって、従来装置には、運転者に対して、車両周囲の立体物の配置関係を誤って認識させてしまうという課題がある。
なお、上記説明では課題を分かりやすくするために、2つの立体物の例を挙げて説明したが、これに限らず、1つの立体物の場合でも、同様の課題は起こる。
本発明は、かかる点に鑑みてなされたものであり、運転者が車両周囲の立体物の配置関係を認識させ易くすることができる車両周囲監視装置及び車両周囲監視方法を提供することを目的とする。
本発明の車両周囲監視装置は、車両周囲に存在する立体物を検出する立体物検出部と、複数のカメラの撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、立体物検出部による検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する第1の画像生成部とを備え、所定の視点は、車両の運転者の視点位置であることを特徴とする
本発明の車両周囲監視方法は、車両周囲に存在する立体物を検出する第1のステップと、複数のカメラの撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、第1のステップにおける検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する第2のステップとを備え、所定の視点は、車両の運転者の視点位置であることを特徴とする
本発明によれば、立体物の射影方向が揃うので、運転者は車両周囲の立体物の配置関係をより正確に認識することができる。
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係る車両周囲監視装置のブロック図である。
図1において、車両周囲監視装置100は、大別して、第1〜第4のカメラ200−1〜200−4、画像処理部400、及びモニタ500を備えている。第1〜第4のカメラ200−1〜200−4は、同一の構成を有しているため、適宜、カメラ200としてまとめて説明を行う。
カメラ200は、車両の周囲を撮影する。カメラ200は、撮像部210と、一対のフレームメモリ220を有するフレーム切替部230とを含んでいる。
撮像部210は、固体撮像素子であるCCD(Charge Coupled Device)と、CCDの撮像面に光学像を結像させる光学系とを有し(いずれも図示せず)、CCDで撮像した画像をフレームメモリ220に出力する。フレームメモリ220は、撮像部210で撮像された画像を一時的に格納する。フレーム切替部230は、撮像部210で撮像された画像の入力先と、画像処理部400による参照先とを、2つのフレームメモリ220の間で交互に切り替える。
なお、カメラ200は、撮像素子として、CMOS(Complementary Metal Oxide)デバイスを採用してもよい。この場合には、CMOSデバイスにフレームメモリの機能を持たせて、フレームメモリ220を省略することができる。
図2は、図1の車両周囲監視装置の第1〜第4のカメラ200−1〜200−4の取り付け位置の一例を示す斜視図である。
図2に示すように、第1のカメラ200−1は、車両600の前方を撮影するために、車両600の正面中央に取り付けられている。第2のカメラ200−2は、車両600の後方を撮影するために、車両600の後部中央に取り付けられている。第3のカメラ200−3は、車両600の左側方を撮影するために、車両600の左サイドミラーに取り付けられている。第4のカメラ200−4は、車両600の右側方を撮像するために、車両600の右サイドミラーに取り付けられている。
第1〜第4のカメラ200−1〜200−4の撮像範囲である第1〜第4のカメラ撮像範囲200a−1〜200a−4は、いずれも、車両600の周囲の地面を含む。また、隣り合うカメラ撮像範囲200a(例えば、第3のカメラ撮像範囲200a−3と第2のカメラ撮像範囲200a−2)は重なっている。すなわち、隣り合うカメラ撮像範囲200aには、重複エリアが存在する。これにより、第1〜第4のカメラ200−1〜200−4は、全体で、車両600の周囲360度を撮像することができる。
図3は、第1〜第4のカメラ200−1〜200−4の撮影画像の一例を示す図である。
図3に示すように、第1〜第4のカメラ200−1〜200−4により撮影される第1〜第4のカメラ撮影画像710−1〜710−4には、それぞれ、車両600の前方、後方、左側方、右側方の状況が映っている。第1〜第4のカメラ撮影画像710−1〜710−4は、画像処理部400から読み出し可能な状態で、第1〜第4のカメラ200−1〜200−4のフレームメモリに保持される。
再度図1を参照する。画像処理部400は、画像処理部400は、マッピングテーブル参照部410、カメラ俯瞰画像生成部420、立体物検出部430、合成俯瞰画像生成部440、及びタイミング生成部450を含んでいる。
マッピングテーブル参照部410は、2種類のマッピングテーブル(MPT:Mapping Table)を格納し、これらマッピングテーブルを参照して、2種類のマッピングデータを生成する。一方のマッピングテーブルは、各カメラ200のフレームメモリ220に格納された撮影画像の画素位置と、後で説明するカメラ俯瞰画像の画素とを対応付けたテーブルである。また、他方のマッピングテーブルは、各カメラ俯瞰画像の画素と、後で説明する合成俯瞰画像の画素とを対応付けたテーブルである。一方のマッピングデータは、各カメラ俯瞰画像の画素ごとに、どの撮影画像のどの画素の値を割り当てるかを指示するデータである。他方のマッピングデータは、合成俯瞰画像の画素ごとに、どのカメラ俯瞰画像におけるどの画素の値を割り当てるかを指示するデータである。マッピングテーブル参照部410は、一方のマッピングデータを、立体物検出部430及びカメラ俯瞰画像生成部420に出力し、また、他方のマッピングデータを、合成俯瞰画像生成部440に出力する。
マッピングテーブル参照部410が格納するマッピングテーブルは、手作業で作成されてもよいし、車両周囲監視装置100が幾何変換等の計算を実行することにより作成されてもよい。また、マッピングテーブルが、ファームウェアとして提供される場合には、マッピングテーブル参照部410は、通信回線やディスクドライブなどのデータ転送手段を用いて、外部からマッピングテーブルを取得してもよい。
カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から出力される一方のマッピングデータに従って、各カメラ200のフレームメモリ220に格納された各撮影画像を読み出してマッピングを行うことにより、カメラ俯瞰画像を生成する。具体的には、カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から出力された一方のマッピングデータに基づき、指定された撮影画像の画素を、カメラ俯瞰画像の画素の値として割り当てて、カメラ撮影画像毎にカメラ俯瞰画像が生成される。
ここで、カメラ撮影画像には、カメラ視点、つまり、カメラの設置位置から見たときのカメラ撮像範囲の状況が映っている。それとは異なり、カメラ俯瞰画像は、カメラ撮影画像の視点を変換したものであって、カメラ俯瞰画像には、車両上方に設置された仮想的なカメラの視点(仮想視点)から見た場合におけるカメラ撮像範囲の全体又は一部の状況が映っている。
ここで、図4は、図3に示す第1〜第4のカメラ撮影画像710−1〜710−4から生成される第1〜第4のカメラ俯瞰画像724−1〜724−4の一例を示す図である。第1〜第4のカメラ俯瞰画像724−1〜724−4はそれぞれ、隣のカメラ俯瞰画像724との間の重複エリアを含む。
図1に示す立体物検出部430は、詳細については後述するが、各カメラ200から得られたカメラ撮影画像に対し画像認識処理を行って、カメラ撮影画像から車両周囲に存在する立体物を検出する。また、立体物検出部430は、マッピングテーブル参照部410からの一方のマッピングデータを使うことで、各カメラ撮影画像のどの画素が、カメラ俯瞰画像におけるどの画素に対応するかが分かるので、このマッピングデータを用いて、検出した立体物が、カメラ俯瞰画像で映っているエリア(以下「立体物エリア」という)の座標値の集まりを特定する。立体物検出部430はさらに、検出した立体物エリアにおいて、車両に最も近い位置を、その立体物の基部位置として取得する。立体物エリアの座標値の集まりと、その立体物の基部位置とは、立体物位置情報として、合成俯瞰画像生成部440に送られる。
合成俯瞰画像生成部440は、カメラ俯瞰画像生成部420からの各カメラ俯瞰画像を受け取り、マッピングテーブル参照部410より他方のマッピングデータを受け取る。合成俯瞰画像生成部440は、受け取ったマッピングデータに従って、受け取った各カメラ俯瞰画像に対しマッピングを行って、合成俯瞰画像を合成する。具体的には、合成俯瞰画像生成部440は、このマッピングデータに基づき、指定されたカメラ俯瞰画像の画素を、合成俯瞰画像の画素の値として割り当てて、これによって、合成俯瞰画像が生成される。
ここで、合成俯瞰画像は、カメラ俯瞰画像と比較すると、仮想カメラ視点から見た場合における車両の全周囲を1フレームに収めている点で相違する。
図5は、合成俯瞰画像生成部440によって生成される合成俯瞰画像の一例を示す図である。図5の例では、仮想視点の位置は車両の真上に設定されており、合成俯瞰画像720の中央には車両を示すアイコン721が配置される。また、車両の周囲に立体物が存在する場合には、合成俯瞰画像720において対応する位置に立体物723が描かれる。
ここで、各カメラ俯瞰画像は各カメラ200の位置から撮影されているため、それぞれに映っている立体物の倒れこみの方向が異なる(図4参照)。したがって、このようなカメラ俯瞰画像を基礎として生成される合成俯瞰画像においても、立体物723は倒れこみの方向が相違する(図5参照)。もしこのような合成俯瞰画像がそのまま表示されると、この画像を見る運転者は違和を感じる。特に、重複エリアにおいては、「背景技術」の欄で説明したように、立体物の配置関係が運転者にとっては分かり難くなる。
以上の観点から、合成俯瞰画像生成部440は、まず、立体物検出部430からの立体物位置情報に基づいて、この立体物位置情報に対応する立体物を、カメラ俯瞰画像生成部420から受け取ったカメラ俯瞰画像から切り出し、回転させる(画像回転処理)。その後、合成俯瞰画像生成部440は、自身が生成した合成俯瞰画像に、回転済みの立体物を合成する(立体物合成処理)。
画像回転処理は、立体物位置情報を受け取った場合に行われ、カメラ俯瞰画像において、立体物位置情報で特定される立体物エリアから、立体物が抽出される。抽出された立体物は、立体物位置情報で特定される基部位置を中心として、それを撮影したカメラ200の視点から見た射影方向から、所定の視点から見た射影方向に回転させられる。
また、立体物合成処理において、回転済みの立体物は、合成俯瞰画像上に合成される。ここで、合成俯瞰画像生成部440には、カメラ俯瞰画像と、合成俯瞰画像との対応関係が示される他方のマッピングデータが入力されているので、合成俯瞰画像生成部440は、回転済みの立体物を、合成俯瞰画像上のどの位置に合成するかを、このマッピングデータに基づき特定する。
以上の画像回転処理及び立体物合成処理は、受け取った立体物位置情報毎に行われる。また、特に、重複エリアについては、同じ立体物が複数のカメラ俯瞰画像に映っているが、いずれのカメラ俯瞰画像から立体物を抽出するかについては、後述する。
そして、合成俯瞰画像生成部440は、フレームごとの合成俯瞰画像から、動画系列を表示するための映像信号を生成し、生成した映像信号をモニタ500へ出力する。
タイミング生成部450は、第1〜第4のカメラ200−1〜200−4のフレーム切り替えのタイミングと、マッピングテーブル参照部410の各マッピングデータ出力タイミングと、合成俯瞰画像生成部440の動作タイミングとを制御するタイミング信号を生成する。このタイミング信号により、車両600の周囲の画像をリアルタイムで映し出す合成俯瞰画像の映像信号が、モニタ500に出力される。
モニタ500は、合成俯瞰画像生成部440から受け取った映像信号に従って、合成俯瞰画像を表示する。モニタ500は、例えば、液晶ディスプレイを有する表示装置であり、車両600の運転席から見える位置に取り付けられる。モニタ500は、車両搭載型のGPS(Global Positioning System)端末(いわゆるカーナビゲーションシステム)等の、他のシステム又は装置との間で共有されてもよい。
なお、車両周囲監視装置100は、図示しないが、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)及びマッピングテーブルを含む各種データを格納したEEPROM(Electrically Erasable and Programmable Read Only Memory)等の記憶媒体、RAM(Random Access Memory)等の作業用メモリなどを有する。上記各部の機能は、例えば、CPUが制御プログラムを実行することにより実現される。
このような車両周囲監視装置100によれば、合成俯瞰画像を運転者に対して表示することができるとともに、合成俯瞰画像の立体物の射影方向を、所定の視点を基準とした方向に揃えることができる。また、マッピングテーブルを用いるので、合成俯瞰画像を高速に生成することができる。
次に、上述の画像回転処理の詳細について説明する。
図6は、画像回転処理を施す前の合成俯瞰画像の一例を示す図である。図6では、車両周囲の路面上に置かれた立体物(例えばパイロン)が複数位置するときの合成俯瞰画像が模式的に示されている。
ここで、カメラ200の視点の位置を、「カメラ視点」という。図6に示すように、画像回転処理を施す前の合成俯瞰画像720では、立体物723は、立体物の基部位置732を基点として、その画像を撮影したカメラ200のカメラ視点731から見た射影方向(以下「カメラ射影方向」という)733に倒れ込んだ状態となる。
例えば、第3のカメラ俯瞰画像724−3の、第2のカメラ俯瞰画像724−2に近い部分に位置する第1の立体物723−1は、第3のカメラ200−3のカメラ視点731−3から見た第1の射影方向733−1(後方向)に倒れ込んでいる。一方で、第2のカメラ俯瞰画像724−2の、第3のカメラ俯瞰画像724−3に近い部分に位置する第2の立体物723−2は、第2のカメラ200−2のカメラ視点731−2から見た第2の射影方向733−2(左方向)に倒れ込んでいる。
第1の立体物723−1と第2の立体物723−2とは互いに、近距離に本来位置するので、両立体物723−1及び723−2は同じ方向に倒れこんだ状態で運転者により視認されることが好ましい。しかしながら、第1の立体物723−1及び第2の立体物723−2とは、異なるカメラ視点731−3及び731−2から撮影されたものであるため、画像回転処理前の合成俯瞰画像720においては大きく異なった方向に倒れ込んでいるように運転者により視認される。
このように、画像回転処理を施さない場合、実際には近距離に位置する2つの立体物であるにもかかわらず、カメラ俯瞰画像724の境界線の付近においてその立体物723の射影方向が大きく異なる。このことは、実際には同一の立体物であるにもかかわらず、カメラ俯瞰画像724の境界線の両側で、その立体物723の射影方向が大きく異なることを意味する。したがって、画像回転処理を施さない合成俯瞰画像720は、上述の通り、運転者の立体物の配置関係に対する認識誤りを引き起こす。また、画像回転処理を施さない合成俯瞰画像720では、立体物723は、車両の移動又は立体物723の移動によって境界線を越えるときに、不連続な動きで表示されることになる。
そこで、本実施の形態の車両周囲監視装置100は、カメラ俯瞰画像724から抽出した立体物723を1つの視点から見た射影方向に回転させた後に、合成俯瞰画像720に合成して、各立体物723の射影方向を揃える。これによって、上記認識誤り及び立体物の不連続な動きの低減を図る。以下、回転の基準となる単一の視点を、「合成視点」という。
図7は、画像回転処理を施した後の合成俯瞰画像の一例を示す図であり、図6に対応するものである。
図7に示すように、画像回転処理を施した後の合成俯瞰画像720では、立体物723は、基部位置732を基点として、合成視点734から見た射影方向(以下「視点射影方向」という)735に倒れ込んだ状態となっている。ここで、合成視点734は、車両の運転者の視点の位置に設定されている。合成俯瞰画像生成部440は、立体物723を、基部位置732を中心として、カメラ射影方向733から視点射影方向735へと回転させることにより、このような合成俯瞰画像720を生成する。
例えば、第1及び第2の立体物723−1、723−2の射影方向は、ほぼ平行となり、実際の配置関係により近くなる。したがって、上記画像回転処理を行うことにより、境界線における立体物723の不連続な動きや、立体物の配置関係に対する認識誤りを防ぐことができる。
このように、画像回転処理を施すことにより、実際の立体物の配置関係により近い配置関係で立体物723を配置した合成俯瞰画像を、運転者に提供することができる。また、合成視点734を運転者の視点に合わせているので、実際に運転者から立体物を見たときの方向と同じ方向に立体物を倒し込むことができる。したがって、運転者に対して、実際の立体物の配置関係を、より正確に認識させることができる。
ここで、車両を基準とし高さ成分を除いた座標系において、カメラ200の設置位置の座標(カメラ視点の座標)をC(C,C)、立体物の基部位置732の座標をO(O,O)、合成視点の座標をP(P,P)と置く。このとき、カメラ射影方向733から視点射影方向までの回転角θは、カメラ射影方向の方向ベクトルV(O−C,O−C)及び視点射影方向の方向ベクトルV(O−P,O−P)を用いて、以下の式(1)を用いて算出することができる。
θ = arccos{(V・V)/(|V|・|V|)} ・・・・・・(1)
なお、回転角θは、合成俯瞰画像の座標ごとに一意に決まる。したがって、座標ごとに回転角θを予め算出して記憶しておくことにより、画像回転処理の高速化を図ることができる。
以下、本実施の形態に係る車両周囲監視装置100の動作について説明する。
図8は、車両周囲監視装置100の動作の一例を示すフローチャートである。
まず、ステップS1100において、カメラ俯瞰画像生成部420及び立体物検出部430は、タイミング生成部450からのタイミング信号を受けて、第1〜第4のカメラ200−1〜200−4から、第1〜第4のカメラ撮影画像をそれぞれ取得する(図3参照)。
次に、ステップS1200において、カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から入力される一方のマッピングデータに基づいて、第1〜第4のカメラ撮影画像から、第1〜第4のカメラ俯瞰画像を生成する(図4参照)。そして、カメラ俯瞰画像生成部420は、生成した各カメラ俯瞰画像を、合成俯瞰画像生成部440に出力する。
次に、ステップS1300において、合成俯瞰画像生成部440は、カメラ俯瞰画像生成部420からの各カメラ俯瞰画像を受け取り、マッピングテーブル参照部410より他方のマッピングデータを受け取る。合成俯瞰画像生成部440は、受け取ったマッピングデータに従って、受け取った各カメラ俯瞰画像に対しマッピングを行って、合成俯瞰画像を合成する。
次に、ステップS1400において、立体物検出部430は、ステップS1100で取得された第1〜第4のカメラ撮影画像に対し画像認識処理を行うことにより、立体物の検出処理を行う。
画像認識処理としては、例えば、パターンマッチング処理又はエッジ抽出処理、又はステレオ処理を採用することができる。
パターンマッチング処理の場合、立体物検出部430は、検出対象となる立体物(例えばパイロン、ポール)の外観の形状の特徴を予め記憶しておき、その形状と相関性の高い画像部分を、立体物として検出する。エッジ抽出処理の場合、立体物検出部430は、検出対象となる立体物を構成する線分に特徴的な特定の方向(例えば路面に対する垂直方向)に近い方向の線分のみを抽出し、抽出された線分が集中する画像部分を、立体物として検出する。例えば、人、ポール、箱等の立体物は、垂直方向に近い方向の線分を多く有することから、検出が容易である。ステレオ処理の場合、立体物検出部430は、車両の路面に対する移動と、この移動に伴う第1〜第4のカメラ撮影画像の変化とから、路面画像ではない部分、つまり立体物を抽出する。ステレオ処理の詳細については、後述する。
なお、立体物検出部430は、重複エリアについては、複数のカメラ俯瞰画像の間で輝度あるいは色の差分が大きい部分を、立体部と判定し、この画像部分と輝度及び色が連続して整合する画像を立体物と判定する。
また、立体物検出部430は、立体物が含まれる大まかな領域を、立体物と判定してもよい。これは、立体物の抽出を行うことができない場合に有効である。この場合には、立体物検出部430は、立体物を、矩形や楕円形等の単純な外形としてもよい。
そして、ステップS1500において、立体物検出部430は、後のステップで画像処理の対象となる少なくとも1つの立体物をステップS1400で検出できたかを判断する。立体物検出部430は、処理対象となる立体物を検出できた場合には(S1500:YES)、ステップS1600へ進む。
図9は、処理対象となる立体物が存在する場合の合成俯瞰画像の例を示す図である。ここでは、立体物は路面に対し垂直方向に伸びた棒状部材とする。図9に示すように、立体物723は、その画像を撮影したカメラ視点731を起点としたカメラ射影方向733に倒れ込んでいる。
図8のステップS1600において、立体物検出部430は、一方のマッピングデータを参照して、第1〜第4のカメラ撮影画像における立体物の位置を、カメラ俯瞰画像における位置情報に変換する。これによって得られた立体物位置情報を、立体物検出部430は、合成俯瞰画像生成部440へ出力する。
図10は、立体物位置情報を示す図である。立体物位置情報は、上述の通り、立体物エリアの座標の集まり及び基部位置を示す情報である。基部位置732は、立体物723が路面と接する位置である。また、立体物エリア736は、立体物723が描かれた座標の集合で特定される。
立体物検出部430は、立体物エリア736のうちカメラ200のカメラ視点731に最も近い位置の座標を、基部位置732として採用する。
一方、立体物検出部430は、処理対象となる立体物を検出できなかった場合には(ステップS1500:NO)、ステップS1700へ進む。
ステップS1700において、立体物検出部430は、処理対象となる立体物を検出できなかった旨を示す情報を合成俯瞰画像生成部440に出力し、ステップS1800へ進む。
図8のステップS1800において、合成俯瞰画像生成部440は、立体物位置情報を受け取ったか否かを判断する。立体物位置情報を受け取った場合(S1800:YES)には、ステップS1900に進む。
次に、ステップS1900において、合成俯瞰画像生成部440は、立体物を回転させるための合成視点を設定する。ここでは、合成俯瞰画像生成部440は、車両の運転席の画像位置に、合成視点を設定するものとする(図7参照)。
そして、ステップS2000において、合成俯瞰画像生成部440は、立体物の基部を中心に、前式(1)で求まるθだけ立体物を回転させた後の、立体物エリアの座標の集まりを算出する。この回転は、図6及び図7で説明したように、基部位置を中心としたカメラ射影方向から視点射影方向への回転である。
図11は、立体物の回転の様子を示す図である。図11に示すように、立体物723は、基部732を中心として、カメラ射影方向733から視点射影方向735へと、それぞれ回転される。
なお、重複エリアの立体物は、その生成に際してどちらのカメラ俯瞰画像を用いても、回転後の倒れ込みの方向は同一となる。しかし、立体物の大きさ、つまりカメラ射影方向の長さ(以下「射影長」という)は、どちらのカメラ俯瞰画像を用いたかによって異なる。
図12は、第3のカメラ撮影画像を用いた場合の、ある立体物の立体物を示す図である。また、図13は、第2のカメラ俯瞰画像を用いた場合の、同じ立体物を示す図である。図12及び図13に示すように、立体物723−3、723−2の射影長は異なる。これは、カメラ200から立体物までの距離が異なるためである。
図14は、カメラ200からの距離と射影長との関係を示す図である。図14に示すように、カメラ200から立体物737までの距離dと射影長Lとの比は、立体物737の高さhと、立体物737の上端からカメラ200の高さまでの距離hとの比に比例する。したがって、射影長Lは、カメラ200から立体物737までの距離dに比例する。このことは、カメラ200からの距離が長いほど、立体物737の射影長が長くなり、実際の立体物の外観に対する立体物737の歪みが大きくなり、表示範囲からはみ出して消失する部分が多くなることを意味する。
したがって、合成俯瞰画像生成部440は、重複エリアの立体物については、カメラ200の位置までの長さがより短いほうのカメラ画像を用いることが望ましい。距離は、例えば、立体物の基部位置とカメラ200の位置とから求めることができる。
そして、図8のステップS2100において、合成俯瞰画像生成部440は、ステップS2000で算出した回転後のエリアに立体物を合成俯瞰画像に描画する。
そして、回転後のエリアに立体物を描画するだけでは、合成俯瞰画像には、同じ立体物であるが回転前のものが描かれたままであるため、ステップS2200において、合成俯瞰画像生成部440は、立体物の回転前のエリアに、路面を描画する。これにより、合成俯瞰画像において立体物は基部位置を中心としてカメラ射影方向から視点射影方向へと回転した状態に補正される。
ここで、ステップS2200の詳細な処理の一例について説明する。カメラ200から見て立体物の背後(カメラ射影方向側)は、そのカメラ200にとっては死角となる。したがって、そのカメラ200のカメラ撮影画像においては、回転前のエリアに描画すべき路面の色データが欠落している。一方で、回転前のエリア(以下「データ欠落エリア」という)は、カメラ200の視点の移動(車両の移動)や立体物の移動に伴って変化する。
そこで、合成俯瞰画像生成部440は、過去に生成された合成俯瞰画像を所定数フレーム分記憶しておき、過去のフレームを用いて、現在のフレームのデータ欠落エリアを補完する。
図15は、データ欠落エリアの補完の様子を示す図である。
図15(A)に示す第nのフレームの合成俯瞰画像720が取得された後、車両が車庫入れ等のために後退し、図15(B)に示す第n+aのフレームの合成俯瞰画像720n+aが取得されたとする。
第nのフレームの合成俯瞰画像720において、立体物723は、あるデータ欠落エリア738から、回転後の領域(以下「回転先領域」という)739へと回転する。回転先領域739の路面画像は、基の第nのフレームの合成俯瞰画像720に含まれている。
そして、第n+aのフレームの合成俯瞰画像720n+aにおいて、立体物723は、さらに、データ欠落エリア738n+aから、別の回転先領域739n+aへと回転する。ここで、説明の簡便化のため、第n+aのフレームにおけるデータ欠落エリア738n+aが、第nのフレームにおける回転先領域739に一致しているものとする。この場合、第n+aのフレームにおけるデータ欠落エリア738n+aの路面画像は、第nのフレームの合成俯瞰画像720に、回転先領域739の路面画像として含まれている。
したがって、合成俯瞰画像生成部440は、まず、車両の舵角量並びに車速等から得られる車両の移動量並びに移動方向、及び/又はオプティカルフロー等の画像処理に基づいて、フレーム間での合成俯瞰画像の座標の対応付けを行う。そして、合成俯瞰画像生成部440は、矢印740に示すように、第n+aのフレームの合成俯瞰画像720n+aにおけるデータ欠落エリア738n+aを、第nのフレームの合成俯瞰画像720における回転先領域739の路面画像で補完する。
なお、車両又は立体物の移動がなければ、データ欠落エリアを補完することはできない。したがって、合成俯瞰画像生成部440は、検出対象となる立体物が存在する状態で車両の移動が検出された時、及びカメラ撮影範囲へ立体物の進入が検出してきた時にのみ、データ欠落エリアの補完を行うようにしてもよい。
また、合成俯瞰画像生成部440は、時間的に後のフレームの合成俯瞰画像を用いて、データ欠落エリアの補完を行うようにしてもよい。但し、数フレーム分の画像をバッファすることになり、モニタ500に表示される合成俯瞰画像に多少の遅れが生じる。
以上のステップS2200の実行後、処理は図8に示すステップS2300に進む。ステップS2300において、合俯瞰画像生成部440は、補正後の合成俯瞰画像を示す映像信号をモニタ500に出力し、合成俯瞰画像を表示させる。表示される合成俯瞰画像は、処理対象となる立体物が存在する場合には、その立体物を回転させた画像となっている。
そして、ステップS2400において、タイミング生成部450は、ユーザ操作等により合成俯瞰画像の表示の処理の終了を指示されたか否かを判断する。タイミング生成部450は、処理の終了を指示されていない場合は(S2400:NO)、タイミング信号を出力してステップS1100に戻り、処理の終了を指示された場合は(S2400:YES)、タイミング信号の出力を停止して一連の処理を終了させる。
また、画像処理の対象となる立体物が存在しない場合には(S1800:NO)、合成俯瞰画像生成部440は、直接にステップS2300へ進み、画像回転処理を行うことなく、合成俯瞰画像をモニタ500に表示させる。
このような動作により、車両周囲監視装置100は、車両周囲の立体物の射影方向が揃った合成俯瞰画像を、運転者に提供することができる。
なお、以上の実施形態の説明では、立体物検出部430が受け取ったカメラ画像から立体物および立体物までの距離を検出していたが、これに限らず、例えば、アクティブセンサにより立体物および立体物までの距離を検出してもかまわない。
なお、複数のカメラ俯瞰画像から成る合成俯瞰画像が用いられる場合には(図4参照)、重複エリアに位置する立体物は、複数のカメラ俯瞰画像に異なる形で映る場合がある。したがって、合成俯瞰画像においては、これら異なる形のもの同士を合成して、1つの立体物が映るようにしてもよい。
また、各カメラ俯瞰画像に映る立体物の射影長を、合成視点から見たときの射影長に補正することにより、より見易い立体物を得ることが可能である。
また、合成俯瞰画像に映る立体物の配置関係が実際の立体物の配置関係と大きく異なるのは、主に、重複エリアである。したがって、処理対象を重複エリアの付近に位置する立体物に絞ることにより、車両周囲監視装置100の処理負荷を軽減することが可能である。
また、画像処理を重複エリアに限定して行う場合には、複数のカメラ俯瞰画像から成る合成俯瞰画像を用いることにより、より簡単にデータ欠落エリアの補完を行うことが可能となる。
また、ある立体物が、他の立体物の陰になって視認し難い場合、合成視点を変えることにより、陰になっていた立体物を視認し易くすることが可能である。
以下、これらの態様について順に説明する。
まず、異なる形で映る立体物を合成する態様について詳細に説明する。
図16は、第3のカメラ俯瞰画像から得られる回転後の立体物のみを採用した場合の合成俯瞰画像の一例を示す図であり、図12に対応するものである。図17は、第2のカメラ俯瞰画像から得られる回転後の立体物(図16の立体物と同一のもの)のみを採用した場合の合成俯瞰画像の一例を示す図であり、図13に対応するものである。図18は、図16に示す立体物と、図17に示す立体物とを合成した立体物を採用した場合の合成俯瞰画像の一例を示す図である。
図16に示す立体物723−3と、図17に示す立体物723−2は、それぞれ1つの視点から見た画像である。したがって、ある方向からのみ観察したときには全体像を視認し難い立体物において、その方向とカメラの撮影方向とが一致した場合には、立体物723は、その立体物を把握し難い画像となる。例えば、板状の看板を真横から撮影した場合が、これに該当する。
そこで、合成俯瞰画像生成部440は、例えば、立体物723−3と立体物723−2とを合成して、図18に示すような立体物723を描画する。これにより、運転者が立体物723をより把握し易くすることができる。なお、合成俯瞰画像生成部440は、回転後の立体物のみを合成してもよいし、立体物を回転させた後のカメラ俯瞰画像を合成してもよい。
次に、異なるカメラ俯瞰画像に異なる形で映る同一立体物(以下、便宜上、「2つの立体物」という)の射影長を揃える態様について説明する。
図14を参照して説明する。立体物検出により特定される立体物737の高さh及び立体物737までの距離dと、カメラ200(又は合成視点734)の高さH=h+hとから、立体物737の射影長Lは、以下の式(2)を用いて算出することができる。
L = (h・d)/(H−h) ・・・・・・(2)
合成俯瞰画像生成部440は、例えば、式(2)を用いて、合成する2つの立体物の射影長と、合成視点734から見たときの射影長とを算出する。そして、合成俯瞰画像生成部440は、2つの立体物のそれぞれを、合成視点734から見たときの射影長Lをカメラ200から見たときの射影長Lで除して得られる比率L/Lで、射影方向に縮小する。これにより、合成視点734から見たときの射影長に、立体物の射影長を揃えることができる。
また、合成視点734の高さをカメラ視点731の高さと同一とした場合には、より簡単に立体物の射影長を揃えることができる。
図19は、立体物の基部位置とカメラ200の画像位置及び合成視点との関係の一例を示す図である。図19に示すように、カメラ俯瞰画像724において、立体物723の基部位置732とカメラ200のカメラ視点731との距離がdであり、同じ基部位置732と合成視点734との距離がdであったとする。
図20は、視点から立体物までの距離と射影長との関係を示す図である。図20に示すように、元の射影長をLとし、合成視点にカメラ200を水平移動したときの射影長をLとする。この場合、射影長Lに対する射影長Lの比は、距離dに対するdの比と一致する。そこで、合成俯瞰画像生成部440は、例えば、立体物を、射影方向に、以下の式(3)で表される比率rで伸縮させることにより、立体物の射影長を、合成視点から見たときの射影長に補正する。
r = L・d/d ・・・・・・(3)
図21は、第3のカメラ俯瞰画像から得られる射影長補正後の立体物の一例を示す図であり、図12に対応するものである。図22は、図21に示す立体物と同一の立体物について第2のカメラ俯瞰画像から得られる射影長補正後の立体物の一例を示す図であり、図13に対応するものである。図23は、図21に示す立体物と図22に示す立体物とを合成した立体物の一例を示す図である。
図21に示すように、合成俯瞰画像生成部440は、例えば、第3のカメラ俯瞰画像から得られる立体物723−3を、合成視点734を基準として、射影長L'から射影長L'へと補正する。また、図22に示すように、合成俯瞰画像生成部440は、例えば、第2のカメラ俯瞰画像から得られる立体物723−2を、合成視点734を基準として、射影長L''から射影長L''へと補正する。射影長L'、L''は、ともに合成視点734を基準として補正されることから、同じ値となる。
図23に示すように、立体物723−3、723−4を合成して得られる立体物723は、実際の立体物により近い状態となり、かつ、より見易くなる。また、合成視点734から見たときの射影長にそろえることにより、実際の立体物の高さと表示上の射影長との間の相関性が高まり、運転者は、実際の立体物の高さをより正確に認識することが可能となる。
次に、画像処理の対象を重複エリア付近の立体物に絞る態様について説明する。
図24は、カメラ俯瞰画像の接合部付近の領域に重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図であり、図11に対応するものである。このパターンでは、合成俯瞰画像生成部440は、立体物723のうち、隣り合うカメラ俯瞰画像724の間の接合部を取り囲むように設定された領域741に重なる立体物723のみを回転する。
図25は、カメラ俯瞰画像の接合部に重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図であり、図11に対応するものである。このパターンでは、合成俯瞰画像生成部440は、立体物723のうち、隣り合うカメラ俯瞰画像724の間の接合部742に重なる立体物723のみを回転する。
図26は、重複エリアに重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図であり、図11に対応するものである。このパターンでは、立体物723のうち、カメラ俯瞰画像724の重複エリア743に重なる立体物723のみを回転する。
図27は、重複エリアに基部位置を有する立体物のみを処理対象とした場合の立体物の回転の様子を示す図であり、図11に対応するものである。このパターンでは、立体物723のうち、カメラ俯瞰画像724の重複エリア743に基部位置732を有する立体物723のみを回転する。
図11、図24〜図27に示す処理対象の決定のパターンを比較すると、車両及び立体物の移動により、車両と立体物との相対位置が変化したときの射影方向の変化は、図11に示すパターンにおいて連続的となり、相対的に滑らかで自然となる。一方で、処理対象の個数が最小となり、装置負荷を最も軽減することができるのは、図27に示すパターンである。また、図27に示すパターンでは、回転前の領域も回転後の領域も重複エリアにあるため、次に説明する態様によるデータ欠落エリアの補完が可能となる。装置負荷に対する許容度と射影方向の変化に対する許容度とのバランスから、適切なパターンを全体的又は部分的に採用することができる。
なお、図24〜図27のように、処理対象のエリアを限定する場合には、立体物検出部430は、そのエリアについてのみ立体物を検出する構成としてもよい。
次に、重複エリアのカメラ俯瞰画像を用いてデータ欠落エリアの補完を行う態様について説明する。
図28は、重複エリアのカメラ俯瞰画像を用いてデータ欠落エリアの補完の様子を示す図である。図28に示すように、合成俯瞰画像生成部440は、例えば、第3のカメラ俯瞰画像724−3と第2のカメラ俯瞰画像724−2との重複エリア743において、第3のカメラ俯瞰画像724−3の立体物723を用いて回転させる。この場合、第3のカメラ俯瞰画像724−3には、データ欠落エリア738が生じる。ところが、第2のカメラ俯瞰画像724−2のデータ欠落エリア738に対応する領域744には、路面が映し出されている。これは、カメラ俯瞰画像724ごとにカメラ射影方向が異なるためである。
したがって、合成俯瞰画像生成部440は、データ欠落エリア738を、第2のカメラ俯瞰画像724−2の対応する領域744の画像で補完する。1つのフレームの合成俯瞰画像からデータ欠落エリアの補完をすることができるので、図15で説明した補完の手法に比べて、処理負荷及びメモリ負荷を軽減することができる。
次に、合成視点を変化させる態様について説明する。
図29は、画像回転処理を施す前の合成俯瞰画像の一例を示す図である。図30は、図29に示す合成俯瞰画像に対して画像回転処理を施した後の合成俯瞰画像の一例を示す図である。図31は、図30に示す合成俯瞰画像から合成視点をずらした合成俯瞰画像の一例を示す図である。
図30に示すように、第1の立体物723−1の基部位置732−1と、第2の立体物723−2の基部位置732−2とが、合成視点734に対してほぼ一直線に位置している。この場合、合成視点734から遠い側である第2の立体物723−2は、第1の立体物723−1の陰となり視認し難い状態となることがある。
そこで、合成俯瞰画像生成部440は、図31に示すように、合成視点734を移動可能とし、陰になっていた第2の立体物723−2を視認し易くすることを可能にする。
この移動は、画像補正440が合成視点からみて複数の基部位置が直線状に配置されているか否かを判断して自動で行ってもよいし、ユーザ操作を受けて行われるようにしてもよい。また、移動先は、車両中心等の固定位置が予め定められていてもよいし、基部位置の検出結果又はユーザ操作に応じて、任意の位置に設定できるようにしてもよい。これにより、図29に示すように、元は重なっていなかった立体物が、回転処理により重なり、かえって視認性を低下させるといった事態を防ぐことができる。
次に、カメラ撮影画像に対する画像処理により立体物の検出を行う技術の詳細について説明する。
画像処理による立体物の検出は、上述の通り、例えば、パターンマッチング処理及びステレオ処理により可能である。
パターンマッチング処理の場合、立体物検出部430は、予め記憶された立体物の外観の形状と相関性の高い画像部分を立体物として検出し、検出した立体物の画像位置から、立体物の位置を検出する。
ステレオ処理の場合、立体物検出部430は、異なる位置から撮影された2つの画像を用い、撮影位置の変異と2つの撮影画像の差異とから、立体物の位置を検出する。ステレオ処理には、2眼カメラを用いたステレオ処理と単眼カメラを用いたモーションステレオ処理がある。
ここで、単眼カメラを用いたモーションステレオ処理として、カメラ200の撮影画像を用いて立体物の検出を行う手法について説明する。2眼カメラを用いる場合と異なり、単眼カメラを用いる場合は、ある時刻において、1つの撮影画像しか得られない。したがって、撮影時刻が異なる2つの撮影画像を用いて、同じパターンの特徴点の移動量を求め、車両600の移動量との比計算から、立体物までの距離を算出する。
図32は、カメラ撮影画像を用いて立体物の検出を行う手法の概要を示す図である。図32に示すように、車両600が、立体物751を左に見ながら移動したとする。そして、立体物検出部430は、時刻tに第1の画像752−1を取得し、時刻tに第2の画像752−2を取得したとする。第1及び第2の画像752−1、752−2は、第3のカメラ撮影画像である。立体物検出部430は、コーナー検出フィルタ処理やエッジ検出フィルタ等を用いて、第1の画像752−1から、立体物の特徴となるような点(エッジ点やコーナー等)を、特徴点753として検出する。そして、検出した特徴点753を、第2の画像752−2で探索する。
立体物検出部430は、第1の画像752−1における特徴点753の位置と、第2の画像752−2における特徴点753の位置との間の画素間距離D[mm]を、これらの画素間距離[pixel]と、第3のカメラ200−3のカメラパラメータとから算出する。カメラパラメータは、カメラ200のレンズ設計時に設定されるパラメータであって、ピクセル単位での画素間距離と長さ単位での画素間距離とを対応付けるパラメータである。そして、立体物検出部430は、第3のカメラ200−3の焦点距離をf、時刻tから時刻tまでの車両600の移動距離をXとすると、カメラ200から立体物751までの距離dを、以下の式(4)を用いて算出する。
d = f・X/D ・・・・・・(4)
このように、立体物検出部430は、画像処理のみによって立体物を検出することができる。
また、立体物検出部430は、上述のように立体物の特徴点検出を行う場合には、検出した複数の特徴点をグルーピングすることにより、グルーピングされた特徴点に囲まれた合成俯瞰画像の領域を、立体物の座標として検出してもよい。
以上説明したように、本実施の形態によれば、所定の視点を基準として立体物の射影方向が揃うので、運転者は車両周囲の立体物の配置関係をより正確に認識することができる。なお、カメラの台数及び合成俯瞰画像の範囲は、以上説明した実施の形態の内容に限定されるものではない。
本発明に係る車両周囲監視装置及び車両周囲監視方法は、運転者が車両周囲の立体物の配置関係をより正確に認識することができる車両周囲監視装置及び車両周囲監視方法として有用である。
本発明の一実施の形態に係る車両周囲監視装置のブロック図 本実施の形態におけるカメラの取り付け位置の一例を示す斜視図 本実施の形態におけるカメラの撮影画像の一例を示す図 本実施の形態におけるカメラ俯瞰画像の一例を示す図 本実施の形態におけるカメラ俯瞰画像生成部によって生成される合成俯瞰画像の一例を示す図 本実施の形態における画像回転処理を施す前の合成俯瞰画像の第1の例を示す図 本実施の形態における画像回転処理を施した後の合成俯瞰画像の一例を示す図 本実施の形態に係る車両周囲監視装置の動作の一例を示すフローチャート 本実施の形態における画像回転処理を施す前の合成俯瞰画像の第2の例を示す図 本実施の形態における立体物位置情報を示す図 本実施の形態における立体物の回転の様子を示す図 本実施の形態における第3のカメラ俯瞰画像を用いた場合の立体物を示す図 本実施の形態における第2のカメラ俯瞰画像を用いた場合の立体物を示す図 本実施の形態におけるカメラからの距離と射影長との関係を示す図 本実施の形態におけるデータ欠落エリアの補完の様子を示す図 本実施の形態における第3のカメラ俯瞰画像から得られる立体物のみを採用した場合の合成俯瞰画像の一例を示す図 本実施の形態における第2のカメラ俯瞰画像から得られる立体物のみを採用した場合の合成俯瞰画像の一例を示す図 本実施の形態における図16に示す立体物と図17に示す立体物を合成した立体物を採用した場合の合成俯瞰画像の一例を示す図 本実施の形態における立体物の基部位置とカメラの画像位置及び合成視点との関係の一例を示す図 本実施の形態における視点から立体物までの距離と射影長との関係を示す図 本実施の形態における第3のカメラ俯瞰画像から得られる射影長補正後の立体物の一例を示す図 本実施の形態における第2のカメラ俯瞰画像から得られる射影長補正後の立体物の一例を示す図 本実施の形態における図21に示す立体物と図22に示す立体物とを合成した立体物の一例を示す図 本実施の形態におけるカメラ俯瞰画像の接合部付近の領域に重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図 本実施の形態におけるカメラ俯瞰画像の接合部に重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図 本実施の形態における重複エリアに重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図 本実施の形態における重複エリアに基部位置を有する立体物のみを処理対象とした場合の立体物の回転の様子を示す図 本実施の形態における重複エリアのカメラ俯瞰画像を用いてデータ欠落エリアの補完の様子を示す図 本実施の形態における画像回転処理を施す前の合成俯瞰画像の一例を示す図 本実施の形態における図29に示す合成俯瞰画像に対して画像回転処理を施した後の合成俯瞰画像の一例を示す図 本実施の形態における図30に示す合成俯瞰画像から合成視点をずらした合成俯瞰画像の一例を示す図 本実施の形態におけるカメラ撮影画像を用いて立体物の検出を行う手法の概要を示す図 従来の車両周囲監視装置におけるカメラ配置及びカメラ俯瞰画像の一例を示す図 従来の車両周囲監視装置における重複エリアに立体物が位置するときの、第3のカメラ俯瞰画像の一例を示す図 従来の車両周囲監視装置における重複エリアに立体物が位置するときの、第2のカメラ俯瞰画像の一例を示す図 従来の車両周囲監視装置における合成俯瞰画像の第1の例を示す図 従来の車両周囲監視装置における合成俯瞰画像の第2の例を示す図 従来の車両周囲監視装置における合成俯瞰画像の第3の例を示す図 従来の車両周囲監視装置における合成俯瞰画像の第4の例を示す図
符号の説明
100 車両周囲監視装置
200 カメラ
210 撮像部
220 フレームメモリ
230 フレーム切替部
400 画像処理部
410 マッピングテーブル参照部
420 カメラ俯瞰画像生成部
430 立体物検出部
440 合成俯瞰画像生成部
450 タイミング生成部
500 モニタ

Claims (9)

  1. 車両周囲に存在する立体物を検出する立体物検出部と、
    複数のカメラの撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、前記立体物検出部による検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する第1の画像生成部と、
    を備え、前記所定の視点は、前記車両の運転者の視点位置である、
    車両周囲監視装置。
  2. 前記複数のカメラの撮影範囲には互いに重複する重複エリアが存在し、
    前記第1の画像生成部は、前記合成俯瞰画像において、少なくとも、前記重複エリアに存在する立体物を、前記所定の視点から見た射影方向に回転させたものに補正する、
    請求項1記載の車両周囲監視装置。
  3. 前記複数のカメラによる撮影画像毎に、前記車両周囲を俯瞰したカメラ俯瞰画像を生成する第2の画像生成部をさらに備え、
    前記第1の画像生成部は、
    前記第2の画像生成部により生成された複数のカメラ俯瞰画像に基づき合成俯瞰画像を生成し、さらに、
    前記第2の画像生成部により生成された複数のカメラ俯瞰画像から、前記立体物検出部による検出結果に基づき立体物を抽出して、抽出した立体物を前記所定の視点から見た射影方向に回転させた状態で、生成した合成俯瞰画像に描画する、
    請求項1記載の車両周囲監視装置。
  4. 前記第1の画像生成部はさらに、生成した合成俯瞰画像に映る立体物の長さを、前記所定の視点から該立体物を見たときの路面における射影長になるように補正する、
    請求項1記載の車両周囲監視装置。
  5. 前記第1の画像生成部は、前記合成俯瞰画像に映るすべての立体物を、前記所定の視点から見た射影方向に回転させたものに補正する、
    請求項1記載の車両周囲監視装置。
  6. 前記第1の画像生成部はさらに、生成した合成俯瞰画像に元々映っていた立体物の部分に、カメラ俯瞰画像を用いて路面を描画する、
    請求項3記載の車両周囲監視装置。
  7. 前記第1の画像生成部はさらに、現在生成した合成俯瞰画像に元々映っていた立体物の部分に、過去に生成した合成俯瞰画像を用いて路面を描画する、
    請求項3記載の車両周囲監視装置。
  8. 前記第1の画像生成部により生成された合成俯瞰画像を表示するモニタをさらに備える、
    請求項1記載の車両周囲監視装置。
  9. 車両周囲に存在する立体物を検出する第1のステップと、
    複数のカメラの撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、前記第1のステップにおける検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する第2のステップと、
    を備え、前記所定の視点は、前記車両の運転者の視点位置である、
    車両周囲監視方法。
JP2008276893A 2008-10-28 2008-10-28 車両周囲監視装置及び車両周囲監視方法 Active JP5178454B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008276893A JP5178454B2 (ja) 2008-10-28 2008-10-28 車両周囲監視装置及び車両周囲監視方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008276893A JP5178454B2 (ja) 2008-10-28 2008-10-28 車両周囲監視装置及び車両周囲監視方法

Publications (2)

Publication Number Publication Date
JP2010109451A JP2010109451A (ja) 2010-05-13
JP5178454B2 true JP5178454B2 (ja) 2013-04-10

Family

ID=42298500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008276893A Active JP5178454B2 (ja) 2008-10-28 2008-10-28 車両周囲監視装置及び車両周囲監視方法

Country Status (1)

Country Link
JP (1) JP5178454B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5251927B2 (ja) * 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
CN102985947B (zh) * 2010-07-29 2015-06-10 本田技研工业株式会社 车辆周围监测装置
MX2013001976A (es) 2010-08-19 2013-04-03 Nissan Motor Dispositivo de deteccion de objetos tridimensionales y el metodo de deteccion de objetos tridimensionales.
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
JP6079131B2 (ja) 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム
JP6084097B2 (ja) * 2013-03-29 2017-02-22 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
KR102234376B1 (ko) * 2014-01-28 2021-03-31 엘지이노텍 주식회사 카메라 시스템, 캘리브레이션 장치 및 캘리브레이션 방법
JP6700222B2 (ja) * 2017-06-09 2020-05-27 株式会社Soken 画像作成装置
CN110719411B (zh) * 2019-12-16 2020-04-03 长沙智能驾驶研究院有限公司 车辆的全景环视图像生成方法及相关设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4736611B2 (ja) * 2005-08-10 2011-07-27 日産自動車株式会社 画像処理装置および画像処理方法
JP2007172501A (ja) * 2005-12-26 2007-07-05 Alpine Electronics Inc 車両運転支援装置
JP4928956B2 (ja) * 2007-01-18 2012-05-09 三洋電機株式会社 俯瞰画像提供装置、車両、および俯瞰画像提供方法
JP4969269B2 (ja) * 2007-02-21 2012-07-04 アルパイン株式会社 画像処理装置

Also Published As

Publication number Publication date
JP2010109451A (ja) 2010-05-13

Similar Documents

Publication Publication Date Title
JP5178454B2 (ja) 車両周囲監視装置及び車両周囲監視方法
JP2010109452A (ja) 車両周囲監視装置及び車両周囲監視方法
JP5491235B2 (ja) カメラキャリブレーション装置
JP6029306B2 (ja) 作業機械用周辺監視装置
JP5223811B2 (ja) 画像補正装置、画像補正方法、及びそれらに用いられる変換マップ作成方法
JP5049300B2 (ja) 障害物検出表示装置
JP6386213B2 (ja) ショベル
KR101611194B1 (ko) 차량 주변 이미지 생성 장치 및 방법
JP2008102620A (ja) 画像処理装置
JP6324665B2 (ja) 作業機械用周辺監視装置
US9162621B2 (en) Parking support apparatus
JP2014062795A (ja) 作業機械用周辺監視装置
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP5805574B2 (ja) 作業機械用周辺監視装置
JP2006017632A (ja) 3次元画像処理装置、光軸調整方法、光軸調整支援方法
JP6257918B2 (ja) ショベル
JP2016213759A (ja) 後方モニタ
WO2018016274A1 (ja) 画像処理装置
JP2019185520A (ja) 画像処理装置および方法
JP2009077022A (ja) 運転支援システム及び車両
JP7296340B2 (ja) ショベル
JP2014224412A (ja) 作業機械用周辺監視装置
JP6187322B2 (ja) 画像表示装置、画像表示システム
JP6302622B2 (ja) 作業機械用周辺監視装置
JP2017117357A (ja) 立体物検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130108

R150 Certificate of patent or registration of utility model

Ref document number: 5178454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350