JP2010109452A - Vehicle surrounding monitoring device and vehicle surrounding monitoring method - Google Patents
Vehicle surrounding monitoring device and vehicle surrounding monitoring method Download PDFInfo
- Publication number
- JP2010109452A JP2010109452A JP2008276894A JP2008276894A JP2010109452A JP 2010109452 A JP2010109452 A JP 2010109452A JP 2008276894 A JP2008276894 A JP 2008276894A JP 2008276894 A JP2008276894 A JP 2008276894A JP 2010109452 A JP2010109452 A JP 2010109452A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional object
- image
- camera
- vehicle
- overhead image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両周囲を撮影する複数のカメラの撮影画像から車両周囲を俯瞰可能な俯瞰画像を合成する車両周囲監視装置及び車両周囲監視方法に関する。 The present invention relates to a vehicle periphery monitoring device and a vehicle periphery monitoring method for synthesizing a bird's-eye view image that enables a bird's-eye view of a vehicle periphery from captured images of a plurality of cameras that capture the vehicle periphery.
近年、車両の上方の仮想視点から車両の周囲を見下ろした俯瞰画像をモニタに表示する車両周囲監視装置の普及が進んでいる。多くの車両周囲監視装置は、車両周囲を広範囲に映し出せるように、複数のカメラを利用して俯瞰画像を生成する(例えば特許文献1,2参照)。
2. Description of the Related Art In recent years, vehicle surroundings monitoring devices that display a bird's-eye view image looking down around a vehicle from a virtual viewpoint above the vehicle have been spreading. Many vehicle surrounding monitoring devices generate a bird's-eye view image using a plurality of cameras so that the vehicle surroundings can be displayed in a wide range (see, for example,
図18は、特許文献1,2に記載の車両周囲監視装置(以下「従来装置」という)におけるカメラ配置及び各カメラの撮影画像から得られる俯瞰画像の一例を示す図である。
FIG. 18 is a diagram illustrating an example of a bird's-eye view image obtained from a camera arrangement and a captured image of each camera in the vehicle surrounding monitoring apparatus (hereinafter referred to as “conventional apparatus”) described in
図18に示すように、車両10には、第1〜第4のカメラ20−1〜20−4が取り付けられる。第1〜第4のカメラ20−1〜20−4は、車両10の前方、後方、左側方、及び右側方の路面を、斜めに見下ろす向きでそれぞれ撮影する。第1〜第4のカメラ20−1〜20−4の撮影画像からは、車両の上方の仮想視点から見下ろしたときの画像に近似した第1〜第4のカメラ俯瞰画像30−1〜30−4を得ることができる。
As shown in FIG. 18, first to fourth cameras 20-1 to 20-4 are attached to the
表示される俯瞰画像は、できるだけ広い範囲で連続した画像であることが望ましい。そこで、従来装置は、複数のカメラの撮影画像から1つの俯瞰画像を合成するようにしている。以下、複数のカメラの撮影画像から合成された俯瞰画像を、「合成俯瞰画像」という。 It is desirable that the overhead image to be displayed is an image that is continuous over as wide a range as possible. Therefore, the conventional apparatus synthesizes a single bird's-eye view image from images captured by a plurality of cameras. Hereinafter, a bird's-eye view image synthesized from images captured by a plurality of cameras is referred to as a “synthesized bird's-eye view image”.
従来装置は、第1〜第4のカメラ20−1〜20−4の撮影画像を、路面を基準として合成し、車両10の全周で連続した合成俯瞰画像を生成する。また、従来装置では、合成俯瞰画像に抜けを生じさせないために、隣り合うカメラ20の撮影範囲が重複している。以下、撮影範囲が重複する領域を、「重複エリア」という。
The conventional apparatus combines the captured images of the first to fourth cameras 20-1 to 20-4 with the road surface as a reference, and generates a combined overhead image that is continuous over the entire circumference of the
重複エリアの路面標示や木陰など、実質的に高さが無い物体(非立体物)の位置は、両方のカメラ20のカメラ俯瞰画像30において一致する。ところが、重複エリアに位置し高さがある立体物の位置は、カメラ俯瞰画像ごとに異なる。これは、カメラ20から見たときの立体物の射影方向が、カメラ20ごとに異なるためである。 The positions of objects (non-three-dimensional objects) having substantially no height, such as road markings and shades of overlapping areas, coincide in the camera overhead image 30 of both cameras 20. However, the position of the three-dimensional object located in the overlapping area and having a height is different for each camera overhead image. This is because the projection direction of the three-dimensional object when viewed from the camera 20 is different for each camera 20.
図19は、第2のカメラ20−2及び第3のカメラ20−3の重複エリアに、第1及び第2の立体物40−1及び40−2が位置するような状況における、第3のカメラ俯瞰画像30−3を例示する図である。また、図20は、上記と同じ状況における第2のカメラ俯瞰画像30−2の一例を示す図である。 FIG. 19 shows the third state in the situation where the first and second three-dimensional objects 40-1 and 40-2 are located in the overlapping area of the second camera 20-2 and the third camera 20-3. It is a figure which illustrates camera overhead view image 30-3. FIG. 20 is a diagram illustrating an example of the second camera overhead image 30-2 in the same situation as described above.
図19において、第1及び第2の立体物40−1、40−2は、基部41−1、41−2と、立体部分42−1、42−2とに分けられる。基部は、各立体物において、路面を基準とする高さが実質的に無い部分であり、立体部分は、各立体物において、路面を基準として高さ成分を有する部分である。第3のカメラ俯瞰画像30−3において、立体部分42−1、42−2が、基部41−1、41−2から、車両10に対し後方向に伸びた状態で運転者により視認される。すなわち、第3のカメラ俯瞰画像30−3では、第1及び第2の立体物40−1、40−2は、車両10の後方向に向けて倒れ込んだ状態となっている。一方、図20に示すように、第2のカメラ俯瞰画像30−2では、第1及び第2の立体物40−1、40−2は、車両10の左方向に向けて倒れ込んだ状態となっている。
In FIG. 19, the first and second three-dimensional objects 40-1 and 40-2 are divided into base parts 41-1 and 41-2 and solid parts 42-1 and 42-2. The base portion is a portion having substantially no height with respect to the road surface in each three-dimensional object, and the three-dimensional portion is a portion having a height component with respect to the road surface in each three-dimensional object. In the third camera bird's-eye view image 30-3, the three-dimensional parts 42-1 and 42-2 are visually recognized by the driver in a state of extending backward from the bases 41-1 and 41-2 with respect to the
このように、重複エリアの立体物の倒れ込みの方向(射影方向)は、カメラ俯瞰画像ごとに異なる。重複エリアにおいて2つのカメラ俯瞰画像を単純に重ね合わせて合成俯瞰画像を作成すると、1つの立体物に対して2つの立体物が現れ、二重像となってしまう。したがって、重複エリアの立体物をどのように処理するかが問題となる。 As described above, the direction in which the three-dimensional object in the overlapping area falls (projection direction) is different for each camera overhead image. When a composite overhead image is created by simply superimposing two camera overhead images in the overlapping area, two stereoscopic objects appear for one stereoscopic object, resulting in a double image. Therefore, how to process the three-dimensional object in the overlapping area becomes a problem.
そこで、従来装置は、図21及び図22に示すように、境界60を境として一方のカメラ俯瞰画像の立体物40のみを採用して、合成俯瞰画像50を生成するようにしている。また、より具体的には、従来装置は、図23及び図24に示すように、重複エリアの内部に境界60を設定している。これにより、立体物が重複して表示されるのを防ぐことができる。
しかしながら、従来装置では、例えば、図23及び図24に示すように、実際には平行な2つの立体物が、境界60の両側で大きく異なる向きで画像表示されることがある。また、図24に示すように、実際には重なっていない2つの立体物が、境界60において重なった状態で画像表示されることがある。すなわち、実際の複数の立体物の間の配置関係(以下単に「立体物の配置関係」という)とは大きく異なる配置関係で、立体物が表示される場合がある。したがって、従来装置には、運転者に対して、車両周囲の立体物の配置関係を誤って認識させてしまうという課題がある。
However, in the conventional device, for example, as shown in FIGS. 23 and 24, two parallel objects that are actually parallel may be displayed in different directions on both sides of the
なお、上記説明では課題を分かりやすくするために、2つの立体物の例を挙げて説明したが、これに限らず、1つの立体物の場合でも、同様の課題は起こる。 In the above description, the example of two solid objects has been described for easy understanding of the problem. However, the present invention is not limited to this, and the same problem occurs even in the case of one solid object.
本発明は、かかる点に鑑みてなされたものであり、運転者が車両周囲の立体物の配置関係を認識させ易くすることができる車両周囲監視装置及び車両周囲監視方法を提供することを目的とする。 The present invention has been made in view of such a point, and an object of the present invention is to provide a vehicle periphery monitoring device and a vehicle periphery monitoring method that allow a driver to easily recognize the arrangement relationship of three-dimensional objects around the vehicle. To do.
本発明の車両周囲監視装置は、車両周囲に存在する立体物を検出する立体物検出部と、複数のカメラの撮影画像を合成処理して、車両周囲の俯瞰画像を表す合成俯瞰画像を生成し、立体物検出部による検出結果に基づき、生成した合成俯瞰画像に映る立体物の方向を、合成処理の境界方向側に変更する第1の画像生成部とを備える。 The vehicle surrounding monitoring apparatus according to the present invention generates a composite overhead image representing a bird's-eye view image of a vehicle by combining the three-dimensional object detection unit that detects a three-dimensional object existing around the vehicle and the captured images of a plurality of cameras. And a first image generation unit that changes the direction of the three-dimensional object shown in the generated synthesized overhead image to the boundary direction side of the synthesis process based on the detection result by the three-dimensional object detection unit.
本発明の車両周囲監視方法は、車両周囲に存在する立体物を検出する第1のステップと、複数のカメラの撮影画像を合成処理して、車両周囲の俯瞰画像を表す合成俯瞰画像を生成し、第1のステップにおける検出結果に基づき、生成した合成俯瞰画像に映る立体物の方向を、合成処理の境界方向側に変更する第2のステップとを備える。 In the vehicle surrounding monitoring method of the present invention, a first step of detecting a three-dimensional object existing around the vehicle and a composite processing of the captured images of a plurality of cameras to generate a combined overhead image representing the overhead image around the vehicle. And a second step of changing the direction of the three-dimensional object shown in the generated synthesized overhead image to the boundary direction side of the synthesis process based on the detection result in the first step.
本発明によれば、合成俯瞰画像における立体物の方向が合成境界側に変更されるので、運転者は車両周囲の立体物の配置関係をより正確に認識することができる。 According to the present invention, since the direction of the three-dimensional object in the composite bird's-eye view image is changed to the composite boundary side, the driver can more accurately recognize the arrangement relationship of the three-dimensional object around the vehicle.
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施の形態に係る車両周囲監視装置のブロック図である。 FIG. 1 is a block diagram of a vehicle surroundings monitoring apparatus according to an embodiment of the present invention.
図1において、車両周囲監視装置100は、大別して、第1〜第4のカメラ200−1〜200−4、画像処理部400、及びモニタ500を備えている。第1〜第4のカメラ200−1〜200−4は、同一の構成を有しているため、適宜、カメラ200としてまとめて説明を行う。
In FIG. 1, the vehicle surrounding
各カメラ200は、車両の周囲を撮影する。各カメラ200は、撮像部210と、一対のフレームメモリ220を有するフレーム切替部230とを含んでいる。
Each
撮像部210は、固体撮像素子であるCCD(Charge Coupled Device)と、CCDの撮像面に光学像を結像させる光学系とを有し(いずれも図示せず)、CCDで撮像した画像をフレームメモリ220に出力する。フレームメモリ220は、撮像部210で撮像された画像を一時的に格納する。フレーム切替部230は、撮像部210で撮像された画像の入力先と、画像処理部400による参照先とを、2つのフレームメモリ220の間で交互に切り替える。
The
なお、カメラ200は、撮像素子として、CMOS(Complementary Metal Oxide)デバイスを採用してもよい。この場合には、CMOSデバイスにフレームメモリの機能を持たせて、フレームメモリ220を省略することができる。
The
図2は、図1の車両周囲監視装置の第1〜第4のカメラ200−1〜200−4の取り付け位置の一例を示す斜視図である。 FIG. 2 is a perspective view showing an example of attachment positions of the first to fourth cameras 200-1 to 200-4 of the vehicle surrounding monitoring apparatus of FIG.
図2に示すように、第1のカメラ200−1は、車両600の前方を撮影するために、車両600の正面中央に取り付けられている。第2のカメラ200−2は、車両600の後方を撮影するために、車両600の後部中央に取り付けられている。第3のカメラ200−3は、車両600の左側方を撮影するために、車両600の左サイドミラーに取り付けられている。第4のカメラ200−4は、車両600の右側方を撮像するために、車両600の右サイドミラーに取り付けられている。
As shown in FIG. 2, the first camera 200-1 is attached to the front center of the
第1〜第4のカメラ200−1〜200−4の撮像範囲である第1〜第4のカメラ撮像範囲200a−1〜200a−4は、いずれも、車両600の周囲の地面を含む。また、隣り合うカメラ撮像範囲200a(例えば、第3のカメラ撮像範囲200a−3と第2のカメラ撮像範囲200a−2)は重なっている。すなわち、隣り合うカメラ撮像範囲200aには、重複エリアが存在する。これにより、第1〜第4のカメラ200−1〜200−4は、全体で、車両600の周囲360度を撮像することができる。
The first to fourth camera imaging ranges 200 a-1 to 200 a-4 that are the imaging ranges of the first to fourth cameras 200-1 to 200-4 each include the ground around the
図3は、第1〜第4のカメラ200−1〜200−4の撮影画像の一例を示す図である。 FIG. 3 is a diagram illustrating an example of captured images of the first to fourth cameras 200-1 to 200-4.
図3に示すように、第1〜第4のカメラ200−1〜200−4により撮影される第1〜第4のカメラ撮影画像710−1〜710−4には、それぞれ、車両600の前方、後方、左側方、右側方の状況が映っている。第1〜第4のカメラ撮影画像710−1〜710−4は、画像処理部400から読み出し可能な状態で、第1〜第4のカメラ200−1〜200−4のフレームメモリに保持される。
As shown in FIG. 3, first to fourth camera captured images 710-1 to 710-4 captured by the first to fourth cameras 200-1 to 200-4 are respectively in front of the
再度図1を参照する。画像処理部400は、マッピングテーブル参照部410、カメラ俯瞰画像生成部420、立体物検出部430、合成俯瞰画像生成部440、及びタイミング生成部450を含んでいる。
Refer to FIG. 1 again. The
マッピングテーブル参照部410は、2種類のマッピングテーブル(MPT:Mapping Table)を格納し、これらマッピングテーブルを参照して、2種類のマッピングデータを生成する。一方のマッピングテーブルは、各カメラ200のフレームメモリ220に格納された撮影画像の画素位置と、後で説明するカメラ俯瞰画像の画素とを対応付けたテーブルである。また、他方のマッピングテーブルは、各カメラ俯瞰画像の画素と、後で説明する合成俯瞰画像の画素とを対応付けたテーブルである。一方のマッピングデータは、各カメラ俯瞰画像の画素ごとに、どの撮影画像のどの画素の値を割り当てるかを指示するデータである。他方のマッピングデータは、合成俯瞰画像の画素ごとに、どのカメラ俯瞰画像におけるどの画素の値を割り当てるかを指示するデータである。マッピングテーブル参照部410は、一方のマッピングデータを、立体物検出部430及びカメラ俯瞰画像生成部420に出力し、また、他方のマッピングデータを、合成俯瞰画像生成部440に出力する。
The mapping
マッピングテーブル参照部410が格納するマッピングテーブルは、手作業で作成されてもよいし、車両周囲監視装置100が幾何変換等の計算を実行することにより作成されてもよい。また、マッピングテーブルが、ファームウェアとして提供される場合には、マッピングテーブル参照部410は、通信回線やディスクドライブなどのデータ転送手段を用いて、外部からマッピングテーブルを取得してもよい。
The mapping table stored in the mapping
カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から出力される一方のマッピングデータに従って、各カメラ200のフレームメモリ220に格納された各撮影画像を読み出してマッピングを行うことにより、カメラ俯瞰画像を生成する。具体的には、カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から出力された一方のマッピングデータに基づき、指定された撮影画像の画素を、カメラ俯瞰画像の画素の値として割り当てて、カメラ撮影画像毎にカメラ俯瞰画像が生成される。
The camera overhead
ここで、カメラ撮影画像には、カメラ視点、つまり、カメラの設置位置から見たときのカメラ撮像範囲の状況が映っている。それとは異なり、カメラ俯瞰画像は、カメラ撮影画像の視点を変換したものであって、カメラ俯瞰画像には、車両上方に設置された仮想的なカメラの視点(仮想視点)から見た場合におけるカメラ撮像範囲の全体または一部の状況が映っている。 Here, the camera-captured image shows the camera viewpoint, that is, the situation of the camera imaging range when viewed from the camera installation position. On the other hand, the camera overhead view image is obtained by converting the viewpoint of the camera-captured image, and the camera overhead view image is a camera when viewed from the viewpoint of a virtual camera (virtual viewpoint) installed above the vehicle. The whole or part of the imaging range is shown.
ここで、図4は、図3に示す第1〜第4のカメラ撮影画像710−1〜710−4から生成される第1〜第4のカメラ俯瞰画像724−1〜724−4の一例を示す図である。第1〜第4のカメラ俯瞰画像724−1〜724−4はそれぞれ、隣のカメラ俯瞰画像724との間の重複エリアを含む。
Here, FIG. 4 is an example of the first to fourth camera overhead images 724-1 to 724-4 generated from the first to fourth camera captured images 710-1 to 710-4 shown in FIG. 3. FIG. The first to fourth camera overhead images 724-1 to 724-4 each include an overlapping area with the adjacent camera
図1に示す立体物検出部430は、詳細については後述するが、各カメラ200から得られたカメラ撮影画像に対し画像認識処理を行って、カメラ撮影画像から車両周囲に存在する立体物を検出する。また、立体物検出部430は、マッピングテーブル参照部410からの一方のマッピングデータを使うことで、各カメラ撮影画像のどの画素が、カメラ俯瞰画像におけるどの画素に対応するかが分かるので、このマッピングデータを用いて、検出した立体物が、カメラ俯瞰画像で映っているエリア(以下「立体物エリア」という)の座標値の集まりを特定する。立体物検出部430はさらに、検出した立体物エリアにおいて、車両に最も近い位置を、その立体物の基部位置として取得する。立体物エリアの座標値の集まりと、その立体物の基部位置とは、立体物位置情報として、合成俯瞰画像生成部440に送られる。
Although the details will be described later, the three-dimensional
合成俯瞰画像生成部440は、カメラ俯瞰画像生成部420からの各カメラ俯瞰画像を受け取り、マッピングテーブル参照部410より他方のマッピングデータを受け取る。合成俯瞰画像生成部440は、受け取ったマッピングデータに従って、受け取った各カメラ俯瞰画像に対しマッピングを行って、合成俯瞰画像を合成する。具体的には、合成俯瞰画像生成部440は、このマッピングデータに基づき、指定されたカメラ俯瞰画像の画素を、合成俯瞰画像の画素の値として割り当てて、これによって、合成俯瞰画像が生成される。
The combined overhead
ここで、合成俯瞰画像は、カメラ俯瞰画像と比較すると、仮想カメラ視点から見た場合における車両の全周囲を1フレームに収めている点で相違し、あたかも隣り合うカメラ200のカメラ俯瞰画像724を、合成境界を境につなぎ合わせたような画像になる。
Here, compared with the camera overhead view image, the synthesized overhead view image is different in that the entire periphery of the vehicle when viewed from the virtual camera viewpoint is contained in one frame, as if the camera
図5は、合成俯瞰画像生成部440によって生成される合成俯瞰画像の一例を示す図である。図5の例では、仮想視点の位置は車両の真上に設定されており、合成俯瞰画像720の中央には車両を示すアイコン721が配置される。また、車両の周囲に立体物が存在する場合には、合成俯瞰画像720において対応する位置に立体物723が描かれる。
FIG. 5 is a diagram illustrating an example of a combined overhead image generated by the combined overhead
ここで、各カメラ俯瞰画像は各カメラ200の位置から撮影されているため、それぞれに映っている立体物の倒れこみの方向が異なる(図4参照)。したがって、このようなカメラ俯瞰画像を基礎として生成される合成俯瞰画像においても、立体物723は倒れこみの方向が相違する(図5参照)。もしこのような合成俯瞰画像がそのまま表示されると、この画像を見る運転者は違和を感じる。特に、重複エリアにおいては、「背景技術」の欄で説明したように、立体物の配置関係が運転者にとっては分かり難くなる。
Here, since each camera bird's-eye view image is taken from the position of each
以上の観点から、合成俯瞰画像生成部440は、まず、立体物検出部430からの立体物位置情報に基づいて、この立体物位置情報に対応する立体物を、カメラ俯瞰画像生成部420から受け取ったカメラ俯瞰画像から切り出し、回転させる(画像回転処理)。その後、合成俯瞰画像生成部440は、自身が生成した合成俯瞰画像に、回転済みの立体物を合成する(立体物合成処理)。
From the above viewpoint, first, the synthesized overhead
画像回転処理は、立体物位置情報を受け取った場合に行われ、カメラ俯瞰画像において、立体物位置情報で特定される立体物エリアから、立体物が抽出される。抽出された立体物は、立体物位置情報で特定される基部位置を中心として、それを撮影したカメラ200の視点から見た射影方向から、合成処理の境界方向側に回転させられる。
The image rotation process is performed when the three-dimensional object position information is received, and the three-dimensional object is extracted from the three-dimensional object area specified by the three-dimensional object position information in the camera overhead view image. The extracted three-dimensional object is rotated around the base position specified by the three-dimensional object position information from the projection direction viewed from the viewpoint of the
また、立体物合成処理において、回転済みの立体物は、合成俯瞰画像上に合成される。ここで、合成俯瞰画像生成部440には、カメラ俯瞰画像と、合成俯瞰画像との対応関係が示される他方のマッピングデータが入力されているので、合成俯瞰画像生成部440は、回転済みの立体物を、合成俯瞰画像上のどの位置に合成するかを、このマッピングデータに基づき特定する。
In the three-dimensional object synthesis process, the rotated three-dimensional object is synthesized on the synthesized overhead image. Here, since the other mapping data indicating the correspondence between the camera overhead image and the synthesized overhead image is input to the synthesized overhead
以上の画像回転処理及び立体物合成処理は、受け取った立体物位置情報毎に行われる。また、特に、重複エリアについては、同じ立体物が複数のカメラ俯瞰画像に映っているが、いずれのカメラ俯瞰画像から立体物を抽出するかについては、後述する。 The above image rotation process and three-dimensional object synthesis process are performed for each received three-dimensional object position information. In particular, for the overlapping area, the same three-dimensional object is shown in a plurality of camera overhead images, and from which camera overhead image the three-dimensional object is extracted will be described later.
そして、合成俯瞰画像生成部440は、フレームごとの合成俯瞰画像から、動画系列を表示するための映像信号を生成し、生成した映像信号をモニタ500へ出力する。
Then, the synthesized overhead
タイミング生成部450は、第1〜第4のカメラ200−1〜200−4のフレーム切り替えのタイミングと、マッピングテーブル参照部410の各マッピングデータ出力タイミングと、合成俯瞰画像生成部440の動作タイミングとを制御するタイミング信号を生成する。このタイミング信号により、車両600の周囲の画像をリアルタイムで映し出す合成俯瞰画像の映像信号が、モニタ500に出力される。
The
モニタ500は、合成俯瞰画像生成部440から受け取った映像信号に従って、合成俯瞰画像を表示する。モニタ500は、例えば、液晶ディスプレイを有する表示装置であり、車両600の運転席から見える位置に取り付けられる。モニタ500は、車両搭載型のGPS(Global Positioning System)端末(いわゆるカーナビゲーションシステム)等の、他のシステムまたは装置との間で共有されてもよい。
The
なお、車両周囲監視装置100は、図示しないが、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)及びマッピングテーブルを含む各種データを格納したEEPROM(Electrically Erasable and Programmable Read Only Memory)等の記憶媒体、RAM(Random Access Memory)等の作業用メモリなどを有する。上記各部の機能は、例えば、CPUが制御プログラムを実行することにより実現される。
Although not shown, the vehicle
このような車両周囲監視装置100によれば、合成俯瞰画像を運転者に対して表示することができるとともに、合成俯瞰画像の立体物の射影方向を、所定の視点を基準とした方向に揃えることができる。また、マッピングテーブルを用いるので、合成俯瞰画像を高速に生成することができる。
According to the vehicle surrounding
次に、上述の画像回転処理の詳細について説明する。 Next, details of the above-described image rotation processing will be described.
図6は、画像回転処理を施す前の合成俯瞰画像の一例を示す図である。図6では、車両周囲の路面上の立体物(例えば人)が位置するときの合成俯瞰画像が模式的に示されている。なお、説明の簡便化のため、実際には合成俯瞰画像に描かれない部分についても、必要に応じて適宜、図6には図示される。 FIG. 6 is a diagram illustrating an example of a combined overhead image before image rotation processing is performed. FIG. 6 schematically shows a synthesized overhead image when a three-dimensional object (for example, a person) is located on the road surface around the vehicle. For simplification of description, portions that are not actually drawn in the synthesized overhead image are also illustrated in FIG. 6 as appropriate.
ここで、カメラ200の視点の位置を、「カメラ視点」という。第2のカメラ俯瞰画像724−2と第3のカメラ俯瞰画像724−3との重複エリア725には、合成境界726が設定されており、合成境界726を境として一方のカメラ俯瞰画像724のみが合成俯瞰画像720に用いられる。また、重複エリア725の第3のカメラ俯瞰画像724−3の側に、立体物730が位置しているものとする。
Here, the position of the viewpoint of the
図6に示すように、画像回転処理を施す前の合成俯瞰画像720では、立体物730は、立体物の基部位置732を基点として、その画像を撮影したカメラ200のカメラ視点731から見た射影方向(以下「カメラ射影方向」という)733に倒れ込んだ状態となる。
As shown in FIG. 6, in the synthesized
具体的には、第3のカメラ俯瞰画像724−3において、立体物730は、第1の立体物723−1のように映っており、カメラ視点731−3から立体物730を見た第1の射影方向733−1(後方向)に倒れ込んでいる。一方、第2のカメラ俯瞰画像724−2において、立体物730は、第2の立体物723−2のように映っており、カメラ視点731−2から立体物730を見た第2の射影方向733−2(左方向)に倒れ込んでいる。すなわち、第1の立体物723−1及び第2の立体物723−2は元々同一であるが、第3のカメラ俯瞰画像724−3及び第2のカメラ俯瞰画像724−2では大きく異なった方向に倒れ込んでいる。
Specifically, in the third camera overhead image 724-3, the three-
このように、画像回転処理を施さない場合、実際には近距離に位置する2つの立体物であるにもかかわらず、カメラ俯瞰画像724の境界線(合成境界)の付近においてその立体物730の射影方向が大きく異なる。このことは、実際には同一の立体物であるにもかかわらず、カメラ俯瞰画像724の合成境界の両側で、その立体物730の射影方向が大きく異なることを意味する。したがって、画像回転処理を施さない合成俯瞰画像720は、上述の通り、運転者の立体物の配置関係に対する認識誤りを引き起こす。また、画像回転処理を施さない合成俯瞰画像720では、立体物730は、車両の移動または立体物730の移動によって合成境界を越えるときに、不連続な動きで表示されることになる。
As described above, when the image rotation process is not performed, the three-
そこで、本実施の形態の車両周囲監視装置100は、カメラ俯瞰画像724から抽出した立体物723を、画像回転処理により、合成境界側に傾けた後に、合成俯瞰画像720に合成する。これによって、上記認識誤り及び立体物の不連続な動きの低減を図る。以下、回転の基準となる単一の視点を、「合成視点」という。
Therefore, the vehicle
図7は、画像回転処理を施した後の合成俯瞰画像の一例を示す図であり、図6に対応するものである。 FIG. 7 is a diagram illustrating an example of a synthesized overhead image after image rotation processing is performed, and corresponds to FIG.
図7に示すように、画像回転処理を施した後の合成俯瞰画像720では、第2の立体物723−2は、基部位置732を基点として、合成境界726と平行な方向735に倒れ込んだ状態となっている。合成俯瞰画像生成部440は、第2の立体物723−2を、基部位置732を中心として、合成境界726と平行な方向735へと回転させることにより、このような合成俯瞰画像720を生成する。
As shown in FIG. 7, in the synthesized
例えば、第1の立体物723−1を同様に回転させた場合でも、第1の立体物723−1も同じ方向に倒れ込んだ状態となる。また、合成境界726を挟んで両側に位置する2つの立体物730が実際に位置するときに、このような画像回転処理により、それらの立体物723は同じ方向に倒れ込んだ状態となる。これは、実際の立体物730の配置関係に近似した配置関係である。したがって、上記回転処理を、例えば重複エリア725全体に対して行うことにより、合成境界726における立体物723の不連続な動きや、立体物730の配置関係に対する認識誤りを防ぐことができる。
For example, even when the first three-dimensional object 723-1 is rotated in the same manner, the first three-dimensional object 723-1 also falls in the same direction. Further, when the two three-
このように、画像回転処理を施すことにより、実際の立体物の配置関係により近い配置関係で立体物723を配置した合成俯瞰画像を、運転者に提供することができる。また、合成境界と平行な方向735は、多くの場合、運転席から重複エリア725を見たときの方向に近い方向に設定されるので、実際に運転者から立体物を見たときの方向に近い方向に立体物を倒し込むことができる。したがって、運転者に対して、実際の立体物の配置関係と、路面垂直方向に対する立体物の向きとを、より正確に認識させることができる。
As described above, by performing the image rotation process, it is possible to provide the driver with a combined overhead image in which the three-
ここで、車両を基準とし高さ成分を除いた座標系において、カメラ200の設置位置の座標(カメラ視点の座標)をC(Cx,Cy)、立体物の基部位置732の座標をO(Ox,Oy)、合成境界と平行な方向のベクトルをBと置く。このとき、カメラ射影方向733から視点射影方向までの回転角θは、カメラ射影方向の方向ベクトルVC(Ox−Cx,Oy−Cy)及び方向ベクトルBを用いて、以下の式(1)を用いて算出することができる。
θ = arccos{(VC・B)/(|VC|・|B|)} ・・・・・・(1)
Here, in the coordinate system excluding the height component from the vehicle, the coordinates of the installation position of the camera 200 (the coordinates of the camera viewpoint) are C (C x , C y ), and the coordinates of the
θ = arccos {(V C · B) / (| V C | · | B |)} (1)
なお、回転角θは、合成俯瞰画像の座標ごとに一意に決まる。したがって、座標ごとに回転角θを予め算出して記憶しておくことにより、画像回転処理の高速化を図ることができる。 The rotation angle θ is uniquely determined for each coordinate of the synthesized overhead image. Therefore, by calculating and storing the rotation angle θ for each coordinate in advance, the image rotation process can be speeded up.
以下、本実施の形態に係る車両周囲監視装置100の動作について説明する。
Hereinafter, the operation of the vehicle surrounding
図8は、車両周囲監視装置100の動作の一例を示すフローチャートである。
FIG. 8 is a flowchart showing an example of the operation of the vehicle surrounding
まず、ステップS1100において、カメラ俯瞰画像生成部420及び立体物検出部430は、タイミング生成部450からのタイミング信号を受けて、第1〜第4のカメラ200−1〜200−4から、第1〜第4のカメラ撮影画像をそれぞれ取得する(図3参照)。
First, in step S1100, the camera overhead
次に、ステップS1200において、カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から入力される一方のマッピングデータに基づいて、第1〜第4のカメラ撮影画像から、第1〜第4のカメラ俯瞰画像を生成する(図4参照)。そして、カメラ俯瞰画像生成部420は、生成した各カメラ俯瞰画像を、合成俯瞰画像生成部440に出力する。
Next, in step S1200, the camera overhead
次に、ステップS1300において、合成俯瞰画像生成部440は、カメラ俯瞰画像生成部420からの各カメラ俯瞰画像を受け取り、マッピングテーブル参照部410より他方のマッピングデータを受け取る。合成俯瞰画像生成部440は、受け取ったマッピングデータに従って、受け取った各カメラ俯瞰画像に対しマッピングを行って、合成俯瞰画像を合成する。
Next, in step S <b> 1300, the composite overhead
次に、ステップS1400において、立体物検出部430は、ステップS1100で取得された第1〜第4のカメラ撮影画像に対し、画像認識処理を行うことにより、立体物の検出処理を行う。
Next, in step S1400, the three-dimensional
画像認識処理としては、例えば、パターンマッチング処理またはエッジ抽出処理、またはステレオ処理を採用することができる。 As the image recognition processing, for example, pattern matching processing, edge extraction processing, or stereo processing can be employed.
パターンマッチング処理の場合、立体物検出部430は、検出対象となる立体物(例えばパイロン、ポール)の外観の形状の特徴を予め記憶しておき、その形状と相関性の高い画像部分を、立体物として検出する。エッジ抽出処理の場合、立体物検出部430は、検出対象となる立体物を構成する線分に特徴的な特定の方向(例えば路面に対する垂直方向)に近い方向の線分のみを抽出し、抽出された線分が集中する画像部分を、立体物として検出する。例えば、人、ポール、箱等の立体物は、垂直方向に近い方向の線分を多く有することから、検出が容易である。ステレオ処理の場合、立体物検出部430は、車両の路面に対する移動と、この移動に伴う第1〜第4のカメラ撮影画像の変化とから、路面画像ではない部分、つまり立体物を抽出する。ステレオ処理の詳細については、後述する。
In the case of pattern matching processing, the three-dimensional
なお、立体物検出部430は、重複エリアについては、複数のカメラ俯瞰画像の間で輝度あるいは色の差分が大きい部分を、立体部と判定し、この画像部分と輝度及び色が連続して整合する画像を立体物と判定する。
Note that the three-dimensional
また、立体物検出部430は、立体物が含まれる大まかな領域を、立体物と判定してもよい。これは、立体物の抽出を行うことができない場合に有効である。この場合には、立体物検出部430は、立体物を、矩形や楕円形等の単純な外形としてもよい。
In addition, the three-dimensional
そして、ステップS1500において、立体物検出部430は、後のステップで画像処理の対象となる少なくとも1つの立体物をステップS1400で検出できたかを判断する。立体物検出部430は、処理対象となる立体物を検出できた場合には(S1500:YES)、ステップS1600へ進む。
In step S1500, the three-dimensional
図8のステップS1600において、立体物検出部430は、一方のマッピングデータを参照して、第1〜第4のカメラ撮影画像における立体物の位置を、カメラ俯瞰画像における位置情報に変換する。これによって得られた立体物位置情報を、立体物検出部430は、合成俯瞰画像生成部440へ出力する。
In step S1600 of FIG. 8, the three-dimensional
図9は、立体物位置情報を示す図である。立体物位置情報は、上述の通り、立体物エリアの座標の集まり及び基部位置を示す情報である。基部位置732は、立体物723が路面と接する位置である。また、立体物エリア736は、立体物723が描かれた座標の集合で特定される。
FIG. 9 is a diagram illustrating the three-dimensional object position information. As described above, the three-dimensional object position information is information indicating a collection of coordinates of the three-dimensional object area and the base position. The
立体物検出部430は、立体物エリア736のうちカメラ200のカメラ視点731に最も近い位置の座標を、基部位置732として採用する。
The three-dimensional
一方、立体物検出部430は、処理対象となる立体物を検出できなかった場合には(ステップS1500:NO)、ステップS1700へ進む。
On the other hand, if the three-dimensional
ステップS1700において、立体物検出部430は、処理対象となる立体物を検出できなかった旨を示す情報を合成俯瞰画像生成部440に出力し、ステップS1800へ進む。
In step S1700, the three-dimensional
図8のステップS1800において、合成俯瞰画像生成部440は、立体物位置情報を受け取ったか否かを判断する。立体物位置情報を受け取った場合(S1800:YES)には、ステップS1900に進む。
In step S1800 of FIG. 8, the synthesized overhead
次に、ステップS1900において、合成俯瞰画像生成部440は、立体物を回転させるために合成境界の平行方向を設定する。今回の説明で設定されるのは、処理対象となる立体物に最も近い合成境界の平行方向である(図7の方向735を参照)。
Next, in step S1900, the composite overhead
そして、ステップS2000において、合成俯瞰画像生成部440は、立体物の基部を中心に、前式(1)で求まるθだけ立体物を回転させた後の、立体物エリアの座標の集まりを算出する。この回転は、図6及び図7で説明したように、基部位置を中心としたカメラ射影方向から、合成境界の平行方向への回転である。
In step S2000, the synthesized overhead
なお、重複エリアの立体物は、その生成に際してどちらのカメラ俯瞰画像を用いても、回転後の倒れ込みの方向は同一となる。しかし、立体物の大きさ、つまりカメラ射影方向の長さ(以下「射影長」という)は、どちらのカメラ俯瞰画像を用いたかによって異なる。 Note that the three-dimensional object in the overlapping area has the same tilting direction after rotation, regardless of which camera overhead image is used for generation. However, the size of the three-dimensional object, that is, the length in the camera projection direction (hereinafter referred to as “projection length”) differs depending on which camera overhead image is used.
図10は、カメラ200からの距離と射影長との関係を示す図である。図10に示すように、カメラ200から立体物737までの距離dと射影長Lとの比は、立体物737の高さhLと、立体物737の上端からカメラ200の高さまでの距離hUとの比に比例する。したがって、射影長Lは、カメラ200から立体物737までの距離dに比例する。このことは、カメラ200からの距離が長いほど、立体物737の射影長が長くなり、実際の立体物の外観に対する立体物737の歪みが大きくなり、表示範囲からはみ出して消失する部分が多くなることを意味する。
FIG. 10 is a diagram illustrating the relationship between the distance from the
したがって、合成俯瞰画像生成部440は、重複エリアの立体物については、カメラ200の位置までの長さがより短いほうのカメラ画像を用いることが望ましい。距離は、例えば、立体物の基部位置とカメラ200の位置とから求めることができる。
Therefore, it is desirable that the combined overhead
そして、図8のステップS2100において、合成俯瞰画像生成部440は、ステップS2000で算出した回転後のエリアに立体物を合成俯瞰画像に描画する。
Then, in step S2100 of FIG. 8, the synthesized overhead
そして、回転後のエリアに立体物を描画するだけでは、合成俯瞰画像には、同じ立体物であるが回転前のものが描かれたままであるため、ステップS2200において、合成俯瞰画像生成部440は、立体物の回転前のエリアに、路面を描画する。これにより、合成俯瞰画像において立体物は基部位置を中心としてカメラ射影方向から、合成境界と平行な方向へと回転した状態に補正される。
Then, only by drawing a three-dimensional object in the rotated area, the composite overhead image remains the same three-dimensional object but the one before rotation. In step S2200, the composite overhead
ここで、ステップS2200の詳細な処理の一例について説明する。カメラ200から見て立体物の背後(カメラ射影方向側)は、そのカメラ200にとっては死角となる。したがって、そのカメラ200のカメラ撮影画像においては、回転前のエリアに描画すべき路面の色データが欠落している。一方で、回転前のエリア(以下「データ欠落エリア」という)は、カメラ200の視点の移動(車両の移動)や立体物の移動に伴って変化する。
Here, an example of detailed processing in step S2200 will be described. Behind the three-dimensional object as viewed from the camera 200 (camera projection direction side) is a blind spot for the
そこで、合成俯瞰画像生成部440は、過去に生成された合成俯瞰画像を所定数フレーム分記憶しておき、過去のフレームを用いて、現在のフレームのデータ欠落エリアを補完する。
Therefore, the synthesized overhead
図11は、データ欠落エリアの補完の様子を示す図である。 FIG. 11 is a diagram illustrating how data missing areas are complemented.
図11(A)に示す第nのフレームの合成俯瞰画像720nが取得された後、車両が車庫入れ等のために後退し、図11(B)に示す第n+aのフレームの合成俯瞰画像720n+aが取得されたとする。
After the nth frame composite bird's-
第nのフレームの合成俯瞰画像720nにおいて、立体物723は、あるデータ欠落エリア738nから、回転後の領域(以下「回転先領域」という)739nへと回転する。回転先領域739nの路面画像は、基の第nのフレームの合成俯瞰画像720nに含まれている。
In the synthesized bird's-
そして、第n+aのフレームの合成俯瞰画像720n+aにおいて、立体物723は、さらに、データ欠落エリア738n+aから、別の回転先領域739n+aへと回転する。ここで、説明の簡便化のため、第n+aのフレームにおけるデータ欠落エリア738n+aが、第nのフレームにおける回転先領域739nに一致しているものとする。この場合、第n+aのフレームにおけるデータ欠落エリア738n+aの路面画像は、第nのフレームの合成俯瞰画像720nに、回転先領域739nの路面画像として含まれている。
Then, in the combined
したがって、合成俯瞰画像生成部440は、まず、車両の舵角量並びに車速等から得られる車両の移動量並びに移動方向、及び/またはオプティカルフロー等の画像処理に基づいて、フレーム間での合成俯瞰画像の座標の対応付けを行う。そして、合成俯瞰画像生成部440は、矢印740に示すように、第n+aのフレームの合成俯瞰画像720n+aにおけるデータ欠落エリア738n+aを、第nのフレームの合成俯瞰画像720nにおける回転先領域739nの路面画像で補完する。
Therefore, the synthesized overhead
なお、車両または立体物の移動がなければ、データ欠落エリアを補完することはできない。したがって、合成俯瞰画像生成部440は、検出対象となる立体物が存在する状態で車両の移動が検出された時、及びカメラ撮影範囲へ立体物の進入が検出してきた時にのみ、データ欠落エリアの補完を行うようにしてもよい。
If there is no movement of the vehicle or the three-dimensional object, the data missing area cannot be supplemented. Therefore, the synthesized overhead
また、合成俯瞰画像生成部440は、時間的に後のフレームの合成俯瞰画像を用いて、データ欠落エリアの補完を行うようにしてもよい。但し、数フレーム分の画像をバッファすることになり、モニタ500に表示される合成俯瞰画像に多少の遅れが生じる。
Further, the synthesized overhead
以上のステップS2200の実行後、処理は図8に示すステップS2300に進む。ステップS2300において、合俯瞰画像生成部440は、補正後の合成俯瞰画像を示す映像信号をモニタ500に出力し、合成俯瞰画像を表示させる。表示される合成俯瞰画像は、処理対象となる立体物が存在する場合には、その立体物を回転させた画像となっている。
After execution of step S2200, the process proceeds to step S2300 shown in FIG. In step S2300, the combined overhead
そして、ステップS2400において、タイミング生成部450は、ユーザ操作等により合成俯瞰画像の表示の処理の終了を指示されたか否かを判断する。タイミング生成部450は、処理の終了を指示されていない場合は(S2400:NO)、タイミング信号を出力してステップS1100に戻り、処理の終了を指示された場合は(S2400:YES)、タイミング信号の出力を停止して一連の処理を終了させる。
In step S2400,
また、画像処理の対象となる立体物が存在しない場合には(S1800:NO)、合成俯瞰画像生成部440は、直接にステップS2300へ進み、画像回転処理を行うことなく、合成俯瞰画像をモニタ500に表示させる。
If there is no three-dimensional object to be subjected to image processing (S1800: NO), the synthesized overhead
このような動作により、車両周囲監視装置100は、車両周囲の立体物の射影方向が揃った合成俯瞰画像を、運転者に提供することができる。
By such an operation, the vehicle
なお、以上の実施形態の説明では、立体物検出部430が受け取ったカメラ画像から立体物までの距離を検出していたが、これに限らず、例えば、アクティブセンサにより立体物までの距離を検出してもかまわない。
In the above description of the embodiment, the distance from the camera image received by the three-dimensional
なお、以上の実施形態の説明では、立体物検出部430が受け取ったカメラ画像から立体物及び立体物までの距離を検出していたが、これに限らず、例えば、アクティブセンサにより立体物及び立体物までの距離を検出してもかまわない。
In the above description of the embodiment, the distance from the camera image received by the three-dimensional
なお、複数のカメラ俯瞰画像から成る合成俯瞰画像が用いられる場合には(図4参照)、重複エリアに位置する立体物は、複数のカメラ俯瞰画像に異なる形で映る場合がある。したがって、合成俯瞰画像においては、これら異なる形のもの同士を合成して、1つの立体物が映るようにしてもよい。 In addition, when the synthetic | combination bird's-eye view image which consists of a several camera bird's-eye view image is used (refer FIG. 4), the solid object located in an overlap area may be reflected on a some camera bird's-eye view image in a different form. Therefore, in the synthesized bird's-eye view image, these different shapes may be synthesized so that one solid object is reflected.
また、合成俯瞰画像に映る立体物の配置関係が実際の立体物の配置関係と大きく異なるのは、主に、重複エリアである。したがって、処理対象を重複エリアの付近に位置する立体物に絞ることにより、車両周囲監視装置100の処理負荷を軽減することが可能である。
In addition, it is mainly in the overlapping area that the arrangement relationship of the three-dimensional object shown in the composite bird's-eye view image is significantly different from the actual arrangement relation of the three-dimensional object. Therefore, it is possible to reduce the processing load of the vehicle
また、画像処理を重複エリアに限定して行う場合には、複数のカメラ俯瞰画像から成る合成俯瞰画像を用いることにより、より簡単にデータ欠落エリアの補完を行うことが可能となる。 Further, when image processing is limited to overlapping areas, it is possible to more easily complement the data missing area by using a composite overhead image composed of a plurality of camera overhead images.
また、合成境界に平行な方向ではなく、2つのカメラによる2つの射影方向の間を二等分する方向に立体物を回転させることによっても、立体物の相対配置に対する認識誤り及び立体物の不連続な動きの低減を図ることが可能である。 In addition, by rotating a three-dimensional object in a direction that bisects the two projection directions of two cameras, rather than in a direction parallel to the composite boundary, a recognition error with respect to the relative arrangement of the three-dimensional object and a defect in the three-dimensional object are also prevented. It is possible to reduce the continuous movement.
以下、これらの態様について順に説明する。 Hereinafter, these aspects will be described in order.
まず、異なる形で映る立体物を合成する態様について詳細に説明する。 First, the aspect which synthesize | combines the solid thing reflected in a different form is demonstrated in detail.
図12は、第3のカメラ俯瞰画像から得られる回転後の立体物のみを採用した場合の合成俯瞰画像の一例を示す図である。図13は、第2のカメラ俯瞰画像から得られる回転後の立体物(図16の立体物と同一のもの)のみを採用した場合の合成俯瞰画像の一例を示す図である。図14は、図12に示す立体物と、図13に示す立体物とを合成した立体物を採用した場合の合成俯瞰画像の一例を示す図である。 FIG. 12 is a diagram illustrating an example of a composite overhead image when only a three-dimensional object after rotation obtained from the third camera overhead image is employed. FIG. 13 is a diagram illustrating an example of a combined overhead image when only a rotated three-dimensional object (same as the three-dimensional object in FIG. 16) obtained from the second camera overhead image is employed. FIG. 14 is a diagram illustrating an example of a combined overhead image when a three-dimensional object obtained by combining the three-dimensional object illustrated in FIG. 12 and the three-dimensional object illustrated in FIG. 13 is employed.
図12に示す立体物723−3と、図13に示す立体物723−2は、それぞれ単一の視点から見た画像である。したがって、ある方向からのみ観察したときには全体像を視認し難い立体物において、その方向とカメラの撮影方向とが一致した場合には、立体物723は、その立体物を把握し難い画像となる。例えば、板状の看板を真横から撮影した場合が、これに該当する。
The three-dimensional object 723-3 shown in FIG. 12 and the three-dimensional object 723-2 shown in FIG. 13 are images viewed from a single viewpoint. Accordingly, in a three-dimensional object in which it is difficult to visually recognize the entire image when observed only from a certain direction, when the direction coincides with the shooting direction of the camera, the three-
そこで、合成俯瞰画像生成部440は、例えば、立体物723−3と立体物723−2とを合成して、図14に示すような立体物723を描画する。これにより、運転者が立体物723をより把握し易くすることができる。なお、合成俯瞰画像生成部440は、回転後の立体物のみを合成してもよいし、立体物を回転させた後のカメラ俯瞰画像を合成してもよい。
Therefore, for example, the combined overhead
次に、異なるカメラ俯瞰画像に異なる形で映る同一立体物(以下、便宜上、「2つの立体物」という)の射影長を揃える態様について説明する。 Next, an aspect in which the projection lengths of the same three-dimensional object (hereinafter, referred to as “two three-dimensional objects” for convenience) reflected in different forms in different camera overhead images will be described.
図10を参照して説明する。立体物検出により特定される立体物737の高さhL及び立体物737までの距離dと、カメラ200(または合成視点734)の高さH=hL+hUとから、立体物737の射影長Lは、以下の式(2)を用いて算出することができる。
L = (hL・d)/(H−hL) ・・・・・・(2)
This will be described with reference to FIG. The projection of the three-
L = (h L · d) / (H−h L ) (2)
合成俯瞰画像生成部440は、例えば、式(2)を用いて、合成する2つの立体物の射影長を算出し、短いほうの射影長L1を長いほうの射影長L2で除して得られる比率L1/L2で、射影長が長いほうの立体物を、射影方向に縮小する。これにより、より短い方の射影長に、立体物の射影長を揃えることができる。
Synthesis overhead
次に、重複エリアのカメラ俯瞰画像を用いてデータ欠落エリアの補完を行う態様について説明する。 Next, a mode of complementing the data missing area using the camera overhead image of the overlapping area will be described.
図15は、重複エリアのカメラ俯瞰画像を用いてデータ欠落エリアの補完の様子を示す図である。図15に示すように、合成俯瞰画像生成部440は、例えば、第3のカメラ俯瞰画像724−3と第2のカメラ俯瞰画像724−2との重複エリア743において、第3のカメラ俯瞰画像724−3の立体物723を用いて回転させる。この場合、第3のカメラ俯瞰画像724−3には、データ欠落エリア738が生じる。ところが、第2のカメラ俯瞰画像724−2のデータ欠落エリア738に対応する領域744には、路面が映し出されている。これは、カメラ俯瞰画像724ごとにカメラ射影方向が異なるためである。
FIG. 15 is a diagram illustrating a state of complementing the data missing area using the camera overhead image of the overlapping area. As illustrated in FIG. 15, the combined overhead
したがって、合成俯瞰画像生成部440は、データ欠落エリア738を、第2のカメラ俯瞰画像724−2の対応する領域744の画像で補完する。1つのフレームの合成俯瞰画像からデータ欠落エリアの補完をすることができるので、図11で説明した補完の手法に比べて、処理負荷及びメモリ負荷を軽減することができる。
Therefore, the synthesized bird's-eye view
次に、2つのカメラによる2つの射影方向の間を二等分する方向(以下「二等分方向」という)に立体物を回転させる態様について説明する。 Next, an aspect in which a three-dimensional object is rotated in a direction that bisects between two projection directions by two cameras (hereinafter referred to as “bisected direction”) will be described.
図16は、二等分方向に立体物を回転させる画像回転処理を施した後の合成俯瞰画像の一例を示す図である。 FIG. 16 is a diagram illustrating an example of a composite overhead image after image rotation processing for rotating a three-dimensional object in a bisecting direction.
図16に示すように、二等分方向に画像回転処理を施した後の合成俯瞰画像720では、第2の立体物723−2は、基部位置732を基点として、第1の射影方向733−1と第2の射影方向733−2との間の二等分方向745に倒れ込んだ状態となっている。合成俯瞰画像生成部440は、第2の立体物723−2を、基部位置732を中心として二等分方向745へと回転させることにより、このような合成俯瞰画像720を生成する。
As shown in FIG. 16, in the synthesized
例えば、第1の立体物723−1を同様に回転させた場合でも、第1の立体物723−1も同じ方向に倒れ込んだ状態となる。また、立体物730が移動したとき、第1及び第2の射影方向733−1、733−2はいずれも連続的に変化するので、二等分方向745も連続的に変化する。また、平行であって近距離に位置する2つの立体物730が位置するときに、それらの立体物723はほぼ同じ方向に倒れ込んだ状態となる。これは、実際の立体物730の配置関係に近似した配置関係である。したがって、上記回転処理を、例えば重複エリア725全体に対して行うことにより、合成境界と平行な方向726における立体物723の不連続な動きや、立体物730の配置関係に対する認識誤りを防ぐことができる。
For example, even when the first three-dimensional object 723-1 is rotated in the same manner, the first three-dimensional object 723-1 also falls in the same direction. Further, when the three-
次に、カメラ撮影画像に対する画像処理により立体物の検出を行う技術の詳細について説明する。 Next, details of a technique for detecting a three-dimensional object by image processing on a camera photographed image will be described.
画像処理による立体物の検出は、上述の通り、例えば、パターンマッチング処理及びステレオ処理により可能である。 As described above, detection of a three-dimensional object by image processing is possible by, for example, pattern matching processing and stereo processing.
パターンマッチング処理の場合、立体物検出部430は、予め記憶された立体物の外観の形状と相関性の高い画像部分を立体物として検出し、検出した立体物の画像位置から、立体物の位置を検出する。
In the case of pattern matching processing, the three-dimensional
ステレオ処理の場合、立体物検出部430は、異なる位置から撮影された2つの画像を用い、撮影位置の変異と2つの撮影画像の差異とから、立体物の位置を検出する。ステレオ処理には、2眼カメラを用いたステレオ処理と単眼カメラを用いたモーションステレオ処理がある。
In the case of stereo processing, the three-dimensional
ここで、単眼カメラを用いたモーションステレオ処理として、カメラ200の撮影画像を用いて立体物の検出を行う手法について説明する。2眼カメラを用いる場合と異なり、単眼カメラを用いる場合は、ある時刻において、1つの撮影画像しか得られない。したがって、撮影時刻が異なる2つの撮影画像を用いて、同じパターンの特徴点の移動量を求め、車両600の移動量との比計算から、立体物までの距離を算出する。
Here, as a motion stereo process using a monocular camera, a method of detecting a three-dimensional object using a captured image of the
図17は、カメラ撮影画像を用いて立体物の検出を行う手法の概要を示す図である。図17に示すように、車両600が、立体物751を左に見ながら移動したとする。そして、立体物検出部430は、時刻t1に第1の画像752−1を取得し、時刻t2に第2の画像752−2を取得したとする。第1及び第2の画像752−1、752−2は、第3のカメラ撮影画像である。立体物検出部430は、コーナー検出フィルタ処理やエッジ検出フィルタ等を用いて、第1の画像752−1から、立体物の特徴となるような点(エッジ点やコーナー等)を、特徴点753として検出する。そして、検出した特徴点753を、第2の画像752−2で探索する。
FIG. 17 is a diagram illustrating an outline of a technique for detecting a three-dimensional object using a camera image. As shown in FIG. 17, it is assumed that the
立体物検出部430は、第1の画像752−1における特徴点753の位置と、第2の画像752−2における特徴点753の位置との間の画素間距離D[mm]を、これらの画素間距離[pixel]と、第3のカメラ200−3のカメラパラメータとから算出する。カメラパラメータは、カメラ200のレンズ設計時に設定されるパラメータであって、ピクセル単位での画素間距離と長さ単位での画素間距離とを対応付けるパラメータである。そして、立体物検出部430は、第3のカメラ200−3の焦点距離をf、時刻t1から時刻t2までの車両600の移動距離をXとすると、カメラ200から立体物751までの距離dを、以下の式(3)を用いて算出する。
d = f・X/D ・・・・・・(3)
The three-dimensional
d = f · X / D (3)
このように、立体物検出部430は、画像処理のみによって立体物を検出することができる。
Thus, the three-dimensional
また、立体物検出部430は、上述のように立体物の特徴点検出を行う場合には、検出した複数の特徴点をグルーピングすることにより、グルーピングされた特徴点に囲まれた合成俯瞰画像の領域を、立体物の座標として検出してもよい。
Further, when detecting the feature point of the three-dimensional object as described above, the three-dimensional
以上説明したように、本実施の形態によれば、所定の視点を基準として立体物の射影方向が揃うので、運転者は車両周囲の立体物の配置関係をより正確に認識することができる。なお、カメラの台数及び合成俯瞰画像の範囲は、以上説明した実施の形態の内容に限定されるものではない。 As described above, according to the present embodiment, the projection direction of the three-dimensional object is aligned based on the predetermined viewpoint, so that the driver can more accurately recognize the arrangement relation of the three-dimensional object around the vehicle. Note that the number of cameras and the range of the synthesized overhead image are not limited to the contents of the embodiment described above.
本発明に係る車両周囲監視装置及び車両周囲監視方法は、運転者が車両周囲の立体物の配置関係をより正確に認識することができる車両周囲監視装置及び車両周囲監視方法として有用である。 INDUSTRIAL APPLICABILITY The vehicle surrounding monitoring apparatus and the vehicle surrounding monitoring method according to the present invention are useful as a vehicle surrounding monitoring apparatus and a vehicle surrounding monitoring method that allow a driver to more accurately recognize the arrangement relationship of three-dimensional objects around the vehicle.
100 車両周囲監視装置
200 カメラ
210 撮像部
220 フレームメモリ
230 フレーム切替部
400 画像処理部
410 マッピングテーブル参照部
420 カメラ俯瞰画像生成部
430 立体物検出部
440 合成俯瞰画像生成部
450 タイミング生成部
500 モニタ
DESCRIPTION OF
Claims (9)
複数のカメラの撮影画像を合成処理して、車両周囲の俯瞰画像を表す合成俯瞰画像を生成し、前記立体物検出部による検出結果に基づき、生成した合成俯瞰画像に映る立体物の方向を、前記合成処理の境界方向側に変更する第1の画像生成部と、
を備える車両周囲監視装置。 A three-dimensional object detection unit for detecting a three-dimensional object existing around the vehicle;
A composite overhead image representing a bird's-eye view around the vehicle is generated by synthesizing the captured images of a plurality of cameras, and the direction of the three-dimensional object shown in the generated synthesized bird's-eye image is based on the detection result by the three-dimensional object detection unit. A first image generation unit for changing to the boundary direction side of the synthesis process;
A vehicle surrounding monitoring device comprising:
前記第1の画像生成部は、前記合成俯瞰画像において、少なくとも、前記重複エリアに存在する立体物の方向を、前記合成処理の境界の方向に変更する
請求項1記載の車両周囲監視装置。 There are overlapping areas that overlap each other in the shooting range of the plurality of cameras,
The vehicle surroundings monitoring apparatus according to claim 1, wherein the first image generation unit changes at least a direction of a three-dimensional object existing in the overlapping area to a direction of a boundary of the synthesis process in the synthesized overhead image.
請求項2記載の車両周囲監視装置。 The first image generation unit changes the direction of the three-dimensional object existing in the overlapping area in a direction parallel to the boundary of the synthesis process.
The vehicle surrounding monitoring apparatus according to claim 2.
前記第1の画像生成部は、前記立体物を撮影した一方のカメラから見た射影方向と、他方のカメラから見た射影方向とを二等分する方向に、前記重複エリアに存在する立体物の方向を変更する、
請求項2記載の車両周囲監視装置。 The three-dimensional object existing in the overlapping area is photographed by at least two cameras,
The first image generation unit is a three-dimensional object that exists in the overlapping area in a direction that bisects a projection direction viewed from one camera that has captured the three-dimensional object and a projection direction viewed from the other camera. Change the direction of
The vehicle surrounding monitoring apparatus according to claim 2.
前記第1の画像生成部は、
前記第2の画像生成部により生成された複数のカメラ俯瞰画像に基づき合成俯瞰画像を生成し、さらに、
前記第2の画像生成部により生成された複数のカメラ俯瞰画像から、前記立体物検出部による検出結果に基づき立体物を抽出して、抽出した立体物を、前記合成処理の境界の方向に変更した状態で、生成した合成俯瞰画像に描画する、
請求項1記載の車両周囲監視装置。 A second image generation unit that generates a camera overhead view of the surroundings of the vehicle for each captured image by the plurality of cameras;
The first image generation unit includes:
Generating a combined overhead image based on the plurality of camera overhead images generated by the second image generation unit;
A three-dimensional object is extracted from a plurality of camera overhead images generated by the second image generation unit based on the detection result by the three-dimensional object detection unit, and the extracted three-dimensional object is changed in the direction of the boundary of the synthesis process. Draw on the generated composite overhead image
The vehicle surrounding monitoring apparatus according to claim 1.
請求項5記載の車両周囲監視装置。 The first image generation unit further draws a road surface using a camera overhead image on the portion of the three-dimensional object originally reflected in the generated synthesized overhead image.
The vehicle surrounding monitoring apparatus according to claim 5.
請求項5記載の車両周囲監視装置。 The first image generation unit further draws a road surface using a composite overhead image generated in the past on a part of the three-dimensional object originally reflected in the currently generated composite overhead image.
The vehicle surrounding monitoring apparatus according to claim 5.
請求項1記載の車両周囲監視装置。 A monitor that displays the combined overhead image generated by the first image generation unit;
The vehicle surrounding monitoring apparatus according to claim 1.
複数のカメラの撮影画像を合成処理して、車両周囲の俯瞰画像を表す合成俯瞰画像を生成し、前記第1のステップにおける検出結果に基づき、生成した合成俯瞰画像に映る立体物の方向を、前記合成処理の境界方向側に変更する第2のステップと、
を備える車両周囲監視方法。 A first step of detecting a three-dimensional object existing around the vehicle;
A composite overhead image representing a bird's-eye view around the vehicle is generated by combining the captured images of the plurality of cameras, and the direction of the three-dimensional object reflected in the generated synthesized overhead image is determined based on the detection result in the first step. A second step of changing to the boundary direction side of the synthesis process;
A vehicle surrounding monitoring method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008276894A JP2010109452A (en) | 2008-10-28 | 2008-10-28 | Vehicle surrounding monitoring device and vehicle surrounding monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008276894A JP2010109452A (en) | 2008-10-28 | 2008-10-28 | Vehicle surrounding monitoring device and vehicle surrounding monitoring method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010109452A true JP2010109452A (en) | 2010-05-13 |
Family
ID=42298501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008276894A Pending JP2010109452A (en) | 2008-10-28 | 2008-10-28 | Vehicle surrounding monitoring device and vehicle surrounding monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010109452A (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011254190A (en) * | 2010-06-01 | 2011-12-15 | Clarion Co Ltd | Vehicle perimeter surveillance device |
JP2012113605A (en) * | 2010-11-26 | 2012-06-14 | Toshiba Alpine Automotive Technology Corp | Driving support apparatus and driving support method |
JP2014094737A (en) * | 2012-11-09 | 2014-05-22 | Hyundai Motor Company Co Ltd | Vehicular parking position display device and method |
WO2014171100A1 (en) * | 2013-04-15 | 2014-10-23 | 株式会社デンソー | Vehicular image processing device |
JP2015074318A (en) * | 2013-10-08 | 2015-04-20 | 株式会社東海理化電機製作所 | Three-dimensional object confirmation device and three-dimensional object confirmation program |
CN104683706A (en) * | 2013-11-28 | 2015-06-03 | 财团法人金属工业研究发展中心 | Image joint method |
JP2016144993A (en) * | 2015-02-09 | 2016-08-12 | サクサ株式会社 | Image processing apparatus |
WO2017158964A1 (en) * | 2016-03-18 | 2017-09-21 | 株式会社リコー | Image processing device, moving body equipment control system, image processing program, and image processing method |
WO2018016274A1 (en) * | 2016-07-20 | 2018-01-25 | クラリオン株式会社 | Image processing device |
JPWO2017056266A1 (en) * | 2015-09-30 | 2018-03-15 | 株式会社小松製作所 | Imaging device |
WO2018146997A1 (en) * | 2017-02-07 | 2018-08-16 | 日本電気株式会社 | Three-dimensional object detection device |
JP2018144526A (en) * | 2017-03-01 | 2018-09-20 | アイシン精機株式会社 | Periphery monitoring device |
JP2018190402A (en) * | 2017-05-01 | 2018-11-29 | パナソニックIpマネジメント株式会社 | Camera parameter set calculation device, camera parameter set calculation method, and program |
JP2019153138A (en) * | 2018-03-05 | 2019-09-12 | 株式会社デンソー | Image creation device |
WO2019216393A1 (en) * | 2018-05-10 | 2019-11-14 | パナソニックIpマネジメント株式会社 | Road surface state estimating method, road surface state estimating device, and road surface state estimating system |
JP2020074186A (en) * | 2020-01-22 | 2020-05-14 | シャープ株式会社 | Image processing device, image processing system, image processing method, and image processing program |
JP2020149086A (en) * | 2019-03-11 | 2020-09-17 | オムロン株式会社 | Training data generation apparatus, training data generation method, and training data generation program |
CN111914610A (en) * | 2019-05-10 | 2020-11-10 | 歌乐株式会社 | Three-dimensional object detection device and three-dimensional object detection method |
CN112562384A (en) * | 2019-09-10 | 2021-03-26 | 现代自动车株式会社 | Apparatus and method for providing overhead view image of parking space |
JP2021098492A (en) * | 2019-12-23 | 2021-07-01 | バイドゥ・インターナショナル・テクノロジー・(シェンチェン)・カンパニー・リミテッドBaidu International Technology (Shenzhen) Co., Ltd. | Collision detection method, device, electronic device, storage medium, and program |
CN112562384B (en) * | 2019-09-10 | 2024-05-31 | 现代自动车株式会社 | Apparatus and method for providing overhead view image of parking space |
-
2008
- 2008-10-28 JP JP2008276894A patent/JP2010109452A/en active Pending
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011254190A (en) * | 2010-06-01 | 2011-12-15 | Clarion Co Ltd | Vehicle perimeter surveillance device |
JP2012113605A (en) * | 2010-11-26 | 2012-06-14 | Toshiba Alpine Automotive Technology Corp | Driving support apparatus and driving support method |
JP2014094737A (en) * | 2012-11-09 | 2014-05-22 | Hyundai Motor Company Co Ltd | Vehicular parking position display device and method |
WO2014171100A1 (en) * | 2013-04-15 | 2014-10-23 | 株式会社デンソー | Vehicular image processing device |
JP2014207605A (en) * | 2013-04-15 | 2014-10-30 | 株式会社デンソー | Image processing unit for vehicle |
CN105144707A (en) * | 2013-04-15 | 2015-12-09 | 株式会社电装 | Vehicular image processing device |
JP2015074318A (en) * | 2013-10-08 | 2015-04-20 | 株式会社東海理化電機製作所 | Three-dimensional object confirmation device and three-dimensional object confirmation program |
CN104683706A (en) * | 2013-11-28 | 2015-06-03 | 财团法人金属工业研究发展中心 | Image joint method |
JP2016144993A (en) * | 2015-02-09 | 2016-08-12 | サクサ株式会社 | Image processing apparatus |
JPWO2017056266A1 (en) * | 2015-09-30 | 2018-03-15 | 株式会社小松製作所 | Imaging device |
US11008735B2 (en) | 2015-09-30 | 2021-05-18 | Komatsu Ltd. | Image pick-up apparatus |
WO2017158964A1 (en) * | 2016-03-18 | 2017-09-21 | 株式会社リコー | Image processing device, moving body equipment control system, image processing program, and image processing method |
US10810749B2 (en) | 2016-03-18 | 2020-10-20 | Ricoh Company, Ltd. | Image processing apparatus, moving body device control system, computer-readable medium, and image processing method |
JPWO2017158964A1 (en) * | 2016-03-18 | 2018-09-13 | 株式会社リコー | Image processing apparatus, mobile device control system, image processing program, and image processing method |
WO2018016274A1 (en) * | 2016-07-20 | 2018-01-25 | クラリオン株式会社 | Image processing device |
JP2018014583A (en) * | 2016-07-20 | 2018-01-25 | クラリオン株式会社 | Image processing apparatus |
WO2018146997A1 (en) * | 2017-02-07 | 2018-08-16 | 日本電気株式会社 | Three-dimensional object detection device |
JPWO2018146997A1 (en) * | 2017-02-07 | 2019-11-14 | 日本電気株式会社 | Three-dimensional object detection device |
JP2018144526A (en) * | 2017-03-01 | 2018-09-20 | アイシン精機株式会社 | Periphery monitoring device |
JP7069548B2 (en) | 2017-03-01 | 2022-05-18 | 株式会社アイシン | Peripheral monitoring device |
JP2018190402A (en) * | 2017-05-01 | 2018-11-29 | パナソニックIpマネジメント株式会社 | Camera parameter set calculation device, camera parameter set calculation method, and program |
JP7002007B2 (en) | 2017-05-01 | 2022-01-20 | パナソニックIpマネジメント株式会社 | Camera parameter set calculation device, camera parameter set calculation method and program |
CN111819595A (en) * | 2018-03-05 | 2020-10-23 | 株式会社电装 | Image forming apparatus and image forming method |
JP2019153138A (en) * | 2018-03-05 | 2019-09-12 | 株式会社デンソー | Image creation device |
US11258963B2 (en) | 2018-03-05 | 2022-02-22 | Denso Corporation | Image creation device and image creation method |
WO2019172073A1 (en) * | 2018-03-05 | 2019-09-12 | 株式会社デンソー | Image creation device and image creation method |
WO2019216393A1 (en) * | 2018-05-10 | 2019-11-14 | パナソニックIpマネジメント株式会社 | Road surface state estimating method, road surface state estimating device, and road surface state estimating system |
JP2020149086A (en) * | 2019-03-11 | 2020-09-17 | オムロン株式会社 | Training data generation apparatus, training data generation method, and training data generation program |
CN111914610A (en) * | 2019-05-10 | 2020-11-10 | 歌乐株式会社 | Three-dimensional object detection device and three-dimensional object detection method |
CN111914610B (en) * | 2019-05-10 | 2024-05-14 | 歌乐株式会社 | Three-dimensional object detection device and three-dimensional object detection method |
CN112562384A (en) * | 2019-09-10 | 2021-03-26 | 现代自动车株式会社 | Apparatus and method for providing overhead view image of parking space |
CN112562384B (en) * | 2019-09-10 | 2024-05-31 | 现代自动车株式会社 | Apparatus and method for providing overhead view image of parking space |
JP2021098492A (en) * | 2019-12-23 | 2021-07-01 | バイドゥ・インターナショナル・テクノロジー・(シェンチェン)・カンパニー・リミテッドBaidu International Technology (Shenzhen) Co., Ltd. | Collision detection method, device, electronic device, storage medium, and program |
JP7042868B2 (en) | 2019-12-23 | 2022-03-28 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | Collision detection methods, devices, electronic devices, storage media, and programs |
US11753005B2 (en) | 2019-12-23 | 2023-09-12 | Baidu International Technology (Shenzhen) Co., Ltd. | Collision detection method, and device, as well as electronic device and storage medium |
JP2020074186A (en) * | 2020-01-22 | 2020-05-14 | シャープ株式会社 | Image processing device, image processing system, image processing method, and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010109452A (en) | Vehicle surrounding monitoring device and vehicle surrounding monitoring method | |
JP5178454B2 (en) | Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method | |
JP5491235B2 (en) | Camera calibration device | |
JP6029306B2 (en) | Perimeter monitoring equipment for work machines | |
US8155385B2 (en) | Image-processing system and image-processing method | |
JP5165631B2 (en) | Vehicle surrounding image display system | |
US20120069153A1 (en) | Device for monitoring area around vehicle | |
WO2014148203A1 (en) | Periphery monitoring device for work machine | |
JP6386213B2 (en) | Excavator | |
JP5003395B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
JP2011040825A (en) | Image correction apparatus, method, and method for making transformation map used for the same | |
JP6045865B2 (en) | Excavator | |
JP6324665B2 (en) | Perimeter monitoring equipment for work machines | |
JP2010117800A (en) | Parking lot monitoring device and method | |
JP2010141836A (en) | Obstacle detecting apparatus | |
JP2018017115A (en) | Shovel | |
JP2011128838A (en) | Image display device | |
JP5960007B2 (en) | Perimeter monitoring equipment for work machines | |
JP5805574B2 (en) | Perimeter monitoring equipment for work machines | |
JP2006017632A (en) | Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method | |
JP6257918B2 (en) | Excavator | |
US20210146837A1 (en) | Overhead image generation device, overhead image generation method, and program | |
JP2009077022A (en) | Driving support system and vehicle | |
JP2014224412A (en) | Periphery monitoring device for work machine | |
JP4736611B2 (en) | Image processing apparatus and image processing method |