JP2006303985A - Predictive course display device and method - Google Patents

Predictive course display device and method Download PDF

Info

Publication number
JP2006303985A
JP2006303985A JP2005123820A JP2005123820A JP2006303985A JP 2006303985 A JP2006303985 A JP 2006303985A JP 2005123820 A JP2005123820 A JP 2005123820A JP 2005123820 A JP2005123820 A JP 2005123820A JP 2006303985 A JP2006303985 A JP 2006303985A
Authority
JP
Japan
Prior art keywords
vehicle
predicted course
predicted
host vehicle
bird
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005123820A
Other languages
Japanese (ja)
Other versions
JP4677820B2 (en
Inventor
Satoshi Chinomi
聡 知野見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005123820A priority Critical patent/JP4677820B2/en
Publication of JP2006303985A publication Critical patent/JP2006303985A/en
Application granted granted Critical
Publication of JP4677820B2 publication Critical patent/JP4677820B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent an actual situation of contact with a body by displaying a predicted course in a bird's-eye picture while taking into consideration the position of a body present in a predicted course of an own vehicle in an actual space. <P>SOLUTION: Cameras 11a to 11d are arranged around a vehicle body respectively and pick up pictures of the circumference of the own vehicle and a picture processing section 12 generates a bird's-eye image representing the circumference around the own vehicle in bird's-eye view based upon the images. A control section 13 controls a display section 14 to display an area where a body is possibly present in the predicted course of the own vehicle in the actual space over the bird's-eye picture. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、自車両の予測進路を表示する予測進路表示装置およびその方法に関する。   The present invention relates to a predicted route display apparatus and method for displaying a predicted route of a host vehicle.

従来より、ドライバーの運転操作のアシストといった観点から、それぞれが車両の周囲を撮像した複数のカメラからの映像を処理し、これをドライバーに提示する装置が知られている。この類の装置では、複数のカメラからの映像を基準面(例えば、道路)に対して座標変換することで、あたかも上空から車両を含む景色を撮像したような映像をドライバーに提示する手法が用いられることがある。このような俯瞰映像を用いることは、地面上の白線や縁石などと自車両との位置関係が客観的に表現されるため、駐車枠にあわせて駐車する場合や縁石に幅寄せをするような場合において有利である。   2. Description of the Related Art Conventionally, from the viewpoint of assisting a driver's driving operation, an apparatus that processes images from a plurality of cameras each capturing an image of the surroundings of a vehicle and presents them to the driver is known. In this type of device, a technique is used in which images from a plurality of cameras are coordinate-transformed with respect to a reference plane (for example, a road) to present the driver with images as if a scene including a vehicle is captured from above. May be. Using such a bird's-eye view image objectively expresses the positional relationship between the white line on the ground, the curbstone, etc., and the vehicle, so it may be necessary to park in accordance with the parking frame or to bring the curb closer. It is advantageous in some cases.

また、特許文献1に開示されているように、車両の予測進路をカメラ映像と重ね合わせて表示することにより、ドライバーの運転操作をアシストする装置も知られている。
特許3183284号公報
In addition, as disclosed in Patent Document 1, an apparatus that assists a driver's driving operation by displaying a predicted course of a vehicle in a superimposed manner with a camera image is also known.
Japanese Patent No. 3183284

しかしながら、車両の周囲の景色を俯瞰的に表した俯瞰映像を作成した場合には、基準面より高い位置や低い位置にある物体については、その位置関係が正しく再現されないという問題がある。そのため、停止車両などの物体が実際の位置よりも遠方に表示されることがあり、この映像上に予測進路を表示した場合には、予測進路上には物体が存在していないにも拘わらず、実際には自車両がそれと衝突してしまう虞があるという不都合が生じる。   However, when a bird's-eye view image that represents a bird's-eye view of the surroundings of the vehicle is created, there is a problem in that the positional relationship is not correctly reproduced with respect to an object at a position higher or lower than the reference plane. For this reason, an object such as a stopped vehicle may be displayed farther from the actual position. When the predicted course is displayed on this image, the object is not present on the predicted course. In fact, there is a disadvantage that the host vehicle may collide with it.

本発明はこのような事情に鑑みてなされたものであり、その目的は、実空間において自車両の予測進路内に存在する物体の位置を考慮して、俯瞰映像上に予測進路を表示することにより、物体との接触といった実態の発生を抑制することである。   The present invention has been made in view of such circumstances, and an object thereof is to display a predicted course on a bird's-eye view image in consideration of the position of an object existing in the predicted course of the host vehicle in real space. Therefore, it is possible to suppress the occurrence of actual conditions such as contact with an object.

かかる課題を解決するために、本発明は、予測進路表示装置を提供する。この予測進路表示装置は、複数の撮像手段と、画像処理手段と、表示手段と、制御手段とを有する。ここで、複数の撮像手段は、それぞれが車体の周囲に配置され、自車両周囲の映像を撮像する。画像処理手段は、複数の撮像手段によって撮像された映像のそれぞれに基づいて、自車両を中心とした周囲の映像を俯瞰的に表した俯瞰映像を作成する。表示手段は、画像処理手段によって作成された俯瞰映像を表示する。制御手段は、実空間において物体が自車両の予測進路内に存在する可能性のある領域を、俯瞰映像と重ね合わせて表示するように、表示手段を制御する。   In order to solve this problem, the present invention provides a predicted course display device. This predicted course display device has a plurality of imaging means, image processing means, display means, and control means. Here, each of the plurality of image pickup means is arranged around the vehicle body and picks up an image around the host vehicle. The image processing unit creates a bird's-eye view video that represents a surrounding image centered on the host vehicle based on each of the images captured by the plurality of imaging units. The display means displays the overhead video created by the image processing means. The control means controls the display means so that an area in which the object may exist in the predicted course of the host vehicle in real space is displayed so as to overlap with the overhead view video.

本発明によれば、実空間において物体が自車両の予測進路内に存在する可能性のある領域を、俯瞰映像と重ね合わせて表示するため、俯瞰映像中で消失する高さ情報を俯瞰映像上で得ることができる。また、俯瞰映像において、物体と自車両とが接触する可能性のある位置を領域で確認することができる。これにより、物体との接触といった実態の発生を有効に抑制することができる。   According to the present invention, since an area where an object may exist in the predicted course of the host vehicle in real space is displayed superimposed on the overhead image, the height information that disappears in the overhead image is displayed on the overhead image. Can be obtained at In addition, in the bird's-eye view video, it is possible to confirm in the area a position where the object and the host vehicle may come into contact with each other. Thereby, it is possible to effectively suppress the occurrence of actual conditions such as contact with an object.

以下、本発明の実施形態を図面に基づいて説明する。図1は、本実施形態に係る予測進路表示装置10の全体構成を示すブロック図である。この予測進路表示装置10は、車両周囲の映像と、車両の予測進路とを重畳的に表示することにより、ドライバーの運転操作をアシストする装置であり、撮像部11、映像処理部(画像処理手段)12、制御部(制御手段)13、表示部(表示手段)14および操作部15を主体に構成されている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an overall configuration of a predicted course display apparatus 10 according to the present embodiment. The predicted course display device 10 is an apparatus that assists the driving operation of the driver by displaying the surrounding image of the vehicle and the predicted course of the vehicle in a superimposed manner, and includes an imaging unit 11, a video processing unit (image processing unit). ) 12, a control unit (control unit) 13, a display unit (display unit) 14, and an operation unit 15 are mainly configured.

撮像部11は、それぞれが車体の周囲に配置された複数のカメラ(撮像手段)11a〜11dによって構成されている。カメラ11a〜11dとしては、例えば、可視光を撮像するためのCCDカメラ等を用いることができる。撮像部11を構成する個々のカメラ11a〜11dは、図2に示すように、右ドアミラー、車両のリア、左ドアミラー、車両のフロントの合計4箇所にそれぞれ取り付けられている。車両のリアに取り付けられたカメラ11bは、図3(a)のハッチングに示すように、車両後方を撮像し、左ドアミラーに取り付けられたカメラ11cは、同図(b)のハッチングに示すように、車両の左側方を撮像する。また、車両のフロントに取り付けられたカメラ11dは、同図(c)のハッチングに示すように、車両前方を撮像し、車両の右ドアミラーに取り付けられたカメラ11aは、同図(d)のハッチングに示すように、車両の右側方を撮像する。個々のカメラ11a〜11dは、それぞれが180度程度の画角を持つ広角カメラであり、これらのカメラ11a〜11dが互いの撮像エリアをカバーすることにより、車両周囲の映像を得る。各カメラ11a〜11dから出力される映像は、映像処理部12に対して出力される。   The imaging unit 11 includes a plurality of cameras (imaging units) 11a to 11d that are arranged around the vehicle body. As the cameras 11a to 11d, for example, a CCD camera for imaging visible light can be used. As shown in FIG. 2, the individual cameras 11 a to 11 d constituting the imaging unit 11 are respectively attached to a total of four locations: a right door mirror, a vehicle rear, a left door mirror, and a vehicle front. The camera 11b attached to the rear of the vehicle images the rear of the vehicle as shown in FIG. 3A, and the camera 11c attached to the left door mirror is shown in the hatching of FIG. The left side of the vehicle is imaged. The camera 11d attached to the front of the vehicle images the front of the vehicle as shown in the hatching of FIG. 8C, and the camera 11a attached to the right door mirror of the vehicle hatches in the same figure. As shown, the right side of the vehicle is imaged. Each of the cameras 11a to 11d is a wide-angle camera having an angle of view of about 180 degrees, and these cameras 11a to 11d cover each other's imaging area to obtain an image around the vehicle. Images output from the cameras 11 a to 11 d are output to the image processing unit 12.

映像処理部12は、各カメラ11a〜11dからの映像を、ある基準面(例えば、地面)に対して座標変換することで、仮想視点(本実施家形態では、上空)から撮像したような映像(以下、「俯瞰映像」という)を作成する。本実施形態において、映像処理部12は、この俯瞰映像の作成を前提として、入力映像と出力映像との画素配置の対応関係を記録した変換テーブルを、個々のカメラ11a〜11dからの映像に対応して有している。映像処理部12は、これらの変換テーブルに基づいて、4つのカメラ11a〜11dの出力映像から必要な部分を切り出し、ひとつの俯瞰映像を生成する。   The video processing unit 12 converts the video from each of the cameras 11a to 11d with respect to a certain reference plane (for example, the ground), thereby capturing video from a virtual viewpoint (in the present embodiment, the sky). (Hereinafter referred to as “overview video”). In the present embodiment, on the premise of creating this overhead view video, the video processing unit 12 corresponds to the video from each camera 11a to 11d with a conversion table that records the correspondence of the pixel arrangement of the input video and the output video. Have. Based on these conversion tables, the video processing unit 12 cuts out necessary portions from the output videos of the four cameras 11a to 11d and generates one overhead video.

図4は、俯瞰映像の説明図である。この俯瞰映像は、右ドアミラー側の映像A(カメラ11aからの映像が座標変換された映像に対応)、車両リア側の映像B(カメラ11bからの映像が座標変換された映像に対応)、左ドアミラー側の映像C(カメラ11cからの映像が座標変換された映像に対応)、および、車両フロント側の映像D(カメラ11dからの映像が座標変換された映像に対応)を使って構成されており、車両上方を視点として、自車両を中心とした周囲の映像を俯瞰的に表している。個々の映像A〜Dのつなぎ目部分にはマスク線Eが設けられており、映像のつなぎ目であることがドライバーに把握できるようになっている。また、俯瞰映像の中心には自車両を模擬した画像(CG)も生成される。映像処理部12によって作成された俯瞰映像は、制御部13に対して出力される。   FIG. 4 is an explanatory diagram of a bird's-eye view video. This overhead view video is a video A on the right door mirror side (corresponding to a video obtained by coordinate transformation of the video from the camera 11a), a video B on the rear side of the vehicle (corresponding to a video obtained by coordinate transformation of the video from the camera 11b), left It is configured using a video C on the door mirror side (corresponding to a video obtained by coordinate conversion of the video from the camera 11c) and a video D on the front side of the vehicle (corresponding to a video obtained by coordinate transformation of the video from the camera 11d). The surrounding image centered on the host vehicle is shown as a bird's-eye view, with the upper side of the vehicle as a viewpoint. Mask lines E are provided at the joint portions of the individual images A to D so that the driver can grasp that the images are connected. In addition, an image (CG) simulating the host vehicle is also generated at the center of the overhead view video. The overhead video created by the video processing unit 12 is output to the control unit 13.

制御部13は、映像処理部12から出力される俯瞰映像を表示するように表示部14を制御するとともに、実空間において物体が自車両の予測進路内に存在する可能性のある領域(注意エリア)を、この俯瞰映像と重ね合わせて表示するように、表示部14を制御する。制御部13には、車両の走行状態を検出するために、各種の検出信号が入力されている。車両信号取得部16は、操舵角、シフトポジション、車速といった走行状態に拘わる各種の車両信号を取得し、取得された車両信号は、制御部13に入力される。   The control unit 13 controls the display unit 14 so as to display the bird's-eye view video output from the video processing unit 12, and an area (attention area) in which an object may exist in the predicted course of the host vehicle in real space. ) Is displayed so as to be superimposed on this overhead view video. Various detection signals are input to the control unit 13 in order to detect the running state of the vehicle. The vehicle signal acquisition unit 16 acquires various vehicle signals related to the running state such as the steering angle, the shift position, and the vehicle speed, and the acquired vehicle signals are input to the control unit 13.

表示部14は、制御部13から出力される俯瞰映像と、これに関連する情報とを表示する機能を担っている。この表示部14としては、CRTやLCDといった周知の表示手段を用いることができる。この表示部14は、例えば、センターコンソールの一部に配設されており、その表示された映像をドライバーが認識することができるようになっている。   The display unit 14 has a function of displaying a bird's-eye view video output from the control unit 13 and information related thereto. As the display unit 14, known display means such as a CRT or LCD can be used. The display unit 14 is disposed, for example, in a part of the center console so that the displayed image can be recognized by the driver.

操作部15は、装置全体の操作をドライバーが行うための機能を担っており、各種のスイッチ類などで構成されている。   The operation unit 15 has a function for the driver to operate the entire apparatus, and includes various switches.

以下、本実施実施形態に係る予測進路表示装置10の動作について説明する。まず、予測進路表示装置10の動作を説明するにあたり、本発明の概念について説明する。図5は、本発明の概念説明図である。俯瞰映像は、上述したように、複数の映像のそれぞれについて、座標変換を施し、これらを合成することによって作成される。この場合、座標変換の基準となる基準面上に存在する物体に関しては、その位置関係を保ったまま俯瞰映像に再現される。しかしながら、基準面より高い位置や低い位置にある立体物については、CGで作成される自車両や車両周囲の物体との位置関係が正しく再現されない。   Hereinafter, the operation of the predicted course display apparatus 10 according to the present embodiment will be described. First, in explaining the operation of the predicted course display device 10, the concept of the present invention will be explained. FIG. 5 is a conceptual explanatory diagram of the present invention. As described above, the bird's-eye view video is created by performing coordinate conversion on each of a plurality of videos and synthesizing them. In this case, the object existing on the reference plane serving as the reference for the coordinate conversion is reproduced in the overhead view image while maintaining the positional relationship. However, for a three-dimensional object at a position higher or lower than the reference plane, the positional relationship with the host vehicle or objects around the vehicle created by CG is not correctly reproduced.

図5は、俯瞰映像における位置関係を説明するための図であり、図中上向きに自車両20が示されており、図中右向きに他車両(停止車両)21が描かれている。同図(a)に示すように、実空間において、自車両20の後退を前提とした予測進路(図中の実線)とオーバーラップするように停止車両21が存在する場合、自車両20がステアリングを直進方向に固定したまま後退すると、自車両20は停止車両21に接触してしまう。ところで、同図(b)に示すように、俯瞰映像において、停止車両21は、実空間上の位置(図中のハッチングの領域)よりも遠方に表示され、自車両20の後退の予測進路(図中の実線)とはオーバーラップしない位置に表示されることがある。そのため、俯瞰映像を頼りにドライバーが車両を操作した場合には、俯瞰映像の予測進路上には停止車両21が存在しないと思っていても、実際に車両を移動させると停止車両21と接触してしまうといった事態が発生する。例えば、SUVやトラックなどのバンパーといった車両の突起部位は、俯瞰映像上の表示されている位置から離れた位置に存在し、俯瞰映像上では接触しないのに実際に自車両を移動させるとバンパーに接触してしまうといった如くである。   FIG. 5 is a diagram for explaining the positional relationship in the bird's-eye view image. The host vehicle 20 is shown upward in the drawing, and the other vehicle (stopped vehicle) 21 is drawn rightward in the drawing. As shown in FIG. 6A, in the real space, when the stop vehicle 21 exists so as to overlap with the predicted course (solid line in the figure) on the assumption that the host vehicle 20 moves backward, the host vehicle 20 is steered. If the vehicle moves backward while the vehicle is fixed in the straight traveling direction, the host vehicle 20 comes into contact with the stopped vehicle 21. Incidentally, as shown in FIG. 4B, in the overhead view video, the stopped vehicle 21 is displayed farther from the position in the real space (the hatched area in the figure), and the predicted course of the backward movement of the host vehicle 20 ( It may be displayed at a position that does not overlap with the solid line in the figure. Therefore, when the driver operates the vehicle relying on the bird's-eye view video, even if he / she thinks that the stopped vehicle 21 does not exist on the predicted course of the bird's-eye view video, he / she contacts the stopped vehicle 21 when the vehicle is actually moved. A situation occurs. For example, a protruding part of a vehicle such as a bumper such as an SUV or a truck exists at a position away from the position displayed on the overhead view image, and if the own vehicle is actually moved without touching the overhead view image, the bumper It seems to come into contact.

図6は、空中に存在する物体Oが俯瞰映像において映し出される位置を説明する説明図である。ここで、車両の車幅方向をX軸、車長方向をY軸、車高方向をZ軸とする。同図(a)に示すように、物体OがX方向に離れた場所に存在することとし、車両リア側のカメラ11bで作成された俯瞰映像での物体Opの見え方について説明する。   FIG. 6 is an explanatory diagram for explaining a position where the object O existing in the air is projected in the overhead view video. Here, the vehicle width direction of the vehicle is the X axis, the vehicle length direction is the Y axis, and the vehicle height direction is the Z axis. As shown in FIG. 5A, it is assumed that the object O exists at a location distant in the X direction, and how the object Op appears in the overhead image created by the camera 11b on the rear side of the vehicle will be described.

同図(b)は、車両を後面(X−Z面)から前方向(Y方向)に見た図である。カメラ11bの地上からの高さをHc、物体の地上からの高さをHt、カメラ11bと物体Oとの間のX方向距離をDt、俯瞰映像上でのカメラ11bと物体OpとのX方向距離をDi、車幅(正確には、カメラ11bと車体側方との間の距離)をWとする。俯瞰映像上でのカメラ11bと物体OpとのX方向距離Diは、以下に示す関係を満たす。   FIG. 6B is a view of the vehicle as viewed from the rear surface (XZ plane) to the front direction (Y direction). The height of the camera 11b from the ground is Hc, the height of the object from the ground is Ht, the distance in the X direction between the camera 11b and the object O is Dt, and the X direction between the camera 11b and the object Op on the overhead image The distance is Di, and the vehicle width (more precisely, the distance between the camera 11b and the side of the vehicle body) is W. The X-direction distance Di between the camera 11b and the object Op on the overhead view video satisfies the relationship shown below.

(数式1)
Di=Hc×Dt/(Hc−Ht)
同数式に示すように、この距離Diは、カメラ11bの地上からの高さHcにカメラ11bと物体Oとの間のX方向距離Dtを乗算した乗算値から、カメラ11bの地上からの高さHcと物体の地上からの高さHtとの差を除算した値となる。ここで、カメラ11bと物体Oとの間のX方向距離Dtが車幅Wよりも小さい場合(Dt<W)、自車両がまっすぐに後退したならば、車両は物体Oと接触する。特に、カメラ11bと物体Oとの間のX方向距離Dtが車幅Wよりも小さく(Dt<W)、かつ、俯瞰映像上でのカメラ11bと物体OpとのX方向距離Diが車幅Wより大きい場合(Di>W)には、上述したように、俯瞰映像上では物体Opと接触しないが、実際には物体Oに接触するといった事態が起こり得る。
(Formula 1)
Di = Hc × Dt / (Hc−Ht)
As shown in the equation, the distance Di is obtained by multiplying the height Hc of the camera 11b from the ground by the X-direction distance Dt between the camera 11b and the object O, and the height of the camera 11b from the ground. This is a value obtained by dividing the difference between Hc and the height Ht of the object from the ground. Here, when the X-direction distance Dt between the camera 11b and the object O is smaller than the vehicle width W (Dt <W), the vehicle comes into contact with the object O if the host vehicle recedes straight. In particular, the X-direction distance Dt between the camera 11b and the object O is smaller than the vehicle width W (Dt <W), and the X-direction distance Di between the camera 11b and the object Op on the overhead image is the vehicle width W. If it is larger (Di> W), as described above, there is a possibility that the object Op is not contacted on the overhead view image, but the object O is actually contacted.

図7は、空中に存在する物体Oが俯瞰映像において映し出される位置を説明する説明図である。同図(a)に示すように、物体OがY方向に離れた場所に存在するケースにおいて、車両リア側のカメラ11bで作成した俯瞰映像における物体Opの見え方について説明する。   FIG. 7 is an explanatory diagram for explaining the position at which the object O existing in the air is projected in the overhead view video. As shown in FIG. 6A, how the object Op is seen in the overhead view image created by the camera 11b on the rear side of the vehicle will be described in the case where the object O exists in a place away in the Y direction.

同図(b)は、車両を側面(Y−Z面)から車幅方向(X方向)に見た図である。カメラ11bの地上からの高さをhc、物体Oの地上からの高さをht、カメラ11bと物体Oとの間のY方向距離をdt、俯瞰映像上でのカメラ11と物体OpとのY方向距離をdiとする。俯瞰映像上でのカメラ11bと物体OpとのY方向距離diは、以下に示す関係を満たす。   FIG. 5B is a view of the vehicle as viewed from the side surface (YZ plane) in the vehicle width direction (X direction). The height of the camera 11b from the ground is hc, the height of the object O from the ground is ht, the distance in the Y direction between the camera 11b and the object O is dt, and the Y of the camera 11 and the object Op on the overhead view image Let the direction distance be di. The Y-direction distance di between the camera 11b and the object Op on the overhead image satisfies the relationship shown below.

(数式2)
di=hc×dt/(hc−ht)
同数式に示すように、この距離diは、カメラ11bの地上からの高さhcにカメラ11bと物体Oとの間のY方向距離dtを乗算した乗算値から、カメラ11bの地上からの高さhcと物体Oの地上からの高さhtとの差を除算した値となる。このように、俯瞰映像上でのカメラ11bと物体OpとのY方向距離diは、実空間におけるカメラ11bと物体Oとの間のY方向距離をdtよりも遠くに存在するように映し出される。
(Formula 2)
di = hc × dt / (hc−ht)
As shown in the equation, the distance di is calculated by multiplying the height hc of the camera 11b from the ground by the Y-direction distance dt between the camera 11b and the object O, and then the height of the camera 11b from the ground. It is a value obtained by dividing the difference between hc and the height ht of the object O from the ground. As described above, the Y-direction distance di between the camera 11b and the object Op on the overhead view image is projected so that the Y-direction distance between the camera 11b and the object O in the real space is farther than dt.

図8は、図6に示すケースを具体的に説明する説明図である。車幅(2W)を1.8mの車両とし、カメラ11bからX方向に0.6m(Dt)の場所に高さ0.6m(Ht)の駐車車両のバンパーOが存在すると考える。カメラの取り付け高さを1.2m(Hc)とすると、俯瞰映像において、この駐車車両のバンパーOpは見かけ上、車両中心からX方向に1.2m(Di)だけ離れた場所に映ることとなる。この場合、自車両がそのまま後退したならば、カメラ11bと物体Oとの間のX方向距離Dtが車幅Wよりも小さいため(Dt<W)、車両と物体Oは接触するが、俯瞰映像上でのカメラ11bと物体OpとのX方向の距離Diが車幅Wより大きいため(Di>W)、俯瞰映像上では接触しないように両者の関係が映し出される。このような俯瞰映像に関する特徴は、カメラ11bから作成される俯瞰映像のみならず、他のカメラ11a,11c,11dから作成される俯瞰映像についても同様にその特徴を挙げることができる。   FIG. 8 is an explanatory diagram for specifically explaining the case shown in FIG. 6. A vehicle having a vehicle width (2W) of 1.8 m is assumed to have a bumper O of a parked vehicle having a height of 0.6 m (Ht) at a location 0.6 m (Dt) in the X direction from the camera 11b. Assuming that the camera mounting height is 1.2 m (Hc), in the overhead view image, the bumper Op of this parked vehicle will appear in a place away from the center of the vehicle by 1.2 m (Di) in the X direction. . In this case, if the host vehicle moves backward as it is, the X-direction distance Dt between the camera 11b and the object O is smaller than the vehicle width W (Dt <W). Since the distance Di in the X direction between the camera 11b and the object Op above is larger than the vehicle width W (Di> W), the relationship between the two is projected so as not to touch on the overhead view image. Such characteristics regarding the overhead view video can include not only the overhead view video created from the camera 11b but also the overhead view video created from other cameras 11a, 11c, and 11d.

このような点に鑑み、制御部13は、俯瞰映像を表示する際には、以下に示すような予測進路を俯瞰映像に重ね合わせて表示するように表示部14を制御する。予測進路は、安全マージンエリアA1と、注意エリアA2とで構成される。図9は、安全マージンエリアA1と注意エリアA2との説明図である。安全マージンエリア(予測進路領域)A1は、直進後退時、自車両が通過する予測進路の範囲(例えば、車幅(2W)×後方1m)を示す。注意エリアA2は、この安全マージンエリアA1に基づいて、実空間において、例えば、バンパーといった物体がこの安全マージンエリアA1に存在する可能性のある領域である。   In view of such a point, when displaying the bird's-eye view video, the control unit 13 controls the display unit 14 to display the predicted course as shown below superimposed on the bird's-eye view video. The predicted course includes a safety margin area A1 and a caution area A2. FIG. 9 is an explanatory diagram of the safety margin area A1 and the attention area A2. The safety margin area (predicted course area) A1 indicates a range of a predicted course (for example, vehicle width (2 W) × 1 m behind) through which the host vehicle passes when going straight ahead and backward. The attention area A2 is an area where an object such as a bumper may exist in the safety margin area A1 in the real space based on the safety margin area A1.

この注意エリアA2の計算方向は、以下の通りとなる。まず、図6を参照して説明したように、カメラ11bの地上からの高さHcを1.2m、物体の地上からの高さHtを0.6m、カメラ11bと物体Oとの間のX方向距離Dtと車幅Wとを0.9mとする。この場合、数式1に従って、俯瞰映像上でのカメラ11bと物体OpとのX方向距離Diを算出すると、この値Diは1.8mとなる。また、図7を参照して説明したように、カメラ11bの地上からの高さhcを1.2m、物体Oの地上からの高さhtを0.6m、カメラ11bと物体Oとの間のY方向距離dtを1mとする。この場合、数式2に従って、俯瞰映像上でのカメラ11bと物体OpとのY方向距離diを算出すると、この値diは2mとなる。これらの演算を踏まえた上で、制御部13は、自車両のCG後方に、安全マージンエリアA1とともに、前後2m、左右3.6mのエリアを注意エリアA2として表示するように、表示部14を制御する。これにより、自車両から1m以内の走行範囲(安全マージン領域A1)に60cm以下の高さを有する物体Oが存在する可能性を示すことができる。   The calculation direction of the caution area A2 is as follows. First, as described with reference to FIG. 6, the height Hc of the camera 11b from the ground is 1.2 m, the height Ht of the object from the ground is 0.6 m, and the X between the camera 11b and the object O is X. The direction distance Dt and the vehicle width W are set to 0.9 m. In this case, when the X-direction distance Di between the camera 11b and the object Op on the bird's-eye view image is calculated according to Equation 1, this value Di is 1.8 m. Further, as described with reference to FIG. 7, the height hc of the camera 11b from the ground is 1.2 m, the height ht of the object O from the ground is 0.6 m, and the distance between the camera 11b and the object O is The Y direction distance dt is 1 m. In this case, when the Y-direction distance di between the camera 11b and the object Op on the bird's-eye view image is calculated according to Equation 2, this value di is 2m. Based on these calculations, the control unit 13 displays the display unit 14 behind the CG of the host vehicle so that the safety margin area A1 and the front and rear 2m and left and right 3.6m areas are displayed as the caution area A2. Control. Thereby, the possibility that the object O having a height of 60 cm or less exists in the travel range (safety margin area A1) within 1 m from the host vehicle can be shown.

図10は、操舵時における安全マージンエリアA1と注意エリアA2との説明図である。また、制御部13は、後退時に、ドライバーによってステアリングが操舵されると、この操舵に応じて、その安全マージンエリアA1と注意エリアA2とを変形させて表示するように、表示部14を制御する。ドライバーが左にステアリングを操舵した場合には、図10に示すように、その操舵角に対応して、安全マージンエリアA1が左方向へせん断変形される。これにより、ステアリング操舵時に1m進む間に通過するエリアが安全マージンエリアA1として規定される。また、この安全マージンエリアA1の変形に応じて、注意エリアA2も同様に変形される。この注意エリアA2も、上述した計算方法により算出が可能である。   FIG. 10 is an explanatory diagram of the safety margin area A1 and the attention area A2 during steering. Further, when the steering is steered by the driver at the time of reverse, the control unit 13 controls the display unit 14 so that the safety margin area A1 and the caution area A2 are deformed and displayed according to the steering. . When the driver steers the steering to the left, as shown in FIG. 10, the safety margin area A1 is sheared to the left in accordance with the steering angle. As a result, the area that passes while traveling 1 m during steering is defined as the safety margin area A1. Further, the attention area A2 is similarly deformed in accordance with the deformation of the safety margin area A1. This caution area A2 can also be calculated by the calculation method described above.

なお、注意エリアA2は、単に直線で囲われた領域を表示したり、半透明の色をエリア上に重畳して表示したりしてもよい。また、注意エリアA2は、斜線でハッチングを施してもよい。以上、車両後端にあるカメラ11bからの俯瞰絵像を例に説明したが、その他の場所に取り付けられたカメラ11a,11c,11dからの俯瞰映像についても同様に予測進路(安全マージンエリアA1,注意エリアA2)の表示を行うことができる。   Note that the caution area A2 may simply display an area surrounded by a straight line, or may display a semi-transparent color superimposed on the area. The attention area A2 may be hatched with diagonal lines. In the above, the bird's-eye view image from the camera 11b at the rear end of the vehicle has been described as an example, but the predicted course (safe margin area A1, safety margin area A1, etc.) is similarly applied to the bird's-eye view images from the cameras 11a, 11c, and 11d attached to other places. The attention area A2) can be displayed.

予測進路の表示手法としては、上述した形態以外にも、以下に示すような形態を採用することもできる。図11は、車両の側方側の俯瞰映像に対する予測進路の説明図であり、本実施形態では、右ドアミラーに取り付けられたカメラ11aからの俯瞰絵像が示されている。同図において、旋回時通過線(予測進路ライン)L1は、前進走行中において、ステアリングを右に切ったときの車両の右角隅が通過する予測進路の軌跡を示す線である。この線より外側に物体が存在する場合、車両は物体を巻き込むことなく旋回することができる。しかしながら、実際には自車両が巻き込む可能性がある物体であったとしても、俯瞰映像では実際より遠い位置に存在するかのように映し出されることがある。そこで、次のような対策を考える。旋回時通過線L1上に、例えば、他車両のバンパーを想定して、高さ60cmの物体が存在すると考える。図6,7で説明したように、車両側面に備えられたカメラ11aの高さを考慮すると、旋回時通過線L1に基づいて、実空間において物体がこの旋回時通過線L1上に存在する可能性のある軌跡のラインは、注意エリア線L2で示される。すなわち、この注意エリア線L2によって、実空間において物体が自車両の予測進路内に存在する可能性のある領域(注意エリア)が画定されることとなる。制御部13は、俯瞰映像を表示する際には、上述したような旋回時通過線L1と、注意エリア線L2とを俯瞰映像に重ね合わせて表示するように表示部14を制御する。注意エリア線L2の内側に物体がない場合は、高さ60センチ以下の物体に接触することなく旋回することが可能であることが判断できる。制御部13は、車両信号取得部16によって操舵角を取得し、ステアリングを直進状態の中立位置から操舵したことを判断した場合には、これらの旋回時通過線L1と、注意エリア線L2とを表示させる。この場合、ステアリングが右に切られている場合には、図11に示すように、制御部13は、カメラ11aからの俯瞰映像において、旋回時通過線L1と注意エリア線L2とを表示させ、ステアリングが左に切られている場合には、制御部13は、カメラ11cからの俯瞰映像において、旋回時通過線L1と注意エリアセンサL2とを表示させる。制御部13は、ステアリングの操舵角に応じて、この旋回時通過線L1を決定し、それに連動して注意エリア線も変化させる。   As a method for displaying the predicted course, in addition to the above-described forms, the following forms can also be adopted. FIG. 11 is an explanatory diagram of a predicted course for a bird's-eye view image on the side of the vehicle. In this embodiment, an overhead image from the camera 11a attached to the right door mirror is shown. In the figure, a turning passage line (predicted course line) L1 is a line indicating a locus of a predicted course through which the right corner of the vehicle passes when the steering is turned to the right during forward traveling. If an object is present outside this line, the vehicle can turn without involving the object. However, even if the vehicle is actually an object that may be involved, the overhead view image may appear as if it exists at a position farther than it actually is. Therefore, consider the following measures. Assume that an object with a height of 60 cm exists on the passing line L1 when turning, assuming a bumper of another vehicle, for example. As described with reference to FIGS. 6 and 7, in consideration of the height of the camera 11a provided on the side of the vehicle, an object may exist on the turning pass line L1 in the real space based on the turning pass line L1. A characteristic trajectory line is indicated by a caution area line L2. That is, the caution area line L2 defines a region (caution area) in which an object may exist in the predicted course of the host vehicle in real space. When displaying the bird's-eye view image, the control unit 13 controls the display unit 14 to display the turning passage line L1 and the attention area line L2 as described above so as to overlap the bird's-eye view image. When there is no object inside the caution area line L2, it can be determined that it is possible to turn without touching an object having a height of 60 cm or less. When the control unit 13 acquires the steering angle by the vehicle signal acquisition unit 16 and determines that the steering is steered from the neutral position in the straight traveling state, the turning passage line L1 and the caution area line L2 are displayed. Display. In this case, when the steering is turned to the right, as shown in FIG. 11, the control unit 13 displays the turning passage line L1 and the attention area line L2 in the overhead view image from the camera 11a, When the steering is turned to the left, the control unit 13 displays the turning passage line L1 and the caution area sensor L2 in the overhead view video from the camera 11c. The control unit 13 determines the turning passing line L1 according to the steering angle of the steering, and changes the attention area line in conjunction with the turning passing line L1.

図12は、車両の前方側の俯瞰映像に対する予測進路の説明図である。また、別の表示手法としては、車両の幅に所定のマージンの幅を考慮することにより、自車両が通過する予測進路の軌跡を示す一対の進行方向予想軌跡(予測進路ライン)L1を考える。この進行方向予想軌跡L1は、操舵角、車速といった情報から一義的に算出可能であり、同図では、ステアリングが右にきられているケースでの進行方向予想軌跡L1が示されている。ここで、例えば、車両のバンパーといったように、高さ60cmの物体が存在すると考える。図6,7で説明したように、進行方向予想軌跡L1上にある物体と、車両フロント側のカメラ11dの取り付け位置、および、カメラ11dと物体間の距離を考慮することにより、この進行方向予想軌跡L1に基づいて、実空間において物体が進行方向予想軌跡L1上に存在する可能性のある点群が算出される。そして、これらの点を結び線を引くことにより、その軌跡に対応する一対のラインとして、進行方向予想軌跡L2を描くことが可能となる。すなわち、この進行方向予想軌跡L2によって、実空間において物体が自車両の予測進路内に存在する可能性のある領域(注意エリア)が画定されることとなる。制御部13は、俯瞰映像を表示する際には、この進行方向予想軌跡L1,L2を俯瞰映像に重ね合わせて表示するように、表示部14を制御する。進行方向予想軌跡L2の内側に物体がない場合は、高さ60センチ以下の物体に接触することなく走行することが可能であることが判断できる。なお、図12では、車両の前方側の俯瞰映像に対する予測進路を例に挙げて説明したが、このような予測進路(進行方向予想軌跡L1,L2)は車両の後方側の俯瞰映像に対して表示してもよい。このケースでは、制御部13は、シフトポジションや車速から自車両の後退を判断し、操舵角等を考慮した上で進行方向予想軌跡L1,L2を表示させる。   FIG. 12 is an explanatory diagram of the predicted course for the bird's-eye view image on the front side of the vehicle. As another display method, a pair of predicted traveling direction trajectories (predicted course lines) L1 indicating the trajectory of the predicted course through which the host vehicle passes is considered by considering the width of the vehicle with a predetermined margin. This predicted traveling direction trajectory L1 can be uniquely calculated from information such as the steering angle and the vehicle speed, and in the figure, the predicted traveling direction trajectory L1 in the case where the steering is turned to the right is shown. Here, for example, an object having a height of 60 cm such as a bumper of a vehicle is considered to exist. As described with reference to FIGS. 6 and 7, this traveling direction prediction can be made by considering the object on the traveling direction predicted locus L1, the mounting position of the camera 11d on the vehicle front side, and the distance between the camera 11d and the object. Based on the locus L1, a point group in which the object may exist on the predicted traveling locus L1 in the real space is calculated. Then, by drawing a line connecting these points, it is possible to draw a predicted traveling direction locus L2 as a pair of lines corresponding to the locus. That is, an area (attention area) where an object may exist in the predicted course of the host vehicle in the real space is defined by the predicted travel direction locus L2. When displaying the bird's-eye view image, the control unit 13 controls the display unit 14 so that the predicted traveling directions L1 and L2 are superimposed on the bird's-eye view image. If there is no object inside the predicted travel direction locus L2, it can be determined that the vehicle can travel without touching an object having a height of 60 cm or less. In addition, in FIG. 12, although demonstrated taking the example of the prediction course with respect to the bird's-eye view image of the front side of a vehicle, such a prediction course (travel direction prediction locus L1, L2) is with respect to the bird's-eye view image of the rear side of the vehicle. It may be displayed. In this case, the control unit 13 determines the backward movement of the host vehicle from the shift position and the vehicle speed, and displays the traveling direction predicted trajectories L1 and L2 in consideration of the steering angle and the like.

このように、本実施形態によれば、俯瞰映像を表示させた場合、座標変換の基準となる基準面上に存在する物体に関しては、その位置関係を保ったまま映像の変換を行うことができるが、基準面より高い位置や低い位置にある立体物については、CGで作成される自車両や車両周囲の物体との位置関係が正しく保存されない。そのため、この俯瞰映像において、実空間において物体が自車両の予測進路内に存在する可能性のある領域を表示している。そのため、俯瞰映像中で消失する高さ情報を俯瞰映像上で得ることができ、車両と物体との接触を避けることができる。また、俯瞰映像において、高さのある物体と自車両とが接触する可能性のある位置を領域で確認することができるので、ドライバーにとって分かりやすい表示を行うことができる。これにより、実空間において自車両の予測進路内に存在する物体の位置を考慮して、俯瞰映像上に予測進路を表示することが可能となり、物体との接触といった実態の発生を抑制することができる。   As described above, according to the present embodiment, when an overhead video is displayed, an object existing on a reference plane serving as a reference for coordinate conversion can be converted while maintaining its positional relationship. However, for a three-dimensional object at a position higher or lower than the reference plane, the positional relationship with the host vehicle or objects around the vehicle created by CG is not correctly stored. Therefore, in this bird's-eye view video, an area where an object may exist in the predicted course of the host vehicle is displayed in real space. Therefore, the height information disappearing in the overhead view video can be obtained on the overhead view video, and the contact between the vehicle and the object can be avoided. Further, in the bird's-eye view image, the position where the object with the height and the own vehicle may come into contact can be confirmed in the area, so that the display can be easily understood by the driver. This makes it possible to display the predicted path on the bird's-eye view video in consideration of the position of the object existing in the predicted path of the host vehicle in real space, and to suppress the occurrence of actual conditions such as contact with the object. it can.

なお、本実施形態では、他車両のバンパーを前提として、60センチの高さにある物体(物体の高さを固定)を例にして説明を行った。しかしながら、画像認識を用いて物体の高さを検出することで、その検出された高さに基づいて、図6,7に示す演算を行い、実空間において物体が自車両の予測進路内に存在する可能性のある領域(注意エリア)の広さを可変に設定することも可能である。この場合、制御部13は、車両の種類と、当該車両のバンパーの高さとが関連付けられた対応関係を有している。制御部13は、撮像部11からの画像を直接的に取得し、画像認識で車両の種類を認識し、この認識された車両の種類に基づいて、映像に映し出された車両のバンパーの高さを判定する。そして、制御部13は、図6,7を参照して説明したように、このバンパーの高さに応じて注意エリアの広さを可変に設定する。また、4つのカメラ11a〜11dを備えているため、4つのカメラ11a〜11dの撮影の重複領域の映像を比較することで、物体の高さを認識することも可能である。また、各種のセンサーなどを併用し、物体の高さを検出してもよい。これらのケースでは、例えば、注意エリアを段階的に分けて表示するといったように、より精度よく予測進路を表示することができる。   In the present embodiment, the description has been given by taking an object at a height of 60 cm (the height of the object is fixed) as an example on the premise of a bumper of another vehicle. However, by detecting the height of the object using image recognition, the calculation shown in FIGS. 6 and 7 is performed based on the detected height, and the object exists in the predicted course of the host vehicle in real space. It is also possible to variably set the size of an area (attention area) that may be used. In this case, the control unit 13 has a correspondence relationship in which the type of vehicle is associated with the height of the bumper of the vehicle. The control unit 13 directly acquires the image from the imaging unit 11, recognizes the type of the vehicle by image recognition, and based on the recognized type of the vehicle, the height of the bumper of the vehicle projected on the video Determine. Then, as described with reference to FIGS. 6 and 7, the control unit 13 variably sets the size of the attention area according to the height of the bumper. Further, since the four cameras 11a to 11d are provided, it is possible to recognize the height of the object by comparing the images of the overlapping areas of the photographing of the four cameras 11a to 11d. Further, the height of the object may be detected by using various sensors together. In these cases, for example, the predicted course can be displayed with higher accuracy, such as displaying the attention area in stages.

また、本実施形態において、俯瞰映像中に最も多く存在する色を地面として地面を検出する場合、物体センサーを用いて物体が存在することを確認した場合には、物体が存在する俯瞰映像を対象として予測進路を表示してもよい。これにより、不必要な領域に予測進路が表示されることが抑制されるので、表示の煩わしさを軽減することができる。さらにを、シフトポジションや車速などから進行方向を判定し、進行方向のみに限定して予測進路を表示することにより、さらに表示の煩わしさを低減することが可能となる。   Also, in this embodiment, when the ground is detected using the most common color in the overhead view video as the ground, when the object is confirmed using the object sensor, the overhead view video where the object exists is targeted. The predicted course may be displayed as Thereby, since it is suppressed that a predicted course is displayed on an unnecessary area | region, the troublesomeness of a display can be reduced. Further, by determining the traveling direction from the shift position and the vehicle speed and displaying the predicted course only in the traveling direction, it is possible to further reduce the troublesomeness of the display.

なお、上述した実施形態において説明したように、注意エリアは撮影に用いるカメラの取り付け位置、撮影に用いるカメラと物体との距離、物体の高さによって決定される。本実施形態では、4つのカメラを用いて領域ごとに俯瞰映像を作り出している関係上、個別のカメラ11a〜11dのマスク線E上では、注意エリアが不連続になることがある。そのため、制御部13は、カメラのつなぎ目で注意エリアが連続的に表示するよう、個々の注意エリアを加工してもよい。   Note that, as described in the above-described embodiment, the attention area is determined by the mounting position of the camera used for shooting, the distance between the camera and the object used for shooting, and the height of the object. In the present embodiment, the attention area may be discontinuous on the mask line E of the individual cameras 11a to 11d because the overhead image is created for each area using four cameras. Therefore, the control unit 13 may process individual attention areas so that the attention areas are continuously displayed at the joints of the cameras.

本実施形態に係る予測進路表示装置10の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the prediction course display apparatus 10 which concerns on this embodiment. カメラ11a〜11dの取り付け位置の説明図である。It is explanatory drawing of the attachment position of the cameras 11a-11d. 個々のカメラ11a〜11dの撮像エリアの説明図である。It is explanatory drawing of the imaging area of each camera 11a-11d. 俯瞰映像の説明図である。It is explanatory drawing of a bird's-eye view image | video. 本発明の概念説明図である。It is a conceptual explanatory view of the present invention. 空中に存在する物体Oが俯瞰映像において映し出される位置を説明する説明図である。It is explanatory drawing explaining the position where the object O which exists in the air is projected in a bird's-eye view image. 空中に存在する物体Oが俯瞰映像において映し出される位置を説明する説明図である。It is explanatory drawing explaining the position where the object O which exists in the air is projected in a bird's-eye view image. 図6に示すケースを具体的に説明する説明図である。It is explanatory drawing which demonstrates the case shown in FIG. 6 concretely. 安全マージンエリアA1と注意エリアA2との説明図である。It is explanatory drawing of safety margin area A1 and attention area A2. 操舵時における安全マージンエリアA1と注意エリアA2との説明図である。It is explanatory drawing of the safety margin area A1 and attention area A2 at the time of steering. 車両の側方映像に対する予測進路の説明図である。It is explanatory drawing of the prediction course with respect to the side image | video of a vehicle. 車両の前方映像に対する予測進路の説明図である。It is explanatory drawing of the prediction course with respect to the front image of a vehicle.

符号の説明Explanation of symbols

10 予測進路表示装置
11 撮像部
11a〜11d カメラ
12 映像処理部
13 制御部
14 表示部
15 操作部
16 車両信号取得部
20 自車両
21 他車両
DESCRIPTION OF SYMBOLS 10 Predictive course display apparatus 11 Image pick-up part 11a-11d Camera 12 Image | video process part 13 Control part 14 Display part 15 Operation part 16 Vehicle signal acquisition part 20 Own vehicle 21 Other vehicle

Claims (9)

それぞれが車体の周囲に配置され、自車両周囲の映像を撮像する複数の撮像手段と、
前記複数の撮像手段によって撮像された映像のそれぞれに基づいて、自車両を中心とした周囲の映像を俯瞰的に表した俯瞰映像を作成する画像処理手段と、
前記画像処理手段によって作成された俯瞰映像を表示する表示手段と、
実空間において物体が自車両の予測進路内に存在する可能性のある領域を、当該俯瞰映像と重ね合わせて表示するように、前記表示手段を制御する制御手段と
を有することを特徴とする予測進路表示装置。
A plurality of imaging means that are arranged around the vehicle body and capture images of the surroundings of the vehicle;
Image processing means for creating a bird's-eye view video representing a surrounding image around the host vehicle based on each of the images picked up by the plurality of image pickup means;
Display means for displaying a bird's-eye view video created by the image processing means;
Prediction characterized by comprising control means for controlling the display means so that an area where an object may exist in the predicted course of the host vehicle in real space is displayed superimposed on the overhead view video Course display device.
前記制御手段は、自車両が通過する予測進路の範囲を示す予測進路領域に基づいて、実空間において物体が前記予測進路領域内に存在する可能性のある領域を、前記俯瞰映像と重ね合わせて表示するように、前記表示手段を制御することを特徴とする請求項1に記載された予測進路表示装置。   The control means superimposes an area where an object may exist in the predicted course area in real space on the overhead view video based on a predicted course area indicating a range of the predicted course through which the host vehicle passes. 2. The predicted course display apparatus according to claim 1, wherein the display means is controlled so as to display. 前記制御手段は、自車両が通過する予測進路の軌跡を示す一対の予測進路ラインに基づいて、実空間において物体が前記予測進路ライン上に存在する可能性のある軌跡を示す一対のラインを前記俯瞰映像と重ね合わせて表示するように、前記表示手段を制御することを特徴とする請求項1に記載された予測進路表示装置。   Based on a pair of predicted course lines indicating a predicted course path through which the host vehicle passes, the control means includes a pair of lines indicating a path where an object may exist on the predicted course line in real space. 2. The predicted course display device according to claim 1, wherein the display means is controlled so as to be superimposed on the overhead video. 前記制御手段は、自車両の角隅が通過する予測進路の軌跡を示す予測進路ラインに基づいて、実空間において物体が前記予測進路ライン上に存在する可能性のある軌跡を示すラインを表示するように、前記制御手段を制御することを特徴とする請求項1に記載された予測進路表示装置。   The control means displays a line indicating a path where an object may exist on the predicted path line in real space based on a predicted path line indicating a predicted path path through which a corner of the host vehicle passes. The predicted course display apparatus according to claim 1, wherein the control means is controlled as described above. 前記物体は、他車両の突起部位であることを特徴とする請求項1に記載された予測進路表示装置。   The predicted course display device according to claim 1, wherein the object is a protruding portion of another vehicle. 前記制御手段は、車両の種類と、当該車両の突起部位の高さとが関連付けられた対応関係を有しており、前記他車両が映し出された映像に基づいて、他車両の種類を認識し、当該認識された車両の種類に基づいて、前記映像に映し出された車両の突起部位の高さを判定することを特徴とする請求項5に記載された予測進路表示装置。   The control means has a correspondence relationship in which the type of the vehicle and the height of the projecting portion of the vehicle are associated, and recognizes the type of the other vehicle based on the video image of the other vehicle, 6. The predicted course display apparatus according to claim 5, wherein the height of the protruding portion of the vehicle displayed in the video is determined based on the recognized type of the vehicle. 前記制御部は、前記判定された車両の突起部位の高さに基づいて、実空間において物体が自車両の予測進路内に存在する可能性のある領域の広さを可変に設定することを特徴とする請求項6に記載された予測進路表示装置。   The control unit variably sets the size of a region where an object may exist in the predicted course of the host vehicle in real space based on the determined height of the protruding portion of the vehicle. The predicted course display apparatus according to claim 6. 車両の予測進路を表示する予測進路表示装置において、
それぞれが車体の周囲に配置され、自車両周囲の映像を撮像し、前記撮像された映像のそれぞれに基づいて、自車両を中心とした周囲の映像を俯瞰的に表した俯瞰映像を作成し、実空間において物体が自車両の予測進路内に存在する可能性のある領域を、当該俯瞰映像と重ね合わせて表示することを特徴とする予測進路表示装置。
In a predicted course display device that displays a predicted course of a vehicle,
Each is arranged around the vehicle body, images the surroundings of the host vehicle, and based on each of the captured images, creates a bird's-eye view video showing the surrounding images centered on the host vehicle, A predicted course display device, characterized in that an area in which an object may exist in a predicted course of a host vehicle in real space is displayed so as to overlap with the overhead view video.
予測進路表示方法において、
自車両周囲の映像を複数の撮像手段によって撮像する第1のステップと、
前記第1のステップにおいて撮像された映像のそれぞれに基づいて、自車両を中心とした周囲の映像を俯瞰的に表した俯瞰映像を作成する第2のステップと、
前記第2のステップにおいて作成された俯瞰映像を表示する第3のステップとを有し、
前記第3のステップは、実空間において物体が自車両の予測進路内に存在する可能性のある領域を、当該俯瞰映像と重ね合わせて表示するステップであることを特徴とする予測進路表示方法。
In the predicted course display method,
A first step of capturing an image of the surroundings of the host vehicle with a plurality of imaging means;
A second step of creating a bird's-eye view video representing a bird's-eye view of a surrounding image centered on the host vehicle based on each of the images captured in the first step;
A third step of displaying the overhead view image created in the second step,
The predicted step display method according to claim 3, wherein the third step is a step of displaying an area where an object may exist in the predicted route of the host vehicle in a real space so as to be superimposed on the overhead image.
JP2005123820A 2005-04-21 2005-04-21 Predicted course display device and predicted course display method Active JP4677820B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005123820A JP4677820B2 (en) 2005-04-21 2005-04-21 Predicted course display device and predicted course display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005123820A JP4677820B2 (en) 2005-04-21 2005-04-21 Predicted course display device and predicted course display method

Publications (2)

Publication Number Publication Date
JP2006303985A true JP2006303985A (en) 2006-11-02
JP4677820B2 JP4677820B2 (en) 2011-04-27

Family

ID=37471734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005123820A Active JP4677820B2 (en) 2005-04-21 2005-04-21 Predicted course display device and predicted course display method

Country Status (1)

Country Link
JP (1) JP4677820B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101984A (en) * 2007-10-01 2009-05-14 Nissan Motor Co Ltd Parking assistance device and method
JP2009299387A (en) * 2008-06-16 2009-12-24 Honda Motor Co Ltd Opening/closing body controller
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
JP2020136755A (en) * 2019-02-14 2020-08-31 株式会社デンソー Electronic control device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002079881A (en) * 2000-05-24 2002-03-19 Matsushita Electric Ind Co Ltd Plotter
JP2002314991A (en) * 2001-02-09 2002-10-25 Matsushita Electric Ind Co Ltd Image synthesizer
JP2005047316A (en) * 2003-07-30 2005-02-24 Toyota Motor Corp Collision control device for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002079881A (en) * 2000-05-24 2002-03-19 Matsushita Electric Ind Co Ltd Plotter
JP2002314991A (en) * 2001-02-09 2002-10-25 Matsushita Electric Ind Co Ltd Image synthesizer
JP2005047316A (en) * 2003-07-30 2005-02-24 Toyota Motor Corp Collision control device for vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101984A (en) * 2007-10-01 2009-05-14 Nissan Motor Co Ltd Parking assistance device and method
JP2009299387A (en) * 2008-06-16 2009-12-24 Honda Motor Co Ltd Opening/closing body controller
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
JP2020136755A (en) * 2019-02-14 2020-08-31 株式会社デンソー Electronic control device
JP7279390B2 (en) 2019-02-14 2023-05-23 株式会社デンソー electronic controller

Also Published As

Publication number Publication date
JP4677820B2 (en) 2011-04-27

Similar Documents

Publication Publication Date Title
JP4639753B2 (en) Driving assistance device
JP4425495B2 (en) Outside monitoring device
JP5003946B2 (en) Parking assistance device
JP5503660B2 (en) Driving support display device
JP3695319B2 (en) Vehicle periphery monitoring device
JP3897305B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, control program, and readable recording medium
US20170228605A1 (en) Parking assistance apparatus
WO2013128917A1 (en) Video processing device, video processing method, and video display system
JP5023872B2 (en) Image display control device and image display control system
JP2005112004A (en) Vehicle reversing motion assisting device and vehicle reversing motion assisting method
CN103843326A (en) Image display device, and image display method
JP4192680B2 (en) Moving object periphery monitoring device
JP4374850B2 (en) Moving object periphery monitoring device
JP2002354467A (en) Surrounding information display unit for vehicle
JP4154980B2 (en) Moving object periphery monitoring device
JP3980304B2 (en) Parking assistance device
WO2011013813A1 (en) In-vehicle device and image processing program
JP2006238131A (en) Vehicle periphery monitoring apparatus
JP5617396B2 (en) Driving assistance device
JP4677820B2 (en) Predicted course display device and predicted course display method
JP2008114691A (en) Vehicular periphery monitoring device, and vehicular periphery monitoring image display method
JP4062145B2 (en) Imaging device
JP2009265802A (en) Vehicle visual field support device
JP2011211432A (en) In-vehicle imaging apparatus
JP6573218B2 (en) VEHICLE IMAGE DISPLAY DEVICE AND SETTING METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110117

R150 Certificate of patent or registration of utility model

Ref document number: 4677820

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3