JP4907883B2 - Vehicle periphery image display device and vehicle periphery image display method - Google Patents

Vehicle periphery image display device and vehicle periphery image display method Download PDF

Info

Publication number
JP4907883B2
JP4907883B2 JP2005064968A JP2005064968A JP4907883B2 JP 4907883 B2 JP4907883 B2 JP 4907883B2 JP 2005064968 A JP2005064968 A JP 2005064968A JP 2005064968 A JP2005064968 A JP 2005064968A JP 4907883 B2 JP4907883 B2 JP 4907883B2
Authority
JP
Japan
Prior art keywords
image
vehicle
overhead
unit
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005064968A
Other languages
Japanese (ja)
Other versions
JP2006253872A (en
Inventor
信之 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005064968A priority Critical patent/JP4907883B2/en
Publication of JP2006253872A publication Critical patent/JP2006253872A/en
Application granted granted Critical
Publication of JP4907883B2 publication Critical patent/JP4907883B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両周辺画像表示装置および車両周辺画像表示方法に係り、特に車両の周辺を撮像し運転者に安全な運転を可能とする画像を提供する車両周辺画像表示装置および車両周辺画像表示方法に関する。   The present invention relates to a vehicle periphery image display device and a vehicle periphery image display method, and more particularly to a vehicle periphery image display device and a vehicle periphery image display method that provide an image that captures the periphery of the vehicle and enables a driver to drive safely. About.

従来から、車両等の周辺に設けられた監視カメラによって車両等の周辺を撮像し、撮像された画像データを運転者に提供することで、より安全な運転を実現するための技術が種々開発され普及してきている。   Conventionally, various technologies for realizing safer driving have been developed by imaging the periphery of a vehicle or the like with a monitoring camera provided around the vehicle or the like and providing the captured image data to the driver. It has become widespread.

例えば、見通しの悪い交差点やT字路での左右確認の支援を行うブラインドモニタは、車両の先端部近傍に複数設けられた監視カメラの画像を表示するものである。   For example, a blind monitor that supports left and right confirmations at intersections and T-junctions with poor visibility displays images of a plurality of surveillance cameras provided near the front end of the vehicle.

また、サイドミラー等に取り付けられるサイドブラインドモニタは、左前輪付近から前方を監視するものが多く、狭い道路の通り抜けや障害回避、或いは幅寄せ等に効果を発揮している。   Further, many side blind monitors attached to side mirrors or the like monitor the front from the vicinity of the left front wheel, and are effective in passing through narrow roads, avoiding obstacles, or shifting in width.

さらに、後方車両ナンバプレート近傍に設置されるバックガイドモニタは、車庫入れや並列駐車等を支援するものとして普及している。   Furthermore, a back guide monitor installed in the vicinity of the rear vehicle number plate is widely used to support garage entry and parallel parking.

これらのブラインドモニタ等に用いられる監視カメラは、比較的画角が小さく、監視を所望する方向を指向する監視カメラを適宜手動或いは自動で切り換えて選択するものが多い。   Many of the surveillance cameras used for these blind monitors and the like have a relatively small angle of view and select a surveillance camera that is directed in a desired direction for monitoring by switching manually or automatically as appropriate.

監視カメラの画角を拡大する技術としては、例えば特許文献1には、魚眼レンズを用いた監視装置に関する技術が開示されている。特許文献1は、後方監視カメラの1つに魚眼レンズを用いて広い視野の画像を得ると同時に、魚眼画像を通常の画像に変換して運転者に違和感の無い画像に変換し、通常のバックミラー画像と重畳することによって車両後方の死角を排除する技術を開示している。   As a technique for enlarging the angle of view of the monitoring camera, for example, Patent Document 1 discloses a technique related to a monitoring apparatus using a fisheye lens. Patent Document 1 uses a fisheye lens for one of the rear monitoring cameras to obtain an image with a wide field of view, and at the same time, converts the fisheye image into a normal image and converts it into an image that does not feel uncomfortable for the driver. The technique which eliminates the blind spot behind a vehicle by superimposing on a mirror image is disclosed.

また、特許文献2には、車両周辺を監視する複数の監視カメラを車両の周囲に設け、これら複数の監視カメラから得られる画像を例えば車両の上方の仮想視点から俯瞰した画像に変換・合成する技術が開示されている。
特開2003−196645号公報 特許第3300334号公報
In Patent Document 2, a plurality of monitoring cameras for monitoring the periphery of the vehicle are provided around the vehicle, and an image obtained from the plurality of monitoring cameras is converted and combined into an image viewed from a virtual viewpoint above the vehicle, for example. Technology is disclosed.
JP 2003-196645 A Japanese Patent No. 3300334

上述したブラインドモニタ、サイドブラインドモニタ、或いはバックガイドモニタは、比較的簡素な構成で実現できるため、今日広く普及している技術である。   The above-described blind monitor, side blind monitor, or back guide monitor can be realized with a relatively simple configuration, and thus is a widely used technology today.

しかしながら、これらの技術による監視画像は、運転状況に応じて適宜選択し切り換えることを前提としており、監視対象とする空間は限定されたものである。例えばブラインドモニタを用いて見通しの悪い交差点やT字路において前方左右方向を監視しているときには車両側方に接近している二輪車や通行者をモニタすることはできない。   However, monitoring images based on these techniques are premised on appropriate selection and switching according to driving conditions, and the space to be monitored is limited. For example, when a blind monitor is used to monitor the front left / right direction at an intersection or T-shaped road with poor visibility, it is not possible to monitor a motorcycle or a passerby approaching the side of the vehicle.

また、サイドブラインドモニタを選択している場合には、車両後方の障害物や車両後方に接近している通行者等をモニタすることができない。   In addition, when the side blind monitor is selected, it is impossible to monitor an obstacle behind the vehicle, a passerby approaching the vehicle rear, or the like.

バックガイドモニタは車庫入れや並列駐車の運転支援に有効であるが、車両後方の比較的車両に近接した空間をモニタしているため、車両とある程度離れた地点にいる接近車両は必ずしも十分にモニタすることはできない。   The back guide monitor is effective for driving support for garage parking and parallel parking, but because it monitors the space relatively close to the vehicle behind the vehicle, the approaching vehicle at a certain distance from the vehicle is not always sufficiently monitored. I can't do it.

このように、上記のブラインドモニタ等は、特定の運転状況において特定の監視範囲の画像を運転者に提供することで運転者を支援するものであり、監視方向や監視範囲は限定されたものとなっており車両周辺の部分的な画像を提供するに留まっている。   As described above, the blind monitor or the like supports the driver by providing the driver with an image of a specific monitoring range in a specific driving situation, and the monitoring direction and the monitoring range are limited. It is only providing partial images around the vehicle.

特許文献1は、後方監視カメラに魚眼レンズを用いて画角を拡大する実施形態を開示しているが、基本的には上記ブラインドモニタ等と同様に特定の監視方向をモニタするものである。   Patent Document 1 discloses an embodiment in which the angle of view is enlarged using a fisheye lens in a rear monitoring camera, but basically a specific monitoring direction is monitored in the same manner as the blind monitor and the like.

これに対して、特許文献2が開示する車両周辺画像表示装置は、車両周辺を監視する複数の監視カメラを車両の周囲に設け、これら複数の監視カメラから得られる画像を例えば車両の上方の仮想視点から俯瞰した俯瞰画像に変換・合成するもので、車両周辺の広い範囲の画像を選択や切り換え操作をすることなく1つの画像として提供するものである。このため、運転者等にユーザに対する利便性が向上するとしている。   On the other hand, the vehicle periphery image display device disclosed in Patent Document 2 is provided with a plurality of monitoring cameras for monitoring the periphery of the vehicle, and images obtained from the plurality of monitoring cameras are, for example, virtual above the vehicle. The image is converted and combined into a bird's-eye view image viewed from the viewpoint, and a wide range of images around the vehicle is provided as a single image without selection or switching operation. For this reason, it is said that the convenience for the user is improved for the driver or the like.

特許文献2が開示する車両周辺画像表示装置では、標準レンズ装着の通常のカメラを使用していると推定される。このため、車両周辺の全方位(360度)の合成画像を得るために8台の監視カメラ画像を合成する実施形態となっている。   In the vehicle periphery image display device disclosed in Patent Document 2, it is estimated that a normal camera with a standard lens is used. For this reason, in order to obtain a composite image of all directions (360 degrees) around the vehicle, it is an embodiment in which eight surveillance camera images are combined.

監視カメラに魚眼レンズ等の広画角レンズを用いることによって、より少ない監視カメラ、例えば4台程度の監視カメラであっても車両周辺の全方位(360度)を監視することが可能になると考えられる。   By using a wide-angle lens such as a fisheye lens for the surveillance camera, it is considered that even with fewer surveillance cameras, for example, about 4 surveillance cameras, it is possible to monitor all directions (360 degrees) around the vehicle. .

ところで、実際の監視カメラ、例えばバックミラー等に装着された監視カメラの画像を、車両上方にある仮想視点から俯瞰した俯瞰画像に正確に変換するためには対象物の3次元情報が必要である。   By the way, in order to accurately convert an image of an actual surveillance camera, for example, a surveillance camera mounted on a rearview mirror, into an overhead image viewed from a virtual viewpoint above the vehicle, three-dimensional information of the object is necessary. .

しかしながら、実際の監視カメラで得られる画像情報は、車両周辺の立体物(3次元情報)を2次元に投射した2次元情報として得られるため、1つの次元情報が欠落したものとなっている。複数の監視カメラを用いて同一の対象物を撮像することによって3次元情報を得ることも原理的には可能であるが、対象物が車両の全周囲に亘るような場合には、監視カメラの数も増加し処理も複雑になるため、現実的な解決方法とは言い難い。   However, since the image information obtained by an actual surveillance camera is obtained as two-dimensional information obtained by projecting a three-dimensional object (three-dimensional information) around the vehicle in two dimensions, one-dimensional information is missing. In principle, it is possible to obtain three-dimensional information by imaging the same object using a plurality of surveillance cameras. However, if the object covers the entire circumference of the vehicle, Since the number increases and the processing becomes complicated, it is not a realistic solution.

そこで、バックミラー等に装着された監視カメラの2次元画像を、車両上方にある仮想視点から俯瞰した俯瞰画像に変換する際には、対象物の立体形状(空間モデル)に対して所定の仮定を行うことがしばしば行われる。   Therefore, when a two-dimensional image of a surveillance camera mounted on a rearview mirror or the like is converted into an overhead image viewed from a virtual viewpoint above the vehicle, predetermined assumptions are made with respect to the three-dimensional shape (space model) of the object. Is often done.

具体的には、立体形状をなす対象物を路面平面等の面上に投射された投射画像(2次元形状)として扱う(特許文献2参照)。   Specifically, an object having a three-dimensional shape is treated as a projection image (two-dimensional shape) projected on a plane such as a road surface (see Patent Document 2).

この結果、俯瞰画像を見る運転者は、路上にある立体物を路面上の模様として誤認する虞が生じる。運転者が余裕をもって俯瞰画像を観察することができる場合であれば、対象画像の形状や色彩等から運転者のもつ経験に基づいて対象物が立体物であることを認識することが可能であろう。しかしながら、車両周辺画像表示装置が効果を発揮するような場面では、運転者に余裕をもって俯瞰画像を観察することが期待できない場合が多く、俯瞰画像に映し出された対象物が立体物であるか否かを瞬時に判断できる機能が要望されている。   As a result, the driver who sees the bird's-eye view image may misidentify a three-dimensional object on the road as a pattern on the road surface. If the driver can observe the bird's-eye view image with a margin, it is possible to recognize that the object is a three-dimensional object based on the experience of the driver from the shape and color of the object image. Let's go. However, in scenes where the vehicle periphery image display device is effective, it is often impossible to expect the driver to observe the overhead image with a margin, and whether or not the object displayed in the overhead image is a three-dimensional object. There is a demand for a function that can instantly determine whether or not.

また、視線方向の異なる2台のカメラの共通の視野領域に立体物が存在する場合には、2台のカメラから路面上に投射される位置が異なるため、路面に接している部分以外は分離した合成画像となってしまう。   Also, when there is a three-dimensional object in the common field of view of two cameras with different line-of-sight directions, the positions projected from the two cameras on the road surface are different, so the parts other than the part in contact with the road surface are separated. Will result in a composite image.

例えば、2台のカメラの共通の視野領域に1人の歩行者が入った場合には、路面上にある歩行者の足部では合致した画像が得られるものの、歩行者の胴体部や頭部の部分は分離した画像として合成されるため、あたかも2人の歩行者が存在するかのような誤認を生じる虞もある。   For example, if one pedestrian enters the common field of view of two cameras, a matching image can be obtained on the pedestrian's foot on the road surface, but the pedestrian's torso and head Since this part is synthesized as a separated image, there is a risk of misunderstanding as if there are two pedestrians.

特許文献2が開示する技術では、立体物と平面物とを容易に区別することができない。また、2台のカメラの共通の視野領域に存在する立体物の分離現象を防止できない。   The technique disclosed in Patent Document 2 cannot easily distinguish between a three-dimensional object and a planar object. In addition, the separation phenomenon of the three-dimensional object existing in the common visual field area of the two cameras cannot be prevented.

また、車両の全周囲を映し出す俯瞰画像が提供できたとしても、それだけでは運転者に十分な安全性を提供できたとは言えない。運転状況を自動的に把握し、運転状況に応じた最適な運転支援情報を俯瞰画像に加えて表示し、統合的に運転支援を行うことができる車両周辺画像表示装置が求められている。   Moreover, even if it is possible to provide a bird's-eye view image that reflects the entire periphery of the vehicle, it cannot be said that sufficient safety can be provided to the driver. There is a need for a vehicle periphery image display device that can automatically grasp a driving situation, display optimal driving assistance information according to the driving situation in addition to a bird's-eye view image, and perform driving assistance in an integrated manner.

本発明は上記事情に鑑みてなされたもので、車両周辺の立体物を識別可能にかつ適切に表示することができる俯瞰画像を生成すると共に、運転状況を自動的に把握し、運転状況に応じた最適な運転支援情報を俯瞰画像に加えて表示し統合的に運転支援を行うことができる車両周辺画像表示装置および車両周辺画像表示方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and generates a bird's-eye view image that can identify and appropriately display a three-dimensional object around the vehicle, automatically grasps the driving situation, and responds to the driving situation. Another object of the present invention is to provide a vehicle periphery image display device and a vehicle periphery image display method capable of displaying the optimum driving support information in addition to the overhead image and performing integrated driving support.

本発明に係る車両周辺画像表示装置は、上記課題を解決するため、請求項1に記載したように、車両の周辺を撮像する複数の魚眼カメラから得られる複数の画像を夫々通常の画像に正規化処理し正規化画像を生成する正規化処理部と、前記正規化画像から、車両上方の仮想視点から車両の周辺を俯瞰する俯瞰画像を生成する俯瞰画像生成部と、前記車両の運転を支援するための運転支援画像を生成する支援画像生成部と、前記運転支援画像と前記俯瞰画像とを合成する画像合成部と、前記俯瞰画像とともに前記運転支援画像を表示する表示部と、前記車両周辺の立体物の位置または方向を検出する立体物検出部と、を備え、前記支援画像生成部は、検出された前記立体物の位置または方向に応じて、前記立体物を撮像している前記正規化画像を前記運転支援画像として選択し、前記画像合成部は、前記俯瞰画像に含まれる前記障害物と前記運転支援画像とが相互に重ならないように、前記俯瞰画像中の前記障害物の位置に応じて前記俯瞰画像に合成される前記運転支援画像の表示位置を動的に決定する、ことを特徴とする。 In order to solve the above problems, a vehicle periphery image display device according to the present invention converts a plurality of images obtained from a plurality of fisheye cameras that capture the periphery of the vehicle into normal images. A normalization processing unit that generates a normalized image by performing a normalization process, an overhead image generation unit that generates an overhead view image that overlooks the periphery of the vehicle from a virtual viewpoint above the vehicle, and driving the vehicle. A support image generating unit that generates a driving support image for supporting, an image combining unit that combines the driving support image and the overhead image, a display unit that displays the driving support image together with the overhead image, and the vehicle A three-dimensional object detection unit that detects a position or direction of a surrounding three-dimensional object, and the support image generation unit images the three-dimensional object according to the detected position or direction of the three-dimensional object. Normalized image Selected as the driving support image, the image synthesizing unit, said as the obstacle included in the overhead image and said driving support image do not overlap with each other, depending on the position of the obstacle in the bird's-eye view image The display position of the driving support image combined with the overhead image is dynamically determined .

また、本発明に係る車両周辺画像表示方法は、上記課題を解決するため、請求項2に記載したように、車両の周辺を撮像する複数の魚眼カメラから得られる複数の画像を夫々通常の画像に正規化処理し正規化画像を生成するステップと、前記正規化画像から、車両上方の仮想視点から車両の周辺を俯瞰する俯瞰画像を生成するステップと、前記車両の運転を支援するための運転支援画像を生成するステップと、前記運転支援画像と前記俯瞰画像とを合成するステップと、前記俯瞰画像とともに前記運転支援画像を表示するステップと、前記車両周辺の立体物の位置または方向を検出するステップと、を備え、前記運転支援画像を生成するステップでは、検出された前記立体物の位置または方向に応じて、前記立体物を撮像している前記正規化画像を前記運転支援画像として選択し、前記合成するステップでは、前記俯瞰画像に含まれる前記障害物と前記運転支援画像とが相互に重ならないように、前記俯瞰画像中の前記障害物の位置に応じて前記俯瞰画像に合成される前記運転支援画像の表示位置を動的に決定する、ことを特徴とする。 In addition, in order to solve the above-described problem, the vehicle periphery image display method according to the present invention provides a plurality of images obtained from a plurality of fisheye cameras that capture images of the periphery of the vehicle. A step of normalizing the image to generate a normalized image, a step of generating an overhead view image for overlooking the periphery of the vehicle from a virtual viewpoint above the vehicle from the normalized image, and for supporting driving of the vehicle Generating a driving assistance image; synthesizing the driving assistance image and the overhead image; displaying the driving assistance image together with the overhead image; and detecting a position or direction of a three-dimensional object around the vehicle And normalizing imaging the three-dimensional object according to the detected position or direction of the three-dimensional object in the step of generating the driving assistance image. Select an image as the driving support image, wherein in the step of combining, as the obstacle included in the overhead image and said driving support image do not overlap each other, the position of the obstacle in the bird's-eye view image Accordingly, the display position of the driving support image combined with the overhead image is dynamically determined .

本発明に係る車両周辺画像表示装置および車両周辺画像表示方法によれば、車両周辺の立体物を識別可能にかつ適切に表示することができる俯瞰画像を生成すると共に、運転状況を自動的に把握し、運転状況に応じた最適な運転支援情報を俯瞰画像に加えて表示し統合的に運転支援を行うことができる。   According to the vehicle periphery image display device and the vehicle periphery image display method according to the present invention, a bird's-eye view image capable of identifying and appropriately displaying a three-dimensional object around the vehicle is generated and the driving situation is automatically grasped. In addition, the optimum driving support information corresponding to the driving situation can be displayed in addition to the bird's-eye view image and integrated driving support can be performed.

本発明に係る車両周辺画像表示装置及び車両周辺画像表示方法の実施形態について添付図面を参照して説明する。   Embodiments of a vehicle periphery image display device and a vehicle periphery image display method according to the present invention will be described with reference to the accompanying drawings.

(1)車両周辺画像表示装置及び車両周辺画像表示方法の概念と基本構成
図1(a)及び(b)は、本発明の実施形態に係る車両周辺画像表示装置及び車両周辺画像表示方法を用いて車両100の周辺画像を生成、表示する際の全体概念を示す図である。
(1) Concept and Basic Configuration of Vehicle Peripheral Image Display Device and Vehicle Peripheral Image Display Method FIGS. 1A and 1B use the vehicle peripheral image display device and the vehicle peripheral image display method according to the embodiment of the present invention. 2 is a diagram showing an overall concept when generating and displaying a peripheral image of a vehicle 100. FIG.

図1(a)に示したように、車両100の外周の適宜の部位に複数の監視カメラ(魚眼カメラ)200が装着される。監視カメラ200の台数や装着位置は特に限定するものではないが、例えば、車両100の前方ナンバプレート近辺に前方監視カメラ200aが、後方ナンバプレート近辺に後方監視カメラ200bが装着される。また、左サイドミラーには左側方監視カメラ200cが、右サイドミラーには右側方監視カメラ200dがそれぞれ装着される。   As shown in FIG. 1A, a plurality of monitoring cameras (fisheye cameras) 200 are attached to appropriate portions on the outer periphery of the vehicle 100. The number and mounting positions of the monitoring cameras 200 are not particularly limited. For example, the front monitoring camera 200a is mounted near the front number plate of the vehicle 100, and the rear monitoring camera 200b is mounted near the rear number plate. A left side monitoring camera 200c is attached to the left side mirror, and a right side monitoring camera 200d is attached to the right side mirror.

各監視カメラ200a、200b、200c、及び200d(以下、これらの総称を意味する場合は単に監視カメラ200と呼ぶ。)は、図1(b)に示したように、車両100の周辺領域、即ち前方領域Aoa、後方領域Aob、左側方領域Aoc、及び右側方領域Aodの各領域の画像を撮像する。   Each monitoring camera 200a, 200b, 200c, and 200d (hereinafter simply referred to as the monitoring camera 200 when referring to these generic names) is a peripheral area of the vehicle 100, that is, as shown in FIG. An image of each of the front area Aoa, the rear area Aob, the left side area Aoc, and the right side area Aod is taken.

監視カメラ200の画角は特に限定するものではないが、少ない台数で車両100の全集をカバーすることが可能であることから、広画角であることが好ましい。例えば水平方向の画角が約180度或いはそれ以上の魚眼レンズを用いた4台の監視カメラ200によって、車両100の周辺の総ての範囲(水平方向360度の範囲)を監視することができる。   Although the angle of view of the monitoring camera 200 is not particularly limited, it is preferable that the angle of view is wide because the entire collection of the vehicle 100 can be covered with a small number of vehicles. For example, the entire range (range of 360 degrees in the horizontal direction) around the vehicle 100 can be monitored by four monitoring cameras 200 using fisheye lenses having a horizontal angle of view of about 180 degrees or more.

監視カメラ200のレンズが魚眼レンズ等の超広画角の場合は撮像された画像は歪みを伴った画像となるが、本発明の実施形態に係る車両周辺画像表示装置及び車両周辺画像表示方法では、適宜の歪み補正手段によって歪みの無い画像(以下、正規化画像と呼ぶ)に変換するものとしている。   When the lens of the monitoring camera 200 has a super wide angle of view such as a fisheye lens, the captured image is an image with distortion. In the vehicle peripheral image display device and the vehicle peripheral image display method according to the embodiment of the present invention, The image is converted into an image without distortion (hereinafter referred to as a normalized image) by appropriate distortion correction means.

各監視カメラ200a、200b、200c、及び200dの撮像画像に対して歪みを補正した正規化画像は、対応する領域、即ち前方領域Aoa、後方領域Aob、左側方領域Aoc、及び右側方領域Aodの各領域を、それぞれの監視カメラ200が装着されている視点から眺めた画像となっている。   The normalized images obtained by correcting the distortions for the captured images of the surveillance cameras 200a, 200b, 200c, and 200d are the corresponding regions, that is, the front region Aoa, the rear region Aob, the left side region Aoc, and the right side region Aod. Each area is an image viewed from the viewpoint where each monitoring camera 200 is mounted.

各正規化画像は、車両100の上方に設けた仮想視点Pから車両周辺を俯瞰した画像に変換される。この変換は、適宜のパラメータを備えた画像変換行列等を用いて行うことができる。さらに、個々の俯瞰画像を合成することによって、車両100の全周囲を仮想視点Pから俯瞰した俯瞰画像Pddが生成される。   Each normalized image is converted from a virtual viewpoint P provided above the vehicle 100 into an image in which the periphery of the vehicle is viewed from above. This conversion can be performed using an image conversion matrix having appropriate parameters. Furthermore, by combining the individual overhead images, an overhead image Pdd in which the entire periphery of the vehicle 100 is overhead viewed from the virtual viewpoint P is generated.

このようにして生成された俯瞰画像Pddを、例えば運転席前部に設けられた画像表示部(表示部)140に表示して運転者に提供することで、車両100の全周囲の障害物や通行者等の状況を運転者に対して瞬時に知らしめることが可能となり、運転の安全性を向上させることができる。   The bird's-eye view image Pdd generated in this way is displayed on, for example, an image display unit (display unit) 140 provided in the front part of the driver's seat and provided to the driver. It is possible to instantly inform the driver of the situation of the passerby and the like, and driving safety can be improved.

また、本発明の実施形態に係る車両周辺画像表示装置及び車両周辺画像表示方法では、俯瞰画像Pddの中に通行者等の立体物が存在する場合には、その立体物画像を識別し、運転者に視認容易に提示することで、運転の安全性をより一層向上させることができる。   Further, in the vehicle periphery image display device and the vehicle periphery image display method according to the embodiment of the present invention, when a three-dimensional object such as a passerby exists in the overhead image Pdd, the three-dimensional object image is identified and the driving is performed. The safety of driving can be further improved by presenting it easily to the user.

この他、運転状況をモニタし、運転状況に対応した運転支援情報や画像情報を俯瞰画像Pddに合成して表示させることによって、統合的な運転支援を提供することができる。   In addition, integrated driving support can be provided by monitoring driving conditions and combining and displaying driving support information and image information corresponding to the driving conditions on the overhead image Pdd.

図2は、本発明の実施形態に係る車両周辺画像表示装置1の基本構成を示す図である。   FIG. 2 is a diagram showing a basic configuration of the vehicle periphery image display device 1 according to the embodiment of the present invention.

車両周辺画像表示装置1は、魚眼レンズを備える各監視カメラ200a、200b、200c、及び200dから入力される画像データを一時的に記憶する画像バッファ2、魚眼レンズで撮像された画像の歪みを補正し個々の(監視カメラ200の数に対応した)正規化画像として出力する正規化処理部3、個々の正規化画像を仮想視点Pから俯瞰した画像に変換しさらに合成することによって車両100の全周囲を俯瞰した俯瞰画像Pddを生成する俯瞰画像生成部4、俯瞰画像Pddを他の画像や運転支援画像と合成し画像表示部140へ出力する画像合成部6を備えている。   The vehicle peripheral image display device 1 corrects distortion of an image captured by a fisheye lens, an image buffer 2 that temporarily stores image data input from each of the monitoring cameras 200a, 200b, 200c, and 200d including the fisheye lens. The normalization processing unit 3 that outputs the normalized images (corresponding to the number of the monitoring cameras 200), and converts the individual normalized images into an image viewed from the virtual viewpoint P, and further synthesizes the entire periphery of the vehicle 100 An overhead view image generation unit 4 that generates an overhead view image Pdd that is seen from above, and an image composition unit 6 that synthesizes the overhead view image Pdd with other images and driving support images and outputs them to the image display unit 140 are provided.

また、車両周辺画像表示装置1は、生成した俯瞰画像Pddの中に立体物が存在するか否かを識別し、立体物が存在する場合にはその立体物の画像を画像合成部6へ出力する立体物識別部5を備えている。   Further, the vehicle peripheral image display device 1 identifies whether or not a three-dimensional object exists in the generated overhead image Pdd. If a three-dimensional object exists, the image of the three-dimensional object is output to the image composition unit 6. The three-dimensional object identification unit 5 is provided.

さらにまた、車両周辺画像表示装置1は、車速や繰舵角等をモニタする車両センサ110や、車両100の周辺の障害物を検出する立体物検出部120からの情報に基づいて、運転者が関心を向けるであろう関心方向や関心領域を推定する関心領域推定部7を備える。まあ、推定された関心領域の画像を正規化画像から抽出、拡大等して関心領域画像(部分画像)を生成する他、複数の正規化画像を正規化処理部3から入力し画像合成部6へ出力する支援画像生成部8を備えている。   Furthermore, the vehicle periphery image display device 1 is based on information from the vehicle sensor 110 that monitors the vehicle speed, the steering angle, and the like, and information from the three-dimensional object detection unit 120 that detects obstacles around the vehicle 100. A region-of-interest estimation unit 7 is provided for estimating a direction of interest and a region of interest that would be of interest. In addition to generating an image of a region of interest (partial image) by extracting and enlarging the estimated image of the region of interest from the normalized image, a plurality of normalized images are input from the normalization processing unit 3 and the image composition unit 6 A support image generation unit 8 for outputting to

この他、車両周辺画像表示装置1は、低速運転時に車速や繰舵角等から車両100の軌跡、例えば車両の前後左右の4隅の予想軌跡を算出する軌跡算出部9、算出された予想軌跡や車両100の周辺の安全余裕領域を示すガイド線等の運転支援画像を生成し、画像合成部6へ出力するガイド線等生成部10を備えている。   In addition, the vehicle periphery image display device 1 includes a trajectory calculation unit 9 that calculates the trajectory of the vehicle 100 from the vehicle speed, the steering angle, and the like, for example, the predicted trajectories at the four corners of the front, rear, left, and right during low-speed driving. And a guide line generation unit 10 that generates a driving support image such as a guide line indicating a safety margin area around the vehicle 100 and outputs it to the image composition unit 6.

上記のように構成された車両周辺画像表示装置1の動作について、各構成部の細部構成を参照しつつ説明する。   The operation of the vehicle periphery image display device 1 configured as described above will be described with reference to the detailed configuration of each component.

(2)俯瞰画像生成部と立体物識別部の細部構成と動作
図3は、俯瞰画像生成部4の細部構成を示した図である。
(2) Detailed Configuration and Operation of Overhead Image Generation Unit and Solid Object Identification Unit FIG. 3 is a diagram illustrating a detailed configuration of the overhead view image generation unit 4.

俯瞰画像生成部4は、俯瞰画像変換部40a、40b、40c、及び40d、変換パラメータ生成部41,及び俯瞰画像統合部42を備えて構成される。   The overhead image generation unit 4 includes an overhead image conversion unit 40a, 40b, 40c, and 40d, a conversion parameter generation unit 41, and an overhead image integration unit 42.

俯瞰画像生成部4には、正規化画像が入力される。正規化画像とは、例えば魚眼レンズを備え車両100の周囲に装着された4台の監視カメラ200で撮像された画像を正規化処理部3で補正した後の画像である。   The overhead image generation unit 4 receives a normalized image. The normalized image is, for example, an image obtained by correcting images captured by four monitoring cameras 200 including fisheye lenses and mounted around the vehicle 100 using the normalization processing unit 3.

個々の正規化画像は、俯瞰画像変換部40a、40b、40c、及び40dにおいて、各監視カメラ200の視点で見た画像から、仮想視点Pから俯瞰した個々の俯瞰画像に変換される。この変換は、各監視カメラ200に関するパラメータと仮想視点Pに関するパラメータ等によって生成される変換パラメータに基づいて行うことができる。   Individual normalized images are converted from images viewed from the viewpoint of each monitoring camera 200 into individual overhead images viewed from the virtual viewpoint P in the overhead image conversion units 40a, 40b, 40c, and 40d. This conversion can be performed based on conversion parameters generated by parameters relating to each monitoring camera 200 and parameters relating to the virtual viewpoint P.

各監視カメラ200に関するパラメータとは、各監視カメラ200の位置情報、視線方向等であり、仮想視点Pに関するパラメータとは、仮想視点Pの位置情報、仮想視点から俯瞰する視線方向、視野範囲等であり、これらの変換パラメータは変換パラメータ生成部41で生成される。   The parameters related to each monitoring camera 200 are the position information and the line-of-sight direction of each monitoring camera 200, and the parameters related to the virtual viewpoint P are the position information of the virtual viewpoint P, the line-of-sight direction viewed from the virtual viewpoint, the field-of-view range, and the like. These conversion parameters are generated by the conversion parameter generation unit 41.

個々の俯瞰画像、例えば4台の監視カメラ200に基づく4つの俯瞰画像は、俯瞰画像統合部42において1つの俯瞰画像Pddに統合される。統合された俯瞰画像Pddは、車両100の全周囲を仮想視点Pから俯瞰した画像となっている。   Individual overhead images, for example, four overhead images based on the four monitoring cameras 200, are integrated into one overhead image Pdd in the overhead image integration unit 42. The integrated bird's-eye view image Pdd is an image in which the entire periphery of the vehicle 100 is seen from the virtual viewpoint P.

生成された俯瞰画像Pddは、立体物識別部5及び画像合成部6へ出力される。   The generated overhead image Pdd is output to the three-dimensional object identification unit 5 and the image composition unit 6.

立体物識別部5は、俯瞰画像Pddの中に立体物が含まれるか否かを判定し、立体物が含まれる場合にはその立体物の画像を抽出し画像合成部6へ出力することを目的として設けられているものである。   The three-dimensional object identification unit 5 determines whether or not a three-dimensional object is included in the overhead image Pdd. If a three-dimensional object is included, the three-dimensional object is extracted and output to the image composition unit 6. It is provided as a purpose.

監視カメラ200が撮像する対象物は、平面物(路上の模様等を含む)に限らず立体物、例えば路上に設置されている障害物や路上を通行する通行者等を含むものである。   Objects to be imaged by the monitoring camera 200 are not limited to flat objects (including road patterns and the like) but include three-dimensional objects such as obstacles installed on the road and passers-by passing on the road.

しかしながら、図4に示したように、例えば左側方監視カメラ200cが立体物Ob(例えば路上を通行する幼児等)を撮像する場合には、左側方監視カメラ200cから得られる画像は立体物Obを路上に投射した投射画像として得られる。即ち、立体物Obの3次元情報は失われ、路面上に存在する2次元物として捉えられる。   However, as shown in FIG. 4, for example, when the left side monitoring camera 200c captures a three-dimensional object Ob (for example, an infant traveling on the road), the image obtained from the left side monitoring camera 200c represents the three-dimensional object Ob. Obtained as a projected image projected on the road. That is, the three-dimensional information of the three-dimensional object Ob is lost, and is captured as a two-dimensional object existing on the road surface.

このため、この投射画像を仮想視点Pから俯瞰した俯瞰画像Pddに変換したとしても、図4(b)に示したように路面上に投射された俯瞰画像Podとして得られることになる。もっとも、複数の監視カメラを用いて同一の対象物を撮像することによって3次元情報を取得することも原理的には可能であるが、対象物が車両の全周囲に亘るような場合には、監視カメラの数も増加し処理も複雑になるため、現実的な解決方法とは言い難い。   For this reason, even if this projection image is converted into an overhead image Pdd viewed from the virtual viewpoint P, it is obtained as an overhead image Pod projected on the road surface as shown in FIG. Of course, it is also possible in principle to acquire three-dimensional information by imaging the same object using a plurality of surveillance cameras, but when the object extends all around the vehicle, Since the number of surveillance cameras increases and the processing becomes complicated, it is difficult to say that this is a realistic solution.

そこで、本発明の実施形態では、監視カメラ200で得られるの2次元画像を、車両上方にある仮想視点から俯瞰した俯瞰画像に変換する際には、対象物の立体形状(空間モデル)に対して、立体対象物は路面上に投射された2次元形状をなしているものとの仮定を行っている。このため、俯瞰画像Pddで得られる立体物の画像は路面上に投射された形状として表現される。   Therefore, in the embodiment of the present invention, when a two-dimensional image obtained by the monitoring camera 200 is converted into a bird's-eye view image viewed from a virtual viewpoint above the vehicle, the three-dimensional shape (space model) of the target object is converted. Thus, it is assumed that the three-dimensional object has a two-dimensional shape projected on the road surface. For this reason, the image of the three-dimensional object obtained by the overhead image Pdd is expressed as a shape projected on the road surface.

この結果、俯瞰画像を見る運転者は、路上にある立体物Obを路面上の模様として誤認する虞が生じる。運転者が余裕をもって俯瞰画像Pddを観察することができる場合であれば、対象画像の形状や色彩等から運転者のもつ経験に基づいて対象物Obが立体物であることを認識することが可能であろう。しかしながら、車両周辺画像表示装置1が効果を発揮するような場面では、運転者に余裕をもって俯瞰画像Obを観察することが期待できな場合多い。このため、立体物識別部5において俯瞰画像Pddに映し出された対象物が立体物であるか否か判定する機能を別途設ける構成としている。   As a result, the driver who views the bird's-eye view image may misidentify the three-dimensional object Ob on the road as a pattern on the road surface. If the driver can observe the overhead image Pdd with a margin, it is possible to recognize that the object Ob is a three-dimensional object based on the experience of the driver from the shape and color of the target image. Will. However, in a scene where the vehicle periphery image display device 1 is effective, it is often impossible to expect the driver to observe the overhead image Ob with a margin. For this reason, it is set as the structure which provides separately the function which determines whether the target object projected on the bird's-eye view image Pdd in the solid-object identification part 5 is a solid object.

図5は、立体物識別部5の細部構成を示したものである。   FIG. 5 shows a detailed configuration of the three-dimensional object identification unit 5.

立体物識別部5は、俯瞰画像生成部4から入力される俯瞰画像Pddを例えば1フレーム分記憶し1フレーム時間だけ遅延させるフレームメモリ部50と、1フレーム時間遅延された俯瞰画像Pddを、1フレーム時間に車両が移動する移動距離だけシフトさせるフレームシフト画像生成部51を備える。   The three-dimensional object identification unit 5 stores, for example, one frame of the overhead image Pdd input from the overhead image generation unit 4 and delays the overhead image Pdd delayed by one frame time by 1 frame time. A frame shift image generation unit 51 is provided that shifts the moving distance that the vehicle moves during the frame time.

また、フレームシフトされた前フレームの俯瞰画像Pdd(N)’と新たなフレームの俯瞰画像Pdd(N)との差分画像Pdfを求める差分画像処理部53と、差分画像と前記新たなフレームの俯瞰画像Pdd(N)との相関処理を行い立体物画像を抽出する相関処理部54とを備える。   Further, the difference image processing unit 53 for obtaining a difference image Pdf between the bird's-eye view image Pdd (N) ′ of the previous frame shifted and the bird's-eye view image Pdd (N) of the new frame, and the bird's-eye view of the difference image and the new frame A correlation processing unit 54 that performs a correlation process with the image Pdd (N) and extracts a three-dimensional object image;

この他、車両センサ110から入力される車速と、所定のフレーム時間とからフレーム時間あたりの移動量Dfを算出するフレーム移動量演算部52を備えている。   In addition, a frame movement amount calculation unit 52 that calculates a movement amount Df per frame time from the vehicle speed input from the vehicle sensor 110 and a predetermined frame time is provided.

上記のように構成された立体物識別部5の動作について図6を用いて説明する。   The operation of the three-dimensional object identification unit 5 configured as described above will be described with reference to FIG.

まず、フレームメモリ部50に、(N−1)フレーム目の俯瞰画像Pdd(N-1)が入力され、記憶される。フレームメモリ部50は、俯瞰画像Pdd(N-1)を1フレーム時間だけ遅延させる。俯瞰画像Pdd(N-1)には、例えば、立体物Obが路面に投射された画像Im1と、路面上に描かれた停止線の画像Ims1、及び同じく路面上に描かれた「徐行注意」の注意標識の画像Ims2とが含まれている。   First, the overhead image Pdd (N-1) of the (N-1) th frame is input and stored in the frame memory unit 50. The frame memory unit 50 delays the overhead image Pdd (N-1) by one frame time. In the bird's-eye view image Pdd (N-1), for example, the image Im1 in which the three-dimensional object Ob is projected onto the road surface, the image Ims1 of the stop line drawn on the road surface, and “slow attention” also drawn on the road surface The image of the caution sign Ims2 is included.

一方、フレーム移動量演算部52では、車速センサ110から入力される車速Vと所定のフレーム時間Tfとから、フレーム時間Tfでの車両100の移動量Dfを算出する。   On the other hand, the frame movement amount calculation unit 52 calculates the movement amount Df of the vehicle 100 at the frame time Tf from the vehicle speed V input from the vehicle speed sensor 110 and the predetermined frame time Tf.

次に、フレームシフト画像生成部51において、俯瞰画像Pdd(N-1)に対して一律に前記移動量Dfに基づいてシフト処理を行い、シフト俯瞰画像Pdd(N)’を生成する。シフト俯瞰画像Pdd(N)’は、(N)フレーム目の俯瞰画像Pdd(N)を予測するものである。   Next, the frame shift image generation unit 51 performs a shift process uniformly on the bird's-eye view image Pdd (N−1) based on the movement amount Df to generate a shift bird's-eye view image Pdd (N) ′. The shifted overhead image Pdd (N) 'is for predicting the overhead image Pdd (N) of the (N) th frame.

他方、(N)フレーム目では、実際に撮像された新たな俯瞰画像Pdd(N)が入力される。この俯瞰画像Pdd(N)には、(N)フレーム目の監視カメラ200の位置から撮像された立体物Obの投射画像Im2と、路面上に描かれた停止線の画像Ims1、及び同じく路面上に描かれた「徐行注意」の注意標識の画像Ims2とが含まれている。   On the other hand, in the (N) th frame, a new overhead image Pdd (N) actually captured is input. The overhead image Pdd (N) includes a projection image Im2 of the three-dimensional object Ob captured from the position of the monitoring camera 200 in the (N) th frame, an image Ims1 of the stop line drawn on the road surface, and also on the road surface 2 includes an image Ims2 of a caution sign “Drawing attention” drawn in FIG.

停止線の画像Ims1および注意標識の画像Ims2については、車両の位置がDfだけ移動しているため(N−1)フレーム目で得られた俯瞰画像Pdd(N-1)に対して移動量Dfだけシフトした相似画像が得られる。   For the stop line image Ims1 and the caution sign image Ims2, since the position of the vehicle has moved by Df (N-1), the movement amount Df with respect to the overhead image Pdd (N-1) obtained in the frame (N-1). A similar image that is shifted only by the distance is obtained.

これに対して、立体物Obの投射画像Im2は監視カメラ200の視線方向が車両の移動に伴って変化しているため、移動量Dfだけシフトさせたとしても(N−1)フレーム目で得られた俯瞰画像Pdd(N-1)とは異なったものとなる。例えば、路面に接近した足部の画像はほぼ同一形状となるものの、路面から離れた胴脚部や頭部の画像の位置は移動量Dfだけシフトさせたとしても一致しない。   On the other hand, the projection image Im2 of the three-dimensional object Ob is obtained at the (N-1) th frame even if the amount of movement Df is shifted because the line-of-sight direction of the monitoring camera 200 changes as the vehicle moves. It is different from the obtained overhead image Pdd (N-1). For example, although the image of the foot part approaching the road surface has substantially the same shape, the position of the image of the torso leg part and the head away from the road surface does not match even if the position is shifted by the movement amount Df.

立体物識別部5では、この事象の原理を用いて以下のように立体物Obを識別する。   The three-dimensional object identification unit 5 identifies the three-dimensional object Ob using the phenomenon principle as follows.

まず、差分画像処理部53で、(N)フレーム目の実際の俯瞰画像Pdd(N)と、予測俯瞰画像Pdd(N)’との差分をとり、差分画像Pdfを生成する。差分画像Pdfでは、立体物Obに対して視線方向の異なる2つの投射画像Im1およびIm2が得られることになる。但し、足部の画像は双方で一致するため差分処理によって消去される。   First, the difference image processing unit 53 calculates a difference between the actual overhead image Pdd (N) of the (N) th frame and the predicted overhead image Pdd (N) 'to generate a difference image Pdf. In the difference image Pdf, two projection images Im1 and Im2 having different line-of-sight directions with respect to the three-dimensional object Ob are obtained. However, since the foot image is the same on both sides, it is deleted by the difference process.

なお、差分処理の際に生じる可能性のあるノイズ成分を差分処理の後に除去するノイズ除去処理を付加した形態としてもよい。   In addition, it is good also as a form which added the noise removal process which removes the noise component which may arise in the case of a difference process after a difference process.

次に、差分画像Pdfと(N)フレーム目の実際の俯瞰画像Pdd(N)との間で相関処理を行い相関画像Pcrを生成する。相関処理によって、(N)フレーム目の実際の俯瞰画像Pdd(N)に含まれる立体物の画像Imspのみが識別、抽出される(差分画像Pdfに含まれる(N-1)フレーム目の画像から予測した立体物の画像Im1が除去される)。厳密には路面から離れた胴脚部および頭部の部分が立体物として識別、抽出される。   Next, correlation processing is performed between the difference image Pdf and the actual overhead image Pdd (N) of the (N) th frame to generate a correlation image Pcr. Only the three-dimensional object Imsp included in the actual overhead image Pdd (N) in the (N) th frame is identified and extracted by the correlation process (from the (N-1) th frame image included in the difference image Pdf). The predicted three-dimensional object image Im1 is removed). Strictly speaking, a trunk leg portion and a head portion apart from the road surface are identified and extracted as a three-dimensional object.

このようにして、(N)フレーム目の実際の俯瞰画像Pdd(N)に含まれる立体物の画像Imspが識別、抽出され、相関画像Pcrとして画像合成部6へ出力される。   In this way, the three-dimensional object Imsp included in the actual overhead image Pdd (N) of the (N) th frame is identified and extracted, and is output to the image composition unit 6 as the correlation image Pcr.

画像合成部6では、この立体物の画像Imspに対して視認容易にするため適宜着色等の処理を施した後、(N)フレーム目の実際の俯瞰画像Pdd(N)に重ね合わせ合成を行った後に画像表示部140に出力する。   The image composition unit 6 performs appropriate processing such as coloring to facilitate visual recognition of the three-dimensional image Imsp, and then superimposes it on the actual overhead image Pdd (N) of the (N) frame. And output to the image display unit 140.

本実施形態に係る立体物識別部5の立体物識別処理によれば、安全な運転を支援するために重要となる立体物の識別を、俯瞰画像Pddのフレーム間の差分情報(差分画像Pdf)に基づいて簡素な方法で識別、抽出することが可能となる。また、識別、抽出された立体物の画像Imspに着色等を施して視認容易に表示させることで運転者の注意を喚起し、車両周辺の障害物や通行者等の立体物への衝突事故等を事前に回避することが容易となる。   According to the three-dimensional object identification process of the three-dimensional object identification unit 5 according to the present embodiment, identification of a three-dimensional object that is important for supporting safe driving is performed using difference information (difference image Pdf) between frames of the overhead image Pdd. Based on this, it becomes possible to identify and extract by a simple method. In addition, the image of the identified three-dimensional object Imsp is colored to display it easily and visually so that the driver's attention is given, and collisions with obstacles and passers-by three-dimensional objects around the vehicle, etc. Can be avoided in advance.

ところで、立体物が上記の立体物識別処理によって識別されたとしても、監視カメラ200の重複領域およびその近傍領域の画像表示には以下のような問題点がある。   By the way, even if the three-dimensional object is identified by the above-described three-dimensional object identification process, there are the following problems in the image display of the overlapping region of the monitoring camera 200 and its neighboring region.

図7は、第1の問題点とその解決方法を説明したものである。   FIG. 7 explains the first problem and the solution.

図7(a)は、車両100の左後方の領域に障害物や通行者等の立体物Obが存在する場合の状況を示したものである。車両100の周囲4隅の領域は、各監視カメラ200a、200b、200c、及び200dのうち隣り合う監視カメラの双方で同一領域を重複して監視することができる領域である。この重複領域、例えば車両100の左後方の重複領域Aobcに立体物Obが存在した場合、監視カメラ200bと監視カメラ200cとでは立体物Obに対する視線方向が異なるため、路面に投射された像の向きや形状はそれぞれ異なったものとなる。   FIG. 7A shows a situation where there is a three-dimensional object Ob such as an obstacle or a passerby in the left rear area of the vehicle 100. The four corner areas around the vehicle 100 are areas in which the same area can be overlapped and monitored by both of the monitoring cameras 200a, 200b, 200c, and 200d. When the three-dimensional object Ob exists in this overlapping area, for example, the overlapping area Aobc on the left rear side of the vehicle 100, the monitoring camera 200b and the monitoring camera 200c have different line-of-sight directions with respect to the three-dimensional object Ob. And the shape will be different.

このため、図7(b)に示したように、個々の俯瞰画像を単純に重ね合わせ合成して俯瞰画像Pdd’を生成すると、俯瞰画像Pdd’では立体物Obが2つに分離して表示されることになる。   For this reason, as shown in FIG. 7B, when the overhead image Pdd ′ is generated by simply superimposing and synthesizing the individual overhead images, the three-dimensional object Ob is displayed separately in the overhead image Pdd ′. Will be.

このままの画像表示では、立体物Obが1つしか無い場合でもあたかも2つの立体物が存在するかのような誤認を運転者に与える虞が生じる。   In the image display as it is, there is a possibility that even if there is only one three-dimensional object Ob, the driver is misunderstood as if there are two three-dimensional objects.

そこで、本実施形態に係る車両周辺画像表示装置1では、監視カメラ200の重複領域、例えば重複領域Aobcにおいては、いずれか一方の監視カメラ200、例えば監視カメラ200bで監視する領域Aobから得られる画像のみを選択して俯瞰画像Pddを合成するものとしている。即ち、監視カメラ200bから得られる画像(重複領域Aobcを含む領域Aobの画像)と、監視カメラ200cから得られる画像から重複領域Aobcを除いた非重複領域Aoc’の画像とを用いて俯瞰画像Pddを合成するものとしている。以下この処理を重複領域選択処理と呼ぶ。   Therefore, in the vehicle peripheral image display device 1 according to the present embodiment, in the overlapping area of the monitoring camera 200, for example, the overlapping area Aobc, an image obtained from one of the monitoring cameras 200, for example, the area Aob monitored by the monitoring camera 200b. It is assumed that only the image is selected and the overhead image Pdd is synthesized. That is, the overhead image Pdd is obtained by using the image obtained from the monitoring camera 200b (image of the area Aob including the overlapping area Aobc) and the image of the non-overlapping area Aoc ′ obtained by removing the overlapping area Aobc from the image obtained from the monitoring camera 200c. Is to be synthesized. Hereinafter, this process is referred to as an overlapping area selection process.

この結果、図7(c)に示したように、重複領域Aobcを表示する俯瞰画像Pddは、監視カメラ200bから得られる画像のみに基づいて生成されるため、同一の立体物Obが分離して表示されることが無くなり、運転者に対する誤認を回避することができる。   As a result, as shown in FIG. 7C, the overhead image Pdd displaying the overlapping area Aobc is generated based only on the image obtained from the monitoring camera 200b, and therefore the same three-dimensional object Ob is separated. It is not displayed and misidentification for the driver can be avoided.

本実施形態では、俯瞰画像生成部4において重複領域選択処理を行っている。   In the present embodiment, the overhead image generation unit 4 performs an overlapping area selection process.

なお、車両がほぼ直進している場合には、左右側方にある監視カメラ200cおよび200dから得られる画像を優先的に選択することが好ましい。この結果、車両側方の立体物が非重複領域から重複領域に移った場合でも同一の監視カメラ200で監視を継続することが可能となり、監視カメラの切り換えによる急激な画像の変化を避けることができる。同様の理由で、車両が大きく旋回する場合等、車両が左右方向に移動する場合には、前後方にある監視カメラ200aおよび200bから得られる画像を優先的に選択することが好ましい。この他、優先的に選択する監視カメラ200を、指示入力部130から入力されるコマンドによってユーザが適宜変更、選択できる形態でもよい。   In addition, when the vehicle is traveling substantially straight, it is preferable to preferentially select images obtained from the monitoring cameras 200c and 200d on the left and right sides. As a result, even when the three-dimensional object on the side of the vehicle moves from the non-overlapping area to the overlapping area, it is possible to continue monitoring with the same monitoring camera 200, and avoid sudden image changes due to switching of the monitoring cameras. it can. For the same reason, when the vehicle moves in the left-right direction, such as when the vehicle turns significantly, it is preferable to preferentially select images obtained from the front and rear monitoring cameras 200a and 200b. In addition, the monitoring camera 200 to be preferentially selected may be appropriately changed and selected by the user by a command input from the instruction input unit 130.

図8は、重複領域およびその近傍領域に関する第2の問題点とその解決方法を説明したものである。   FIG. 8 explains the second problem relating to the overlapping region and its neighboring region and the solution thereof.

図8(a)は、車両100の左後方の領域に障害物や通行者等の2つの立体物Ob1およびOb2が存在する場合の状況を示したものである。立体物Ob1は監視カメラ200bの視野内にはあるが監視カメラ200cからは見えない位置にある。また、立体物Ob2は、監視カメラ200cの視野内にはあるが監視カメラ200bからは見えない位置にある。   FIG. 8A shows a situation where two three-dimensional objects Ob1 and Ob2 such as obstacles and passers-by exist in the left rear region of the vehicle 100. FIG. The three-dimensional object Ob1 is within the field of view of the monitoring camera 200b but is not visible from the monitoring camera 200c. In addition, the three-dimensional object Ob2 is in a position that is within the field of view of the monitoring camera 200c but cannot be seen from the monitoring camera 200b.

このような状況で、監視カメラ200b、及び200cからの画像に基づいて単純に重ね合わせで俯瞰画像Pdd”を生成すると、図8(b)に示したような画像が得られることになる。   In such a situation, when the overhead image Pdd ″ is simply generated based on the images from the monitoring cameras 200b and 200c, an image as shown in FIG. 8B is obtained.

次に、俯瞰画像Pdd”に対して重複領域選択処理を施すと、図8(c)に示した俯瞰画像Pdd’が得られることになる。監視カメラ200bの視野内には、立体物Ob2は入っていない。従って、監視カメラ200bの画像から生成される重複領域Aobcの俯瞰画像Pdd’には立体物Ob2の路面への投射像は含まれない。   Next, when the overlapping area selection process is performed on the bird's-eye view image Pdd ″, the bird's-eye view image Pdd ′ shown in FIG. 8C is obtained. The solid object Ob2 is within the field of view of the monitoring camera 200b. Therefore, the overhead image Pdd ′ of the overlapping area Aobc generated from the image of the monitoring camera 200b does not include the projection image of the three-dimensional object Ob2 on the road surface.

一方、監視カメラ200cの画像については、非重複領域Aoc’の画像のみが用いられて俯瞰画像Pddが生成される。   On the other hand, for the image of the monitoring camera 200c, only the image of the non-overlapping area Aoc 'is used to generate the overhead image Pdd.

このため、図8(c)に示したように、立体物Ob2が重複領域Aobcに近接した非重複領域Aoc’に存在するような場合には、立体物Ob2の路面近傍の一部、例えば通行者の足部の画像Imc’のみが俯瞰画像Pdd’に表示されることになる。   For this reason, as shown in FIG. 8C, when the three-dimensional object Ob2 exists in the non-overlapping area Aoc ′ adjacent to the overlapping area Aobc, a part of the three-dimensional object Ob2 near the road surface, for example, traffic Only the image Imc ′ of the person's foot is displayed in the overhead image Pdd ′.

この結果、運転者は、立体物Ob2の一部の画像Imc’を看過し、障害物や通行者等の立体物が2つ存在するにもかかわらず、1つの立体物しか存在しないと誤認する虞が高くなる。   As a result, the driver overlooks a part of the image Imc ′ of the three-dimensional object Ob2, and misidentifies that there is only one three-dimensional object even though there are two three-dimensional objects such as obstacles and passers-by. The fear increases.

そこで、この問題を解決するため本実施形態に係る車両周辺画像表示装置1では、重複領域選択処理に加えて、立体物延長表示処理を行っている。   Therefore, in order to solve this problem, the vehicle peripheral image display device 1 according to the present embodiment performs a three-dimensional object extension display process in addition to the overlapping area selection process.

立体物延長表示処理とは、図8の例で説明すると、重複領域Aobcの近接領域に立体物Ob2が存在する場合において、立体物Ob2の画像Imcが非重複領域Aoc’から重複領域Aobcに亘って延長している場合には、重複領域選択処理の後にその立体物Ob2の画像Imcspを重複領域Aobcに重ねて合成する処理をいう。   The three-dimensional object extension display processing will be described with reference to the example of FIG. If the image is extended, the image Imcsp of the three-dimensional object Ob2 is superimposed on the overlap area Aobc after the overlap area selection process.

画像Imcが立体物の画像であるか否かの識別は、立体物識別部5において行われる。また、立体物識別部5において識別、抽出された立体物Ob2の画像Imcが非重複領域Aoc’から重複領域Aobcに亘って延長しているか否かの判定(以下、この判定を延長判定と呼ぶ)は、識別された立体物の位置情報をもとに、俯瞰画像生成部4において判定される。この延長判定は個々の俯瞰画像の全領域で行う必要はない。立体物の大きさは通常ある範囲に限定されているため重複領域とその近傍領域で行えば十分であり、例えば図8(d)に例示した判定領域Adで判定する。これにより、個々の俯瞰画像の全領域、例えばAocの全領域で判定する場合に比べて処理時間が短縮できる。   Whether or not the image Imc is an image of a three-dimensional object is determined by the three-dimensional object identification unit 5. In addition, it is determined whether or not the image Imc of the three-dimensional object Ob2 identified and extracted by the three-dimensional object identification unit 5 extends from the non-overlapping area Aoc ′ to the overlapping area Aobc (hereinafter, this determination is referred to as extension determination). ) Is determined by the overhead image generation unit 4 based on the position information of the identified three-dimensional object. This extension determination need not be performed on the entire region of each overhead image. Since the size of the three-dimensional object is usually limited to a certain range, it is sufficient to perform it in the overlapping region and its neighboring region. For example, the determination is made in the determination region Ad illustrated in FIG. Thereby, processing time can be shortened compared with the case where it determines by all the area | regions of each bird's-eye view image, for example, all the area | regions of Aoc.

延長判定において、立体物Ob2の画像Imcが非重複領域Aoc’から重複領域Aobcに亘って延長していると判定された場合には、判定された延長立体物画像Imcspを俯瞰画像Pdd’重ね合わせ合成し、最終的な俯瞰画像Pddを生成する。   In the extension determination, when it is determined that the image Imc of the three-dimensional object Ob2 extends from the non-overlapping area Aoc ′ to the overlapping area Aobc, the determined extended three-dimensional object image Imcsp is superimposed on the overhead image Pdd ′. By combining, a final overhead image Pdd is generated.

(3)関心領域推定部と画像合成部の細部構成と動作
図9は、車両周辺画像表示装置1の関心領域推定部7への具体的な入力信号および出力信号を例示した図である。
(3) Detailed Configuration and Operation of Region of Interest Estimation Unit and Image Composition Unit FIG. 9 is a diagram illustrating specific input signals and output signals to the region of interest estimation unit 7 of the vehicle peripheral image display device 1.

関心領域推定部7には、車両センサ110のうち、車速センサ111からは車速が、ギアセンサ112からは車両の進行方向を示す情報、即ち「前進」又は「後進」が、繰舵角センサ113からは駆動輪の繰舵角がそれぞれ入力される。この他、ヨーレートセンサからヨーレート(地面方向に向かう車両の中心軸周りの角速度)を入力する形態としても良い。   The region-of-interest estimation unit 7 includes information indicating the vehicle speed from the vehicle speed sensor 111 and the traveling direction of the vehicle from the gear sensor 112, that is, “forward” or “reverse” from the steering angle sensor 113. Is inputted with the steering angle of the driving wheel. In addition, the yaw rate (angular velocity around the central axis of the vehicle toward the ground) may be input from the yaw rate sensor.

また、関心領域推定部7には、車両100が備える立体物検出部120で検出した障害物の位置情報(方位、距離等)が入力される。   Also, the position information (direction, distance, etc.) of the obstacle detected by the three-dimensional object detection unit 120 included in the vehicle 100 is input to the region of interest estimation unit 7.

この他、車両100が備える指示入力部130からは、マイク、キーボード、スイッチ、タッチパネル等の適宜の入力手段を介してコマンド情報が入力される。   In addition, command information is input from the instruction input unit 130 included in the vehicle 100 via appropriate input means such as a microphone, a keyboard, a switch, and a touch panel.

関心領域推定部7では、車両センサ110から入力される各種情報から運転状況を自動的に判断し、この運転状況から運転者が関心を示すであろう方向(関心方向)を推定し、この関心方向の情報を画像合成部6に出力する。関心方向は、例えば、前方、後方、左側方、右側方である。   The region-of-interest estimation unit 7 automatically determines a driving situation from various information input from the vehicle sensor 110, estimates a direction (interesting direction) in which the driver will be interested from this driving situation, and The direction information is output to the image composition unit 6. The direction of interest is, for example, forward, backward, left side, or right side.

また、関心領域推定部7では、立体物検出部120から入力される障害物の位置情報から、運転者が関心を示すであろう障害物の領域(関心領域)を推定し、関心領域情報を画像合成部6に出力する。関心領域情報は、例えばその領域を示す方位角範囲、車両からの離隔距離範囲等である。   Further, the region of interest estimation unit 7 estimates the region of the obstacle (region of interest) that the driver will be interested in from the position information of the obstacle input from the three-dimensional object detection unit 120, and the region of interest information is obtained. The image is output to the image composition unit 6. The region-of-interest information is, for example, an azimuth range indicating the region, a distance range from the vehicle, or the like.

図10は、画像合成部6の細部構成を示したものである。   FIG. 10 shows a detailed configuration of the image composition unit 6.

画像合成部6は、画像選択部60、表示画像決定部61,表示位置決定部62,および合成部62を備えて構成される。   The image composition unit 6 includes an image selection unit 60, a display image determination unit 61, a display position determination unit 62, and a composition unit 62.

画像選択部60では、表示画像決定部61からの指示に基づいて、画像合成部6に入力される3種類の画像、即ち、俯瞰画像Pdd、正規化画像Pnn、および関心領域画像Piiの中から単独或いは複数の画像を選択する。   In the image selection unit 60, based on an instruction from the display image determination unit 61, three types of images input to the image composition unit 6, that is, from the overhead image Pdd, the normalized image Pnn, and the region-of-interest image Pii are selected. Single or multiple images are selected.

合成部62では、画像選択部60で選択された画像が複数ある場合に、表示位置決定部62からの指示に基づいて指示された位置に配置して合成する。また、必要に応じて、ガイド線等生成部10で生成されるガイド線、予想軌跡等の運転支援画像とさらに合成した後に画像表示部140に出力する。   In the case where there are a plurality of images selected by the image selection unit 60, the synthesis unit 62 arranges and synthesizes the images at the designated position based on the instruction from the display position determination unit 62. Further, if necessary, the image is further combined with a driving support image such as a guide line and an expected trajectory generated by the guide line generation unit 10 and then output to the image display unit 140.

表示画像決定部61は、関心領域推定部7から出力される関心方向情報および関心領域情報に基づいて表示すべき画像を特定し、画像選択部60に対して選択画像を指示する。   The display image determination unit 61 specifies an image to be displayed based on the direction-of-interest information and the region-of-interest information output from the region-of-interest estimation unit 7 and instructs the image selection unit 60 to select the selected image.

また、表示位置決定部62は、選択画像が複数ある場合に、関心領域推定部7から出力される関心方向情報および関心領域情報に基づいて複数の選択画像のそれぞれの表示位置を、運転者が容易に視認できるように決定する。また、元の画像の大きさでは視認性が劣化すると判断される場合には、視認容易となるように特定の画像を縮小して表示するように合成部63に対して指示する。   In addition, when there are a plurality of selection images, the display position determination unit 62 determines the display positions of the plurality of selection images based on the direction of interest information and the region of interest information output from the region of interest estimation unit 7. Decide to be easily visible. In addition, when it is determined that the visibility is deteriorated with the size of the original image, the composing unit 63 is instructed to reduce and display a specific image so as to facilitate visual recognition.

図11(a)は、関心領域推定部7における関心方向及び関心領域の具体的な推定方法を表の形で例示したものである。   FIG. 11A illustrates a specific method of estimating the direction of interest and the region of interest in the region of interest estimation unit 7 in the form of a table.

また、図11(b)は、画像合成部6における表示画像の具体的な選択方法と位置決定方法を表の形で例示したものである。   FIG. 11B illustrates a specific display image selection method and position determination method in the image composition unit 6 in the form of a table.

関心領域推定部7では、入力される車速、ギア、繰舵角等の情報から運転上状況を判定する。例えば、図11(a)の表の第1行に例示したように運転状況が「低速・前進」と判定された場合には、見通しの悪い交差点やT字路に頭出している可能性が高い。そこで、運転者の関心方向は「前方」にあると推定する。   The region-of-interest estimation unit 7 determines a driving situation from information such as the input vehicle speed, gear, and steering angle. For example, as illustrated in the first row of the table of FIG. 11A, when the driving situation is determined to be “low speed / forward”, there is a possibility that the vehicle is heading to an intersection or T-junction with poor visibility. high. Therefore, it is estimated that the direction of interest of the driver is “forward”.

また、「低速・前進」で車両の頭出しを行っている場合には、運転者の最大の関心は前方の監視カメラ200aで撮像した正規化画像Pnn(前方)であり、この際には俯瞰画像Pddは特に必要性は認められないと考えられる。このため、図11(b)の表の第1行に例示したように、表示画像の選択では、関心方向(前方)の正規化画像のみを選択し、俯瞰画像Pddや関心領域画像は表示しないものとしている。   Further, when the vehicle is cued at “low speed / forward”, the driver's greatest interest is the normalized image Pnn (front) captured by the front monitoring camera 200a. The image Pdd is not considered particularly necessary. For this reason, as illustrated in the first row of the table of FIG. 11B, in selecting the display image, only the normalized image in the direction of interest (front) is selected, and the overhead image Pdd and the region-of-interest image are not displayed. It is supposed to be.

図12(b)および図13(b)は、運転状況が「低速・前進」と判定された場合に、前方の正規化画像Pnn(前方)が選択されて、画像表示部140に表示される様子を示している。図12と図13との相違点は、俯瞰画像Pddにおける車両100の向きが図12では横表示、図13では縦表示となっている点である。この選択は、例えば指示入力部130から入力される手動指示によって選択できる。なお、「低速・前進」では俯瞰画像Pddは選択されないため、図12(b)と図13(b)とは同一の画像となっている。   12B and 13B, when the driving state is determined to be “low speed / forward”, the forward normalized image Pnn (front) is selected and displayed on the image display unit 140. It shows a state. The difference between FIG. 12 and FIG. 13 is that the orientation of the vehicle 100 in the overhead image Pdd is horizontal display in FIG. 12 and vertical display in FIG. This selection can be made by, for example, a manual instruction input from the instruction input unit 130. Note that since the overhead image Pdd is not selected in “low speed / forward”, FIGS. 12B and 13B are the same image.

入力される車速、ギア、繰舵角等の情報から運転上状況が「低速・後進」と判定されると、図11(a)の表の第2行に例示したように、運転者の「関心方向」は「後方」と判定される。この場合、画像合成部6では、俯瞰画像Pddと後方の正規化画像Pnn(後方)の2種類の画像が選択される。   When the driving situation is determined to be “low speed / reverse” from information such as the input vehicle speed, gear, steering angle, etc., as illustrated in the second row of the table of FIG. The “interesting direction” is determined as “backward”. In this case, the image composition unit 6 selects two types of images, the overhead image Pdd and the normalized image Pnn (rear) behind.

図12(c)および図13(c)は、運転状況が「低速・後進」と判定された場合に、俯瞰画像Pddと後方の正規化画像Pnn(後方)とが選択されて、画像表示部140に表示される様子を示している。正規化画像Pnn(後方)は適度の大きさに縮小された後、俯瞰画像Pddの後方方向の表示に支障の無い位置に配置される。なお、俯瞰画像Pddと後方の正規化画像Pnn(後方)の表示位置関係は通常変化しないと考えられるため、「固定」としている。   FIGS. 12C and 13C show that when the driving state is determined to be “low speed / reverse”, the overhead image Pdd and the rear normalized image Pnn (rear) are selected and the image display unit 140 shows a state displayed on the screen. After the normalized image Pnn (rear) is reduced to an appropriate size, the normalized image Pnn (rear) is arranged at a position where there is no hindrance to the backward display of the overhead image Pdd. Note that the display positional relationship between the overhead image Pdd and the normalized image Pnn (rear) behind is considered to be normally unchanged, and is thus “fixed”.

入力される車速、ギア、繰舵角等の情報から運転上状況が「低速・左旋回」或いは「低速・右旋回」と判定されると、運転者の「関心方向」はそれぞれ「左側方」或いは「右側方」と判定される。この場合、画像合成部6では、俯瞰画像Pddと正規化画像Pnn(左側方)或いは正規化画像Pnn(右側方)とが選択される。相互の位置関係は「固定」としている(図は省略した)。   If the driving situation is determined to be "low speed / left turn" or "low speed / right turn" from the input information such as vehicle speed, gear, turning angle, etc., the driver's "direction of interest" Or “right side”. In this case, the image composition unit 6 selects the overhead image Pdd and the normalized image Pnn (left side) or the normalized image Pnn (right side). The mutual positional relationship is “fixed” (the figure is omitted).

立体物検出部120が障害物を検出し、関心領域推定部7に障害物の位置情報が入力されると、関心領域推定部7では運転状況は「障害物回避」と推定するとともに障害物の存在する領域(方向、距離等)が運転者にとっての「関心領域」であると推定する。   When the three-dimensional object detection unit 120 detects an obstacle and the position information of the obstacle is input to the region-of-interest estimation unit 7, the region-of-interest estimation unit 7 estimates that the driving situation is “obstacle avoidance” and It is estimated that the existing region (direction, distance, etc.) is the “region of interest” for the driver.

一方、支援画像生成部8では、推定された関心領域の位置情報に基づいて、4つの正規化画像Pnnの中から関心領域をカバーする正規化画像Pnnを選択し、さらにその正規化画像Pnnに含まれる関心領域の部分を拡大処理する。関心領域が拡大された画像を関心領域画像(部分画像)Piiと呼んでいる。   On the other hand, the support image generation unit 8 selects a normalized image Pnn that covers the region of interest from the four normalized images Pnn based on the estimated position information of the region of interest, and further selects the normalized image Pnn as the normalized image Pnn. Enlarging the region of interest included. An image in which the region of interest is enlarged is called a region of interest image (partial image) Pii.

運転状況が「障害物回避」であると推定されると、画像合成部6では、俯瞰画像Pddと関心領域画像Piiとを選択する。   When it is estimated that the driving situation is “obstacle avoidance”, the image composition unit 6 selects the overhead image Pdd and the region-of-interest image Pii.

図12(d)および図13(d)は、運転状況が「障害物回避」と判定された場合に、俯瞰画像Pddと関心領域画像Piiとが選択されて、画像表示部140に表示される様子を示している。   12D and 13D, when the driving situation is determined to be “obstacle avoidance”, the bird's-eye view image Pdd and the region-of-interest image Pii are selected and displayed on the image display unit 140. It shows a state.

障害物はどこにあるかわからないため、立体物検出部120で検出された障害物と車両との位置関係に応じて、俯瞰画像Pdd中の障害物と関心領域画像Piiとが相互に重ならないように関心領域画像Piiの表示位置は動的に変化させる必要がある。   Since it is unknown where the obstacle is, the obstacle in the overhead image Pdd and the region-of-interest image Pii do not overlap each other according to the positional relationship between the obstacle detected by the three-dimensional object detection unit 120 and the vehicle. The display position of the region-of-interest image Pii needs to be dynamically changed.

図14は、「障害物回避」時の処理内容の細部を示したものである。   FIG. 14 shows the details of the processing content at the time of “obstacle avoidance”.

まず、立体物検出部120が障害物を検出し、障害物の位置情報を関心領域推定部7へ出力する(ステップST1)。   First, the three-dimensional object detection unit 120 detects an obstacle and outputs the position information of the obstacle to the region-of-interest estimation unit 7 (step ST1).

次に関心領域推定部7では、障害物のある領域を運転者の「関心領域」として推定する(ステップST2)。さらに、支援画像生成部8では、障害物をカバーするカメラの画像から生成される正規化画像Pnnを選択し、さらに関心領域部を拡大して関心領域画像Piiを生成する(ステップST3)。   Next, the region-of-interest estimation unit 7 estimates a region with an obstacle as the “region of interest” of the driver (step ST2). Further, the support image generation unit 8 selects the normalized image Pnn generated from the camera image covering the obstacle, and further expands the region of interest to generate the region of interest image Pii (step ST3).

画像合成部6では、俯瞰画像Pddの障害物の位置と、関心領域画像Piiとが重ならないように関心領域画像Piiの位置を決定する。また単に配置だけでは重なりを回避できない場合には適宜いずれかの画像を縮小する(ステップST4)。   The image composition unit 6 determines the position of the region of interest image Pii so that the position of the obstacle in the overhead view image Pdd and the region of interest image Pii do not overlap. If the overlap cannot be avoided by simply arranging, any one of the images is appropriately reduced (step ST4).

双方の画像の位置や大きさを決定した後、2つの画像を重ねて合成し、画像表示部140へ出力する。   After determining the position and size of both images, the two images are superimposed and combined and output to the image display unit 140.

図15は、障害物、例えば通行者の位置が異なる場合の俯瞰画像Pddと関心領域画像Piiとの位置関係を例示するものである。図15(a)、(b)、および(c)のいずれの場合でも俯瞰画像Pdd中の通行者と関心領域画像Piiとが重なり合わないように表示されている。   FIG. 15 illustrates the positional relationship between the overhead image Pdd and the region-of-interest image Pii when the positions of obstacles such as passersby are different. 15A, 15B, and 15C, the passerby in the overhead image Pdd and the region-of-interest image Pii are displayed so as not to overlap each other.

このように、障害物の位置に応じて関心領域画像Piiに位置を動的に変化させ、運転者に対して視認容易に表示させることにより、運転者に対して障害物の位置を常に適切に知らしめることが可能となり、運転の安全性向上に資する。   In this way, by dynamically changing the position in the region-of-interest image Pii in accordance with the position of the obstacle and displaying it easily for the driver, the position of the obstacle is always appropriately determined for the driver. It will be possible to let them know and contribute to improving driving safety.

なお、関心領域推定部7で推定される関心方向や関心領域の範囲、或いは、画像合成部6で選択される表示画像の選択や画像の表示位置等については、指示入力部130から入力されるコマンドによっても適宜設定、変更できるように構成されている。   Note that the direction of interest and the range of the region of interest estimated by the region of interest estimation unit 7, the selection of the display image selected by the image composition unit 6, the display position of the image, and the like are input from the instruction input unit 130. It is configured so that it can be set and changed as appropriate by a command.

(4)ガイド線等生成部および軌跡算出部の動作
図16は、ガイド線等生成部10で生成され画像合成部6で合成される運転支援画像の一例を示す図である。
(4) Operation of Guide Line etc. Generation Unit and Trajectory Calculation Unit FIG. 16 is a diagram illustrating an example of a driving support image generated by the guide line etc. generation unit 10 and synthesized by the image synthesis unit 6.

駐車場等の狭いスペースに駐車等する際には、他の車両等との衝突を避けるため車両周辺の安全余裕が重要となる。駐車等の運転状況において運転者を支援するため、本実施形態に係る車両周辺画像表示装置1では、図16(a)に示したように、車両100の周辺の安全余裕領域Asf1を示すガイド線Lg1を車両100の俯瞰画像Pddとともに表示する形態としている。   When parking in a narrow space such as a parking lot, a safety margin around the vehicle is important in order to avoid collision with other vehicles. In order to assist the driver in a driving situation such as parking, in the vehicle peripheral image display device 1 according to the present embodiment, a guide line indicating a safety margin area Asf1 around the vehicle 100 as shown in FIG. Lg1 is displayed together with the bird's-eye view image Pdd of the vehicle 100.

また、駐車等の際には、運転ドア150を開いたときにクリアランスを考慮して駐車等する必要がある。本実施形態に係る車両周辺画像表示装置1では、図16(b)に示したように、運転ドア150の開放時のクリアランス領域Asf2を示すガイド線Lg2を車両100の俯瞰画像Pddとともに表示する形態としている。   Further, when parking, etc., it is necessary to park in consideration of the clearance when the driving door 150 is opened. In the vehicle periphery image display device 1 according to the present embodiment, as shown in FIG. 16B, a guide line Lg2 indicating the clearance area Asf2 when the driving door 150 is opened is displayed together with the overhead image Pdd of the vehicle 100. It is said.

これらのガイド線Lg1、Lg2が俯瞰画像Pddと共に表示されることによって、運転者は適切かつ安全な位置に駐車等することができる。   By displaying these guide lines Lg1 and Lg2 together with the overhead image Pdd, the driver can park at an appropriate and safe position.

本実施形態に係る車両周辺画像表示装置1は、この他、車両の予想軌跡を運転支援画像として表示するものとしている。狭いスペースに駐車する時や縦列駐車の時には、例えば車両の4隅の予想軌跡等が俯瞰画像Pddと共に表示されると運転者にとって便利である。ハンドルの状態(繰舵角)に応じて予想軌跡等を順次更新することによって、運転者の適切なハンドル操作を支援することが可能となる。   In addition to this, the vehicle periphery image display device 1 according to the present embodiment displays the predicted locus of the vehicle as a driving assistance image. When parking in a narrow space or parallel parking, it is convenient for the driver if, for example, predicted trajectories at the four corners of the vehicle are displayed together with the overhead image Pdd. By sequentially updating the expected trajectory and the like according to the state of the steering wheel (steering angle), it becomes possible to support the driver's appropriate steering operation.

車両100の4隅の予想軌跡の算出は軌跡算出部9で行われる。4隅の予想軌跡の算出方法は特に限定するものではないが、例えば以下の手順で算出することができる。   The trajectory calculation unit 9 calculates the expected trajectories at the four corners of the vehicle 100. Although the calculation method of the predicted trajectory at the four corners is not particularly limited, for example, it can be calculated by the following procedure.

車両の重心位置を座標(X,Y)とすると、重心位置(X,Y)は式1で表すことができる。

Figure 0004907883
If the position of the center of gravity of the vehicle is the coordinates (X, Y), the position of the center of gravity (X, Y) can be expressed by Equation 1.
Figure 0004907883

式1は、低速運行時等、タイヤのスリップが無いときの2輪(例えば前輪)駆動モデルに適用されるものである。   Equation 1 is applied to a two-wheel (for example, front wheel) drive model when there is no tire slip, such as during low-speed operation.

図17は、式1の各パラメータを説明する図である。図17に示したように、車両の重心位置(X,Y)は、地上固定座標系で表される。Vは、車両100の走行速度(車速)を表し、車速センサ111から出力される。βは前輪舵角(繰舵角)を表し繰舵角センサ113から出力される。また、rはヨーレート(Z軸まわりの角速度)を表しヨーレートセンサ114から出力される。θは、(x,y)で表記される車両に固定の座標系(車両固定座標系)の基準軸(x軸)と、地上固定座標系の基準軸(X軸)との差を表している。なお、上記のV、β、rはいずれも軌跡の予想計算開始時における値であり、以下の軌跡の予想計算においては、一定値として扱うものである。   FIG. 17 is a diagram illustrating each parameter of Equation 1. As shown in FIG. 17, the center of gravity position (X, Y) of the vehicle is represented by a fixed ground coordinate system. V represents the traveling speed (vehicle speed) of the vehicle 100 and is output from the vehicle speed sensor 111. β represents the front wheel steering angle (steering angle) and is output from the steering angle sensor 113. R represents the yaw rate (angular velocity around the Z axis) and is output from the yaw rate sensor 114. θ represents the difference between the reference axis (x axis) of the coordinate system fixed to the vehicle (vehicle fixed coordinate system) expressed by (x, y) and the reference axis (X axis) of the ground fixed coordinate system. Yes. The above-mentioned V, β, and r are all values at the start of the predicted trajectory calculation, and are treated as constant values in the following predictive calculation of the trajectory.

式1を積分することで次の式2が得られる。

Figure 0004907883
By integrating equation 1, the following equation 2 is obtained.
Figure 0004907883

ここで、(Xo、Yo)は、予測計算開始時の車両100の重心位置を示す座量であり、(X(t)、Y(t))が、重心位置の予測軌跡を表すものである。また、θ(t)は、次の式3で計算できるものである。

Figure 0004907883
Here, (Xo, Yo) is a seating amount indicating the center of gravity position of the vehicle 100 at the start of prediction calculation, and (X (t), Y (t)) represents a predicted locus of the center of gravity position. . Further, θ (t) can be calculated by the following equation 3.
Figure 0004907883

なお、車両の進行方向をX軸に合致させておくことにより、θo=Xo=Yo=0とすることができる。   Note that by making the traveling direction of the vehicle coincide with the X axis, θo = Xo = Yo = 0.

式2、式3に基づいて重心位置の予測位置を算出することができるが、車両の4隅の予想軌跡を求めるためにはさらに次の計算が必要となる。   Although the predicted position of the center of gravity can be calculated based on Equations 2 and 3, the following calculation is further required to obtain the predicted trajectories at the four corners of the vehicle.

図18に示したように、車両の重心位置から、左前方端、右前方端、左後方端、および右後方端へ向かう4隅の位置を示す各ベクトルを、車両固定座標で式4のように表記する。

Figure 0004907883
As shown in FIG. 18, each vector indicating the positions of the four corners from the center of gravity position of the vehicle toward the left front end, right front end, left rear end, and right rear end is expressed by Equation 4 in terms of vehicle fixed coordinates. Indicate.
Figure 0004907883

次に、車両固定座標系から地上固定座標系に次の式5を用いて変換する。

Figure 0004907883
Next, conversion is performed from the vehicle fixed coordinate system to the ground fixed coordinate system using the following Expression 5.
Figure 0004907883

式5によれば、例えば、地上固定座標で表記した左前方端の予想軌跡WPflは、次の式6で表される。

Figure 0004907883
According to Equation 5, for example, the predicted trajectory W P fl at the left front end expressed in ground fixed coordinates is expressed by Equation 6 below.
Figure 0004907883

他の3つの端点についても同様にしてP□□(t)が計算でき、車両100の4隅の予想軌跡を算出することができる。 W P □□ (t) can be calculated in the same manner for the other three end points, and the expected trajectories at the four corners of the vehicle 100 can be calculated.

図19は、式2から式6の計算に基づいて算出された、右前方端及び左後方端の予想軌跡を例示したものである。   FIG. 19 exemplifies the expected trajectories of the right front end and the left rear end calculated based on the calculations of Expressions 2 to 6.

計算された4隅の予想軌跡はガイド線等生成部10において画像化され、画像合成部6において俯瞰画像Pddと合成された後に画像表示部140に出力される。   The calculated predicted trajectories at the four corners are imaged in the guide line etc. generating unit 10, synthesized with the overhead image Pdd in the image synthesizing unit 6, and then output to the image display unit 140.

ガイド線等生成部10で生成されるガイド線Lg1、Lg2や、車両100の各4隅の予想軌跡の表示は、指示入力部130から入力されるコマンドにより、適宜表示或いは非表示を選択できる構成としている。   The display of the guide lines Lg1 and Lg2 generated by the guide line etc. generating unit 10 and the predicted trajectory of each of the four corners of the vehicle 100 can be selected as appropriate according to a command input from the instruction input unit 130. It is said.

なお、本発明は上記の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined.

本発明に係る車両周辺画像表示装置および車両周辺画像表示方法の動作概念を示す図。The figure which shows the operation | movement concept of the vehicle periphery image display apparatus and vehicle periphery image display method which concern on this invention. 本発明に係る車両周辺画像表示装置の実施形態の基本構成例を示す図。The figure which shows the basic structural example of embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における俯瞰画像生成部の細部構成例を示す図。The figure which shows the detailed structural example of the bird's-eye view image generation part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における立体物の表示概念を説明する図。The figure explaining the display concept of the solid object in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における立体物識別部の細部構成例を示す図。The figure which shows the detailed structural example of the solid-object identification part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における立体物識別部の動作原理を説明する図。The figure explaining the operation principle of the three-dimensional object identification part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における立体物識別部の重複領域選択処理を説明する図。The figure explaining the overlapping area selection process of the solid-object identification part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における立体物識別部の延長判定処理を説明する図。The figure explaining the extension determination process of the solid-object identification part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における関心領域推定部の入出力信号の例を示す図。The figure which shows the example of the input-output signal of the region-of-interest estimation part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における画像合成部の細部構成例を示す図。The figure which shows the detailed structural example of the image synthetic | combination part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における関心領域推定部と画像合成部の処理内容例を表の形態で説明する図。The figure explaining the processing content example of the region-of-interest estimation part and image synthetic | combination part in embodiment of the vehicle periphery image display apparatus which concerns on this invention with a table | surface form. 本発明に係る車両周辺画像表示装置の実施形態における画像合成部の合成画像例を示す第1の図。The 1st figure which shows the composite image example of the image synthetic | combination part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における画像合成部の合成画像例を示す第2の図。The 2nd figure which shows the example of a synthesized image of the image synthetic | combination part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における画像合成部の表示位置の決定方法の例を説明する図。The figure explaining the example of the determination method of the display position of the image synthetic | combination part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における画像合成部の合成画像例を示す第3の図。The 3rd figure which shows the composite image example of the image synthetic | combination part in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における運転支援画像の表示例を示す図。The figure which shows the example of a display of the driving assistance image in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における車両予想軌跡の計算方法を説明する第1の図。The 1st figure explaining the calculation method of the vehicle expected locus | trajectory in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における車両予想軌跡の計算方法を説明する第2の図。The 2nd figure explaining the calculation method of the vehicle expected locus | trajectory in embodiment of the vehicle periphery image display apparatus which concerns on this invention. 本発明に係る車両周辺画像表示装置の実施形態における車両予想軌跡の表示例を示す図。The figure which shows the example of a display of the vehicle estimated locus | trajectory in embodiment of the vehicle periphery image display apparatus which concerns on this invention.

符号の説明Explanation of symbols

1 車両周辺画像表示装置
2 画像バッファ
3 正規化処理部
4 俯瞰画像生成部
5 立体物識別部
6 画像合成部
7 関心領域推定部
8 支援画像生成部
9 軌跡算出部
10 ガイド線等生成部
100 車両
110 車両センサ
120 立体物検出部
130 指示入力部
140 画像表示部
200 監視カメラ(魚眼カメラ)
DESCRIPTION OF SYMBOLS 1 Vehicle periphery image display apparatus 2 Image buffer 3 Normalization process part 4 Overhead image generation part 5 Solid object identification part 6 Image composition part 7 Region of interest estimation part 8 Support image generation part 9 Trajectory calculation part 10 Guide line etc. generation part 100 Vehicle 110 vehicle sensor 120 three-dimensional object detection unit 130 instruction input unit 140 image display unit 200 surveillance camera (fisheye camera)

Claims (2)

車両の周辺を撮像する複数の魚眼カメラから得られる複数の画像を夫々通常の画像に正規化処理し正規化画像を生成する正規化処理部と、
前記正規化画像から、車両上方の仮想視点から車両の周辺を俯瞰する俯瞰画像を生成する俯瞰画像生成部と、
前記車両の運転を支援するための運転支援画像を生成する支援画像生成部と、
前記運転支援画像と前記俯瞰画像とを合成する画像合成部と、
前記俯瞰画像とともに前記運転支援画像を表示する表示部と、
前記車両周辺の立体物の位置または方向を検出する立体物検出部と、
を備え、
前記支援画像生成部は、検出された前記立体物の位置または方向に応じて、前記立体物を撮像している前記正規化画像を前記運転支援画像として選択し、
前記画像合成部は、前記俯瞰画像に含まれる前記障害物と前記運転支援画像とが相互に重ならないように、前記俯瞰画像中の前記障害物の位置に応じて前記俯瞰画像に合成される前記運転支援画像の表示位置を動的に決定する、
ことを特徴とする車両周辺画像表示装置。
A normalization processing unit that normalizes a plurality of images obtained from a plurality of fisheye cameras that capture the periphery of the vehicle into normal images and generates a normalized image;
From the normalized image, an overhead image generation unit that generates an overhead image that overlooks the periphery of the vehicle from a virtual viewpoint above the vehicle;
A support image generating unit that generates a driving support image for supporting driving of the vehicle;
An image synthesis unit that synthesizes the driving support image and the overhead image;
A display unit for displaying the driving support image together with the overhead image;
A three-dimensional object detection unit that detects the position or direction of the three-dimensional object around the vehicle;
With
The support image generation unit selects, as the driving support image, the normalized image capturing the solid object according to the detected position or direction of the solid object ,
The image combining unit is combined with the overhead image according to the position of the obstacle in the overhead image so that the obstacle and the driving support image included in the overhead image do not overlap each other. Dynamically determine the display position of the driving assistance image,
The vehicle periphery image display apparatus characterized by the above.
車両の周辺を撮像する複数の魚眼カメラから得られる複数の画像を夫々通常の画像に正規化処理し正規化画像を生成するステップと、
前記正規化画像から、車両上方の仮想視点から車両の周辺を俯瞰する俯瞰画像を生成するステップと、
前記車両の運転を支援するための運転支援画像を生成するステップと、
前記運転支援画像と前記俯瞰画像とを合成するステップと、
前記俯瞰画像とともに前記運転支援画像を表示するステップと、
前記車両周辺の立体物の位置または方向を検出するステップと、
を備え、
前記運転支援画像を生成するステップでは、検出された前記立体物の位置または方向に応じて、前記立体物を撮像している前記正規化画像を前記運転支援画像として選択し、
前記合成するステップでは、前記俯瞰画像に含まれる前記障害物と前記運転支援画像とが相互に重ならないように、前記俯瞰画像中の前記障害物の位置に応じて前記俯瞰画像に合成される前記運転支援画像の表示位置を動的に決定する、
ことを特徴とする車両周辺画像表示方法。
Normalizing a plurality of images obtained from a plurality of fisheye cameras that capture the periphery of the vehicle into normal images, and generating normalized images;
Generating an overhead image from which the surroundings of the vehicle are viewed from a virtual viewpoint above the vehicle, from the normalized image;
Generating a driving support image for supporting driving of the vehicle;
Synthesizing the driving support image and the overhead image;
Displaying the driving assistance image together with the overhead view image;
Detecting a position or direction of a three-dimensional object around the vehicle;
With
In the step of generating the driving support image, the normalized image capturing the solid object is selected as the driving support image according to the detected position or direction of the solid object ,
In the synthesizing step, the obstacle included in the overhead image is synthesized with the overhead image according to the position of the obstacle in the overhead image so that the obstacle and the driving support image do not overlap each other. Dynamically determine the display position of the driving assistance image,
A vehicle periphery image display method characterized by the above.
JP2005064968A 2005-03-09 2005-03-09 Vehicle periphery image display device and vehicle periphery image display method Expired - Fee Related JP4907883B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005064968A JP4907883B2 (en) 2005-03-09 2005-03-09 Vehicle periphery image display device and vehicle periphery image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005064968A JP4907883B2 (en) 2005-03-09 2005-03-09 Vehicle periphery image display device and vehicle periphery image display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011027217A Division JP2011155651A (en) 2011-02-10 2011-02-10 Apparatus and method for displaying vehicle perimeter image

Publications (2)

Publication Number Publication Date
JP2006253872A JP2006253872A (en) 2006-09-21
JP4907883B2 true JP4907883B2 (en) 2012-04-04

Family

ID=37093910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005064968A Expired - Fee Related JP4907883B2 (en) 2005-03-09 2005-03-09 Vehicle periphery image display device and vehicle periphery image display method

Country Status (1)

Country Link
JP (1) JP4907883B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10097772B2 (en) 2014-10-31 2018-10-09 Mitsubishi Electric Corporation Image processing device and image processing method

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4797877B2 (en) * 2006-08-14 2011-10-19 日産自動車株式会社 VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP4876862B2 (en) * 2006-11-13 2012-02-15 トヨタ自動車株式会社 Image processing device
JP4969269B2 (en) * 2007-02-21 2012-07-04 アルパイン株式会社 Image processing device
JP2009259215A (en) * 2008-03-18 2009-11-05 Zenrin Co Ltd Road surface marking map generation method
JP5422902B2 (en) * 2008-03-27 2014-02-19 三洋電機株式会社 Image processing apparatus, image processing program, image processing system, and image processing method
JP5300309B2 (en) * 2008-04-24 2013-09-25 ダイハツ工業株式会社 Obstacle recognition device
JP5083137B2 (en) * 2008-09-11 2012-11-28 三菱自動車工業株式会社 Driving assistance device
JP4876118B2 (en) * 2008-12-08 2012-02-15 日立オートモティブシステムズ株式会社 Three-dimensional object appearance detection device
JP2010245803A (en) * 2009-04-06 2010-10-28 Sanyo Electric Co Ltd Image processing device
JP5165631B2 (en) * 2009-04-14 2013-03-21 現代自動車株式会社 Vehicle surrounding image display system
JP2010250640A (en) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd Image processing device
CN101995239B (en) * 2009-08-11 2012-05-23 财团法人车辆研究测试中心 System and method for determining obstacle by using aerial view images
JP5187292B2 (en) * 2009-09-28 2013-04-24 三菱自動車工業株式会社 Vehicle periphery monitoring device
JP5341789B2 (en) * 2010-01-22 2013-11-13 富士通テン株式会社 Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
JP2011159186A (en) * 2010-02-03 2011-08-18 Clarion Co Ltd Drive support device and control method of drive support device
JP5479956B2 (en) 2010-03-10 2014-04-23 クラリオン株式会社 Ambient monitoring device for vehicles
WO2012017560A1 (en) 2010-08-06 2012-02-09 富士通株式会社 Image processing device and image processing program
JP5269026B2 (en) * 2010-09-29 2013-08-21 日立建機株式会社 Work machine ambient monitoring device
JP5704902B2 (en) * 2010-11-26 2015-04-22 東芝アルパイン・オートモティブテクノロジー株式会社 Driving support device and driving support method
KR101748646B1 (en) * 2011-01-26 2017-07-04 현대모비스 주식회사 Apparatus And Method Detecting Side Vehicle Using Camera
JP5668857B2 (en) 2011-07-29 2015-02-12 富士通株式会社 Image processing apparatus, image processing method, and image processing program
EP2741270B1 (en) * 2011-08-02 2020-11-25 Nissan Motor Co., Ltd. Driving assistance apparatus and driving assistance method
JP5809988B2 (en) * 2012-01-10 2015-11-11 日立建機株式会社 Travel support device for work machine
JP5667594B2 (en) 2012-03-15 2015-02-12 株式会社小松製作所 Dump truck with obstacle detection mechanism and obstacle detection method thereof
JP6205640B2 (en) 2012-07-30 2017-10-04 市光工業株式会社 Warning device for vehicle
JP2017118409A (en) * 2015-12-25 2017-06-29 株式会社Jvcケンウッド Display device for vehicle, and display method for vehicle
JP6699370B2 (en) 2016-06-06 2020-05-27 アイシン精機株式会社 Vehicle image processing device
KR20180114546A (en) * 2017-03-10 2018-10-18 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 Application of automatic steering control standard to solve understeering of autonomous vehicle
CN111032958B (en) * 2017-08-08 2023-03-10 住友建机株式会社 Road machine
JP2020043400A (en) * 2018-09-06 2020-03-19 アイシン精機株式会社 Periphery monitoring device
US11926263B2 (en) 2019-04-18 2024-03-12 Mitsubishi Electric Corporation Vehicle surrounding area image generation device, vehicle surrounding area display system, and vehicle surrounding area display method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09202180A (en) * 1996-01-29 1997-08-05 Niles Parts Co Ltd On-board camera device
JP4048511B2 (en) * 1998-03-13 2008-02-20 富士通株式会社 Fisheye lens camera device and image distortion correction method thereof
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP3301421B2 (en) * 1999-10-20 2002-07-15 松下電器産業株式会社 Vehicle surrounding situation presentation device
JP3830025B2 (en) * 2000-06-30 2006-10-04 松下電器産業株式会社 Drawing device
JP2002019556A (en) * 2000-07-04 2002-01-23 Matsushita Electric Ind Co Ltd Monitoring system
JP3753681B2 (en) * 2000-07-19 2006-03-08 松下電器産業株式会社 Monitoring system
JP2002104117A (en) * 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
JP3773433B2 (en) * 2000-10-11 2006-05-10 シャープ株式会社 Ambient monitoring device for moving objects
JP3695319B2 (en) * 2000-11-30 2005-09-14 トヨタ自動車株式会社 Vehicle periphery monitoring device
JP3819284B2 (en) * 2001-11-29 2006-09-06 クラリオン株式会社 Vehicle perimeter monitoring device
JP3916958B2 (en) * 2002-01-24 2007-05-23 クラリオン株式会社 Vehicle rear monitoring system and monitoring device
JP4067424B2 (en) * 2003-02-21 2008-03-26 株式会社デンソー Vehicle peripheral image processing apparatus, program, and recording medium
JP4192680B2 (en) * 2003-05-28 2008-12-10 アイシン精機株式会社 Moving object periphery monitoring device
JP2005039599A (en) * 2003-07-16 2005-02-10 Nissan Motor Co Ltd Vehicle periphery surveillance apparatus
JP4573242B2 (en) * 2004-11-09 2010-11-04 アルパイン株式会社 Driving assistance device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10097772B2 (en) 2014-10-31 2018-10-09 Mitsubishi Electric Corporation Image processing device and image processing method

Also Published As

Publication number Publication date
JP2006253872A (en) 2006-09-21

Similar Documents

Publication Publication Date Title
JP4907883B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP7010221B2 (en) Image generator, image generation method, and program
JP4807104B2 (en) Vehicle surrounding monitoring system and image display method
JP4969269B2 (en) Image processing device
JP5436086B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP4639753B2 (en) Driving assistance device
JP4883977B2 (en) Image display device for vehicle
JP5099451B2 (en) Vehicle periphery confirmation device
JP5003946B2 (en) Parking assistance device
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
JP5132249B2 (en) In-vehicle imaging device
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
JP2013541915A (en) Blind Spot Zone Display Device and Method
JP3663801B2 (en) Vehicle rear view support device
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP2007089081A (en) Image display device for vehicle
US11601621B2 (en) Vehicular display system
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JP2013005233A (en) Vehicle periphery monitoring device
JP2002354467A (en) Surrounding information display unit for vehicle
JP2003104145A (en) Operation support display device
JP4600999B2 (en) Vehicle perimeter monitoring device
KR20200047257A (en) Device and a method for displaying aerial view images of a vehicle
KR20100005971A (en) A vehicle around view monitorring system
JP7006460B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees