JP2017126847A - Display device for vehicle and display method for vehicle - Google Patents

Display device for vehicle and display method for vehicle Download PDF

Info

Publication number
JP2017126847A
JP2017126847A JP2016004134A JP2016004134A JP2017126847A JP 2017126847 A JP2017126847 A JP 2017126847A JP 2016004134 A JP2016004134 A JP 2016004134A JP 2016004134 A JP2016004134 A JP 2016004134A JP 2017126847 A JP2017126847 A JP 2017126847A
Authority
JP
Japan
Prior art keywords
image
vehicle
distance
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016004134A
Other languages
Japanese (ja)
Other versions
JP6679939B2 (en
Inventor
俊夫 森
Toshio Mori
俊夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2016004134A priority Critical patent/JP6679939B2/en
Publication of JP2017126847A publication Critical patent/JP2017126847A/en
Priority to JP2020047460A priority patent/JP6950775B2/en
Application granted granted Critical
Publication of JP6679939B2 publication Critical patent/JP6679939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of making an effective response, while grasping the peripheral situation of a vehicle by using an overhead picture, and capable of reducing the risk of contact with an object such as an obstacle.SOLUTION: An image acquisition unit 32 acquires an image capturing the periphery of a vehicle. A generation unit 34 generates an overview image for the image acquired. A distance acquisition unit 36 acquires the distance to an object captured in the image. A selection unit 38 selects at least one of the distances of the object acquired. An image processing unit 40 processes the overview image on the basis of the at lest one distance thus selected, to produce an overview image where a first region containing an image 80 indicating a vehicle 100, and a second region containing the object can be identified. A display control unit 42 displays the overview image where the first region and second region can be identified on a display 50.SELECTED DRAWING: Figure 3

Description

本発明は、車両用表示技術に関し、特に画像を表示する車両用表示装置および車両用表示方法に関する。   The present invention relates to a vehicle display technology, and more particularly to a vehicle display device and a vehicle display method for displaying an image.

車両に設置されたカメラで当該車両の周辺を撮影した撮影画像を鳥瞰画像へと変換する視点変換処理がなされる。このような視点変換処理では、撮影画像に写り込んだ被写体は路面上に投影されていると仮定し、その投影された被写体を仮想視点から見た画像に変換するので、立体物が被写体である場合に、被写体が歪み、いびつなものとなることがある。この歪みを抑制するために、探査波を送受信した結果にもとづいて特定した立体物の輪郭によって鳥瞰画像が修正される(例えば、特許文献1参照)。   A viewpoint conversion process is performed in which a captured image obtained by photographing the periphery of the vehicle with a camera installed in the vehicle is converted into a bird's-eye view image. In such a viewpoint conversion process, it is assumed that the subject reflected in the photographed image is projected on the road surface, and the projected subject is converted into an image viewed from the virtual viewpoint, so the three-dimensional object is the subject. In some cases, the subject may be distorted and distorted. In order to suppress this distortion, the bird's-eye view image is corrected by the contour of the three-dimensional object specified based on the result of transmitting / receiving the exploration wave (see, for example, Patent Document 1).

特開2012−156632号公報JP 2012-156632 A

さらに、鳥瞰画像、つまり俯瞰画像を生成するための視点変換では、一般的に、車両の周辺に存在し上下方向の位置の差がある物体間の距離や位置関係を正確に表すことができない。そのため、違和感を生じたり、物体までの距離や位置関係を正確に把握できなかったりする場合がある。物体までの距離や位置関係が正確に把握できなければ、物体に接触する危険性が生じる。   Furthermore, viewpoint conversion for generating a bird's-eye view image, that is, a bird's-eye view image, generally cannot accurately represent the distance and positional relationship between objects that exist in the vicinity of the vehicle and have a difference in vertical position. For this reason, a sense of incongruity may occur, or the distance to the object and the positional relationship may not be accurately grasped. If the distance and positional relationship to the object cannot be accurately grasped, there is a risk of contact with the object.

本発明はこうした状況に鑑みてなされたものであり、その目的は、俯瞰画像を用いた車両周辺状況を把握しながら余裕のある対応を行うことができ、障害物等の物体が存在する場合に、物体との接触の危険性を低減することができる技術を提供することである。   The present invention has been made in view of such a situation, and the purpose of the present invention is to perform a generous response while grasping a vehicle surrounding situation using a bird's-eye view image, and when an object such as an obstacle exists. To provide a technique capable of reducing the risk of contact with an object.

上記課題を解決するために、本発明のある態様の車両用表示装置は、車両の周辺を撮像した画像を取得する画像取得部と、画像取得部において取得した画像に対して、車両の上方から見たように視点を変換することによって、俯瞰画像を生成する生成部と、画像取得部において取得した画像に撮像された物体との距離を取得する距離取得部と、距離取得部において取得した物体の距離のうちの少なくとも1つを選択する選択部と、選択部において選択した少なくとも1つの距離をもとに、生成部において生成した俯瞰画像に対して、車両を示す画像が含まれている第1領域と、選択部において選択した少なくとも1つの距離だけ隔てた物体が含まれている第2領域とを識別可能な俯瞰画像とする画像処理部と、画像処理部において第1領域と第2領域とが識別可能な俯瞰画像を表示部に表示させる表示処理部と、を備える。   In order to solve the above problems, a display device for a vehicle according to an aspect of the present invention includes an image acquisition unit that acquires an image obtained by capturing an image of the periphery of the vehicle, and an image acquired by the image acquisition unit from above the vehicle. The generation unit that generates the overhead image by converting the viewpoint as seen, the distance acquisition unit that acquires the distance between the object captured by the image acquired by the image acquisition unit, and the object acquired by the distance acquisition unit A selection unit that selects at least one of the distances of the distances, and a bird's-eye view image generated by the generation unit based on at least one distance selected by the selection unit includes an image indicating a vehicle. An image processing unit that can identify a region and a second region that includes an object separated by at least one distance selected by the selection unit, and a first region in the image processing unit, And 2 region and a display processing unit that causes a display section to display an overhead image can be identified.

本発明の別の態様は、車両用表示方法である。この方法は、車両の周辺を撮像した画像を取得するステップと、取得した画像に対して、車両の上方から見たように視点を変換することによって、俯瞰画像を生成するステップと、取得した画像に撮像された物体との距離を取得するステップと、取得した物体の距離のうちの少なくとも1つを選択するステップと、選択した少なくとも1つの距離をもとに、生成した俯瞰画像に対して、車両を示す画像が含まれている第1領域と、選択した少なくとも1つの距離だけ隔てた物体が含まれている第2領域とを識別可能な俯瞰画像とするステップと、第1領域と第2領域とが識別可能な俯瞰画像を表示部に表示させるステップと、を備える。   Another aspect of the present invention is a vehicle display method. The method includes a step of acquiring an image obtained by imaging the periphery of a vehicle, a step of generating a bird's-eye view image by converting the viewpoint as viewed from above the vehicle, and the acquired image. A step of acquiring a distance to the object imaged in the step, a step of selecting at least one of the distances of the acquired object, and an overhead image generated based on the selected at least one distance, A first area including an image showing a vehicle and a second area including an object separated by at least one selected distance are set as distinguishable overhead images, and the first area and the second area Displaying a bird's-eye view image that can be identified from the region on the display unit.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、俯瞰画像を用いた車両周辺状況を把握しながら余裕のある対応を行うことができ、障害物等の物体が存在する場合に、物体との接触の危険性を低減することができる。   Advantageous Effects of Invention According to the present invention, it is possible to perform a generous response while grasping a vehicle surrounding situation using a bird's-eye view image, and reduce the risk of contact with an object when an object such as an obstacle exists. Can do.

本発明の実施例に係る車両の周辺に形成される撮像範囲を示す斜視図である。It is a perspective view which shows the imaging range formed in the periphery of the vehicle which concerns on the Example of this invention. 図2(a)−(b)は、本発明の実施例の比較対象における処理の概要を示す図である。FIGS. 2A and 2B are diagrams showing an outline of processing in a comparison target of the embodiment of the present invention. 本発明の実施例に係る車両用表示装置の構成を示す図である。It is a figure which shows the structure of the display apparatus for vehicles which concerns on the Example of this invention. 図3の生成部において生成される俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image produced | generated in the production | generation part of FIG. 図3の距離取得部における処理の概要を示す図である。It is a figure which shows the outline | summary of the process in the distance acquisition part of FIG. 図3の距離取得部における別の処理の概要を示す図である。It is a figure which shows the outline | summary of another process in the distance acquisition part of FIG. 図3の画像処理部において生成される俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image produced | generated in the image process part of FIG. 図3の車両用表示装置による表示手順例を示すフローチャートである。It is a flowchart which shows the example of a display procedure by the display apparatus for vehicles of FIG.

本発明を具体的に説明する前に、まず前提を説明する。本発明の実施例は、車両に設置された複数の撮像部において撮像した画像に対して、視点変換により俯瞰画像を生成し、生成した俯瞰画像を表示する車両用表示装置に関する。視点変換では、撮像した画像が地面上の平面にマッピングされるので、撮像した画像に含まれた各物体が地面の平面上に並んでいるように表示される。そのため、視点変換によって、俯瞰画像に示される自車を示すアイコンと障害物との距離や位置関係が、実際の距離や位置関係と異なる場合がある。   Before describing the present invention specifically, the premise will be described first. An embodiment of the present invention relates to a vehicle display device that generates a bird's-eye view image by viewpoint conversion with respect to images taken by a plurality of imaging units installed in a vehicle and displays the generated bird's-eye view image. In the viewpoint conversion, the captured image is mapped to a plane on the ground, so that each object included in the captured image is displayed so as to be arranged on the ground plane. Therefore, depending on the viewpoint conversion, the distance and positional relationship between the icon indicating the host vehicle shown in the overhead image and the obstacle may be different from the actual distance and positional relationship.

例えば、実際の障害物までの距離よりも、俯瞰画像における障害物までの距離が離れるように表示される。具体的に説明すると、物体が立体物であっても、地面上に張り付いているように表示されるので、立体物までの距離は、立体物の下端の距離が一番近くに見える。立体物が地面に接地している場合、接地面までの距離が立体物までの実際の距離となるが、地面に接地していない場合、立体物までの距離は実際の距離より遠くに見える。このような状況下において、運転者が、モニタに表示された俯瞰画像を見ながら車庫入れ等を実行すると、障害物など車両の周辺に存在する物体とに接触しないと判断して操舵した場合であっても、物体に接触したり、適切な回避が困難となったりする可能性がある。   For example, the distance to the obstacle in the bird's-eye view image is displayed so as to be farther than the distance to the actual obstacle. More specifically, even if the object is a three-dimensional object, it is displayed as if it is stuck on the ground, so that the distance to the three-dimensional object appears closest to the lower end of the three-dimensional object. When the three-dimensional object is in contact with the ground, the distance to the ground surface is the actual distance to the three-dimensional object. When the three-dimensional object is not in contact with the ground, the distance to the three-dimensional object appears farther than the actual distance. Under such circumstances, when the driver performs garage entry while looking at the overhead image displayed on the monitor, he / she determines that he / she does not come into contact with an object such as an obstacle around the vehicle. Even in such a case, it may come into contact with an object or it may be difficult to avoid appropriately.

これに対応するために、本実施例に係る車両用表示装置は、次の処理を実行する。車両用表示装置は、撮像した画像に含まれた物体までの距離を測定し、測定した距離をもとに物体が含まれた領域を識別可能な俯瞰映像を生成する。さらに、車両用表示装置は、生成された俯瞰画像を表示する。物体を含んだ領域が識別可能として運転者に対して実際の距離の目安を提供し、視点変換による錯誤があることを警告する。   In order to cope with this, the vehicular display device according to the present embodiment executes the following processing. The vehicular display device measures the distance to the object included in the captured image, and generates a bird's-eye view video that can identify the region including the object based on the measured distance. Furthermore, the vehicle display device displays the generated overhead image. The area including the object is identifiable, and the driver is provided with an indication of the actual distance and warns that there is an error due to the viewpoint conversion.

以下、本発明の実施例について、図面を参照しつつ説明する。実施例に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、本発明に直接関係のない要素は図示を省略する。   Embodiments of the present invention will be described below with reference to the drawings. Specific numerical values and the like shown in the examples are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. .

図1は、本発明の実施例に係る車両100の周辺に形成される撮像範囲を示す斜視図である。車両100の前方部分、例えばバンパー、ボンネット等には、前方撮像部12が設置される。前方撮像部12は、前方撮像部12から前方に向かうように前方撮像領域20を形成し、前方撮像領域20において画像を撮像する。車両の左側方部分、例えば、左側ドアミラーの下部等には、左側方撮像部14が設置される。左側方撮像部14は、左側方撮像部14から左方に向かうように左側方撮像領域22を形成し、左側方撮像領域22において画像を撮像する。   FIG. 1 is a perspective view showing an imaging range formed around a vehicle 100 according to an embodiment of the present invention. A front imaging unit 12 is installed in a front portion of the vehicle 100, for example, a bumper, a bonnet, or the like. The front imaging unit 12 forms a front imaging region 20 so as to go forward from the front imaging unit 12, and captures an image in the front imaging region 20. A left side imaging unit 14 is installed in a left side portion of the vehicle, for example, a lower portion of the left door mirror. The left side imaging unit 14 forms a left side imaging region 22 so as to go to the left from the left side imaging unit 14, and captures an image in the left side imaging region 22.

車両の後方部分、例えば、バンパー、トランク等には、後方撮像部16が設置される。後方撮像部16は、後方撮像部16から後方に向かうように後方撮像領域24を形成し、後方撮像領域24において画像を撮像する。左側方撮像部14と左右対称になるように、車両の右側部分には、図示しない右側方撮像部18が設置される。右側方撮像部18は、右側方撮像部18から右方に向かうように、右側方撮像領域26を形成し、右側方撮像領域26において画像を撮像する。前方撮像部12、左側方撮像部14、後方撮像部16および右側方撮像部18を撮像部10とし、撮像部10において撮像した画像によって、車両100の周辺が撮像される。   A rear imaging unit 16 is installed in a rear portion of the vehicle, such as a bumper or a trunk. The rear imaging unit 16 forms a rear imaging region 24 so as to go rearward from the rear imaging unit 16, and captures an image in the rear imaging region 24. A right side imaging unit 18 (not shown) is installed on the right side portion of the vehicle so as to be symmetrical with the left side imaging unit 14. The right side imaging unit 18 forms a right side imaging region 26 so as to go right from the right side imaging unit 18, and captures an image in the right side imaging region 26. The front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18 are used as the imaging unit 10, and the periphery of the vehicle 100 is captured by an image captured by the imaging unit 10.

図2(a)−(b)は、本発明の実施例の比較対象における処理の概要を示す。比較対象では、図1に示すように、車両100に設置された撮像部10において画像を撮像する場合を想定する。特に、比較対象では、画像に対する視点変換により俯瞰画像を生成するための処理が、これまでなされていた処理に相当する。図2(a)は、図1の車両100を左側方から見た場合を示す。前述のごとく、車両100の後方部分には後方撮像部16が設置されている。また、車両100の後方には、他車両110が駐車あるいは停車している。   2 (a)-(b) shows an overview of the processing in the comparison target of the embodiment of the present invention. As a comparison target, as illustrated in FIG. 1, it is assumed that an image is captured by the imaging unit 10 installed in the vehicle 100. Particularly, in the comparison target, the process for generating the overhead image by the viewpoint conversion on the image corresponds to the process that has been performed so far. FIG. 2A shows a case where the vehicle 100 of FIG. 1 is viewed from the left side. As described above, the rear imaging unit 16 is installed in the rear portion of the vehicle 100. In addition, another vehicle 110 is parked or stopped behind the vehicle 100.

さらに、地面には枠線60が描画されており、枠線60は、他車両110の前方端部の下に存在する。ここで、他車両110のタイヤによって、他車両110の前方端部と図面との間には隙間がある。そのため、車両100、他車両110を上方から見下ろした場合、枠線60は他車両110に遮蔽される。一方、後方撮像部16は、車両100の上方ではない位置から斜めに他車両110および枠線60を撮像しているので、後方撮像部16によって撮像された画像には、他車両110の前方端部、枠線60が含まれる。   Further, a frame line 60 is drawn on the ground, and the frame line 60 exists below the front end of the other vehicle 110. Here, there is a gap between the front end of the other vehicle 110 and the drawing due to the tire of the other vehicle 110. Therefore, when the vehicle 100 and the other vehicle 110 are looked down from above, the frame line 60 is shielded by the other vehicle 110. On the other hand, since the rear imaging unit 16 images the other vehicle 110 and the frame line 60 obliquely from a position that is not above the vehicle 100, the image captured by the rear imaging unit 16 is included in the front end of the other vehicle 110. Part and a frame line 60 are included.

図2(b)は、撮像部10において撮像した画像に対して、視点変換を実行して生成した俯瞰画像78を示す。前述のごとく、俯瞰画像78を生成するための処理には、これまでなされていた処理が実行されている。俯瞰画像78の中央部分には、車両100を示す画像である自車アイコン80が配置される。自車アイコン80の前方には前方画像70が配置され、自車アイコン80の左側方には左側方画像72が配置され、車両100の後方には後方画像74が配置され、車両100の右側方には右側方画像76が配置される。特に、後方画像74は、図2(a)における撮像範囲62を撮像した画像をもとに生成されている。そのため、後方画像74では、車両100の後方に他車両110が配置されるとともに、車両100と他車両110との間に枠線60が配置される。つまり、本来、上方から見た場合に他車両110に遮蔽されるはずの枠線60が、他車両110に遮蔽されなくなり、俯瞰画像78と実際の状況とが異なる。このため、運転者において、他車両110が、地面上の枠線60より後方にあると錯誤する可能性がある。   FIG. 2B shows an overhead image 78 generated by performing viewpoint conversion on the image captured by the imaging unit 10. As described above, the processing that has been performed so far is executed in the processing for generating the overhead view image 78. In the central portion of the bird's-eye view image 78, a host vehicle icon 80 that is an image showing the vehicle 100 is arranged. A front image 70 is arranged in front of the host vehicle icon 80, a left side image 72 is arranged on the left side of the host vehicle icon 80, a rear image 74 is arranged behind the vehicle 100, and a right side of the vehicle 100 is displayed. A right side image 76 is arranged. In particular, the rear image 74 is generated based on an image obtained by imaging the imaging range 62 in FIG. Therefore, in the rear image 74, the other vehicle 110 is disposed behind the vehicle 100, and the frame line 60 is disposed between the vehicle 100 and the other vehicle 110. That is, the frame line 60 that should originally be shielded by the other vehicle 110 when viewed from above is not shielded by the other vehicle 110, and the overhead image 78 and the actual situation are different. For this reason, in a driver | operator, there exists a possibility that the other vehicle 110 may be mistaken for being behind the frame line 60 on the ground.

図3は、本発明の実施例に係る車両用表示装置30の構成を示す。車両用表示装置30は、撮像部10を構成する前方撮像部12、左側方撮像部14、後方撮像部16、右側方撮像部18に接続されるとともに、表示部50にも接続される。車両用表示装置30は、画像取得部32、生成部34、距離取得部36、選択部38、画像処理部40、表示制御部42を含む。   FIG. 3 shows a configuration of the vehicle display device 30 according to the embodiment of the present invention. The vehicle display device 30 is connected to the front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18 that constitute the imaging unit 10, and is also connected to the display unit 50. The vehicle display device 30 includes an image acquisition unit 32, a generation unit 34, a distance acquisition unit 36, a selection unit 38, an image processing unit 40, and a display control unit 42.

前方撮像部12、左側方撮像部14、後方撮像部16、右側方撮像部18は、前述のごとく、画像を撮像する。画像は動画像であるが、静止画像であってもよい。前方撮像部12、左側方撮像部14、後方撮像部16、右側方撮像部18は、画像を画像取得部32に出力する。画像取得部32は、前方撮像部12、左側方撮像部14、後方撮像部16、右側方撮像部18のそれぞれから画像を取得する。つまり、画像取得部32は、車両100の周辺を撮像した画像を取得する。画像取得部32は、取得した画像を生成部34、距離取得部36に出力する。   The front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18 capture an image as described above. The image is a moving image, but may be a still image. The front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18 output images to the image acquisition unit 32. The image acquisition unit 32 acquires images from each of the front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18. That is, the image acquisition unit 32 acquires an image obtained by capturing the periphery of the vehicle 100. The image acquisition unit 32 outputs the acquired image to the generation unit 34 and the distance acquisition unit 36.

生成部34は、画像取得部32からの画像を入力する。生成部34は、画像に対して、車両100の上方から見たように視点を変換することによって俯瞰画像を生成する。当該変換には、公知の技術が使用されればよいが、例えば、仮想的な三次元空間における立体曲面に画像の各画素を投影するとともに、車両100の上方からの仮想視点に応じて、立体曲面の必要な領域を切り出す。切り出した領域が、視点を変換した画像に相当する。   The generation unit 34 inputs an image from the image acquisition unit 32. The generation unit 34 generates an overhead image by converting the viewpoint as viewed from above the vehicle 100 with respect to the image. A known technique may be used for the conversion. For example, each pixel of the image is projected onto a three-dimensional curved surface in a virtual three-dimensional space, and a three-dimensional object is displayed according to a virtual viewpoint from above the vehicle 100. Cut out the necessary area of the curved surface. The cut out region corresponds to an image whose viewpoint has been converted.

図4は、生成部34において生成される俯瞰画像98を示す。図4における俯瞰画像98の中央部分には、自車アイコン80が配置される。自車アイコン80は、車両100を上方から見た画像であり、かつ俯瞰画像98における車両100のサイズを有する。自車アイコン80の前方には前方画像90が配置され、自車アイコン80の左側方には左側方画像92が配置され、自車アイコン80の後方には後方画像94が配置され、自車アイコン80の右側方には右側方画像96が配置される。また、俯瞰画像98には、車両100の周囲に存在する物体の例として、第1物体140、第2物体142が示される。ここで、第1物体140、第2物体142が立体物である場合、地面に接地しているか否かは、不明である。図3に戻る。生成部34は、俯瞰画像98を画像処理部40に出力する。   FIG. 4 shows an overhead image 98 generated by the generation unit 34. In the center portion of the overhead image 98 in FIG. The own vehicle icon 80 is an image of the vehicle 100 as viewed from above, and has the size of the vehicle 100 in the overhead image 98. A front image 90 is arranged in front of the own vehicle icon 80, a left side image 92 is arranged on the left side of the own vehicle icon 80, and a rear image 94 is arranged behind the own vehicle icon 80. A right side image 96 is arranged on the right side of 80. The bird's-eye view image 98 shows a first object 140 and a second object 142 as examples of objects existing around the vehicle 100. Here, when the first object 140 and the second object 142 are three-dimensional objects, it is unclear whether or not they are in contact with the ground. Returning to FIG. The generation unit 34 outputs the overhead image 98 to the image processing unit 40.

距離取得部36は、画像取得部32において取得した画像に撮像された物体との距離を取得する。また、距離取得部36は、画像取得部32において取得した画像に撮像された物体の高さ情報も取得する。画像から、物体までの距離と、高さを測定する方法としては、例えば、次の2つの方法が示される。1つ目では、車両100が移動することにより、移動前後の画像を比較して測定し、2つ目では、複数の撮像部10からの画像を比較して測定する。距離取得部36は、ミリ波レーダやレーザレーダなど他の手法を用いまたは併用してもよいが、画像取得部32において取得した画像を用いることで、装置の簡素化が可能である。まず、図5を使用しながら、1つ目を説明する。   The distance acquisition unit 36 acquires the distance from the object imaged in the image acquired by the image acquisition unit 32. The distance acquisition unit 36 also acquires the height information of the object captured in the image acquired by the image acquisition unit 32. As a method for measuring the distance from the image to the object and the height, for example, the following two methods are shown. In the first case, the vehicle 100 moves to compare and measure images before and after the movement, and in the second case, the images from the plurality of imaging units 10 are compared and measured. The distance acquisition unit 36 may use another method such as a millimeter wave radar or a laser radar, or may be used in combination, but the image acquired by the image acquisition unit 32 can be used to simplify the apparatus. First, the first will be described with reference to FIG.

図5は、距離取得部36における処理の概要を示す。図示のごとく、直交座標系であるx軸、y軸、z軸が規定される。x軸は、地面上の横方向を示し、y軸は、地面状の縦方向を示し、z軸は、地面に垂直な方向を示す。車両100、後方撮像部16は、前述の通りである。また、車両100が示された位置に、最初の状態において車両100が存在している。後退後車両200は、後方、つまりz軸の負方向側に移動した車両100に相当する。後退後車両200における後方撮像部16が後退後後方撮像部216である。障害物120は、車両100の後方に存在する立体物であり、図形122は、地面上の平面図、例えば、前述の枠線60である。なお、図形122は、後方撮像部16において撮像した画像において、障害物120に重なっているとする。   FIG. 5 shows an outline of processing in the distance acquisition unit 36. As shown, an x-axis, a y-axis, and a z-axis that are orthogonal coordinate systems are defined. The x-axis indicates the horizontal direction on the ground, the y-axis indicates the vertical direction of the ground, and the z-axis indicates the direction perpendicular to the ground. The vehicle 100 and the rear imaging unit 16 are as described above. Moreover, the vehicle 100 exists in the position where the vehicle 100 was shown in the initial state. The vehicle 200 after reverse corresponds to the vehicle 100 that has moved rearward, that is, in the negative direction of the z-axis. The rear imaging unit 16 in the vehicle 200 after retreating is the rear imaging unit 216 after retreating. The obstacle 120 is a three-dimensional object existing behind the vehicle 100, and the figure 122 is a plan view on the ground, for example, the frame line 60 described above. The figure 122 is assumed to overlap the obstacle 120 in the image captured by the rear imaging unit 16.

ここで、後方撮像部16の位置から地面に垂直に交わる点を原点として、地面から後方撮像部16までの高さを「a」とした場合、障害物120と図形122の上面は以下のように導出される。後方撮像部16からは、障害物120も図形122も同じものに見えるので、後方撮像部16からの第1直線250として示される。第1直線250は、z軸からの角度を「θ1」とし、x軸からの角度を「φ1」とした場合、次のように示される。
(x/(sinθ1×cosφ1))=(y/(sinθ1×sinφ1))=((z+a)/(cosθ1))・・・式(1)
Here, if the height from the ground to the rear imaging unit 16 is “a” with the point perpendicular to the ground from the position of the rear imaging unit 16 as the origin, the top surfaces of the obstacle 120 and the figure 122 are as follows: To be derived. From the rear imaging unit 16, the obstacle 120 and the graphic 122 appear to be the same, and are shown as the first straight line 250 from the rear imaging unit 16. The first straight line 250 is expressed as follows when the angle from the z-axis is “θ1” and the angle from the x-axis is “φ1”.
(X / (sin θ1 × cos φ1)) = (y / (sin θ1 × sin φ1)) = ((z + a) / (cos θ1)) (1)

また、後退後後方撮像部216から障害物120への第2直線252は、車両の移動量を「b」とし、z軸からの角度を「θ2」とし、x軸からの角度を「φ2」とした場合、次のように示される。
((x−b)/(sinθ2×cosφ2))=(y/(sinθ2×sinφ2))=((z+a)/(cosθ2))・・・式(2)
さらに、後退後後方撮像部216から図形122への第3直線254は、z軸からの角度を「θ3」とし、x軸からの角度を「φ3」とした場合、次のように示される。
((x−b)/(sinθ3*cosφ3))=(y/(sinθ3*sinφ3))=((z+a)/(cosθ3))・・・式(3)
In addition, the second straight line 252 from the rear imaging unit 216 to the obstacle 120 after the backward movement has a vehicle movement amount “b”, an angle from the z axis “θ2”, and an angle from the x axis “φ2”. In this case, it is shown as follows.
((X−b) / (sin θ2 × cos φ2)) = (y / (sin θ2 × sin φ2)) = ((z + a) / (cos θ2)) (2)
Further, the third straight line 254 from the rear imaging unit 216 after retraction to the figure 122 is expressed as follows when the angle from the z axis is “θ3” and the angle from the x axis is “φ3”.
((X−b) / (sin θ3 * cos φ3)) = (y / (sin θ3 * sin φ3)) = ((z + a) / (cos θ3)) (3)

距離取得部36は、式(1)、式(2)の連立方程式を解くことによって、式(1)と式(2)の交点である障害物120の位置を導出する。また、距離取得部36は、式(1)、式(3)の連立方程式を解くことによって、式(1)と式(3)の交点である図形122の位置を導出する。さらに、距離取得部36は、連立方程式の解のx軸の値から移動量「b」を減算することによって、車両100の後端から障害物120、図形122への距離を導出する。距離取得部36は、連立方程式の解のy軸の値から車両の幅の半分を減算することによって、車両側面から障害物120、図形122への距離を導出する。距離取得部36は、連立方程式の解のz軸の値を障害物120、図形122の高さとする。   The distance acquisition unit 36 derives the position of the obstacle 120 that is the intersection of the equations (1) and (2) by solving the simultaneous equations of the equations (1) and (2). Further, the distance acquisition unit 36 derives the position of the figure 122 that is the intersection of the equations (1) and (3) by solving the simultaneous equations of the equations (1) and (3). Furthermore, the distance acquisition unit 36 derives the distances from the rear end of the vehicle 100 to the obstacle 120 and the figure 122 by subtracting the movement amount “b” from the x-axis value of the solution of the simultaneous equations. The distance acquisition unit 36 derives the distance from the vehicle side surface to the obstacle 120 and the figure 122 by subtracting half of the vehicle width from the y-axis value of the solution of the simultaneous equations. The distance acquisition unit 36 sets the value of the z-axis of the solution of the simultaneous equations as the height of the obstacle 120 and the figure 122.

ここでは、後方撮像部16を使用した場合を説明したが、同様な方法で、前方撮像部12、左側方撮像部14、右側方撮像部18でも障害物の位置を測定することが可能である。車両100の移動を利用した測定では、撮像部10の移動が前提となるので、車両100が静止した状態では測定不可能である。しかしながら、1つの撮像部だけで測定が可能なので、他の撮像部もそれぞれ使用することによって、車両100の全周囲の測定が可能になる。   Here, although the case where the rear imaging unit 16 is used has been described, the front imaging unit 12, the left side imaging unit 14, and the right side imaging unit 18 can also measure the position of an obstacle in a similar manner. . In the measurement using the movement of the vehicle 100, the movement of the imaging unit 10 is a premise, and thus measurement is impossible when the vehicle 100 is stationary. However, since measurement can be performed with only one imaging unit, the entire circumference of the vehicle 100 can be measured by using other imaging units.

次に、図6を使用しながら、2つ目を説明する。図6は、距離取得部36における別の処理の概要を示す。図6でも図5と同様の直交座標系が規定される。車両100、後方撮像部16、右側方撮像部18、障害物120、図形122は、前述の通りである。ここで、後方撮像部16の位置から地面に垂直に交わる点を原点として、地面から後方撮像部16までの高さを「a」とした場合、障害物120と図形122の上面は以下のように導出される。   Next, the second will be described with reference to FIG. FIG. 6 shows an outline of another process in the distance acquisition unit 36. 6 also defines a rectangular coordinate system similar to that in FIG. The vehicle 100, the rear imaging unit 16, the right side imaging unit 18, the obstacle 120, and the figure 122 are as described above. Here, if the height from the ground to the rear imaging unit 16 is “a” with the point perpendicular to the ground from the position of the rear imaging unit 16 as the origin, the top surfaces of the obstacle 120 and the figure 122 are as follows: To be derived.

右側方撮像部18からは、障害物120も図形122も同じものに見えるので、右側方撮像部18からの第1直線260として示される。第1直線260は、右側方撮像部18のy軸からの距離を「b」とし、x軸からの距離を「c」とし、地面からの距離を「d」とし、z軸からの角度を「θ1」とし、x軸からの角度を「φ1」とした場合、次のように示される。
((x+c)/(sinθ1*cosφ1))=((y+b)/(sinθ1*sinφ1))=((z+d)/(cosθ1))・・・式(4)
Since the obstacle 120 and the graphic 122 appear to be the same from the right side imaging unit 18, it is shown as a first straight line 260 from the right side imaging unit 18. The first straight line 260 has a distance from the y-axis of the right side imaging unit 18 as “b”, a distance from the x-axis as “c”, a distance from the ground as “d”, and an angle from the z-axis. When “θ1” is set and the angle from the x-axis is “φ1”, the following is shown.
((X + c) / (sin θ1 * cos φ1)) = ((y + b) / (sin θ1 * sin φ1)) = ((z + d) / (cos θ1)) (4)

一方、後方撮像部16からは、障害物120も図形122が異なったものとして見えるので、後方撮像部16から障害物120への第2直線262は、z軸からの角度を「θ2」とし、x軸からの角度を「φ2」とした場合、次のように示される。
(x/(sinθ2*cosφ2))=(y/(sinθ2*sinφ2))=((z+a)/(cosθ2))・・・式(5)
さらに、後方撮像部16から図形122への第3直線264は、z軸からの角度を「θ3」とし、x軸からの角度を「φ3」とした場合、次のように示される。
(x/(sinθ3*cosφ3))=(y/(sinθ3*sinφ3))=((z+a)/(cosθ3))・・・式(6)
On the other hand, since the obstacle 120 also appears to have a different figure 122 from the rear imaging unit 16, the second straight line 262 from the rear imaging unit 16 to the obstacle 120 has an angle from the z axis of “θ2”. When the angle from the x-axis is “φ2”, it is shown as follows.
(X / (sin θ2 * cos φ2)) = (y / (sin θ2 * sin φ2)) = ((z + a) / (cos θ2)) (5)
Further, the third straight line 264 from the rear imaging unit 16 to the graphic 122 is expressed as follows when the angle from the z-axis is “θ3” and the angle from the x-axis is “φ3”.
(X / (sin θ3 * cos φ3)) = (y / (sin θ3 * sin φ3)) = ((z + a) / (cos θ3)) (6)

距離取得部36は、式(4)、式(5)の連立方程式を解くことによって、式(4)と式(5)の交点である障害物120の位置を導出する。また、距離取得部36は、式(4)、式(6)の連立方程式を解くことによって、式(4)と式(6)の交点である図形122の位置を導出する。さらに、距離取得部36は、連立方程式の解のx軸の値を、車両100から障害物120、図形122への距離とし、連立方程式の解のz軸の値を障害物120、図形122の高さとする。また、距離取得部36は、連立方程式の解のy軸の値から車両の幅の半分を減算することによって、車両側面から障害物120、図形122への距離を導出する。   The distance acquisition unit 36 derives the position of the obstacle 120 that is the intersection of the equations (4) and (5) by solving the simultaneous equations of the equations (4) and (5). Further, the distance acquisition unit 36 derives the position of the figure 122 that is the intersection of the equations (4) and (6) by solving the simultaneous equations of the equations (4) and (6). Further, the distance acquisition unit 36 sets the x-axis value of the solution of the simultaneous equations as the distance from the vehicle 100 to the obstacle 120 and the figure 122, and sets the z-axis value of the solutions of the simultaneous equations as the obstacle 120 and the figure 122. The height. The distance acquisition unit 36 derives the distance from the vehicle side surface to the obstacle 120 and the figure 122 by subtracting half of the vehicle width from the y-axis value of the solution of the simultaneous equations.

ここでは、後方撮像部16、右側方撮像部18を使用した場合を説明したが、同様な方法で、左側方撮像部14あるいは右側方撮像部18と、前方撮像部12でも障害物の位置を測定することが可能である。2つ目の方法では、車両100が静止した状態でも測定が可能である。図3に戻る。距離取得部36は、1つ目の方法あるいは2つ目の方法で導出した物体までの距離、高さの情報を選択部38に出力する。なお、複数の物体が画像に含まれる場合、距離取得部36は、それらの距離、高さの情報を選択部38に出力する。   Here, the case where the rear imaging unit 16 and the right side imaging unit 18 are used has been described. However, the position of the obstacle is also determined by the left side imaging unit 14 or the right side imaging unit 18 and the front imaging unit 12 in the same manner. It is possible to measure. In the second method, measurement is possible even when the vehicle 100 is stationary. Returning to FIG. The distance acquisition unit 36 outputs information on the distance and height to the object derived by the first method or the second method to the selection unit 38. When a plurality of objects are included in the image, the distance acquisition unit 36 outputs information on their distance and height to the selection unit 38.

選択部38は、距離取得部36から、1つ上の物体に関する距離、高さの情報を入力する。選択部38は、距離取得部36において取得した物体の距離のうちの少なくとも1つを選択する。具体的に説明すると、選択部38は、入力した1つ以上の情報をもとに、(1)取得した高さの情報が予め設定された高さ以上である物体までの距離を選択する。ここで、「予め設定された高さ」は、例えば、5cmのように設定される。予め設定された高さは、車両100が乗り越えることが困難な高さや、障害物として回避すべき物体の高さが設定される。また、「予め設定された高さ」の別の設定例として、例えば20cmのように設定される。この高さは、車両100の車体が接触してしまう高さが設定される。また、選択部38は、入力した1つ以上の情報をもとに、(2)予め設定された距離未満の距離を選択する。ここで、「予め設定された距離」は、例えば、50cmのように設定される。予め設定された距離は、例えば駐車動作や徐行動作時に物体の存在を把握しなければならない距離が設定される。なお、選択部38は、(1)と(2)のいずれか一方の選択を実行してもよいし、(1)と(2)の両方を満たした距離を選択してもよい。また、同一の方向に複数の物体が存在するときは、車両100に最も近い物体までの距離を選択する。このような選択は、車両100との衝突の危険性の低い物体を無視したり、車両100から十分に離れた物体を無視したりすることに相当する。選択部38は、選択した少なくとも1つの距離の情報を画像処理部40に出力する。   The selection unit 38 inputs distance and height information regarding the object one level higher from the distance acquisition unit 36. The selection unit 38 selects at least one of the object distances acquired by the distance acquisition unit 36. More specifically, the selection unit 38 selects (1) a distance to an object whose acquired height information is greater than or equal to a preset height based on one or more pieces of input information. Here, the “preset height” is set to 5 cm, for example. As the preset height, a height at which the vehicle 100 is difficult to get over or a height of an object to be avoided as an obstacle is set. Further, another setting example of “preset height” is set to 20 cm, for example. The height at which the vehicle body of the vehicle 100 comes into contact is set. The selection unit 38 selects (2) a distance less than a preset distance based on one or more pieces of input information. Here, the “preset distance” is set to 50 cm, for example. The distance set in advance is set to a distance for which the presence of an object must be grasped during, for example, a parking operation or a slowing operation. The selection unit 38 may execute selection of either (1) or (2), or may select a distance that satisfies both (1) and (2). When there are a plurality of objects in the same direction, the distance to the object closest to the vehicle 100 is selected. Such a selection corresponds to ignoring an object with a low risk of collision with the vehicle 100 or ignoring an object sufficiently away from the vehicle 100. The selection unit 38 outputs information on at least one selected distance to the image processing unit 40.

画像処理部40は、生成部34からの俯瞰画像98を入力するとともに、選択部38から、少なくとも1つの距離の情報を入力する。さらに、画像処理部40は、CAN(Controller Area Network)を介してECU(Electronic Control Unit)から、選択されているギアに関する情報も取得する。画像処理部40は、リバースギアが選択されていない場合、生成部34からの俯瞰画像98を表示制御部42に出力する。一方、画像処理部40は、リバースギアが選択されている場合、次の処理を実行する。リバースギアの選択による次の処理の実行は一例であり、例えば、現在位置情報および走行速度情報にもとづき駐車動作が行われていることが判断された場合であってもよい。また、運転者の操作によって開始されてもよい。   The image processing unit 40 inputs the bird's-eye view image 98 from the generation unit 34 and inputs information on at least one distance from the selection unit 38. Furthermore, the image processing unit 40 also acquires information on the selected gear from an ECU (Electronic Control Unit) via a CAN (Controller Area Network). The image processing unit 40 outputs the overhead image 98 from the generation unit 34 to the display control unit 42 when the reverse gear is not selected. On the other hand, the image processing unit 40 executes the following process when the reverse gear is selected. The execution of the next process by selecting the reverse gear is an example, and for example, it may be determined that the parking operation is being performed based on the current position information and the traveling speed information. Moreover, you may start by a driver | operator's operation.

画像処理部40は、少なくとも1つの距離をもとに、生成部34において生成した俯瞰画像98に対して、本車両100の自車アイコン80が表示されている第1領域130と、選択部38において選択した少なくとも1つの距離だけ隔てた物体が含まれている第2領域132とを識別可能な俯瞰画像を生成する。ここでは、図7を使用しながら、この処理を具体的に説明する。   The image processing unit 40 includes a first area 130 in which the vehicle icon 80 of the vehicle 100 is displayed on the overhead image 98 generated by the generation unit 34 based on at least one distance, and a selection unit 38. A bird's-eye view image that can identify the second region 132 that includes the object separated by at least one distance selected in step (b) is generated. Here, this processing will be specifically described with reference to FIG.

図7は、画像処理部40において生成される俯瞰画像98を示しており、図4と同様に示される。ここで、画像処理部40は、一例として、第1物体140までの距離の情報と、第2物体142までの距離の情報とを入力する。画像処理部40は、俯瞰画像98上において第1物体140を特定することによって、第1物体140が車両100の後方に存在することを認識する。また、画像処理部40は、車両100である自車アイコン80の後部に平行になり、かつ第1物体140までの距離だけ離れた第1境界線134aを生成して俯瞰画像98に重畳する。第1境界線134aは、自車アイコン80が含まれた第1領域130と、第1物体140が含まれた第1−第2領域132aとを区別するための境界であり、例えば、直線で示される。ここで、第1領域130、第1−第2領域132aは、いずれも矩形状を有する。なお、第1物体140は地面に接していない障害物であるので、第1境界線134aは、第1物体140よりも車両100側に重畳される。また、第1−第2領域132a内には、第1領域130との識別を容易にするために着色がなされる。   FIG. 7 shows a bird's-eye view image 98 generated by the image processing unit 40, which is the same as FIG. Here, as an example, the image processing unit 40 inputs information on the distance to the first object 140 and information on the distance to the second object 142. The image processing unit 40 recognizes that the first object 140 exists behind the vehicle 100 by specifying the first object 140 on the overhead image 98. In addition, the image processing unit 40 generates a first boundary line 134 a that is parallel to the rear part of the host vehicle icon 80 that is the vehicle 100 and that is separated from the first object 140 by a distance to the overhead image 98. The first boundary line 134a is a boundary for distinguishing between the first area 130 including the vehicle icon 80 and the first and second areas 132a including the first object 140. For example, the first boundary line 134a is a straight line. Indicated. Here, each of the first region 130 and the first and second regions 132a has a rectangular shape. Since the first object 140 is an obstacle that is not in contact with the ground, the first boundary line 134a is superimposed on the vehicle 100 side with respect to the first object 140. Further, the first and second regions 132a are colored in order to facilitate identification from the first region 130.

画像処理部40は、第2物体142に対しても同様の処理を実行し、車両100である自車アイコン80の右側方に平行になり、かつ第2物体142までの距離だけ離れた第2境界線134bを生成して俯瞰画像98に重畳する。第2境界線134bは、自車アイコン80が含まれた第1領域130と、第2物体142が含まれた第2−第2領域132bとを区別するための境界である。なお、第2物体142は地面に接している障害物であるので、第2境界線134bは、第2物体142の画像に接する。また、第2−第2領域132b内にも、第1領域130との識別を容易にするために着色がなされる。   The image processing unit 40 performs the same process on the second object 142, and is parallel to the right side of the vehicle icon 80 that is the vehicle 100 and separated by the distance to the second object 142. A boundary line 134b is generated and superimposed on the overhead image 98. The second boundary line 134b is a boundary for distinguishing between the first region 130 including the own vehicle icon 80 and the second and second regions 132b including the second object 142. Since the second object 142 is an obstacle in contact with the ground, the second boundary line 134b is in contact with the image of the second object 142. In addition, the second and second regions 132b are also colored for easy identification from the first region 130.

ここで、車両100に対して同一方向に複数の物体が存在する場合、画像処理部40は、最も近い物体に対して、前述の処理を実行すればよい。また、第1−第2領域132a、第2−第2領域132b内に着色がなされず、第1境界線134a、第2境界線134bが重畳されるだけであってもよい。また、第1境界線134a、第2境界線134bを重畳させずに、第1−第2領域132a、第2−第2領域132bの着色のみであってもよい。第2領域132に着色する場合は、俯瞰画像98に写し出されている物体や路面の状況などが判別可能であり、かつ第1領域130との識別が可能となるように着色する。具体的には、薄い灰色を透過させた表示とする。第1領域と第2領域とが表示部50の表示画面上で識別可能であれば、識別可能とする表示形態は任意である。画像処理部40におけるこのような処理は、生成部34において俯瞰画像98が更新されるごと、あるいは短い一定期間ごとになされるので、車両100が移動しても、第2領域132および境界線134はそれに追従される。画像処理部40は、俯瞰画像98、あるいは境界線134が重畳された俯瞰画像98(以下、これもまた「俯瞰画像98」という)を表示制御部42に出力する。   Here, when there are a plurality of objects in the same direction with respect to the vehicle 100, the image processing unit 40 may perform the above-described processing on the closest object. In addition, the first boundary line 134a and the second boundary line 134b may be overlapped without being colored in the first to second areas 132a and the second to second areas 132b. Further, the first boundary line 134a and the second boundary line 134b may not be overlapped, and only the first to second regions 132a and the second to second regions 132b may be colored. When the second region 132 is colored, the coloring is performed so that the object and the road surface situation shown in the bird's-eye view image 98 can be distinguished and can be distinguished from the first region 130. Specifically, a display in which light gray is transmitted is used. As long as the first area and the second area can be identified on the display screen of the display unit 50, the display form that can be identified is arbitrary. Since such processing in the image processing unit 40 is performed every time the overhead image 98 is updated in the generation unit 34 or every short period of time, even if the vehicle 100 moves, the second region 132 and the boundary line 134 are processed. Will be followed. The image processing unit 40 outputs the overhead view image 98 or the overhead view image 98 on which the boundary line 134 is superimposed (hereinafter also referred to as “overhead view image 98”) to the display control unit 42.

表示制御部42は、画像処理部40からの俯瞰画像98を入力する。表示制御部42は、俯瞰画像98を表示する処理を実行することによって、俯瞰画像98を表示部50に表示させる。表示部50は、例えば、表示パネルである。表示部50には、図7のような俯瞰画像98が表示される。   The display control unit 42 inputs the overhead view image 98 from the image processing unit 40. The display control unit 42 displays the overhead image 98 on the display unit 50 by executing a process of displaying the overhead image 98. The display unit 50 is, for example, a display panel. An overhead image 98 as shown in FIG. 7 is displayed on the display unit 50.

この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   This configuration can be realized in terms of hardware by a CPU, memory, or other LSI of any computer, and in terms of software, it can be realized by a program loaded in the memory, but here it is realized by their cooperation. Draw functional blocks. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

以上の構成による車両用表示装置30の動作を説明する。図8は、車両用表示装置30による表示手順例を示すフローチャートである。画像処理部40がリバースギアが選択された情報を取得した場合(S10のY)、表示制御部42は、生成部34において生成した俯瞰画像98を表示部50に表示させる(S12)。画像処理部40がリバースギアが選択された情報を取得していない場合(S10のN)、処理は終了される。距離取得部36は、少なくとも1つの物体までの距離を取得する(S14)。予め設定された高さ以上であり(S16のY)、かつ予め設定された距離未満である(S18のY)ような距離は、選択部38に選択される(S20)。画像処理部40は、距離をもとに、俯瞰画像98に境界線134を重畳する(S22)。距離が予め設定された高さ以上でない場合(S16のN)、あるいは距離が予め設定された距離未満でない場合(S18のN)、ステップ20、ステップ22はスキップされる。表示制御部42は、俯瞰画像98を表示部50に表示させる(S24)。画像処理部40が、リバースギア解除の情報を取得しなければ(S26のN)、ステップ14に戻る。一方、画像処理部40が、リバースギア解除の情報を取得すれば(S26のY)、処理は終了される。   The operation of the vehicle display device 30 configured as described above will be described. FIG. 8 is a flowchart showing a display procedure example by the vehicle display device 30. When the image processing unit 40 acquires information indicating that the reverse gear is selected (Y in S10), the display control unit 42 causes the display unit 50 to display the overhead view image 98 generated by the generation unit 34 (S12). If the image processing unit 40 has not acquired information indicating that the reverse gear has been selected (N in S10), the process ends. The distance acquisition unit 36 acquires a distance to at least one object (S14). A distance that is greater than or equal to a preset height (Y in S16) and less than a preset distance (Y in S18) is selected by the selection unit 38 (S20). The image processing unit 40 superimposes the boundary line 134 on the overhead image 98 based on the distance (S22). If the distance is not greater than or equal to the preset height (N in S16), or if the distance is not less than the preset distance (N in S18), Step 20 and Step 22 are skipped. The display control unit 42 displays the overhead image 98 on the display unit 50 (S24). If the image processing unit 40 does not acquire reverse gear release information (N in S26), the process returns to step 14. On the other hand, if the image processing unit 40 acquires reverse gear release information (Y in S26), the process ends.

本実施例によれば、物体までの距離をもとに、本車両が含まれている第1領域と、物体が含まれている第2領域とを区別するための境界線を俯瞰画像に重畳するので、物体までの距離の目安を運転者に提供できる。また、物体までの距離の目安を運転者に提供するので、運転者は、俯瞰画像を用いた車両周辺状況を把握しながら余裕のある対応を行うことができる。また、物体までの距離の目安を運転者に提供するので、障害物等の物体が存在する場合に、物体との接触の危険性を低減することができる。また、撮像した画像のみから見えている物体にかかわらず、実際の物体までの距離の目安を提供するので、表示上の錯誤による事故の発生を抑制できる。また、境界線を直線とするので、処理を簡易にできる。また、物体の高さを制限するので、車止め等の障害にならない物体を排除できる。また、物体までの距離を制限するので、車両から離れた物体を排除できる。   According to the present embodiment, based on the distance to the object, the boundary line for distinguishing the first area including the vehicle from the second area including the object is superimposed on the overhead image. Therefore, it is possible to provide the driver with an indication of the distance to the object. In addition, since the driver is provided with an indication of the distance to the object, the driver can perform a generous response while grasping the vehicle surrounding situation using the overhead view image. In addition, since the driver is provided with an indication of the distance to the object, the risk of contact with the object can be reduced when an object such as an obstacle is present. Moreover, since the standard of the distance to an actual object is provided irrespective of the object visible only from the captured image, the occurrence of an accident due to a display error can be suppressed. Moreover, since the boundary line is a straight line, the processing can be simplified. Further, since the height of the object is limited, an object that does not become an obstacle such as a car stop can be excluded. Further, since the distance to the object is limited, an object away from the vehicle can be excluded.

以上、実施例をもとに本発明を説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

本実施例において、画像処理部40は、直線である境界線134を俯瞰画像98に重畳している。しかしながらこれに限らず例えば、俯瞰画像98に含まれた曲面上に境界線134を重畳する場合、境界線134は、当該曲面に沿った曲線であってもよい。この場合、第2領域132の形状は、矩形状ではなく、曲面になる。本変形例によれば、俯瞰画像98に適合した第2領域132、境界線134を表示できる。   In the present embodiment, the image processing unit 40 superimposes a boundary line 134 that is a straight line on the overhead image 98. However, the present invention is not limited to this. For example, when the boundary line 134 is superimposed on the curved surface included in the overhead image 98, the boundary line 134 may be a curve along the curved surface. In this case, the shape of the second region 132 is not a rectangular shape but a curved surface. According to this modification, it is possible to display the second region 132 and the boundary line 134 that are suitable for the overhead image 98.

10 撮像部、 12 前方撮像部、 14 左側方撮像部、 16 後方撮像部、 18 右側方撮像部、 30 車両用表示装置、 32 画像取得部、 34 生成部、 36 距離取得部、 38 選択部、 40 画像処理部、 42 表示制御部、 50 表示部、 100 車両。   DESCRIPTION OF SYMBOLS 10 imaging part, 12 front imaging part, 14 left side imaging part, 16 back imaging part, 18 right side imaging part, 30 vehicle display apparatus, 32 image acquisition part, 34 production | generation part, 36 distance acquisition part, 38 selection part, 40 image processing unit, 42 display control unit, 50 display unit, 100 vehicle.

Claims (8)

車両の周辺を撮像した画像を取得する画像取得部と、
前記画像取得部において取得した画像に対して、前記車両の上方から見たように視点を変換することによって、俯瞰画像を生成する生成部と、
前記画像取得部において取得した画像に撮像された物体との距離を取得する距離取得部と、
前記距離取得部において取得した物体の距離のうちの少なくとも1つを選択する選択部と、
前記選択部において選択した少なくとも1つの距離をもとに、前記生成部において生成した俯瞰画像に対して、前記車両を示す画像が含まれている第1領域と、前記選択部において選択した少なくとも1つの距離だけ隔てた物体が含まれている第2領域とを識別可能な俯瞰画像とする画像処理部と、
前記画像処理部において前記第1領域と前記第2領域とが識別可能な俯瞰画像を表示部に表示させる表示処理部と、
を備えることを特徴とする車両用表示装置。
An image acquisition unit that acquires an image of the periphery of the vehicle;
A generation unit that generates a bird's-eye view image by converting the viewpoint as viewed from above the vehicle with respect to the image acquired in the image acquisition unit;
A distance acquisition unit that acquires a distance from an object captured in the image acquired by the image acquisition unit;
A selection unit that selects at least one of the distances of the objects acquired in the distance acquisition unit;
Based on at least one distance selected by the selection unit, a first area including an image showing the vehicle with respect to the overhead image generated by the generation unit, and at least one selected by the selection unit An image processing unit for making a bird's-eye view image identifiable from a second region containing an object separated by two distances;
A display processing unit that causes the display unit to display an overhead image in which the first region and the second region can be identified in the image processing unit;
A vehicle display device comprising:
前記選択部は、前記距離取得部において取得した物体の距離のうち、前記車両に最も近い物体の距離を選択することを特徴とする請求項1に記載の車両用表示装置。   The vehicle display device according to claim 1, wherein the selection unit selects a distance of an object closest to the vehicle from among the object distances acquired by the distance acquisition unit. 前記選択部は、前記距離取得部において取得した物体の距離のうち、予め設定された距離未満の距離を選択することを特徴とする請求項2に記載の車両用表示装置。   The vehicle display device according to claim 2, wherein the selection unit selects a distance that is less than a preset distance among the distances of the objects acquired by the distance acquisition unit. 前記距離取得部は、前記画像取得部において取得した画像に撮像された物体の高さ情報も取得し、
前記選択部は、前記距離取得部において取得した物体の距離のうち、前記距離取得部において取得した高さ情報が予め設定された高さ以上である物体までの距離を選択することを特徴とする請求項1から3のいずれか1項に記載の車両用表示装置。
The distance acquisition unit also acquires height information of an object captured in the image acquired by the image acquisition unit,
The selection unit selects a distance to an object whose height information acquired in the distance acquisition unit is equal to or higher than a preset height among the distances of the objects acquired in the distance acquisition unit. The vehicular display device according to any one of claims 1 to 3.
前記画像処理部は、前記第1領域と前記第2領域とを識別する境界線を前記俯瞰画像に重畳させることで、前記俯瞰画像における前記第1領域と前記第2領域とを識別可能とすることを特徴とする請求項1から4のいずれか1項に記載の車両用表示装置。   The image processing unit can identify the first area and the second area in the overhead image by superimposing a boundary line for identifying the first area and the second area on the overhead image. The vehicular display device according to any one of claims 1 to 4, wherein the vehicular display device is provided. 前記画像処理部は、前記第1領域と前記第2領域とを識別するために少なくとも前記第2領域に着色することで、前記俯瞰画像における前記第1領域と前記第2領域とを識別可能とすることを特徴とする請求項1から5のいずれか1項に記載の車両用表示装置。   The image processing unit can identify the first region and the second region in the overhead image by coloring at least the second region in order to identify the first region and the second region. The vehicular display device according to any one of claims 1 to 5, wherein: 前記画像処理部は、前記第2領域の形状が矩形となるように、前記俯瞰画像における前記第1領域と前記第2領域とを識別可能とすることを特徴とする請求項1から6のいずれか1項に記載の車両用表示装置。   7. The image processing unit according to claim 1, wherein the image processing unit can identify the first region and the second region in the overhead image so that the shape of the second region is a rectangle. The vehicle display device according to claim 1. 車両の周辺を撮像した画像を取得するステップと、
取得した画像に対して、前記車両の上方から見たように視点を変換することによって、俯瞰画像を生成するステップと、
取得した画像に撮像された物体との距離を取得するステップと、
取得した物体の距離のうちの少なくとも1つを選択するステップと、
選択した少なくとも1つの距離をもとに、生成した俯瞰画像に対して、前記車両を示す画像が含まれている第1領域と、選択した少なくとも1つの距離だけ隔てた物体が含まれている第2領域とを識別可能な俯瞰画像とするステップと、
前記第1領域と前記第2領域とが識別可能な俯瞰画像を表示部に表示させるステップと、
を備えることを特徴とする車両用表示方法。
Obtaining an image of the periphery of the vehicle;
Generating a bird's-eye view image by converting the viewpoint as seen from above the vehicle with respect to the acquired image;
Obtaining a distance from an imaged object in the obtained image;
Selecting at least one of the obtained object distances;
Based on the selected at least one distance, the generated overhead image includes a first region that includes the vehicle image and an object that is separated by at least one selected distance. A step of making the bird's-eye view image distinguishable from the two regions;
Displaying a bird's-eye view image in which the first region and the second region can be identified on a display unit;
A vehicle display method comprising the steps of:
JP2016004134A 2016-01-13 2016-01-13 Vehicle display device and vehicle display method Active JP6679939B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016004134A JP6679939B2 (en) 2016-01-13 2016-01-13 Vehicle display device and vehicle display method
JP2020047460A JP6950775B2 (en) 2016-01-13 2020-03-18 Vehicle display devices, vehicle display methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016004134A JP6679939B2 (en) 2016-01-13 2016-01-13 Vehicle display device and vehicle display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020047460A Division JP6950775B2 (en) 2016-01-13 2020-03-18 Vehicle display devices, vehicle display methods and programs

Publications (2)

Publication Number Publication Date
JP2017126847A true JP2017126847A (en) 2017-07-20
JP6679939B2 JP6679939B2 (en) 2020-04-15

Family

ID=59364496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016004134A Active JP6679939B2 (en) 2016-01-13 2016-01-13 Vehicle display device and vehicle display method

Country Status (1)

Country Link
JP (1) JP6679939B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110877572A (en) * 2018-09-06 2020-03-13 爱信精机株式会社 Periphery monitoring device
EP4258653A1 (en) * 2022-04-06 2023-10-11 Canon Kabushiki Kaisha Image processing device that can measure distance to object, movable apparatus, image processing method, and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001063500A (en) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd Monitoring device for obstacle around vehicle
JP2004104478A (en) * 2002-09-10 2004-04-02 Auto Network Gijutsu Kenkyusho:Kk Device and method for assisting parking
JP2004260449A (en) * 2003-02-25 2004-09-16 Denso Corp Rear part confirmation supporting device for vehicle
JP2011004201A (en) * 2009-06-19 2011-01-06 Konica Minolta Opto Inc Circumference display
JP2011071932A (en) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle surroundings monitoring apparatus
WO2012169352A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Work vehicle vicinity monitoring device
WO2013088613A1 (en) * 2011-12-15 2013-06-20 パナソニック株式会社 Drive assistance device
JP2014064144A (en) * 2012-09-20 2014-04-10 Komatsu Ltd Periphery monitoring system for work vehicle and work vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001063500A (en) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd Monitoring device for obstacle around vehicle
JP2004104478A (en) * 2002-09-10 2004-04-02 Auto Network Gijutsu Kenkyusho:Kk Device and method for assisting parking
JP2004260449A (en) * 2003-02-25 2004-09-16 Denso Corp Rear part confirmation supporting device for vehicle
JP2011004201A (en) * 2009-06-19 2011-01-06 Konica Minolta Opto Inc Circumference display
JP2011071932A (en) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle surroundings monitoring apparatus
WO2012169352A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Work vehicle vicinity monitoring device
WO2013088613A1 (en) * 2011-12-15 2013-06-20 パナソニック株式会社 Drive assistance device
JP2014064144A (en) * 2012-09-20 2014-04-10 Komatsu Ltd Periphery monitoring system for work vehicle and work vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110877572A (en) * 2018-09-06 2020-03-13 爱信精机株式会社 Periphery monitoring device
EP4258653A1 (en) * 2022-04-06 2023-10-11 Canon Kabushiki Kaisha Image processing device that can measure distance to object, movable apparatus, image processing method, and storage medium

Also Published As

Publication number Publication date
JP6679939B2 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
JP4600760B2 (en) Obstacle detection device
EP3382336B1 (en) Stereo camera device
JP5470886B2 (en) Object detection device
JP4893212B2 (en) Perimeter monitoring device
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP7263731B2 (en) Image processing device
JPWO2005107261A1 (en) Vehicle surrounding display device
US10099617B2 (en) Driving assistance device and driving assistance method
JP2006268076A (en) Driving assistance system
JP2017220178A (en) Substance detection device and substance detection method
CN111751824B (en) Method, device and equipment for detecting obstacles around vehicle
JP2017098932A (en) Vehicle display device and vehicle display method
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
JP2019046069A (en) Driving support device and driving support method
JP2004203068A (en) Mobile body periphery monitor device
JP2005075190A (en) Display device for vehicle
JP2017126847A (en) Display device for vehicle and display method for vehicle
US9827906B2 (en) Image processing apparatus
WO2022160232A1 (en) Detection method and apparatus, and vehicle
CN107531182B (en) Display device for vehicle and display method for vehicle
JP6950775B2 (en) Vehicle display devices, vehicle display methods and programs
US10189501B2 (en) Parking assist apparatus and parking assist method
JP2005170290A (en) Obstacle detecting device
JP5395373B2 (en) Perimeter monitoring device
JP6565674B2 (en) VEHICLE DISPLAY DEVICE AND VEHICLE DISPLAY METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6679939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150