WO2014087594A1 - 車両監視装置 - Google Patents

車両監視装置 Download PDF

Info

Publication number
WO2014087594A1
WO2014087594A1 PCT/JP2013/006832 JP2013006832W WO2014087594A1 WO 2014087594 A1 WO2014087594 A1 WO 2014087594A1 JP 2013006832 W JP2013006832 W JP 2013006832W WO 2014087594 A1 WO2014087594 A1 WO 2014087594A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
bird
obstacle
eye view
Prior art date
Application number
PCT/JP2013/006832
Other languages
English (en)
French (fr)
Inventor
丙辰 王
宗昭 松本
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2014087594A1 publication Critical patent/WO2014087594A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images

Definitions

  • the present disclosure relates to a vehicle periphery monitoring device configured to allow a vehicle driver to monitor obstacles and the like existing around the vehicle from the vehicle interior by photographing the vehicle periphery and displaying the image in the vehicle interior. It is about.
  • a vehicle periphery monitoring device there is known a device that generates a virtual bird's-eye image by processing an original image around a vehicle photographed by a camera mounted on the vehicle, and displays the bird's-eye view image on a display device in a vehicle interior. It has been.
  • the applicant of the present application can superimpose a mask image on a large distortion range in such a bird's-eye image, thereby controlling the display form of the bird's-eye image so that the vehicle driver is not confused.
  • a mask image on a large distortion range in such a bird's-eye image, thereby controlling the display form of the bird's-eye image so that the vehicle driver is not confused.
  • the present disclosure is intended to provide a vehicle periphery monitoring device that can further suppress the uncomfortable feeling of the vehicle driver even when a large distortion occurs in a part of the image accompanying the generation of the bird's-eye view image.
  • the vehicle periphery monitoring device includes a photographing unit capable of photographing the periphery of the host vehicle, an obstacle present around the host vehicle, and a detection unit capable of detecting a distance between the obstacle and the host vehicle. And performing a predetermined coordinate transformation on at least a part of the original image photographed by the photographing means, thereby generating a virtual bird's-eye image based on the original image and cutting out at least a part of the bird's-eye image
  • an image processing unit that generates an obstacle image including the obstacle detected by the detection unit, and a part of the bird's-eye view image generated by the image processing unit are displayed in a predetermined display area in the vehicle interior. Display means.
  • the image processing unit variably sets a cut-out range from the bird's-eye view image when the obstacle image is generated and a distance between the obstacle and the host vehicle is shorter than a predetermined distance.
  • FIG. 1 is a block diagram illustrating an outline of a vehicle periphery monitoring device exemplified as an embodiment of the present disclosure.
  • FIG. 2A to FIG. 2E are explanatory diagrams illustrating a display mode around the vehicle by the vehicle periphery monitoring device.
  • FIG. 3A is a graph illustrating the relationship between the distance to the obstacle and the depression angle of the bird's-eye image
  • FIG. 3B is a graph illustrating the relationship between the distance to the obstacle and the offset amount of the bird's-eye image.
  • FIG. 4 is a flowchart of processing executed in the ECU included in the vehicle periphery monitoring device.
  • FIG. 1 is a block diagram showing a configuration of the entire vehicle periphery monitoring apparatus.
  • the vehicle periphery monitoring device includes an ECU 1, an ultrasonic sonar 3a, a shift position sensor 3b, an intelligent camera 5, a display (display device) 7, and the like.
  • the ECU 1 is a well-known electronic control device mainly composed of a microcomputer, and the ECU 1 controls each part of the vehicle periphery monitoring device.
  • the ECU 1 may be prepared exclusively for control of the vehicle periphery monitoring device, or may be a general-purpose device that performs control other than the vehicle periphery monitoring device.
  • a single ECU 1 may be used, or a plurality of ECUs may function in cooperation.
  • the configuration may be such that the camera ECU that controls the camera function is the main ECU, the sonar ECU that controls the sonar function is subordinate, and the sonar ECU functions under the control of the camera ECU.
  • ultrasonic sonars 3a there are four ultrasonic sonars 3a, and these are arranged behind the vehicle.
  • An ultrasonic wave is transmitted from the ultrasonic sonar 3a toward the detection target area behind the vehicle and a reflected wave reflected by the obstacle is received to detect the presence of the obstacle or the detected obstacle. You can measure the distance to an object. Detection information obtained by using the ultrasonic sonar 3 is transmitted to the ECU 1 described above.
  • the shift position sensor 3b is a sensor that detects the position (shift range) of the shift lever of the vehicle, and has a well-known configuration.
  • the intelligent camera 5 is arranged at the rear of the vehicle and can take a picture of an area to be photographed behind the vehicle.
  • the intelligent camera 5 is composed of a camera 5a and a control device 5b.
  • an instruction for a cut-out angle of view is given from the ECU 1, a part of the original image is cut out from the original image at a view angle corresponding to the instruction. It has a function to provide.
  • the intelligent camera 5 is instructed to cut out the angle of view from the ECU 1. Specifically, in the case of the present embodiment, information regarding the distance from the ultrasonic sonar 3 to the obstacle acquired from the ultrasonic sonar 3 is given to the intelligent camera 5 from the ECU 1 as an instruction for the cut-off angle of view.
  • the intelligent camera 5 cuts out a part of the original image from the original image at an angle of view according to the instruction. Specifically, first, based on the distance to the obstacle, a cutout range and a coordinate conversion rule are determined. It should be noted that what range of the original image is cut out and what coordinate transformation is performed is programmed in advance in association with the distance to the obstacle, and the program of the control device 5b included in the intelligent camera 5 is programmed. Stored in ROM.
  • the camera 5a included in the intelligent camera 5 is a wide-angle camera having an angle of view (viewing angle) of approximately 180 degrees
  • the original image captured by the camera 5a was captured using a so-called fisheye lens. The image looks like this.
  • control device 5b included in the intelligent camera 5 performs image processing such as distortion correction and angle-of-view clipping processing on the original image, thereby generating a virtual bird's-eye view image based on the original image, This bird's-eye view image is provided to the ECU 1.
  • the display 7 is a device arranged in the passenger compartment, and is an image obtained by cutting out a part of the bird's-eye view image acquired by the ECU 1 from the intelligent camera 5 from the bird's-eye view image (however, if there is an obstacle, the obstacle) Is displayed on the display 7.
  • the vehicle periphery monitoring device of the present embodiment displays a scene behind the vehicle on the display 7 in the vehicle interior when the vehicle moves backward. Further, when an obstacle is detected behind the vehicle by the ultrasonic sonar 3, the depression angle of the bird's-eye view image displayed in the passenger compartment is configured to increase as the obstacle approaches. Furthermore, depending on the depression angle of the bird's-eye image, an image in which the clipping range of the bird's-eye image is changed is displayed. As the depression angle of the bird's-eye image increases, the size of the bird's-eye image becomes smaller or the center of the clipping range is The amount of offset in the vertical direction of the image (offset amount) is increased.
  • the display 7 displays the rear of the vehicle as shown in FIG. Is displayed.
  • the other vehicle 11 is located far enough (in this embodiment, at least 1.5 m from the vehicle). Because it is in a remote location, it is not a warning target.
  • an image including the other vehicle 11 displayed on the display 7 (failure)
  • the object image is a bird's-eye image having a slightly larger depression angle than that in FIG. 2A, and the center of the cut-out range of the bird's-eye image is offset downward in the bird's-eye image.
  • the image is displayed so that a part of the upper part of the other vehicle 11 is not included.
  • FIG. 2C When the vehicle further moves backward and approaches the other vehicle 11, as shown in FIG. 2C, a bird's-eye image with a larger depression angle than that in FIG. 2B is obtained, and the size of the cut-out range of the bird's-eye image is obtained. Is reduced, the lower part of the other vehicle 11 is enlarged, and thereby, it is displayed so that many parts of the upper part of the other vehicle 11 are not included.
  • FIG. 2 (d) When the vehicle further moves backward and approaches the other vehicle 11, as shown in FIG. 2 (d), a bird's-eye view image with a larger depression angle than that in FIG. 2 (c) is obtained, and the center of the cut-out range of the bird's-eye image is The image is further offset downward in the bird's-eye view image, and is displayed so that most of the upper portion of the other vehicle 11 is not included.
  • the image shown in FIG. 2A has the smallest depression angle, so that the image can be looked further to far away, and it is easy to confirm obstacles far away.
  • the images shown in FIGS. 2C and 2D have a large depression angle, a part of the image indicating the position of the host vehicle (the host vehicle image) is drawn at the bottom of the screen (for example, by CG).
  • the other vehicle 11 that is close to the own vehicle can be looked down from a position directly above, and the own vehicle and the other vehicle can be seen. 11 can be easily grasped.
  • Such distortion of the other vehicle 11 occurs when a bird's-eye image with a large depression angle is generated due to a shift between the imaging viewpoint of the original image and the virtual viewpoint of the bird's-eye image, and the height of the other vehicle 11. The higher the value, the greater the tendency for distortion.
  • the other vehicle 11 having such a large distortion is reflected on the display 7, it causes the vehicle driver to misunderstand the size of the other vehicle 11 and cause a compression interval. Absent.
  • the display image portion 13 by the display 7 becomes narrower as much as the mask image 12 is displayed. Therefore, the visibility is lowered, or the mask image 12 is suddenly reflected, which may cause the vehicle driver to feel uncomfortable.
  • the mask image 12 is not displayed (in other words, the display image portion 13 by the display 7 is not narrowed), and a more natural obstacle is displayed.
  • An image can be displayed on the display 7. Therefore, the vehicle driver can grasp the relationship between the vehicle and the other vehicle 11 in the low distortion area without looking at the high distortion area or the mask image 12.
  • FIG. 3A is a graph illustrating the relationship between the distance to the obstacle and the depression angle of the bird's-eye view image. With these relationships, if the intelligent camera 5 generates a bird's-eye view image at a depression angle corresponding to the distance to the obstacle, the bird's-eye view image as shown in FIG. it can.
  • FIG. 3B is a graph illustrating the relationship between the distance to the obstacle and the amount by which the center of the cut-out range in the bird's-eye image is offset downward in the bird's-eye image (offset amount). If the ECU 1 cuts out a part of the bird's-eye view image in the cut-out range corresponding to the depression angle of the bird's-eye view image in such a relationship, the obstacle image as shown in FIGS. 2 (b) to 2 (d) is displayed. 7 can be displayed.
  • FIG. 3A shows an example in which the depression angle changes continuously and linearly from 0 degree to 90 degrees according to the detection distance, but the depression angle is changed nonlinearly even if it is changed stepwise. For example, you may make it change to 4 steps, 0 degree
  • the depression angle fluctuation range is not limited to 0 to 90 degrees.
  • the depression angle lower limit and upper limit are arbitrarily set, such as 0 to 80 degrees or 10 to 90 degrees. be able to.
  • the graph illustrated in FIG. 3B is an example in which the offset amount changes continuously and linearly from 0 to 1/2 in terms of the screen ratio according to the detection distance. Or may be changed non-linearly. For example, it may be changed in three stages of 0, 1/4, 1/2. Further, the fluctuation range of the offset amount is not limited to 0 to 1/2. For example, a specific numerical range such as 0 to 2/3 or 0 to 1/4 is a lower limit / upper limit. Both can be set arbitrarily.
  • the size of the cut-out range of the bird's-eye image is reduced, so that the magnification for displaying the obstacle image on the display 7 can be increased. Good.
  • at least one of increasing the offset amount or increasing the magnification for displaying the image is performed so that many of the upper portions that are distorted in the obstacle image are not included. You can do it.
  • FIG. 4 is a flowchart in which only the process steps related to the vehicle periphery monitoring device are extracted from the processes executed by the ECU 1 when the ECU 1 starts operating with the engine start.
  • the ECU 1 sets the intelligent camera 5 and the ultrasonic sonar 3a as the initial states to the operation stop state (S10). Then, based on the detection information supplied from the shift position sensor 3b, it is determined whether or not the shift range is R (S20).
  • the process returns to S10 to repeat the processes of S10 to S20.
  • the intelligent camera 5 and the ultrasonic sonar 3a stand by in an operation stop state until the shift range is changed to R.
  • the ECU 1 controls the ultrasonic sonar 3a to execute an ultrasonic wave transmission / reception operation (S40). Then, it is determined whether an obstacle has been detected (S50). If no obstacle has been detected (S50: NO), the process returns to S40.
  • the detection distance read in the process of S60 is given to the intelligent camera 5, thereby giving an instruction of the cut-out angle of view to the intelligent camera 5.
  • the intelligent camera 5 generates a bird's-eye view image at a depression angle corresponding to the detection distance given from the ECU 1, and provides the bird's-eye view image to the ECU 1.
  • the ECU 1 that has acquired the bird's-eye view image further cuts out a part of the bird's-eye view image from the bird's-eye view image provided by the intelligent camera 5 by changing the offset amount and the size of the cut-out range according to the detection distance. (Obstacle image) is generated and displayed on the display 7.
  • the host vehicle image is generated so as to include many parts of the host vehicle, and the host vehicle image generated at the position corresponding to the detection distance is displayed together with the obstacle image on the display 7. To display.
  • the ECU 1 determines whether or not there is a shift range change (S80). If there is no change (S80: NO), the process returns to the process of S40 and the process of shifting to S40 is performed. repeat. On the other hand, when the shift range is changed in the process of S80 (S80: YES), the process returns to S20.
  • the depression angle, the offset amount, and the size of the cutout range of the bird's-eye image generated by the intelligent camera 5 are both in accordance with the distance to the obstacle detected by the ultrasonic sonar 3. It is fluctuating. For this reason, the depression angle, the offset amount, and the size of the cutout range of the bird's-eye view image change in conjunction with each other.
  • the range of the upper part of the obstacle that is excluded from the bird's-eye view image by the variable setting of the offset amount and the cut-out range is configured to increase as the depression angle of the bird's-eye view image increases. Therefore, if such a configuration is adopted, the depression angle can be reduced to provide a bird's-eye view image that makes it easier to see distant obstacles, and the depression angle can be increased to monitor nearby obstacles. It can also be an easy obstacle image.
  • the offset amount is increased or the magnification for displaying the image enlarged is increased so that such a large distortion range is not included in the obstacle image. Therefore, it is possible to eliminate the uncomfortable feeling of the vehicle driver.
  • the vehicle driver can preferably grasp the relationship between the vehicle and the obstacle in the low distortion area without looking at the high distortion area or the mask image 12.
  • the host vehicle and the other vehicle are displayed by displaying a part of an image (own vehicle image) indicating the position of the host vehicle at the lower part of the screen of the display 7. 11 can be easily grasped.
  • the camera 5a of the intelligent camera 5 is the photographing means
  • the ultrasonic sonar 3a is the detecting means
  • the control device 5b of the intelligent camera 5 and the ECU 1 of the vehicle periphery monitoring device are the image processing means
  • the display 7 displays It corresponds to each example of the means.
  • this indication is not limited to the above-mentioned embodiment, and can be carried out in various modes in the range which does not deviate from the gist of this indication.
  • the camera 5a of the intelligent camera 5 is employed as a photographing unit, and the control device 5b of the intelligent camera 5 is configured to generate a bird's-eye view image.
  • ECU1 of a vehicle periphery monitoring apparatus produces
  • the depression angle of a bird's-eye view image was changed according to the detection distance by the ultrasonic sonar 3a
  • this is constant without changing the depression angle. May be.
  • the depression angle is constant, and the offset amount and the magnification of the display image are changed as the obstacle approaches the vehicle based on the detection distance of the ultrasonic sonar 3a.
  • the large distortion range can be driven out of the display area of the display 7 as in the above embodiment.
  • the ultrasonic sonar 3a is adopted as the detection means, but is not limited to this, and other radar devices using electromagnetic waves such as laser waves and millimeter waves, for example. May be adopted.
  • the above disclosure includes the following aspects.
  • the vehicle periphery monitoring device includes a photographing unit capable of photographing the periphery of the host vehicle, an obstacle present around the host vehicle, and a detection unit capable of detecting a distance between the obstacle and the host vehicle. And performing a predetermined coordinate transformation on at least a part of the original image photographed by the photographing means, thereby generating a virtual bird's-eye image based on the original image and cutting out at least a part of the bird's-eye image
  • an image processing unit that generates an obstacle image including the obstacle detected by the detection unit, and a part of the bird's-eye view image generated by the image processing unit are displayed in a predetermined display area in the vehicle interior. Display means.
  • the image processing unit variably sets a cut-out range from the bird's-eye view image when the obstacle image is generated and a distance between the obstacle and the host vehicle is shorter than a predetermined distance.
  • the bird's-eye view image is generated with a large depression angle, it is possible to obtain a bird's-eye view image that makes it easier to monitor nearby obstacles, but on the other hand, the height of the obstacle image tends to be greatly distorted in the bird's-eye view image. .
  • the image processing means when the image processing means generates an obstacle image including an obstacle detected by the detection means by cutting out at least a part from such a bird's-eye view image, When the distance between the two becomes shorter than a predetermined distance, the cut-out range of the bird's-eye view image is variably set.
  • the cut-out range of the bird's-eye view image is variably set so that only the region where the distortion in the obstacle is small is included, and the vehicle is driven. It is possible to further suppress the discomfort of the person.
  • the center position of the bird's-eye image clipping range is offset in the vertical direction of the bird's-eye image (in other words, shifted or moved).
  • An own vehicle image indicating the position of the own vehicle may be displayed in the obstacle image, or the obstacle image may be enlarged and displayed by reducing the size of the cut-out range of the bird's-eye view image.
  • the image processing means described above may be configured to increase the depression angle of the bird's-eye view image as the obstacle approaches the vehicle based on the distance to the obstacle detected by the detection means.
  • the depression angle of the bird's-eye view image is reduced so that the obstacle farther away can be monitored, while when the obstacle approaches By increasing the depression angle of the bird's-eye view image, it is possible to monitor the situation in the very vicinity of the vehicle.
  • the conspicuous distortion range on the bird's-eye view image changes due to such a change in depression angle
  • the bird's-eye image cut-out range can be changed in response to such a change in the range.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 車両周辺監視装置は、撮影手段(5a)と、障害物と自車両との間の距離を検知可能な検知手段(3a)と、前記撮影手段によって撮影された原画像に座標変換を施すことにより、鳥瞰画像を生成し、該鳥瞰画像の一部を切り出すことにより、前記障害物を含む障害物画像を生成する画像処理手段(5b,1)と、一部の鳥瞰画像を表示する表示手段(7)とを備える。前記画像処理手段は、前記障害物画像を生成する際、前記障害物と前記自車両との間の距離が所定の距離よりも短くなると、前記鳥瞰画像からの切り出し範囲を可変設定する。

Description

車両監視装置 関連出願の相互参照
 本開示は、2012年12月4日に出願された日本出願番号2012-265274号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両周辺を撮影して、その画像を車室内で表示することにより、車両周辺に存在する障害物等を、車両運転者が車室内から監視できるように構成された車両周辺監視装置に関するものである。
 従来、車両周辺監視装置として、車両に搭載されたカメラで撮影した車両周辺の原画像を加工して仮想的な鳥瞰画像を生成し、その鳥瞰画像を車室内の表示装置に表示する装置が知られている。
 このような車両周辺監視装置において、原画像から鳥瞰画像への座標変換を行う際には、例えば、路面の高さを基準とする座標変換が行われる。この場合、高さのある障害物が原画像内に撮影されていると、路面から高い位置に存在する部分に相当する画素は、上記座標変換に伴って、路面から高い位置に存在する部分の陰に隠れた「背景側の路面」と同一位置へと移動することになる。このため、上記のような座標変換が行われた場合、鳥瞰画像内において上記障害物に相当する画像は「障害物が実際に存在する位置」から「障害物の陰に隠れた背景側の路面」にわたって存在するかのように見える歪んだ形態の画像となる。よって、車両運転者が鳥瞰画像を見たときに、上記のように大きく歪んだ障害物が鳥瞰画像内に見えると、無用な圧迫感を与えてしまうなど、例えば駐車支援する上で好ましくない状況になるおそれがあった。
 これに対し、本願出願人は、このような鳥瞰画像において歪みの大きい範囲にマスク画像を重畳することで、車両運転者が戸惑わないように鳥瞰画像の表示形態を制御可能な車両周辺監視装置を提案している(例えば、特許文献1参照)。
 しかしながら、特許文献1記載の車両周辺監視装置では、鳥瞰画像の一部分がマスク画像に覆い隠されたかたちで表示されるため、このようにマスク部分が鳥瞰画像内に見えると、車両運転者に違和感を与えてしまうおそれがあった。
特開2009-71790号公報
 本開示は、鳥瞰画像の生成に伴って画像の一部に大きな歪みが生じても、車両運転者の違和感をより抑制することが可能な車両周辺監視装置を提供することを目的とする。
 本開示の態様において、車両周辺監視装置は、自車両周辺を撮影可能な撮影手段と、前記自車両周辺に存在する障害物および前記障害物と自車両との間の距離を検知可能な検知手段と、前記撮影手段によって撮影された原画像の少なくとも一部に対して所定の座標変換を施すことにより、前記原画像に基づく仮想的な鳥瞰画像を生成し、該鳥瞰画像から少なくとも一部を切り出すことにより、前記検知手段によって検知された前記障害物を含む障害物画像を生成する画像処理手段と、前記画像処理手段によって生成された一部の鳥瞰画像を、車室内において所定の表示領域に表示する表示手段とを備える。前記画像処理手段は、前記障害物画像を生成する際、前記障害物と前記自車両との間の距離が所定の距離よりも短くなると、前記鳥瞰画像からの切り出し範囲を可変設定する。
 上記において、鳥瞰画像上で広範囲にわたって障害物に過大な歪みが生じる場合に、鳥瞰画像の切り出し範囲を可変設定することにより、障害物における歪みが小さい領域だけが含まれるように表示して、車両運転者の違和感をより抑制することができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、本開示の実施形態として例示した車両周辺監視装置の概略を示すブロック図であり、 図2(a)から図2(e)は、車両周辺監視装置による車両周辺の表示態様を例示した説明図であり、 図3(a)は障害物までの距離と鳥瞰画像の俯角との関係を例示したグラフであり、図3(b)は障害物までの距離と鳥瞰画像のオフセット量との関係を例示したグラフであり、 図4は、車両周辺監視装置が備えるECUにおいて実行される処理のフローチャートである。
 本開示の実施形態について一例を挙げて説明する。
 [車両周辺監視装置の構成]
 図1は、車両周辺監視装置全体の構成を示すブロック図である。
 この車両周辺監視装置は、ECU1、超音波ソナー3a、シフト位置センサ3b、インテリジェント・カメラ5、およびディスプレイ(表示装置)7などを備えている。
 ECU1は、マイクロコンピュータを中心に構成された周知の電子制御装置であり、このECU1によって車両周辺監視装置の各部が制御される。なお、このECU1は、車両周辺監視装置の制御専用に用意されたものであってもよいし、車両周辺監視装置以外の制御をも行う汎用のものであってもよい。
 また、単一のECU1で構成してもよいし、複数のECUが協働して機能するものであってもよい。具体例を挙げれば、例えば、カメラ機能を制御するカメラECUをメインECUとして、ソナー機能を制御するソナーECUを従属させ、カメラECUの制御下でソナーECUが機能する構成としてもよい。
 超音波ソナー3aは、本実施形態の場合は4つあり、これらが車両の後方に配設されている。この超音波ソナー3aから車両の後方における検知対象領域に向けて超音波を送波し、障害物によって反射された反射波を受波することにより、障害物の存在を検知したり、検知した障害物までの距離を測定したりすることができる。この超音波ソナー3を利用して得られた検知情報は、上述のECU1へと伝送される。
 また、シフト位置センサ3bを利用して得られた検知情報も、上述のECU1へと伝送される。なお、シフト位置センサ3bは、車両のシフトレバーの位置(シフトレンジ)を検知するセンサであり、周知の構成が採用される。
 インテリジェント・カメラ5は、車両の後方に配設され、車両後方における撮影対象領域の光景を撮影できるようになっている。また、このインテリジェント・カメラ5は、カメラ5aおよび制御装置5bによって構成されていて、ECU1から切り出し画角の指示を与えると、指示に応じた画角にて原画像の一部を原画像から切り出して提供する機能を備えている。
 この機能を利用するため、インテリジェント・カメラ5には、ECU1から切り出し画角の指示が与えられる。具体的には、本実施形態の場合、切り出し画角の指示として、超音波ソナー3から取得した障害物までの距離に関する情報が、ECU1からインテリジェント・カメラ5に与えられる。
 この指示を受け取ったインテリジェント・カメラ5は、指示に応じた画角にて原画像の一部を原画像から切り出す。具体的には、まず、障害物までの距離に基づいて、切り出し範囲や座標変換規則を決定する。なお、原画像のどの範囲を切り出して、どのような座標変換を行うかは、あらかじめ障害物までの距離に対応付けてプログラムされており、そのプログラムは、インテリジェント・カメラ5が備える制御装置5bのROMに記憶されている。
 インテリジェント・カメラ5が備えるカメラ5aは、概ね180度の画角(視野角)を持つ広角カメラとなっているため、このカメラ5aによって撮像される原画像は、いわゆる魚眼レンズを利用して撮影されたような画像となっている。
 しかし、インテリジェント・カメラ5が備える制御装置5bは、上記原画像に対して歪み補正や画角切り出し処理などの画像処理を施し、これにより、原画像に基づく仮想的な鳥瞰画像が生成されて、この鳥瞰画像がECU1に対して提供される。
 ディスプレイ7は、車室内に配設される装置で、ECU1がインテリジェント・カメラ5から取得した鳥瞰画像の一部を鳥瞰画像から切り出した画像(但し、障害物が存在する場合には、その障害物を含む画像)が、ディスプレイ7に表示されるようになっている。
 [車両周辺監視装置による車両周辺の表示態様]
 次に、車両周辺監視装置による車両周辺の表示態様について説明する。
 本実施形態の車両周辺監視装置は、車両が後退する際に、車両後方の光景を車室内のディスプレイ7に表示するものである。また、超音波ソナー3により車両の後方で障害物を検知した場合には、車室内に表示される鳥瞰画像の俯角が、障害物に近づくほど大きくなるように構成されている。さらに、鳥瞰画像の俯角によっては、鳥瞰画像の切り出し範囲が変更された画像が表示され、鳥瞰画像の俯角が大きくなるほど、鳥瞰画像の切り出し範囲の大きさが小さくなったり、切り出し範囲の中心が鳥瞰画像の上下方向にオフセットされる量(オフセット量)が大きくなったりするように構成されている。
 以下、具体的な表示例を図示して説明すると、まず、車両運転者の操作によってシフトレバー位置がRに変更されると、ディスプレイ7には、図2(a)に示すように、車両後方の画像が表示される。この画像内には、車両後方に存在する障害物としての駐車中の他車両11が存在するが、この時点で他車両11は充分に遠い位置(本実施形態の場合、車両から1.5m以上離れた位置)にあるため、警告対象とはなっていない。
 一方、車両が後退を開始し、上記他車両11が車両に接近すると(本実施形態の場合、車両から1.5m以内に至ると)、ディスプレイ7に表示される他車両11を含む画像(障害物画像)は、図2(b)に示すように、図2(a)よりもやや俯角が大きい鳥瞰画像となり、且つ、鳥瞰画像の切り出し範囲の中心がその鳥瞰画像の下方向にオフセットされた画像となり、他車両11における上方部の一部分が含まれないように表示される。
 そして、さらに車両が後退して他車両11に接近すると、図2(c)に示すように、図2(b)よりもさらに俯角が大きい鳥瞰画像となり、且つ、鳥瞰画像の切り出し範囲の大きさが小さくなることで、他車両11における下方部が拡大され、これにより、他車両11における上方部の多くの部分が含まれないように表示される。
 そして、さらに車両が後退して他車両11に接近すると、図2(d)に示すように、図2(c)よりもさらに俯角が大きい鳥瞰画像となり、且つ、鳥瞰画像の切り出し範囲の中心がその鳥瞰画像の下方向にさらにオフセットされた画像となり、他車両11における上方部の大部分が含まれないように表示される。
 以上のように変化する画像のうち、図2(a)に示す画像は、最も俯角が小さいので、より遠方まで見渡すことができる画像となり、遠方にある障害物を確認しやすくなっている。
 一方、図2(c)および図2(d)に示す画像は、俯角が大きいので、画面の下部には自車両の位置を示す画像(自車両画像)の一部(例えば、CGによって描かれた模擬的な自車両の画像の一部であってもよい)が映り込み、しかも自車両のごく近傍まで接近した他車両11を真上に近いところから見下ろすことができ、自車両と他車両11との位置関係を容易に把握することができる。
 しかも、図2(b)、図2(c)および図2(d)に示す画像は、画像の歪みが大きくなる範囲をディスプレイ7の表示領域から追い出してあるので、車両運転者が歪んだ画像に違和感を覚えるのを抑制することができる。
 このような他車両11の歪みは、俯角の大きい鳥瞰画像を生成した場合に、原画像の撮像視点と鳥瞰画像の仮想的な視点とのずれに起因して発生し、他車両11の高さが高い場合ほど、より大きな歪みが生じる傾向がある。このような歪みの大きい他車両11がディスプレイ7に映ると、車両運転者には、他車両11の大きさを誤解させ、圧迫間を与える原因となるので、駐車支援をする上では好ましいことではない。
 さらに、このような歪みが大きくなる範囲を、図2(e)に示すように、マスク画像12によって覆い隠すと、マスク画像12が表示される分、ディスプレイ7による表示画像部分13が狭くなってしまい、視認性が低下したり、突如マスク画像12が映り込むことによって、車両運転者に違和感を与えたりする原因となる。
 この点、上記のように鳥瞰画像の切り出し範囲を変更することにより、マスク画像12を表示させることなく(換言すれば、ディスプレイ7による表示画像部分13が狭くなることなく)、より自然な障害物画像をディスプレイ7に表示することができる。したがって、車両運転者は、歪みの大きい領域やマスク画像12を目にすることなく、歪みの小さい領域において車両と他車両11との関係を把握することができる。
 図3(a)は、障害物までの距離と鳥瞰画像の俯角との関係を例示したグラフである。これらのような関係で、インテリジェント・カメラ5が、障害物までの距離に応じた俯角で鳥瞰画像を生成すれば、図2(a)に示したような鳥瞰画像をディスプレイ7に表示することができる。
 また、図3(b)は、障害物までの距離と鳥瞰画像における切り出し範囲の中心がその鳥瞰画像の下方向にオフセットされる量(オフセット量)との関係を例示したグラフである。これらのような関係で、ECU1が、鳥瞰画像の俯角に応じた切り出し範囲で鳥瞰画像の一部を切り出せば、図2(b)~図2(d)に示したような障害物画像をディスプレイ7に表示することができる。
 なお、図3(a)は、検知距離に応じて、俯角が0度から90度まで連続的かつ線形に変化する例であるが、この俯角は段階的に変更されても非線形に変更されてもよく、例えば、0度、30度、60度、90度と4段階に変化するようにしてもよい。また、俯角の変動範囲も0度~90度に限定されるものではなく、例えば、0度~80度のものや、10度~90度のものなど、俯角の下限・上限ともに任意に設定することができる。
 また、図3(b)に例示したグラフは、検知距離に応じて、オフセット量が対画面比で0~1/2まで連続的かつ線形に変化する例であるが、このオフセット量も段階的に変更されても非線形に変更されてもよく、例えば、0、1/4、1/2と3段階に変化するようにしてもよい。また、オフセット量の変動範囲も0~1/2に限定されるものではなく、例えば、0~2/3のものや、0~1/4のものなど、具体的な数値範囲は下限・上限ともに任意に設定することができる。
 なお、図示は省略するが、オフセット量と同様に、検知距離が小さくなるほど、鳥瞰画像の切り出し範囲の大きさを小さくすることによって、障害物画像をディスプレイ7に拡大表示させる倍率を大きくしてもよい。つまり、俯角が大きくなるほど障害物の像において歪んだ状態となる上方部の多くが含まれないように、オフセット量を大きくするか、画像を拡大表示させる倍率を大きくするかの少なくとも一方を行うようにすればよい。
 [車両周辺監視装置が備えるECUにおいて実行される処理]
 次に、上記のような表示形態を実現するため、車両周辺漢詩装置が備えるECU1において実行される処理の一例を、図4に基づいて説明する。
 図4は、エンジン始動に伴ってECU1が稼動を開始した際に、ECU1が実行する処理の中から、車両周辺監視装置に関連する処理ステップのみを抽出してフローチャート化したものである。
 この処理を開始すると、ECU1は、インテリジェント・カメラ5および超音波ソナー3aの初期状態として、それらを作動停止状態にする(S10)。そして、シフト位置センサ3bから供給される検知情報に基づいて、シフトレンジがRか否かを判断する(S20)。
 ここで、シフトレンジがRでない場合は(S20:NO)、S10へと戻ることにより、S10~S20の処理を繰り返す。この繰り返し処理により、インテリジェント・カメラ5および超音波ソナー3aは、シフトレンジがRに変更されるまでは、作動停止状態のまま待機することになる。
 一方、車両運転者の操作によってシフトレンジがRに変更されたら(S20:YES)、その場合は、通常のリアビュー表示を行う(S30)。この通常のリアビュー表示は、最も俯角が小さい鳥瞰画像に相当する画像が表示される(図2(a)参照)。したがって、より俯角が大きい鳥瞰画像に比べ、車両運転者は、より遠方にある障害物を確認しやすくなる。
 続いて、ECU1は、超音波ソナー3から障害物の検知情報を取得するため、超音波ソナー3aを制御して超音波送受波動作を実行させる(S40)。そして、障害物を検知したか否かを判断し(S50)、障害物を検知していない場合は(S50:NO)、S40の処理へと戻る。
 一方、S50の処理において、障害物を検知した場合は(S50:YES)、検知距離を読み取り(S60)、俯角制御、および鳥瞰画像の切り出し制御(オフセット量制御、切り出し範囲制御)を実行する(S70)。
 S70の処理では、S60の処理で読み取った検知距離をインテリジェント・カメラ5に与えることにより、インテリジェント・カメラ5に対して切り出し画角の指示を与える。インテリジェント・カメラ5は、ECU1から与えられた検知距離に応じた俯角で、鳥瞰画像を生成し、その鳥瞰画像をECU1に提供する。
 この鳥瞰画像を取得したECU1は、さらに、インテリジェント・カメラ5から提供される鳥瞰画像から、検知距離に応じたオフセット量および切り出し範囲の大きさを変更することによって鳥瞰画像の一部を切り出した画像(障害物画像)を生成して、ディスプレイ7に表示する。また、このときのオフセット量に応じて、自車両の多くの部分が含まれるように自車両画像を生成して、検知距離に応じた位置に生成した自車両画像を障害物画像とともに、ディスプレイ7に表示する。
 こうしてS70の処理を終えたら、ECU1は、シフトレンジの変更があるか否かを判断し(S80)、変更がなければ(S80:NO)、S40の処理へと戻って、S40移行の処理を繰り返す。一方、S80の処理において、シフトレンジの変更があった場合は(S80:YES)、S20の処理へと戻る。
 その結果、シフトレンジがRであれば(S20:YES)、再びS30以降の処理が実行される一方、シフトレンジがRでなければ(S20:NO)、S10の処理へと戻り、インテリジェント・カメラ5および超音波ソナー3aは、作動停止状態に移行する。
 [本実施形態の効果]
 以上説明した通り、上記車両周辺監視装置によれば、インテリジェント・カメラ5が生成した鳥瞰画像内の一部に歪みの大きい部分が存在していても、そのような歪みがある部分が含まれないようにディスプレイ7に表示することができる。したがって、そのような歪みに起因して車両運転者が戸惑わないような表示状態にすることができる。
 また、上記車両周辺監視装置においては、インテリジェント・カメラ5が生成する鳥瞰画像の俯角、オフセット量、および切り出し範囲の大きさは、双方とも超音波ソナー3によって検知した障害物までの距離に応じて変動させている。そのため、鳥瞰画像の俯角、オフセット量、および切り出し範囲の大きさは、互いに連動して変化することになる。
 すなわち、本実施形態において、オフセット量や切り出し範囲の大きさの可変設定によって鳥瞰画像から除外される障害物における上方部の範囲は、鳥瞰画像の俯角が大きくなるほど拡大する構成になっている。したがって、このような構成を採用すれば、俯角を小さくして、より遠方の障害物を確認しやすい鳥瞰画像とすることができ、また、俯角を大きくして、より近傍の障害物を監視しやすい障害物画像とすることもできる。
 しかも、俯角を大きくしたことに伴って歪み具合が拡大すれば、そのような歪みの大きい範囲が障害物画像に含まれないように、オフセット量を大きくしたり、画像を拡大表示させる倍率を大きくしたりすることができるので、車両運転者の違和感を払拭することができる。
 さらに、このような歪みが大きくなる範囲をマスク画像によって覆い隠さずに済むので、ディスプレイ7による表示画像部分13が狭くなることなく、より自然な障害物画像をディスプレイ7に表示することができる。したがって、車両運転者は、歪みの大きい領域やマスク画像12を目にすることなく、歪みの小さい領域において車両と障害物との関係を好適に把握することができる。
 また、自車両と他車両11との間の距離が短くなると、ディスプレイ7における画面の下部に自車両の位置を示す画像(自車両画像)の一部を表示させることにより、自車両と他車両11との位置関係を容易に把握することができる。
 なお、本実施形態において、インテリジェント・カメラ5のカメラ5aが撮影手段、超音波ソナー3aが検知手段、インテリジェント・カメラ5の制御装置5bおよび車両周辺監視装置のECU1が画像処理手段、ディスプレイ7が表示手段の各一例にそれぞれ相当する。
 [他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は上記実施形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
 例えば、上記実施形態の車両周辺監視装置では、撮影手段としてインテリジェント・カメラ5のカメラ5aを採用し、インテリジェント・カメラ5の制御装置5bが鳥瞰画像を生成するように構成されているが、これに限定されるものではなく、車両周辺監視装置のECU1が、カメラ5aによって撮影された原画像に基づいて鳥瞰画像を生成し、さらに鳥瞰画像から少なくとも一部を切り出すことにより障害物画像を生成してもよい。
 また、上記実施形態の車両周辺監視装置では、超音波ソナー3aでの検知距離に応じて鳥瞰画像の俯角が変更される例を示したが、これについては、俯角が変更されずに一定であってもよい。この場合、俯角が一定であり、超音波ソナー3aでの検知距離に基づき、障害物が車両に接近するほど、オフセット量および表示画像の倍率が大きくなるように変更されることになる。
 あるいは、手動で鳥瞰画像の俯角を変更可能な装置として構成されていてもよい。この場合でも、俯角の変動に連動してオフセット量や切り出し範囲の大きさを可変設定させれば、上記実施形態同様、歪みの大きい範囲をディスプレイ7の表示領域から追い出すことができる。
 さらに、上記実施形態の車両周辺監視装置では、検知手段として超音波ソナー3aを採用しているが、これに限定されるものではなく、例えばレーザ波やミリ波といった電磁波を用いた他のレーダ装置を採用してもよい。
 上記の開示は、下記の態様を含む。
 本開示の態様において、車両周辺監視装置は、自車両周辺を撮影可能な撮影手段と、前記自車両周辺に存在する障害物および前記障害物と自車両との間の距離を検知可能な検知手段と、前記撮影手段によって撮影された原画像の少なくとも一部に対して所定の座標変換を施すことにより、前記原画像に基づく仮想的な鳥瞰画像を生成し、該鳥瞰画像から少なくとも一部を切り出すことにより、前記検知手段によって検知された前記障害物を含む障害物画像を生成する画像処理手段と、前記画像処理手段によって生成された一部の鳥瞰画像を、車室内において所定の表示領域に表示する表示手段とを備える。前記画像処理手段は、前記障害物画像を生成する際、前記障害物と前記自車両との間の距離が所定の距離よりも短くなると、前記鳥瞰画像からの切り出し範囲を可変設定する。
 鳥瞰画像を、例えば俯角を大きくして生成すると、より近傍の障害物を監視しやすい鳥瞰画像とすることができる反面、高さのある障害物の画像が、鳥瞰画像内において大きく歪む傾向がある。
 これに対して、上記の画像処理手段は、このような鳥瞰画像から少なくとも一部を切り出すことにより、検知手段によって検知される障害物を含む障害物画像を生成する際、障害物と自車両との間の距離が所定の距離よりも短くなると、鳥瞰画像の切り出し範囲を可変設定する。
 したがって、鳥瞰画像上で広範囲にわたって障害物に過大な歪みが生じる場合に、鳥瞰画像の切り出し範囲を可変設定することにより、障害物における歪みが小さい領域だけが含まれるように表示して、車両運転者の違和感をより抑制することができる。
 ところで、上記のように鳥瞰画像の切り出し範囲を可変設定するには、鳥瞰画像の切り出し範囲の中心位置を、その鳥瞰画像の上下方向にオフセットさせる(換言すれば、シフトさせる、移動させる)ことによって自車両の位置を示す自車両画像を障害物画像中に表示してもよいし、鳥瞰画像の切り出し範囲の大きさを小さくすることによって上記障害物画像を拡大表示させる態様であってもよい。
 前者の場合、上記障害物画像における情報量を低下させることなく、車両運転者の違和感をより抑制できるというメリットを有し、後者の場合、切り出し範囲の中心位置を必ずしも変更することなく、車両運転者の違和感をより抑制できるため、画像処理手段に係る処理負担を軽減できるというメリットを有する。
 また、上記の画像処理手段は、検知手段によって検知される障害物までの距離に基づき、その障害物が車両に接近するほど、鳥瞰画像の俯角を大きくするものであるとよい。
 このような車両周辺監視装置によれば、障害物が遠方にあるときは、鳥瞰画像の俯角を小さくして、より遠方にある障害物を監視できるようにする一方、障害物が接近したときは、鳥瞰画像の俯角を大きくして、車両のごく近傍の状況を監視することができる。また、このような俯角の変更に伴って鳥瞰画像上の歪みの目立つ範囲が変動しても、そのような範囲の変動に対応して鳥瞰画像の切り出し範囲を変更できる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (6)

  1.  自車両周辺を撮影可能な撮影手段(5a)と、
     前記自車両周辺に存在する障害物および前記障害物と自車両との間の距離を検知可能な検知手段(3a)と、
     前記撮影手段によって撮影された原画像の少なくとも一部に対して所定の座標変換を施すことにより、前記原画像に基づく仮想的な鳥瞰画像を生成し、該鳥瞰画像から少なくとも一部を切り出すことにより、前記検知手段によって検知された前記障害物を含む障害物画像を生成する画像処理手段(5b,1)と、
     前記画像処理手段によって生成された一部の鳥瞰画像を、車室内において所定の表示領域に表示する表示手段(7)と、
     を備え、
     前記画像処理手段は、前記障害物画像を生成する際、前記障害物と前記自車両との間の距離が所定の距離よりも短くなると、前記鳥瞰画像からの切り出し範囲を可変設定する車両周辺監視装置。
  2.  前記画像処理手段は、前記切り出し範囲の中心位置を前記鳥瞰画像の上下方向にずらし、前記自車両の位置を示す自車両画像を前記障害物画像中に表示する請求項1に記載の車両周辺監視装置。
  3.  前記画像処理手段は、前記切り出し範囲を小さくすることによって前記障害物画像を前記表示手段に拡大表示させる請求項1または請求項2に記載の車両周辺監視装置。
  4.  前記画像処理手段は、前記検知手段によって検知される前記障害物までの距離に基づき、該障害物が前記車両に接近するほど、前記鳥瞰画像の俯角を大きくする請求項1ないし請求項3のいずれか1項に記載の車両周辺監視装置。
  5.  前記画像処理手段は、前記検知手段によって検知される前記障害物までの距離に基づき、該障害物が前記車両に接近するほど、前記切り出し範囲の中心位置を前記鳥瞰画像の上下方向にずらすオフセット量を大きくする請求項1ないし請求項4のいずれか1項に記載の車両周辺監視装置。
  6.  前記画像処理手段は、前記検知手段によって検知される前記障害物までの距離に基づき、該障害物が前記車両に接近するほど、前記鳥瞰画像の俯角を大きくし、かつ、前記切り出し範囲の中心位置を前記鳥瞰画像の上下方向にずらすオフセット量を大きくする請求項1ないし請求項3のいずれか1項に記載の車両周辺監視装置。
PCT/JP2013/006832 2012-12-04 2013-11-21 車両監視装置 WO2014087594A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012265274A JP2014110604A (ja) 2012-12-04 2012-12-04 車両周辺監視装置
JP2012-265274 2012-12-04

Publications (1)

Publication Number Publication Date
WO2014087594A1 true WO2014087594A1 (ja) 2014-06-12

Family

ID=50883036

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006832 WO2014087594A1 (ja) 2012-12-04 2013-11-21 車両監視装置

Country Status (2)

Country Link
JP (1) JP2014110604A (ja)
WO (1) WO2014087594A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108353147A (zh) * 2015-10-15 2018-07-31 株式会社电装 显示控制装置以及储存有显示控制程序的非暂时性计算机可读存储介质
JP2018174399A (ja) * 2017-03-31 2018-11-08 マツダ株式会社 車両用画像表示装置及び画像処理方法
CN109314769A (zh) * 2016-11-01 2019-02-05 住友建机株式会社 施工机械用周边监视***
CN110476420A (zh) * 2017-03-31 2019-11-19 马自达汽车株式会社 车辆用图像显示装置及图像处理方法
WO2023105842A1 (ja) * 2021-12-06 2023-06-15 株式会社光庭インフォ 情報処理装置、移動体、情報処理方法及びプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
CN104554009A (zh) * 2014-12-31 2015-04-29 广东光阵光电科技有限公司 双视角倒车摄像方法及***
JP6305456B2 (ja) * 2016-03-31 2018-04-04 株式会社Subaru 表示装置
JP6730615B2 (ja) * 2016-07-12 2020-07-29 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
WO2018012070A1 (ja) * 2016-07-12 2018-01-18 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6734136B2 (ja) * 2016-07-20 2020-08-05 クラリオン株式会社 画像処理装置
US20230009479A1 (en) * 2019-12-05 2023-01-12 Sony Group Corporation Information processing apparatus, information processing system, information processing method, and program
JP7375792B2 (ja) * 2021-05-26 2023-11-08 トヨタ自動車株式会社 駐車支援装置
WO2023100415A1 (ja) * 2021-11-30 2023-06-08 株式会社光庭インフォ 情報処理装置、移動体、情報処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071790A (ja) * 2007-09-18 2009-04-02 Denso Corp 車両周辺監視装置
JP2010064725A (ja) * 2008-09-15 2010-03-25 Denso Corp 車載撮影画像表示制御装置、車載撮影画像表示制御装置用のプログラム、および車載撮影画像表示システム
JP2010116086A (ja) * 2008-11-14 2010-05-27 Alpine Electronics Inc 車載用表示装置、表示方法および表示プログラム
JP2010228649A (ja) * 2009-03-27 2010-10-14 Denso Corp 車外撮影画像表示システム。
JP2011091527A (ja) * 2009-10-21 2011-05-06 Panasonic Corp 映像変換装置及び撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071790A (ja) * 2007-09-18 2009-04-02 Denso Corp 車両周辺監視装置
JP2010064725A (ja) * 2008-09-15 2010-03-25 Denso Corp 車載撮影画像表示制御装置、車載撮影画像表示制御装置用のプログラム、および車載撮影画像表示システム
JP2010116086A (ja) * 2008-11-14 2010-05-27 Alpine Electronics Inc 車載用表示装置、表示方法および表示プログラム
JP2010228649A (ja) * 2009-03-27 2010-10-14 Denso Corp 車外撮影画像表示システム。
JP2011091527A (ja) * 2009-10-21 2011-05-06 Panasonic Corp 映像変換装置及び撮像装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108353147A (zh) * 2015-10-15 2018-07-31 株式会社电装 显示控制装置以及储存有显示控制程序的非暂时性计算机可读存储介质
CN109314769A (zh) * 2016-11-01 2019-02-05 住友建机株式会社 施工机械用周边监视***
CN109314769B (zh) * 2016-11-01 2022-06-07 住友建机株式会社 施工机械用周边监视***
JP2018174399A (ja) * 2017-03-31 2018-11-08 マツダ株式会社 車両用画像表示装置及び画像処理方法
CN110476420A (zh) * 2017-03-31 2019-11-19 马自达汽车株式会社 车辆用图像显示装置及图像处理方法
EP3582493A4 (en) * 2017-03-31 2020-03-04 Mazda Motor Corporation IMAGE DISPLAY DEVICE FOR VEHICLE AND IMAGE PROCESSING METHOD
CN110476420B (zh) * 2017-03-31 2021-05-04 马自达汽车株式会社 车辆用图像显示装置及图像处理方法
WO2023105842A1 (ja) * 2021-12-06 2023-06-15 株式会社光庭インフォ 情報処理装置、移動体、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2014110604A (ja) 2014-06-12

Similar Documents

Publication Publication Date Title
WO2014087594A1 (ja) 車両監視装置
JP4458138B2 (ja) 車両周辺監視装置
US20220210344A1 (en) Image display apparatus
JP5500877B2 (ja) 車載用画像表示装置および画像のトリミング方法
US10339811B2 (en) Image processing apparatus, electronic apparatus, and image processing method
US8886023B2 (en) Blind-spot image display system for vehicle, and blind-spot image display method for vehicle
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP5321711B2 (ja) 車両用周辺監視装置および映像表示方法
JP6744236B2 (ja) 画像表示装置
US10499014B2 (en) Image generation apparatus
WO2017061376A1 (ja) 車両用視認装置及び車両用視認制御プログラム
JP2018127083A (ja) 画像表示装置
JP2009060404A (ja) 映像処理装置
JP2009055427A (ja) 映像処理装置及びカメラ
JP2012040883A (ja) 車両周囲画像生成装置
US20200369207A1 (en) Image processing device, image display system, and image processing method
JP2013506897A (ja) 交通状況のビデオデータと間隔データを組み合わせて視覚的に表示するための方法および装置
JP2005301144A (ja) 虚像表示装置およびプログラム
US11816787B2 (en) Method for representing an environmental region of a motor vehicle with virtual, elongated distance markers in an image, computer program product as well as display system
EP3772719B1 (en) Image processing apparatus, image processing method, and image processing program
JP7000383B2 (ja) 画像処理装置および画像処理方法
JP4651745B2 (ja) 映像処理装置
WO2017168953A1 (ja) 車両用装置、車両用プログラム、フィルタ設計プログラム
JP7135378B2 (ja) 周辺監視装置
WO2016185677A1 (ja) 車両周辺表示装置及び車両周辺表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13860238

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13860238

Country of ref document: EP

Kind code of ref document: A1