WO2011030699A1 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
WO2011030699A1
WO2011030699A1 PCT/JP2010/064866 JP2010064866W WO2011030699A1 WO 2011030699 A1 WO2011030699 A1 WO 2011030699A1 JP 2010064866 W JP2010064866 W JP 2010064866W WO 2011030699 A1 WO2011030699 A1 WO 2011030699A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
display screen
displayed
display
Prior art date
Application number
PCT/JP2010/064866
Other languages
English (en)
French (fr)
Inventor
渡邊一矢
Original Assignee
アイシン精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイシン精機株式会社 filed Critical アイシン精機株式会社
Priority to CN201080038865.7A priority Critical patent/CN102481876B/zh
Priority to US13/392,171 priority patent/US20120154590A1/en
Priority to EP10815296.8A priority patent/EP2476588B1/en
Priority to JP2011530811A priority patent/JPWO2011030699A1/ja
Publication of WO2011030699A1 publication Critical patent/WO2011030699A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Definitions

  • the present invention relates to a vehicle periphery monitoring device that performs a predetermined process on a captured image captured by a camera and displays the image on a display device in a vehicle interior.
  • Patent Document 1 As a technique for performing predetermined image processing (distortion correction) so that a driver can easily view a captured image of a vehicle surroundings captured by a camera on a display device in a vehicle interior, for example, a method described in Patent Document 1 is known. It has been.
  • the driver's visibility to the displayed image is improved by correcting the distortion. That is, by displaying an image (video) around the vehicle taken with a camera having a wide angle of view (for example, horizontal 160 degrees or more) as a single image, a wide area can be visually recognized on the display screen, The presence or absence of a pedestrian can be recognized.
  • a wide angle of view for example, horizontal 160 degrees or more
  • the present invention has been made in view of the above-mentioned problems, and its purpose is to appropriately present to the driver the situation where there are obstacles, people, etc. in the vicinity in accordance with the use situation (running situation) of the vehicle.
  • the purpose is to do.
  • the technical means taken in the present invention is that the vehicle is stopped based on at least one imaging means for photographing the periphery of the vehicle and a photographed image photographed by the imaging means.
  • the display screen including a display image at the time of stop for displaying when the vehicle is not, and the image for displaying when the vehicle is not in a stop state, the vehicle being narrower than the area around the vehicle on which the display image at the time of stop is projected
  • Screen generating means for generating a display screen including a non-stop display image that projects the surrounding area, and display means for displaying the display screen generated by the screen generating means.
  • the non-stop display image is a partial image of the stop display image.
  • the stop state is a state from when the shift position of the vehicle is changed to the reverse position until it is determined that the vehicle has started running, and the vehicle is not in the stop state. Is more preferably a state in which it is determined that the vehicle has started running from the stopped state.
  • the display screen including the non-stop display image is displayed, the display screen including the stop display image is not displayed unless the vehicle shift position is changed to the reverse position again. It is more suitable if it is constituted.
  • the vehicle when determining that the vehicle has started traveling, it is determined that the vehicle has started traveling when the vehicle has traveled a predetermined distance after changing the shift position of the vehicle to the reverse position, or the vehicle speed is It is more preferable that the vehicle is determined to start running when it is equal to or greater than a predetermined value.
  • FIG. 1 is a schematic view of a vehicle 100 including a vehicle periphery monitoring device 50 according to the present invention.
  • the vehicle 100 is provided with a rear camera 11 that captures a scene behind the vehicle 100.
  • the rear camera 11 is provided at the rear portion of the vehicle 100 and is provided so as to face slightly downward with respect to the horizontal direction. That is, the optical axis of the rear camera 11 forms an acute angle with respect to the road surface on which the vehicle 100 exists.
  • the rear camera 11 is installed with a depression angle of about 30 degrees toward the rear of the vehicle 100, and can photograph a region up to about 8 m behind the vehicle 100.
  • the rear camera 11 is a digital camera that incorporates an image sensor such as a CCD (charge coupled device) or a CIS (CMOS image sensor) and outputs information captured by the image sensor in real time as moving image information.
  • the rear camera 11 is preferably configured using, for example, a wide-angle lens (for example, an angle of view of 160 ° or more) or a fish-eye lens.
  • the vehicle 100 includes an electronic control unit 20 illustrated in FIG.
  • the electronic control unit 20 is composed of, for example, a microcomputer having a ROM and a RAM.
  • a captured image (video) captured by the rear camera 11 is transmitted to the electronic control unit 20 as described later, and after predetermined processing is performed by the electronic control unit 20, a monitor 200 in the vehicle interior shown in FIG. (Display means).
  • the monitor 200 is also used as a display device for the navigation system.
  • the vehicle 100 is provided with a vehicle speed sensor that detects the speed of the vehicle 100 (not shown).
  • the wheel pulse detected by the vehicle speed sensor and the vehicle speed are transmitted to the electronic control unit 20 by a predetermined communication means.
  • FIG. 2 shows the vehicle periphery monitoring device 50, and the captured image captured by the rear camera 11 is transmitted to the electronic control unit 20.
  • the electronic control unit 20 includes a screen generation unit 21 and an output unit 22.
  • the screen generation unit 21 generates a display screen based on the captured image captured by the rear camera 11.
  • the generated display screen is transmitted from the screen generation unit 21 to the monitor 200 via the output unit 22 and displayed on the monitor 200.
  • FIG. 3 is a diagram showing a display screen 210 displayed on the monitor 200 by the vehicle periphery monitoring device 50 according to the present invention.
  • the display screen is switched to the display screen shown in FIG.
  • the captured image captured by the rear camera 11 includes a central image 211, a right image 212 having a substantially parallelogram shape arranged on the right side of the central image 211, and a substantially arranged image on the left side of the central image 211. It is displayed as a parallelogram-shaped left image 213.
  • the center image 211 and the right image 212 and the center image 211 and the left image 213 are partitioned by a dividing line 250.
  • a predetermined gap is provided between the central image 211 and the right image 212 and between the central image 211 and the left image 213. In this way, it is easy to distinguish between the rear and the side by dividing and displaying between the center image 211 and the right image 212 and between the center image 211 and the left image 213.
  • the center image 211 and the right image 212 have continuous image contents (maintaining continuity of the image contents) with the dividing line 250 interposed therebetween. Further, adjacent sides of the center image 211 and the right image 212 are parallel to each other. The same applies to the center image 211 and the left image 213.
  • the generation of the center image 211, the right image 212, and the left image 213 and the arrangement of these images on the display screen are due to the function of the screen generation unit 21.
  • the image content is continuous means that the center image 211 and the right image 212 (or the left image 213) are connected.
  • the image values on the opposite sides coincide (or are continuous). Even if the image values on the opposite sides of the central image 211 and the right image 212 (or the left image 213) do not match (or continue), the central image 211 and the right image 212 (or the left image 213)
  • the image content is said to be continuous.
  • the central image 211 and the right image 212 match (or continue)
  • the central image 211 and the right image 212 or This is a case where the left image 213) is masked with a dividing line having a predetermined width on the boundary between the center image 211 and the right image 212 (left image 213) when arranged in the horizontal direction without a gap.
  • the display screen 210 by the vehicle periphery monitoring device 50 in this embodiment is such that the rear side of the vehicle and its left and right conditions are visually recognized as if it were a three-sided mirror holding the left and right mirrors at a predetermined angle with respect to the central mirror.
  • the central image 211 is an image in the traveling direction (front) when the steering wheel is substantially straight, and the right image 212 and the left image 213 have the left and right peripheral situations of the content displayed by the central image 211, respectively. Is displayed.
  • the positional relationship among the central image 211, the right image 212, and the left image 213 corresponds to the actual positional relationship
  • the front image (the central image 211) is displayed in a rectangle, and the image corresponds to the left and right of the front image.
  • (Right image 212, Left image 213) are displayed in a parallelogram shape. Therefore, it is possible to confirm the safety of a wide range behind the vehicle 100, and to easily distinguish whether there are obstacles or people in the rear or the side.
  • a figure simulating the vehicle 100 and an icon 260 composed of two triangles and a trapezoid are displayed. This allows the driver to recognize where the center image 211, the right image 212, and the left image 213 are displayed around the vehicle 100.
  • a warning text is displayed at the bottom of the display screen 210.
  • an index line 300 serving as an index when the driver is driving is superimposed and displayed.
  • an index line extending in the horizontal direction of the screen indicates a predicted position from the rear end of the vehicle 100.
  • the index lines extending in the horizontal direction of the screen are index lines indicating positions of 50 cm, 1 m, and 3 m from the rear end of the vehicle 100 from the lower side of the screen, respectively.
  • two left and right lines extending substantially in the vertical direction of the display screen 210 indicate the width of the vehicle 100 or a width obtained by increasing or decreasing a predetermined value to the width of the vehicle 100. is there.
  • the index line 300 may be a fixed line or may be linked to the steering angle.
  • the index line 300 can be displayed in three dimensions with at least one of a shadow part and a side part. According to this, it is possible to make the driver recognize that the index line 300 is along the road surface displayed in the central image 211.
  • FIG. 4 is a real image of a display screen displayed by the vehicle periphery monitoring device according to the embodiment of the present invention.
  • the screen generation unit 21 first performs distortion correction processing described in, for example, Japanese Patent Application Laid-Open No. 2009-12652 on the captured image captured by the rear camera 11.
  • the outline of the distortion correction processing described in Japanese Patent Application Laid-Open No. 2009-12652 will be described in the case of applying to the present embodiment.
  • the first axis (the horizontal direction of the display screen) is substantially fixed with respect to the captured image, while the second axis A process of enlarging the (display screen vertical direction) direction with a non-linearly increasing enlargement ratio depending on the distance from the second axis is performed.
  • the first axis direction is fixed, and the second axis direction is enlarged at an enlargement factor ⁇ .
  • This enlargement ratio increases as the distance from the second axis increases, that is, as the size of the display screen horizontal coordinate (the absolute value of the display screen horizontal coordinate) increases.
  • an image after the distortion correction processing is performed on the captured image captured by the rear camera 11 is denoted as IM0.
  • the origin O is the center of the captured image (image sensor).
  • the center image 211, the right image 212, and the left image 213 are generated as follows.
  • IM0 a rectangular area shown in FIG. 6 (b) having an x coordinate of ⁇ t ⁇ x ⁇ t (t> 0) and a y coordinate of ⁇ H / 2 ⁇ y ⁇ H / 2 (H> 0).
  • IM1 that is the center image 211.
  • the central image 211 is a partial image (IM1) of IM0 having a rectangular shape with a vertical side length of H and a horizontal side length of 2t, as shown in FIG. 6B.
  • the right image 212 is generated as follows. First, as shown in FIG. 6B, the IM2 that is the region of the IM0 where the x coordinate is t ⁇ x ⁇ t + W is specified. That is, IM2 is a partial image of IM0 and is adjacent to IM1 in IM0. Therefore, IM2 is a rectangle having a vertical side length of H and a horizontal side length of W as shown in FIG. Here, IM2 is deformed to generate IM2 ′. This image deformation means that the pixel value at the coordinate value (X0, Y0) in IM2 is set to the pixel value at the coordinate value (X1, Y1) in IM2 ′.
  • the right image 212 becomes an image in which the image is lifted by shearing in the y-axis direction as it goes to the right side (the direction in which the x coordinate increases) with respect to the original image IM2 (IM0).
  • IM0 the original image IM2
  • the left image 213 is also generated as follows.
  • the IM3 that is the region of the IM0 whose x coordinate is tW ⁇ x ⁇ ⁇ t is specified. That is, IM3 is a partial image of IM0 and is adjacent to IM1 in IM0.
  • IM3 is a rectangle having a vertical side length of H and a horizontal side length of W as shown in FIG.
  • the image of IM3 is deformed to generate IM3 ′.
  • This image deformation means that the pixel value at the coordinate value (X0, Y0) in IM3 is set to p, and the pixel value at the coordinate value (X1, Y1) in IM3 ′ is set to p.
  • the left image 213 becomes an image in which the image is lifted by shearing in the y-axis direction as it goes to the left side (the direction in which the x coordinate becomes smaller) with respect to the original image IM3 (IM0).
  • IM0 the original image IM3
  • the screen generation unit 21 arranges the right image 212 and the left image 213 generated in this way on the right and left of the central image 211, respectively, and generates the display screen 210 of FIGS.
  • the display screen shown in FIGS. 3 and 4 is switched to 210. That is, the display screen 210 shown in FIG. 3 and FIG. 4 is a display screen including an image (display image at stop) for displaying when the vehicle 100 is stopped.
  • the display screen 210 shown in FIG. 3 and FIG. 4 is a display screen including an image (display image at stop) for displaying when the vehicle 100 is stopped.
  • the vehicle periphery monitoring device shifts to a standby mode in which it waits without performing display for periphery monitoring.
  • a standby mode for example, a navigation screen is displayed.
  • the center image 211, the right image 212, and the left image 213 are display images when stopped.
  • FIG. 5 shows a display screen including an image displayed when the vehicle 100 is not stopped (non-stop display image) when the vehicle 100 starts moving backward (running or moving) after confirming safety.
  • the central image 211 is a non-stop display image.
  • the image generation unit 21 generates a display screen including a display image when stopped and a display screen including a display image when not stopped.
  • the central image 211, the right image 212, and the left image 213 are display images when stopped, and the central image 211 is a non-stop display image, the periphery of the vehicle 100 on which the non-stop display image is displayed.
  • the area is narrower than the area around the vehicle 100 where the display image is displayed when the vehicle is stopped. That is, the stop-time display image is a wide-angle image, and the non-stop-time display image is a narrow-angle image.
  • the non-stop display image is a partial image of the stop display image.
  • the display screen including the non-stop display image is the display screen 220 shown in FIG.
  • the central image 211 is enlarged and displayed by the amount that the right image 212 and the left image 213 are not displayed.
  • the central image 211 may not be enlarged, and an image (only the central image 211) that does not display the right image 212 and the left image 213 from the display screens of FIGS. 3 and 4 may be used. .
  • the display When switching from the display screen including the display image at the time of stop (display screen 210) to the display screen including the display image at the time of non-stop (display screen 220), the display may be immediately switched to the enlarged display of the central image 211.
  • switching is performed as follows. First, the right image 212 and the left image 213 are deleted from the display screen 210. Thereafter, as schematically illustrated in FIG. 7, the central image 211a (the central image 211 immediately after the right image 212 and the left image 213 are deleted) is gradually enlarged to the central image 211b, the central image 211c, and the central image 211d. To go. At this time, the image may be continuously expanded or may be expanded stepwise (stepwise). By presenting the process of switching the display screen to the driver in this way, the driver recognizes where the display screen (image) after switching corresponds (corresponds) to the display screen (image) before switching, Easy to understand.
  • the reverse start of the vehicle 100 is, for example, a wheel pulse from a vehicle speed sensor as a movement distance detecting means for detecting a movement distance when the speed of the vehicle 100 detected by the vehicle speed sensor is greater than a predetermined speed. This is when the electronic control unit 20 determines that the vehicle has traveled a predetermined distance from the stop state using the accumulated number.
  • the vehicle periphery monitoring device 50 stands by. For example, a navigation screen is displayed.
  • the vehicle may be returned to the display screen (display screen 210) including the display image when stopped.
  • the driver may be notified by sound or voice of switching to the display screen including the display image at the time of stop.
  • the driver can monitor the surroundings appropriately according to the situation by automatically switching to an appropriate range of images instead of an image with a wider angle of view than necessary when traveling backwards. It becomes.
  • the driver does not need to perform a switch operation and is not troublesome.
  • the vehicle 100 may not be provided with illumination for illuminating the areas of the right image 212 and the left image 213. Therefore, when it is determined at night (or when the vehicle 100 is in a place with low illuminance such as indoors), only the right image 212 and the left image 213 of the center image 211, the right image 212, and the left image 213 are corrected for luminance. It is preferable to improve visibility by adding processing to display brightly. At this time, determination at night may be performed based on luminance information of the entire captured image.
  • the right image 212 or the partial image that is the original of the right image 212 is subjected to luminance correction processing based on the luminance information of the right image 212 or the partial image (IM2) that is the original of the right image 212.
  • the luminance correction processing of the left image 213 may be performed.
  • the luminance information is equal to or less than a predetermined threshold value, it is determined that it is nighttime, and the right image 212 and the left image 213 are displayed brightly. Further, the determination at night may be based on time information instead of luminance information, or may be based on lighting of a headlight or a width lamp by a driver.
  • the electronic control unit 20 is provided separately from the rear camera 11, but is not limited to this, and the electronic control unit 20 may be provided in the rear camera 11 and integrated.
  • the present invention can of course be applied when the vehicle 100 moves forward.
  • a front camera is provided instead of the rear camera 11, and the shift position may be determined as a forward position (D position or the like) instead of the reverse position.
  • the captured image from one rear camera 11 is divided and displayed in the center image 211, the right image 212, and the left image 213, but images captured by a plurality of cameras may be used.
  • a right side camera that captures the rear right side of the vehicle 100 and a left side camera that captures the rear left side of the vehicle 100 are displayed.
  • the captured image of the rear camera 11 is displayed in the central image 211, and the right side
  • the video of the camera may be displayed on the right image 212, and the video of the left side camera may be displayed on the left image 213.
  • the present invention is not limited to dividing images from one camera, and when displaying images from a plurality of cameras, the positional relationship of each image and the position and direction relationship with the vehicle can be accurately presented to the driver. it can.
  • the imaging ranges of the rear camera 11, the right side camera, and the left side camera may or may not overlap.
  • the present invention can also be applied to the case where the front camera monitors the front periphery of the vehicle 100.
  • the present invention can also be applied to the case where the side periphery of the vehicle 100 is monitored by a side camera that monitors the side of the vehicle 100.
  • the right image 212 and the left image 213 have a parallelogram shape in which the vertical side that is not on the central image 211 side is higher than the central image 211. Modifications thereof are shown in FIGS. In FIG. 8, the right image 212 and the left image 213 are rectangular. In FIG. 9, the right image 212 and the left image 213 are trapezoidal. In FIG. 10, the right image 212 and the left image 213 have parallelogram shapes such that the vertical sides of the right image 212 and the left image 213 that are not on the center image 211 side are below the center image 211. In addition, the right image 212 and the left image 213 can be triangular or polygonal.
  • the right image 212 and the left image 213 may be subjected to the image deformation as described above according to the shape displayed on the display screen, or may be performed according to the shape displayed on the display screen without performing the image deformation. An image cut out from a specific image may be used.
  • the central image 211 has a rectangular shape, but is not limited thereto, and may be a hexagon as shown in FIG. 11 or other polygons.
  • the adjacent sides of the center image 211 and the right image 212 are parallel to each other and have a predetermined gap.
  • the image content is continuous across the gap (partition line).
  • the center image 211, the left image 213, and the right image 212 are displayed while the vehicle 100 is stopped, and only the center image 211 is displayed while the vehicle 100 is running.
  • An image of a camera with an angle (for example, 160 °) is displayed, and an image with a narrow angle of view (for example, equivalent to about 130 °) obtained by extracting a part (partial image) from the image with the wide angle of view during traveling. May be displayed.
  • two cameras with a wide angle of view and two cameras with a narrow angle of view may be provided, and the display may be switched in the same manner.
  • a rear camera 11 and a right side camera that captures the rear right side of the vehicle 100 and an image of the left side camera that captures the rear left side of the vehicle 100 are displayed. At least one of the images of the camera and the left side camera may be displayed, and only the image of the rear camera 11 may be displayed during traveling.
  • the right image 212 and the left image 213 are brightly displayed by performing luminance correction processing.
  • Image processing that is reversed, reversed (negative / positive reversed), or reversed after monochrome (negative / positive reversed) may be performed.
  • monochrome By converting to monochrome, an image with the highest possible brightness can be obtained even when the subject is dark. Further, by reversing, a bright image can be obtained when the subject is dark.
  • the sensitivity adjustment of the human eye is more rapid with light adaptation than with dark adaptation, and a better response is obtained with a brighter index for lens focus adjustment. It is also preferable from the viewpoint of engineering.
  • a color image is negative-positive-inverted, the color is greatly deviated from the actual color. Therefore, when the photographed image is a color image, it is desirable to reverse the grayscale image negative-positive in order to reduce discomfort.
  • the wide-angle image (display screen 210) including the display image at the time of stoppage is returned to the display screen (display screen 210), but once the display state of the display screen including the narrow-angle image (non-stop display image) is obtained, the vehicle 100 is then stopped.
  • the display screen (display screen 210 shown in FIGS. 3 and 4) including a wide-angle image (display image at the time of stop) may not be returned.
  • the operation mode of the former (this embodiment) and the operation mode of the latter (another embodiment) may be switchable by a driver using a switch.
  • the captured image captured by the camera is used without changing the viewpoint (change of viewpoint position and line-of-sight direction).
  • the present invention is not limited to this, and the captured image converted from the viewpoint is used. May be.
  • a viewpoint conversion image processed to increase or decrease the depression angle of the captured image within the range of the gaze direction that forms an acute angle with respect to the horizontal direction an image that displays the periphery of the vehicle having an acute depression angle
  • a viewpoint-converted image obtained by combining these processes or a viewpoint-converted image obtained by combining these processes may be used.
  • the present invention can be used for a vehicle periphery monitoring device that performs a predetermined process on a captured image of a vehicle periphery captured by a camera and displays the image on a display device in a vehicle interior.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

 車両周辺を撮影した撮影画像から、車両が停止状態のときに表示するための画像を含む表示画面と車両が停止状態でないときに表示するための画像を含む表示画面とを生成すると共に、これらの生成された表示画面をモニタに表示する。車両が停止状態でないときに表示するための画像が映し出す車両周辺の領域は、車両が停止状態のときに表示するための画像が映し出す車両周辺の領域よりも狭くなっている。

Description

車両周辺監視装置
 本発明は、カメラによって撮影された車両周辺の撮影画像に所定の処理を施して車室内の表示装置に表示する車両の周辺監視装置に関する。
 カメラによって撮影された車両周辺の撮影画像を車室内の表示装置に表示する際、運転者が見易いように所定の画像処理(歪み補正)を施す技術として、例えば特許文献1に記載の方法が知られている。
 歪み補正をすることにより、表示する画像に対する運転者の視認性は向上する。すなわち、広い画角(例えば、水平160度以上)を有するカメラで撮影した車両周辺の画像(映像)をひとつの画像で表示することで広い領域を表示画面上で視認ことができ、障害物や歩行者の有無を認識することができる。
特開2009-12652号公報
 しかしながら、このような広い画角の画像(映像)を2次元の表示画面上で表示した状態で車両が走行を開始すると、この車両移動に応じて画像が移動するため、方向感や距離感を正確に認識することが困難となる問題がある。また、走行(後退)をこれから開始しようと停車している状態では広い領域を表示画面上で視認することで障害物や歩行者の有無を認識したいが、一旦、走行(後退)を開始すると車両の運転者は走行中には周囲の監視も行いながら走行(後退)しているので、必ずしも広い領域を表示する必要は無い。
 本発明は、上記の課題に鑑みてなされたものであり、その目的は、車両の使用状況(走行状況)に合わせて、適切に周辺の障害物や人等の存在する状況を運転者に提示する事を目的とする。
 上記の技術的課題を解決するために本発明に講じられた技術的手段は、車両周辺を撮影する少なくとも一つの撮像手段と、前記撮像手段が撮影した撮影画像に基づいて、前記車両が停止状態のときに表示するための停止時表示画像を含む表示画面と、前記車両が停止状態でないときに表示するための画像であり、当該停止時表示画像が映し出す前記車両周辺の領域よりも狭い前記車両周辺の領域を映し出す非停止時表示画像を含む表示画面とを生成する画面生成手段と、画面生成手段が生成した表示画面を表示する表示手段と、を備えたことである。
 本発明に講じられた技術的手段において、撮像手段は1つであり、前記非停止時表示画像は、前記停止時表示画像の部分画像であるとより好適である。
 本発明に講じられた技術的手段において、停止状態とは、車両のシフト位置を後退位置に変更してから車両が走行を開始したと判定するまでの間の状態であり、車両が停止状態でないとは、停止状態から車両が走行を開始したと判定された状態とするとより好適である。
 さらには、一旦、前記非停止時表示画像を含む表示画面を表示した後には、再度、前記車両のシフト位置を後退位置に変更しなければ、前記停止時表示画像を含む表示画面を表示しないように構成するとより好適である。
 さらには、車両が走行を開始したと判定するに際し、車両のシフト位置を後退位置に変更してから所定の距離を走行したときに車両が走行を開始したと判定する、または、車両の速度が所定の値以上であるときに前記車両が走行を開始したと判定するように構成するとより好適である。
 本発明に講じられた技術的手段によると、車両の使用状況(走行状況)に合わせて、適切に周辺の障害物や人等の存在する状況を運転者に提示することができる。
本発明の実施形態に係る車両周辺監視装置を備える車両の概略図である。 本発明の実施形態に係る車両周辺監視装置を示す図である。 本発明の実施形態に係る車両周辺監視装置で表示する表示画面を説明するための図である。 本発明の実施形態に係る車両周辺監視装置で表示する表示画面の実映像である。 本発明の実施形態に係る車両周辺監視装置で表示する表示画面を説明するための図である。 本発明の実施形態に係る画面生成部の動作を説明するための図である。 本発明の実施形態に係る画面切り替え時の動作を説明するための図である。 本発明の実施形態に係る車両周辺監視装置で表示する表示画面の変形例を示す概略図である。 本発明の実施形態に係る車両周辺監視装置で表示する表示画面の変形例を示す概略図である。 本発明の実施形態に係る車両周辺監視装置で表示する表示画面の変形例を示す概略図である。 本発明の実施形態に係る車両周辺監視装置で表示する表示画面の変形例を示す概略図である。
 以下、本発明の実施形態を図面に基づいて説明する。
 図1は、本発明に係る車両周辺監視装置50を備える車両100の概略図である。車両100には、車両100の後方の情景を撮影するリアカメラ11が備えられる。
 リアカメラ11は、図1に示されるように、車両100のリア部分に備えられ、水平方向に対してやや下方向に向くように備えられる。すなわち、リアカメラ11の光軸は車両100の存在する路面に対して鋭角を成している。例えば、リアカメラ11は、車両100の後方に向けて30度程度の俯角を有して設置され、概ね車両100の後方8m程度までの領域を撮影することができる。
 また、リアカメラ11は、例えばCCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を内蔵し、当該撮像素子に撮像された情報を動画情報としてリアルタイムに出力するデジタルカメラである。リアカメラ11は、例えば広角レンズ(例えば、画角160°以上)や、魚眼レンズを用いて構成すると好適である。
 また、車両100は、図1に図示する電子制御ユニット20を備える。電子制御ユニット20は、例えば、ROM、RAMを備えたマイクロコンピュータ等で構成されている。
 リアカメラ11で撮影された撮像画像(映像)は、後述するように、電子制御ユニット20に伝達され、電子制御ユニット20で所定の処理がなされた後、図1に図示する車室内のモニタ200(表示手段)に表示される。車両100にナビゲーションシステムが搭載される場合、モニタ200はナビゲーションシステムの表示装置として用いるものを兼用すると好適である。
 車両100には、図示しない車両100の速度を検出する車速センサが備えられている。車速センサで検出した車輪パルスや車両の速度は、所定の通信手段で電子制御ユニット20に伝達される。
 図2は、車両周辺監視装置50を示すものであって、リアカメラ11で撮影された撮影画像は、電子制御ユニット20に伝達される。電子制御ユニット20は画面生成部21と出力部22を有する。後述するように、画面生成部21は入力されたリアカメラ11で撮影された撮影画像に基づいて表示画面を生成する。生成された表示画面は画面生成部21から出力部22を介してモニタ200に伝達されて、モニタ200に表示される。
 図3は、本発明に係る車両周辺監視装置50によるモニタ200に表示される表示画面210を示す図である。たとえば、運転者がシフト位置をR位置(リバース)にすると、この図3に示される表示画面に切り替えられる。後述するように、リアカメラ11で撮影された撮像画像は、中央画像211と、中央画像211の右側に配置される略平行四辺形形状の右画像212、中央画像211の左側に配置される略平行四辺形形状の左画像213として表示される。
 中央画像211と右画像212の間、及び、中央画像211と左画像213の間は、分割線250にて仕切られている。換言すると、中央画像211と右画像212の間、及び、中央画像211と左画像213の間は、所定の隙間が設けられている。このように、中央画像211と右画像212の間、及び、中央画像211と左画像213の間が分割して表示されることで後方と側方の区別がつきやすくなる。
 また、図3に示すように中央画像211と右画像212とは、分割線250を挟んで画像内容が連続して(画像内容の連続性を保持して)いる。また、中央画像211と右画像212の隣接する辺同士が平行となっている。中央画像211と左画像213も同様である。このような中央画像211、右画像212、左画像213の生成および、これらの画像の表示画面への配置は画面生成部21の働きによるものである。
 なお、画像内容が連続するとは、中央画像211と右画像212(または左画像213)とが繋がりを有しているということである。例えば、本実施形態のように、中央画像211と右画像212(または左画像213)とを横方向に並べたとき(図3参照)に対向する辺上での画像値が一致(または連続)する場合や、中央画像211と右画像212(または左画像213)の対向する辺上での画像値が一致(または連続)していなくとも、中央画像211と右画像212(または左画像213)の間に設けられた所定の隙間の長さ分に対応して画素値が連続する場合に、画像内容が連続しているという。後者の場合を換言すると、中央画像211と右画像212(または左画像213)の対向する辺上での画素値が一致(または連続)するような状況で、中央画像211と右画像212(または左画像213)とを隙間なく横方向に並べた場合の中央画像211と右画像212(左画像213)の境界上を所定の幅を有する分割線でマスクしたような場合である。
 本実施形態における車両周辺監視装置50による表示画面210は、車両後方とその左右の状況を、あたかも中央の鏡に対して左右の鏡を所定の角度で保持した三面鏡で視認しているように運転者に認識させる。すなわち、本実施形態では中央画像211はハンドルが略直進状態での進行方向(正面)の映像であり、右画像212と左画像213は、それぞれ中央画像211の表示する内容の左右の周辺状況が表示される。つまり、中央画像211,右画像212および左画像213の位置関係は実際の位置関係と対応しており、正面の画像(中央画像211)は長方形で表示され、正面の画像の左右に対応する画像(右画像212,左画像213)は平行四辺形形状で表示される。従って、車両100の後方の広い範囲の安全性確認ができると共に、後方と側方のいずれに障害物や人がいるのかを区別がしやすい。
 また、表示画面210の上部には、車両100を模した図と2つの三角形と台形で構成されたアイコン260が表示される。これは、中央画像211、右画像212、左画像213が車両100の周辺のどこを表示しているかを運転者に認識させるものである。
 表示画面210の下部には注意喚起文が表示される。
 中央画像211には、運転者が運転する際の指標となる指標線300が重畳表示される。この指標線300のうち、画面横方向に延びる指標線は車両100の後端からの予測位置を指し示す。例えば、画面横方向に延びる指標線は画面下側からそれぞれ、車両100の後端から50cm、1m、3mの位置を指し示す指標線である。
 また、この指標線300のうち、表示画面210の略上下方向に延在する左右の2本の線は、車両100の幅もしくは車両100の幅に所定の値を増減させた幅を示すものである。
 指標線300は、固定線でもよいし、操舵角に連動するものでもよい。
 また、指標線300は、影部もしくは側面部の少なくともいずれか一方を備えて立体的に表示することもできる。これによれば、指標線300が中央画像211に表示される路面上に沿っていることを運転者に認識させることができる。
 図4は、本発明の実施形態に係る車両周辺監視装置で表示する表示画面の実映像である。
 次に、表示画面を生成する画面生成部21の処理について説明する。
 画面生成部21では、まず、リアカメラ11が撮影した撮影画像に対して、例えば、特開2009-12652に記載の歪み補正処理を行う。特開2009-12652に記載の歪み補正処理の概略を本実施形態に適用する場合において説明すると、撮影画像に対して、第1軸(表示画面横方向)方向は略固定としつつ、第2軸(表示画面縦方向)方向をこの第2軸からの距離に依存した非線形的に増加する拡大率で拡大する処理を行う。第1軸方向は固定されており、第2軸方向については拡大率γで拡大される。この拡大率は第2軸から離れるほど、すなわち表示画面横方向座標の大きさ(表示画面横方向座標の絶対値)が大きくなるほど増加するものである。
 図6(a)において、リアカメラ11が撮影した撮影画像に対して歪み補正処理を行った後の画像をIM0とする。
 以下、x座標は右方向を正の方向とし、y座標は上方向を正の方向として説明する。また、原点Oは撮影画像(撮像素子)の中心とする。
 次に、以下のようにして、中央画像211、右画像212、左画像213を生成する。
 まず、IM0のうち、図6(b)に示す、x座標が-t≦x≦t(t>0)、y座標が-H/2≦y≦H/2(H>0)の長方形領域であるIM1を中央画像211とする。換言すると、中央画像211は、図6(b)に示すように、縦辺長さがH、横辺長さが2tの長方形形状を有したIM0の部分画像(IM1)である。
 右画像212は、以下のように生成される。まず、図6(b)に示すように、IM0のうちx座標がt≦x≦t+Wの領域であるIM2を特定する。すなわち、IM2はIM0の部分画像であって、IM0中においてIM1と隣り合っている。したがって、IM2は、図6(b)に示すように縦辺長さがH、横辺長さがWの長方形である。ここで、IM2を画像変形し、IM2´を生成する。この画像変形とは、IM2内の座標値(X0,Y0)における画素値をpを、IM2´内の座標値(X1、Y1)における画素値に設定することをいう。
 具体的には、X1=X0、Y1=a×(X0-t)/W+Y0の座標変換が行われる。すなわち、長方形形状のIM2は、図6(c)に示す底辺H、高さWの平行四辺形形状のIM2´に画像変形(一次変換)される。Wはせん断領域幅、aはせん断量であり、所定の値である。また、この画像変形を換言すると、座標(X0,Y0)を、座標(X0、Y1)に移動させる(y軸方向に持ち上げる)ものである。このIM2´を右画像212とする。
 この画像変換により、右画像212は、元の画像IM2(IM0)に対して右側(x座標が大きくなる方向)にいくほどy軸方向にせん断処理にて画像が持ち上がるような画像となる。これにより、歪み補正処理でも軽減されうるIM2内の画面右端付近の立体物の倒れこみを、より軽減することができる。
 同様に、左画像213も、以下のように生成される。まず、図6(b)に示すように、IM0のうちx座標がt-W≦x≦-tの領域であるIM3を特定する。すなわち、IM3は、IM0の部分画像であって、IM0中においてIM1と隣り合っている。IM3は、図6(b)に示すように縦辺長さがH、横辺長さがWの長方形である。ここで、IM3を画像変形し、IM3´を生成する。この画像変形とは、IM3内の座標値(X0,Y0)における画素値をpを、IM3´内の座標値(X1、Y1)における画素値にpを設定することをいう。
 具体的には、X1=X0、Y1=a×(-X0-t)/W+Y0の座標変換が行われる。すなわち、長方形形状のIM3は、図6(c)に示す底辺H、高さWの平行四辺形形状のIM3´に画像変形(一次変換)される。このIM3´を左画像213とする。
 この画像変換により、左画像213は、元の画像IM3(IM0)に対して左側(x座標が小さくなる方向)にいくほどy軸方向にせん断処理にて画像が持ち上がるような画像となる。これにより、歪み補正処理でも軽減されうるIM3内の画面左端付近の立体物の倒れこみを、より軽減することができる。
 画面生成部21は、このようにして生成した右画像212、左画像213をそれぞれ中央画像211の右および左に配置し、図3、図4の表示画面210を生成する。
 次に、本実施形態における車両周辺監視装置50の作動形態を説明する。
 運転者が車両100を停止し、駐車等を行うべく後退するために、シフト位置を後退位置(R位置、リバース位置)に他のシフト位置から変更すると、図3及び図4に示される表示画面210に切り替えられる。すなわち、図3及び図4に示される表示画面210が、車両100が停止状態のときに表示するための画像(停止時表示画像)を含む表示画面となる。これにより、これから後退を行う場合において、運転者は車両100の後側方も含む車両後方周囲に障害物、走行車両や人等が居ないかを認識でき、広範囲の安全確認を適切にすることができる。なお、この状態で、シフト位置を後退位置(R位置、リバース位置)から他のシフト位置に変更すると、車両周辺監視装置は、周辺監視のための表示は行わずに待機する待機モードに移る。この待機モードでは、例えば、ナビゲーションの画面を表示する。なお、本実施形態では、中央画像211、右画像212、左画像213が停止時表示画像となる。
 安全を確認後、車両100が後退(走行、移動)を開始したら、車両周辺監視装置は車両100が停止状態でないときに表示する画像(非停止時表示画像)を含む表示画面として図5に示す表示画面220(走行時画面)に切り替える。したがって、本実施形態では、中央画像211が非停止時表示画像となる。
 したがって、画像生成部21は、停止時表示画像を含む表示画面と、非停止時表示画像を含む表示画面とを生成している。なお、上述したように、中央画像211、右画像212、左画像213が停止時表示画像であり、中央画像211が非停止時表示画像であるため、非停止時表示画像が映し出す車両100の周辺領域は、停止時表示画像が映し出す車両100の周辺の領域よりも狭くなっている。すなわち、停止時表示画像は広画角の画像であり、非停止時表示画像は狭画角の画像である。また、非停止時表示画像は停止時表示画像の部分画像となっている。
 本実施形態では、非停止時表示画像を含む表示画面は、図5に示す表示画面220である。この表示画面220では、右画像212と左画像213とを表示しない分、中央画像211を拡大して表示している。しかしながら、非停止時表示画像として、中央画像211を拡大せず、単に図3、図4の表示画面から右画像212と左画像213とを表示しない画像(中央画像211のみ)を用いてもよい。
 停止時表示画像を含む表示画面(表示画面210)から非停止時表示画像を含む表示画面(表示画面220)に切り換える際に、すぐに中央画像211の拡大表示に切り替えてもよいが、本実施形態では、次のようにして切り替える。まず、表示画面210から右画像212、左画像213を消去する。その後、図7に模式的に記載するように、中央画像211a(右画像212、左画像213を消去した直後の中央画像211)を中央画像211b、中央画像211c、中央画像211dと徐々に拡大していく。このときに連続的に拡大していってもよいし、段階的(ステップ的に)に拡大していってもよい。このように表示画面の切り替えの過程を運転者に提示することによって、運転者が、切り替え後の表示画面(画像)が切り替え前の表示画面(画像)のどこに相当(対応)するかを認識、理解しやすくなる。
 ここで、車両100の後退開始とは、例えば、車速センサが検出した車両100の速度が所定の速度よりも大きくなった、もしくは移動距離を検出する移動距離検出手段としての車速センサからの車輪パルスの積算数を用いて停止状態から所定の距離を走行したことを電子制御ユニット20が判定した際である。また、所定の速度よりも車速センサが検出した車両100の速度が大きくなったことを判定する処理と、車速センサからの車輪パルスの積算数を用いて停止状態から所定の距離を走行したことを判定する処理を共に備え、どちらか一方が先に成立したら「車両100の後退開始」と判定してもよい。さらに、確実に判定するために、両方の条件が成立したら「車両100の後退開始」と判定してもよい。
 なお、非停止時表示画像を含む表示画面(表示画面220)を表示した状態で、シフト位置を後退位置(R位置、リバース位置)から他のシフト位置に変更すると、車両周辺監視装置50は待機モードに移り、例えば、ナビゲーションの画面を表示する。なお、車両を停止状態が比較的長い時間(例えば、5秒または10秒)続いたら、停止時表示画像を含む表示画面(表示画面210)に戻すようにしてもよい。この際に、停止時表示画像を含む表示画面に切り替わったことを音もしくは音声で運転者に報知してもよい。
 このように、後退中(走行中)においては、必要以上の広画角の画像でなく、適切な範囲の画像に自動的に切り替えることで、運転者は状況に応じた適切な周辺監視が可能となる。また、運転者にとってもスイッチ操作が不要となり、煩わしくない。
 また、車両100には、右画像212、左画像213の領域を照らすための照明が備えられていない場合がある。従って、夜間(もしくは屋内などの照度が低い場所に車両100が居る場合)と判定された場合において、中央画像211、右画像212、左画像213のうち、右画像212、左画像213のみ輝度補正処理を加えて明るく表示することで、視認性を向上させると好適である。この際、夜間の判定は、撮影画像全体の輝度情報に基づいて行ってもよい。また、右画像212もしくは右画像212の元となる部分画像(IM2)の輝度情報に基づいて右画像212の輝度補正処理を行い、同様に、左画像213もしくは左画像213の元となる部分画像(IM3)の輝度情報に基づいて、左画像213の輝度補正処理を行ってもよい。この際、例えば、輝度情報が所定のしきい値以下であれば夜間であると判定して、右画像212、左画像213を明るく表示する。また、夜間の判定は、輝度情報ではなく、時刻情報に基づいてもよいし、運転者によるヘッドライト、車幅灯の点灯に基づいてもよい。これらの判定及び処理は、電子制御ユニット20で行う。
 なお、本実施形態は、以下のように変更を加えてもよい。
 本実施形態では、リアカメラ11とは別に電子制御ユニット20を有したが、これに限定されるものではなく、電子制御ユニット20をリアカメラ11に備えて一体化した構成としてもよい。
 本実施形態では、車両100の後退時について説明をしたが、当然ながら、車両100の前進時にも適用可能である。この場合には、本実施形態において、リアカメラ11に代えてフロントカメラを備え、シフト位置の判定は後進位置に代えて前進位置(D位置など)とすればよい。
 本実施形態では、1つのリアカメラ11からの撮影画像を分割して、中央画像211と右画像212と左画像213に表示したが、複数のカメラにより撮影された画像を用いても構わない。例えば、リアカメラ11に加え、車両100の後方右側を撮影する右サイドカメラ及び車両100の後方左側を撮影する左サイドカメラを備え、リアカメラ11の撮影画像を中央画像211に表示し、右サイドカメラの映像を右画像212に表示し、左サイドカメラの映像を左画像213に表示してもよい。すなわち、1つのカメラからの映像を分割することに限られず、複数のカメラからの映像を表示するにあたって、各映像の位置関係及び車両との位置、方向関係を的確に運転者に提示することができる。この際に、リアカメラ11と右サイドカメラと左サイドカメラの撮像範囲は重複していてもよいし、していなくてもよい。
 本実施形態では、リアカメラ11による車両100の後方の周辺を監視する例を例示したが、もちろん、フロントカメラによる車両100の前方の周辺を監視する場合にも適用できる。また、車両100の側方を監視するサイドカメラによる車両100の側方周辺を監視する場合にも適用できる。
 本実施形態では、右画像212、左画像213を中央画像211側でない縦辺を中央画像211より上方になるような平行四辺形形状としたが、その変形例を図8~図10に示す。図8では、右画像212、左画像213を長方形形状とした。図9では、右画像212、左画像213を台形形状とした。図10では、右画像212、左画像213を、右画像212、左画像213の中央画像211側でない縦辺を中央画像211より下方になるような平行四辺形形状とした。その他、右画像212、左画像213を三角形や多角形とすることも可能である。右画像212、左画像213はその表示画面で表示される形状に合わせて前述したような画像変形を行ってもよいし、画像変形を行わず、単にその表示画面で表示される形状に合わせて特定の画像から切り出した画像でもよい。
 本実施形態では、中央画像211を長方形形状としたが、これに限定されるものではなく図11に示すように六角形でもよいし、その他の多角形でもよい。
 なお、図8~10の変形例においては、いずれも、中央画像211と右画像212(左画像213)との隣り合う辺が平行であって、所定の隙間を有しており、該所定の隙間(分割線)を挟んで画像内容が連続している。
 本実施形態では、車両100の停止中に中央画像211と左画像213と右画像212とを表示させて、走行中は中央画像211のみを表示させたが、車両100の停止中には広画角(例えば、160°)のカメラの画像を表示し、走行中には、当該広画角の画像から一部を抽出(部分画像)した狭画角(例えば、130°程度に相当)の画像を表示させてもよい。また、広画角のカメラと、狭画角のカメラを2つ備えて、同様に表示を切り替えてもよい。または、リアカメラ11と車両100の後方右側を撮影する右サイドカメラと車両100の後方左側を撮影する左サイドカメラの映像とを備え、停止中にはリアカメラ11の映像を表示すると共に右サイドカメラ及び左サイドカメラの映像の少なくともいずれか一方を表示し、走行中にはリアカメラ11の映像のみ表示することとしてもよい。
 本実施形態では、夜間と判定された場合に、右画像212および左画像213に対して輝度補正処理を施して明るく表示したが、これ以外にも右画像212および左画像213に対して、モノクロ化や、反転(ネガポジ反転)、モノクロ化してから反転(ネガポジ反転)する画像処理を施してもよい。モノクロ化することで、被写体が暗い場合でも、可能な限り高い輝度の映像を得ることができる。また、反転することにより、被写体が暗い場合には明るい画像が得られることになる。人間の眼の感度調整は、暗順応よりも明順応の方が急速であり、水晶体のピント調整も指標が明るい方がより良い応答が得られるため、低輝度の画像をネガポジ反転させることは人間工学の観点からも好ましい。また、カラー画像をネガポジ反転すると、現実と大きく乖離した色となるため、撮影画像がカラー画像の場合には、違和感を低減させるためにも濃淡画像をネガポジ反転することが望ましい。
 本実施形態では、狭画角の画像を含む表示画面(表示画面220)の表示状態となった後、車両100の停止状態が継続(例えば、5秒、10秒)したら広画角の画像(停止時表示画像)を含む表示画面(表示画面210)に戻したが、一旦、狭画角の画像(非停止時表示画像)を含む表示画面の表示状態となったら、その後車両100を停止したとしても、広画角の画像(停止時表示画像)を含む表示画面(図3及び図4に示される表示画面210)に戻さないようにしてもよい。この場合には、一旦走行(後退)を開始した後で、周辺状況に応じて停止する度に画面の切り換えがなされないため、頻繁な切り換えを好まない運転者にとっては好適である。なお、この動作を換言すると、一旦、非停止時表示画像を含む表示画面を表示した後には、再度、車両100のシフト位置を後退位置に変更しなければ、停止時表示画像を含む表示画面を表示しないということである。ここで、前者(本実施形態)の動作形態と後者の動作形態(別実施形態)を、スイッチにより運転者が切り換え可能としてもよい。
 本実施形態では、カメラ(リアカメラ11)で撮影した撮影画像を視点変換(視点位置、視線方向の変更)することなく使用したが、それに限定されるものではなく、視点変換した撮影画像を使用してもよい。例えば、水平方向に対して鋭角を成す視線方向である範囲内で撮影画像の俯角を増減するように処理した視点変換画像(俯角が鋭角である車両周辺を表示する画像)や、視点位置の変更をした視点変換画像、もしくはそれらの処理を組み合わせた視点変換画像を使用してもよい。
 本発明は、カメラによって撮影された車両周辺の撮影画像に所定の処理を施して車室内の表示装置に表示する車両の周辺監視装置に利用することができる。
11・・・リアカメラ(撮像手段)
20・・・電子制御ユニット
21・・・画面生成部(画面生成手段)
50・・・車両周辺監視装置
100・・・車両
200・・・モニタ(表示手段)
210・・・表示画面
220・・・表示画面
211・・・中央画像(第1画像)
212・・・右画像(第2画像)
213・・・左画像(第2画像)
250・・・分割線
260・・・アイコン
300・・・指標線

Claims (6)

  1.  車両周辺を撮影する少なくとも一つの撮像手段と、
     前記撮像手段が撮影した撮影画像に基づいて、前記車両が停止状態のときに表示するための停止時表示画像を含む表示画面と、前記車両が停止状態でないときに表示するための画像であり、当該停止時表示画像が映し出す前記車両周辺の領域よりも狭い前記車両周辺の領域を映し出す非停止時表示画像を含む表示画面とを生成する画面生成手段と、
     前記画面生成手段が生成した表示画面を表示する表示手段と、を備えたことを特徴とする車両周辺監視装置。
  2.  前記撮像手段は1つであり、前記非停止時表示画像は、前記停止時表示画像の部分画像である請求項1に記載の車両周辺監視装置。
  3.  前記停止状態とは、前記車両のシフト位置を後退位置に変更してから前記車両が走行を開始したと判定するまでの間の状態であり、
     前記車両が停止状態でないとは、前記停止状態から前記車両が走行を開始したと判定された状態である請求項1または2に記載の車両周辺監視装置。
  4.  一旦、前記非停止時表示画像を含む表示画面を表示した後には、再度、前記車両のシフト位置を後退位置に変更しなければ、前記停止時表示画像を含む表示画面を表示しない請求項3に記載の車両周辺監視装置。
  5.  前記車両のシフト位置を後退位置に変更してから所定の距離を走行したときに前記車両が走行を開始したと判定する請求項3または4に記載の車両周辺監視装置。
  6.  前記車両の速度が所定の値以上であるときに前記車両が走行を開始したと判定する請求項3または4に記載の車両周辺監視装置。
PCT/JP2010/064866 2009-09-11 2010-09-01 車両周辺監視装置 WO2011030699A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201080038865.7A CN102481876B (zh) 2009-09-11 2010-09-01 车辆周边监视装置
US13/392,171 US20120154590A1 (en) 2009-09-11 2010-09-01 Vehicle surrounding monitor apparatus
EP10815296.8A EP2476588B1 (en) 2009-09-11 2010-09-01 Vehicle surrounding monitor apparatus
JP2011530811A JPWO2011030699A1 (ja) 2009-09-11 2010-09-01 車両周辺監視装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009210053 2009-09-11
JP2009-210053 2009-09-11

Publications (1)

Publication Number Publication Date
WO2011030699A1 true WO2011030699A1 (ja) 2011-03-17

Family

ID=43732372

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/064866 WO2011030699A1 (ja) 2009-09-11 2010-09-01 車両周辺監視装置

Country Status (5)

Country Link
US (1) US20120154590A1 (ja)
EP (1) EP2476588B1 (ja)
JP (1) JPWO2011030699A1 (ja)
CN (1) CN102481876B (ja)
WO (1) WO2011030699A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2562047A1 (en) * 2011-08-23 2013-02-27 Fujitsu General Limited Drive assisting apparatus
JP2013177095A (ja) * 2012-02-29 2013-09-09 Murakami Corp 車外音導入装置
JP2014209713A (ja) * 2013-03-28 2014-11-06 アイシン精機株式会社 周辺監視装置、及びプログラム
JP2018069845A (ja) * 2016-10-26 2018-05-10 株式会社デンソーテン 画像表示装置及び画像処理方法
JP2020158114A (ja) * 2020-06-02 2020-10-01 株式会社ユピテル 撮像装置、システム、及びこのシステムを装備したフォークリフト

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9242602B2 (en) * 2012-08-27 2016-01-26 Fotonation Limited Rearview imaging systems for vehicle
JP2017208750A (ja) * 2016-05-20 2017-11-24 ローム株式会社 映像監視装置、映像表示システム、及び車両
WO2018029927A1 (ja) * 2016-08-09 2018-02-15 株式会社Jvcケンウッド 表示制御装置、表示装置、表示制御方法及びプログラム
JP6939494B2 (ja) * 2017-12-11 2021-09-22 トヨタ自動車株式会社 画像表示装置
JP7091955B2 (ja) * 2018-09-06 2022-06-28 トヨタ自動車株式会社 車両用周辺表示装置
JP7159801B2 (ja) * 2018-11-15 2022-10-25 トヨタ自動車株式会社 車両用電子ミラーシステム
JP7051667B2 (ja) * 2018-11-26 2022-04-11 本田技研工業株式会社 車載装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08301010A (ja) * 1995-05-01 1996-11-19 Mitsubishi Motors Corp 車両後方監視装置
JP2002109697A (ja) * 2000-10-02 2002-04-12 Matsushita Electric Ind Co Ltd 運転支援装置
JP2003134507A (ja) * 2001-10-24 2003-05-09 Nissan Motor Co Ltd 車両後方監視装置
JP2003199093A (ja) * 2001-12-28 2003-07-11 Matsushita Electric Ind Co Ltd 運転支援装置及び画像出力装置並びにカメラ付きロッド
JP2003212041A (ja) * 2002-01-25 2003-07-30 Toyota Central Res & Dev Lab Inc 車輌後方表示装置
JP2009012652A (ja) 2007-07-05 2009-01-22 Aisin Seiki Co Ltd 車両の周辺監視装置
JP2009060404A (ja) * 2007-08-31 2009-03-19 Denso Corp 映像処理装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3475507B2 (ja) * 1994-08-08 2003-12-08 日産自動車株式会社 車両用周囲モニタ装置
JPH10244891A (ja) * 1997-03-07 1998-09-14 Nissan Motor Co Ltd 駐車補助装置
US6512858B2 (en) * 1998-07-21 2003-01-28 Foveon, Inc. Image scanning circuitry with row and column addressing for use in electronic cameras
JP3298851B2 (ja) * 1999-08-18 2002-07-08 松下電器産業株式会社 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP4153202B2 (ja) * 2001-12-25 2008-09-24 松下電器産業株式会社 映像符号化装置
JP3909251B2 (ja) * 2002-02-13 2007-04-25 アルパイン株式会社 視線を用いた画面制御装置
JP4195966B2 (ja) * 2002-03-05 2008-12-17 パナソニック株式会社 画像表示制御装置
US20050168441A1 (en) * 2002-11-05 2005-08-04 Fujitsu Limited Display control device, display control method, computer product
JP2004257837A (ja) * 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ撮像システム
JP2005223524A (ja) * 2004-02-04 2005-08-18 Nissan Motor Co Ltd 車両周辺監視装置
JP4316619B2 (ja) * 2004-02-20 2009-08-19 シャープ株式会社 車両用表示装置及び車両表示システム並びに車両
DE102004015806A1 (de) * 2004-03-29 2005-10-27 Smiths Heimann Biometrics Gmbh Verfahren und Anordnung zur Aufnahme interessierender Bereiche von beweglichen Objekten
JP2005346648A (ja) * 2004-06-07 2005-12-15 Denso Corp 視界支援装置およびプログラム
JP2006033793A (ja) * 2004-06-14 2006-02-02 Victor Co Of Japan Ltd 追尾映像再生装置
JP2006140908A (ja) * 2004-11-15 2006-06-01 Matsushita Electric Ind Co Ltd 画像合成装置
US7423521B2 (en) * 2004-12-07 2008-09-09 Kabushiki Kaisha Honda Lock Vehicular visual assistance system
JP2006256419A (ja) * 2005-03-16 2006-09-28 Clarion Co Ltd 駐車支援装置
US8130269B2 (en) * 2005-03-23 2012-03-06 Aisin Aw Co., Ltd. Visual recognition apparatus, methods, and programs for vehicles
JP4645254B2 (ja) * 2005-03-24 2011-03-09 アイシン・エィ・ダブリュ株式会社 車両周辺視認装置
JP4956915B2 (ja) * 2005-05-20 2012-06-20 日産自動車株式会社 映像表示装置及び映像表示方法
JP2007081932A (ja) * 2005-09-15 2007-03-29 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP5045172B2 (ja) * 2007-03-20 2012-10-10 マツダ株式会社 車両用運転支援装置
JP2008242597A (ja) * 2007-03-26 2008-10-09 Yuhshin Co Ltd 車両用監視装置
US8218007B2 (en) * 2007-09-23 2012-07-10 Volkswagen Ag Camera system for a vehicle and method for controlling a camera system
JP5347257B2 (ja) * 2007-09-26 2013-11-20 日産自動車株式会社 車両用周辺監視装置および映像表示方法
JP5194679B2 (ja) * 2007-09-26 2013-05-08 日産自動車株式会社 車両用周辺監視装置および映像表示方法
JP4875014B2 (ja) * 2008-03-19 2012-02-15 シャープ株式会社 帯電検知装置、及びそれを搭載した原稿読取装置
JPWO2009141846A1 (ja) * 2008-05-19 2011-09-22 パナソニック株式会社 車両周囲監視装置および車両周囲監視方法
WO2010080610A1 (en) * 2008-12-19 2010-07-15 Delphi Technologies, Inc. Electronic side view display system
JP4927904B2 (ja) * 2009-05-07 2012-05-09 富士通テン株式会社 車両の運転支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08301010A (ja) * 1995-05-01 1996-11-19 Mitsubishi Motors Corp 車両後方監視装置
JP2002109697A (ja) * 2000-10-02 2002-04-12 Matsushita Electric Ind Co Ltd 運転支援装置
JP2003134507A (ja) * 2001-10-24 2003-05-09 Nissan Motor Co Ltd 車両後方監視装置
JP2003199093A (ja) * 2001-12-28 2003-07-11 Matsushita Electric Ind Co Ltd 運転支援装置及び画像出力装置並びにカメラ付きロッド
JP2003212041A (ja) * 2002-01-25 2003-07-30 Toyota Central Res & Dev Lab Inc 車輌後方表示装置
JP2009012652A (ja) 2007-07-05 2009-01-22 Aisin Seiki Co Ltd 車両の周辺監視装置
JP2009060404A (ja) * 2007-08-31 2009-03-19 Denso Corp 映像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2476588A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2562047A1 (en) * 2011-08-23 2013-02-27 Fujitsu General Limited Drive assisting apparatus
JP2013046124A (ja) * 2011-08-23 2013-03-04 Fujitsu General Ltd 運転支援装置
JP2013177095A (ja) * 2012-02-29 2013-09-09 Murakami Corp 車外音導入装置
JP2014209713A (ja) * 2013-03-28 2014-11-06 アイシン精機株式会社 周辺監視装置、及びプログラム
US9956913B2 (en) 2013-03-28 2018-05-01 Aisin Seiki Kabushiki Kaisha Surroundings-monitoring device and computer program product
US10710504B2 (en) 2013-03-28 2020-07-14 Aisin Seiki Kabushiki Kaisha Surroundings-monitoring device and computer program product
JP2018069845A (ja) * 2016-10-26 2018-05-10 株式会社デンソーテン 画像表示装置及び画像処理方法
JP2020158114A (ja) * 2020-06-02 2020-10-01 株式会社ユピテル 撮像装置、システム、及びこのシステムを装備したフォークリフト

Also Published As

Publication number Publication date
US20120154590A1 (en) 2012-06-21
EP2476588A1 (en) 2012-07-18
EP2476588B1 (en) 2014-07-30
CN102481876B (zh) 2014-12-17
EP2476588A4 (en) 2013-02-13
CN102481876A (zh) 2012-05-30
JPWO2011030699A1 (ja) 2013-02-07

Similar Documents

Publication Publication Date Title
JP5598731B2 (ja) 車両周辺監視装置
WO2011030699A1 (ja) 車両周辺監視装置
US20200086794A1 (en) Vehicle rear monitoring system
JP5233583B2 (ja) 車載用監視装置
JP5459154B2 (ja) 車両用周囲画像表示装置及び方法
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP6287406B2 (ja) ヘッドアップディスプレイ装置
JP2019125920A (ja) モニター表示システム及びその表示方法
CN103765489B (zh) 障碍物警报装置
TWI533694B (zh) 車用障礙物偵測顯示系統
JP2010118935A (ja) 車体透過表示装置
WO2017038123A1 (ja) 車両の周囲監視装置
WO2015129280A1 (ja) 画像処理装置および画像処理方法
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
KR101657673B1 (ko) 파노라마뷰 생성 장치 및 방법
JP2008285105A (ja) 情報表示装置
JP6668975B2 (ja) 電子機器および自動車
JP2006244331A (ja) 夜間走行補助装置及び方法
JP2010064646A (ja) 車両周辺監視装置および車両周辺監視方法
JP2011065280A (ja) 画像処理装置、周辺監視システム、及び操作支援システム
JP2018171964A (ja) 車両用画像表示装置及び設定方法
JP6149379B2 (ja) 画像表示制御装置
JP2006024120A (ja) 車両用画像処理システム及び画像処理装置
JP4033170B2 (ja) 車両用表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080038865.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10815296

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010815296

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13392171

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011530811

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE