WO2019058504A1 - 後側方映像制御装置および後側方映像制御方法 - Google Patents

後側方映像制御装置および後側方映像制御方法 Download PDF

Info

Publication number
WO2019058504A1
WO2019058504A1 PCT/JP2017/034299 JP2017034299W WO2019058504A1 WO 2019058504 A1 WO2019058504 A1 WO 2019058504A1 JP 2017034299 W JP2017034299 W JP 2017034299W WO 2019058504 A1 WO2019058504 A1 WO 2019058504A1
Authority
WO
WIPO (PCT)
Prior art keywords
rear side
host vehicle
lane
range
side image
Prior art date
Application number
PCT/JP2017/034299
Other languages
English (en)
French (fr)
Inventor
下谷 光生
中村 好孝
克治 淺賀
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2017/034299 priority Critical patent/WO2019058504A1/ja
Priority to DE112017008075.4T priority patent/DE112017008075T5/de
Priority to US16/638,281 priority patent/US20200207275A1/en
Priority to JP2019542909A priority patent/JP6727451B2/ja
Publication of WO2019058504A1 publication Critical patent/WO2019058504A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic

Definitions

  • the present invention relates to a technology for controlling display of a rear side image to a driver of a vehicle.
  • a rear side image display device such as a mirror is used.
  • the direction of the mirror can be adjusted by the operation of the driver, and is adjusted, for example, so as to be able to visually recognize the reference visual range defined on the basis of the position of the vehicle.
  • Patent Document 1 describes a rear side image display device that allows a driver to visually recognize the conditions of a traveling lane and an adjacent lane when the vehicle is traveling on a straight road.
  • Patent Document 1 there was a case in which the vehicle traveling lane and the adjacent lane could not be visually recognized while the vehicle was traveling on a curve.
  • Patent Document 2 an attempt is made to estimate the curvature of a curve of a lane from the traveling locus of a vehicle, estimate the shape of the road based on the curvature, and match the display direction of the rear vision device to the rear lane. ing.
  • the present invention has been made in view of the above problems, and an object of the present invention is to make a driver appropriately recognize a traveling lane and an adjacent lane behind the vehicle regardless of the shape of the traveling lane.
  • the rear side image control device of the present invention is a rear side image control device that controls a rear side image display device that displays a rear side image of the host vehicle to the driver, and is provided in the travel lane of the host vehicle. Based on the lane shape acquisition unit that acquires shape information and the shape information of the traveling lane behind the host vehicle, an area located in a specific direction based on the host vehicle among the rear sides of the host vehicle is determined as the recommended viewing range A viewing range setting unit and a control unit that controls the rear side image display device such that a video of a recommended viewing range is displayed to the driver.
  • the rear side image control method is a rear side image control method for controlling a rear side image display device that displays a rear side image of the host vehicle to the driver, and includes: Shape information is acquired, and based on the shape information of the traveling lane behind the host vehicle, an area located in a specific direction with respect to the host vehicle among the rear sides of the host vehicle is defined as a recommended viewing range.
  • the rear side image display device is controlled so that the image is displayed to the driver.
  • the rear side image control device of the present invention is a rear side image control device that controls a rear side image display device that displays a rear side image of the host vehicle to the driver, and is provided in the travel lane of the host vehicle.
  • a rear side image control device controls a rear side image display device that displays a rear side image of the host vehicle to the driver, and is provided in the travel lane of the host vehicle.
  • Based on the lane shape acquisition unit that acquires shape information and the shape information of the traveling lane behind the host vehicle an area located in a specific direction based on the host vehicle among the rear sides of the host vehicle is determined as the recommended viewing range
  • the driver can appropriately view the traveling lane and the adjacent lane behind the vehicle regardless of the shape of the traveling lane.
  • the rear side image control method is a rear side image control method for controlling a rear side image display device that displays a rear side image of the host vehicle to the driver, and includes: Shape information is acquired, and based on the shape information of the traveling lane behind the host vehicle, an area located in a specific direction with respect to the host vehicle among the rear sides of the host vehicle is defined as a recommended viewing range.
  • the rear side image display device is controlled so that the image is displayed to the driver. As a result, the driver can appropriately view the traveling lane and the adjacent lane behind the vehicle regardless of the shape of the traveling lane.
  • FIG. 1 is a configuration diagram of a rear side video display system of a first embodiment.
  • 7 is a flowchart showing an operation of the rear side video display system of the first embodiment.
  • FIG. 7 is a configuration diagram of a rear side video display system of a second embodiment. It is a figure which shows the position in the own vehicle of an electric mirror. It is a figure which illustrates a standard visual recognition range. It is a figure which shows the display screen of the back side image display apparatus which displays a reference
  • FIG. 10 It is a figure which shows the positional relationship of the reference visual recognition range at the time of an own vehicle driving
  • FIG. 17 is a diagram showing an electric mirror in a modification of the second embodiment.
  • FIG. 18 is a block diagram showing a configuration of a rear side video display system of a third embodiment.
  • FIG. 18 is a block diagram showing a configuration of a rear side video display system of a fourth embodiment. It is a figure which shows the trimming range of the picked-up image of a wide angle camera. It is a figure which shows the picked-up image of the wide angle camera at the time of the own vehicle drive
  • FIG. 18 is a block diagram showing a configuration of a rear side video control system of a fifth embodiment.
  • FIG. 21 is a block diagram showing a configuration of a rear side video display system of a sixth embodiment. It is a figure which shows the roundabout of a perfect circle shape.
  • FIG. 21 is a block diagram showing a configuration of a rear side video display system of a seventh embodiment.
  • FIG. 20 is a flowchart showing an operation of a rear side video display system of a seventh embodiment. It is a figure which shows a recommendation visual recognition range. It is a figure which shows the direction of a camera.
  • FIG. 21 is a block diagram showing a configuration of a rear side video display system of an eighth embodiment. It is a figure which shows the installation place of each camera in the own vehicle. It is a figure which shows a panoramic image. It is a figure which shows a panoramic image.
  • FIG. 20 is a block diagram showing a configuration of a rear side video control system of a ninth embodiment.
  • FIG. 20 is a flowchart showing an operation of a rear side video control system of a ninth embodiment. It is a figure which shows the direction of the recommendation visual recognition area
  • FIG. 1 is a block diagram showing a configuration of a rear side video display system according to a first embodiment.
  • the rear side video display system according to the first embodiment includes a rear side video control device 101 and a rear side video display device 21.
  • the rear side image display device 21 is mounted on the host vehicle, and displays a rear side image of the host vehicle to the driver of the host vehicle.
  • a vehicle on which the rear side image display device is mounted is referred to as "own vehicle”, and other vehicles are referred to as “other vehicles” to distinguish the two.
  • the rear side video control device 101 is a device that controls the display of the rear side video display device 21.
  • the rear side video control device 101 includes a lane shape acquisition unit 11, a visual recognition range setting unit 12, and a control unit 13.
  • the lane shape acquisition unit 11 acquires shape information of the traveling lane of the host vehicle.
  • the travel lane shape information includes one or both of the horizontal shape information and the vertical shape information of the travel lane.
  • the shape information in the horizontal direction of the traffic lane may be mathematically or any expression used for a map database.
  • the shape information in the horizontal direction of the traveling lane may be expressed using a two-dimensional point coordinate sequence set, a geometrical expression such as clothoid, or a curvature such as that of a circle.
  • the shape information in the vertical direction of the traveling lane may be, for example, information on a gradient, and a mathematical expression used for the shape information in the horizontal direction may be used.
  • the change in the vertical direction may be expressed using a curvature.
  • the shape of the traveling lane may be a three-dimensional shape, and may be represented by a three-dimensional point coordinate sequence set or a mathematical three-dimensional function. Further, the shape information of the traveling lane may be expressed differently in the horizontal direction and in the vertical direction. Also, the lane shape may be expressed including the lane width. Also, an expression may be used in which the shape of the traveling lane is a belt-like surface.
  • the visual recognition range setting unit 12 is positioned in a direction in which the traveling lane behind the subject vehicle or the other vehicle traveling in the adjacent lane can be viewed among the rear sides of the subject vehicle. To set the recommended viewing range.
  • the rear side of the host vehicle means the right rear and the left rear of the host vehicle.
  • the control unit 13 controls the rear side image display device 21 so that the image of the recommended viewing range determined by the viewing range setting unit 12 is displayed to the driver.
  • the rear side image display device 21 displays an image of a recommended viewable range to the driver. Thereby, the driver can visually recognize the image in the recommended visual recognition range.
  • FIG. 2 is a flowchart showing the operation of the rear side video display system according to the first embodiment.
  • the operation of the rear side image display system according to the first embodiment will be described with reference to FIG.
  • This flow starts, for example, when the accessory power supply of the host vehicle is turned on and continues until the accessory power supply of the host vehicle is turned off.
  • the lane shape acquisition unit 11 acquires shape information of a traveling lane (step S101).
  • the visual recognition range setting unit 12 sets a recommended visual recognition range (step S102).
  • the control unit 13 controls the rear side image display device 21 to display an image of the recommended viewable range on the driver (step S103), and the flow returns to step S101.
  • the rear side image control device 101 controls a rear side image display device 21 that displays a rear side image of the host vehicle to the driver.
  • the rear side image control device 101 acquires the host vehicle among the rear sides of the host vehicle based on the lane shape acquisition unit 11 that acquires the host lane shape information of the host vehicle and the host lane shape information of the host vehicle behind the host vehicle.
  • a visual recognition range setting unit 12 which defines an area positioned in a specific direction as a reference as a recommended visual recognition range, and a control unit 13 which controls the rear side image display device 21 so that a video of the recommended visual recognition range is displayed to the driver. And.
  • the rear side image control device 101 causes the rear side image display device 21 to display an image of the recommended visual recognition range determined based on the shape information of the travel lane of the host vehicle, the travel lane of the host vehicle is straight Regardless of the curve, it is possible to make the driver visually recognize the other vehicle traveling in the rear lane of the host vehicle or the adjacent lane thereof.
  • the rear side image control method is a rear side image control method for controlling a rear side image display device that displays a rear side image of the host vehicle to the driver, and the host vehicle is traveling
  • the lane shape information is acquired, and based on the shape information of the traveling lane behind the host vehicle, an area located in a specific direction relative to the host vehicle among the rear sides of the host vehicle is defined as a recommended viewing range and recommended viewing
  • the rear side image display device is controlled so that the image of the range is displayed to the driver.
  • the host vehicle since the image of the recommended visual recognition range determined based on the shape information of the traveling lane of the host vehicle is displayed on the rear side image display device 21, the host vehicle Regardless of whether the travel lane of the vehicle is a straight line or a curve, it is possible to make the driver visually recognize the other vehicle traveling on the travel lane behind the own vehicle or the adjacent lane thereof.
  • FIG. 3 is a block diagram showing a configuration of a rear side video display system according to a second embodiment.
  • the rear side video display system according to the second embodiment includes a rear side video control device 102, a rear side video display device 22, and a white line recognition device 31.
  • the same reference numerals as in the other embodiments denote the same or corresponding parts.
  • the rear side video control device 102 includes a lane shape acquisition unit 11, a visual recognition range setting unit 12, and a mirror control unit 13A.
  • the white line recognition device 31 takes a picture of the surroundings of the subject vehicle with a camera mounted on the subject vehicle, and recognizes the white line shape of the traveling lane or the adjacent lane of the subject vehicle by image recognition of the photographed image.
  • the white line recognition device 31 outputs the white line recognition result to the lane shape acquisition unit 11 as white line recognition information.
  • the lane shape acquisition unit 11 acquires the lane shape of the traveling lane of the host vehicle or the adjacent lane based on the white line recognition information acquired from the white line recognition device 31.
  • the visual recognition range setting unit 12 acquires the lane shape from the lane shape acquisition unit 11, and sets the recommended visual recognition range based on the shape of the traveling lane behind the host vehicle. Further, the visual recognition range setting unit 12 sets, as a reference visual recognition range, a region located in a specific direction based on the own vehicle among the rear sides of the own vehicle.
  • the mirror control unit 13A controls the mirror drive unit 211 of the rear side image display device 22 so that the image of the reference visual range or the recommended visual range is displayed to the driver.
  • the rear side image display device 22 includes a mirror drive unit 211 and electric mirrors 212L and 212R.
  • the electric mirror 212L is attached to the front of the left door of the host vehicle A, and displays an image of the rear left of the host vehicle A on a mirror surface for display to the driver.
  • the electric mirror 212R is attached to the front of the right door of the host vehicle A, and displays an image of the rear right of the host vehicle A on a mirror surface for display to the driver.
  • the directions of the electric mirrors 212L and 212R are determined by the mirror control unit 13A, and are adjusted by the mirror drive unit 211 under the control of the mirror control unit 13A.
  • the subscript L in the reference numerals of the motorized mirrors 212L and 212R represents the left, and R represents the right. The same is true for the other components whose L or R subscripts are attached to the reference numerals.
  • the motorized mirrors 212L and 212R are drawn large in FIG. 4 for convenience of explanation, they are actually the size of a normal motorized mirror.
  • FIG. 5 is a diagram illustrating a reference visual range.
  • the reference visual range is set to the right rear and the left rear of the host vehicle A, respectively.
  • a point 5 m right and 30 m behind the subject vehicle A is taken as a reference visual point P 0
  • the standard visual recognition range 50 R on the right rear of the subject vehicle A can be viewed from the subject vehicle A in a direction along the right side It is defined as the range between the direction to point P0.
  • the left rear reference visual recognition range 50L of the host vehicle A is a range symmetrical to the reference visual recognition range 50R with respect to the host vehicle A.
  • the position of the reference visual recognition range is relatively determined with reference to the host vehicle A, and is fixed regardless of the shape of the travel lane of the host vehicle A.
  • the reference visual range is not limited to that shown in FIG.
  • the reference visual range 50R and the reference visual range 50L may be asymmetric with respect to the host vehicle A.
  • a desirable visual range in a camera monitoring system is described, and this visual range is used as a standard visual You may adopt to the range.
  • FIG. 6 shows a display image of the electric mirror 212R directed to the reference visual direction.
  • the direction when the motorized mirror displays the reference visual range is referred to as the reference visual direction
  • the direction when the motorized mirror displays the recommended visual range is referred to as the recommended visual direction.
  • the electric mirrors 212L and 212R are provided with a housing 43 and a mirror surface 44.
  • the horizontal dimension of the mirror surface 44 is a, and the vertical dimension is b.
  • the right body side surface of the host vehicle A is displayed in the area a / 4 from the left end of the mirror surface 44, and an image of the reference visual range 50R is displayed in the remaining area.
  • a road such as a traveling lane or an adjacent lane is displayed in the area 2b / 3 from the lower end of the mirror surface 44, and the sky above the road is displayed in the remaining area.
  • the display on the motorized mirror 212R has been described here, the display on the motorized mirror 212L facing the reference visual direction is the same as this.
  • the display image of the motor-driven mirror 212R is shown in FIG. 6, this shows the image visually recognized when the motor-driven mirror 212R is viewed from the direction of the driver of the host vehicle A.
  • the display mode of the image of the reference visual range in the motorized mirror is not limited to that shown in FIG.
  • a road such as a traveling lane or an adjacent lane may be displayed in the area b / 3 from the lower end of the mirror surface 44, and the sky above the road may be displayed in the remaining area.
  • FIG. 7 shows the positional relationship between the reference visual recognition range 50L and the other vehicle B when the host vehicle A travels on a straight road.
  • the host vehicle A travels in the right lane of a straight two-lane road, and the other vehicle B travels in the left lane behind the host vehicle A.
  • the position of the other vehicle B is included in the reference visual range 50L. Therefore, as shown in FIG. 8, the other vehicle B is displayed on the electric mirror 212L.
  • FIG. 9 shows the positional relationship between the reference visual recognition range 50L and the other vehicle B when the host vehicle A travels on a curved road.
  • the traveling lane behind the host vehicle A is a curve
  • the position of the other vehicle B deviates from the reference visual range 50L. Therefore, when the direction of the motorized mirror 212L is fixed in the reference visual direction, the other vehicle B is not displayed on the motorized mirror 212L as shown in FIG. Therefore, in order for the driver to always visually recognize the other vehicle B, it is necessary to change the direction of the electric mirror 212L according to the shape of the traveling lane behind the host vehicle A.
  • an area positioned in a direction behind a part of the host vehicle A is set as a recommended viewing range, and an image of the recommended viewing range Is displayed on the rear side image display device 21 to solve the above problem.
  • FIG. 11 is a diagram comparing the traveling locus of the host vehicle A with the shape of the traveling lane.
  • the traveling locus of the host vehicle A can be detected using various sensors such as an acceleration sensor and a vehicle speed sensor mounted on the host vehicle A, for example. Then, it is also possible to estimate the traveling locus of the host vehicle A as the shape of the traveling lane. However, since the traveling locus of the host vehicle A depends on the surrounding conditions, the traveling characteristics of the driver, the mental state, etc., it does not necessarily follow the shape of the traveling lane as shown in FIG.
  • the traveling locus of the host vehicle A may be an out-in-out locus c1 or an in-out-in locus c2. Therefore, the lane shape acquiring unit 11 according to the present embodiment accurately detects the shape of the traveling lane by detecting or acquiring the shape of the traveling lane directly from the traveling locus of the host vehicle A, instead of estimating the shape. Do.
  • the visual recognition range setting unit 12 sets a point separated from the head position Q0 of the host vehicle A by 30 m which is the first distance rearward along the traveling lane as a first recommended visual recognition point Q1.
  • the visual recognition range setting unit 12 can set the first recommended visual recognition point Q1 using, for example, curvature information which is an example of shape information of a traveling lane.
  • the visual recognition range setting unit 12 is separated from the first recommended visual recognition point Q1 by 5 m which is the second distance to the left with respect to the normal direction of the traveling lane, that is, the traveling direction of the traveling lane at the first recommended visual recognition point Q1. This point is taken as the second recommended viewing point Q2.
  • the visual recognition range setting part 12 sets the range containing the head position Q0, the 1st recommendation visual recognition point Q1, and the 2nd recommendation visual recognition point Q2 to the recommendation visual recognition range 52L of the left back of the own vehicle A.
  • FIG. 13 the other vehicle B is displayed on the electric mirror 212 ⁇ / b> L.
  • the setting method of the recommendation visual recognition range 52L of the left rear of the own vehicle A the setting method of the recommendation visual recognition range 52R of the rear right is the same as this. According to this setting method, when the traveling lane of the host vehicle A is a straight line, the reference visual range and the recommended visual range become the same range.
  • the second recommended visual recognition point Q2 is not limited to a point away from the first recommended visual recognition point Q1 in the normal direction of the traveling lane, but in the outer direction of the traveling direction of the vehicle A with respect to the line Q0-Q1. If it does, it does not have to be exactly in the normal direction.
  • the angle between the line Q0-Q1 and the line Q2-Q1 may be a right angle.
  • the second recommended visual recognition point Q2 may be determined such that the view angle is ⁇ based on the line Q0-Q1.
  • the recommended visual recognition range may be set on the basis of the other position of the own vehicle A.
  • the recommended viewing range 52L may be set based on the position of the motorized mirror 212L
  • the recommended viewing range 52R may be set based on the position of the motorized mirror 212R.
  • FIG. 14 is a flowchart showing the operation of the rear side video display system of the second embodiment.
  • the operation of the rear side video display system according to the second embodiment will be described below with reference to FIG. This flow starts, for example, at the timing when the accessory power supply of the host vehicle A is turned on, and continues until the accessory power supply of the host vehicle A is turned off.
  • the direction of the motorized mirrors 212L and 212R is set to the reference visual direction so that the mirror drive unit 211 receives control of the mirror control unit 13A and the motorized mirrors 212L and 212R display the images of the reference visual ranges 50L and 50R to the driver. (Step S201).
  • the lane shape acquisition unit 11 acquires white line recognition information from the white line recognition device 31, and recognizes the shape of the traveling lane of the host vehicle A based on the white line recognition information (step S202).
  • the visual recognition range setting unit 12 acquires the shape information of the traveling lane behind the host vehicle A from the lane shape acquisition unit 11, and sets the recommended visual recognition range based on this (step S203).
  • the setting method of the recommended visual recognition range is as described in FIG.
  • step S204 the direction of the motorized mirrors 212L and 212R is recommended to be recognized so that the mirror drive unit 211 receives control of the mirror control unit 13A, and the motorized mirrors 212L and 212R display the images of the recommended viewable ranges 52L and 52R to the driver. Adjust in the direction (step S204). Thereafter, the flow returns to step S202.
  • FIG. 15 shows an example of adjusting the direction of the electric mirror 212L.
  • an angle formed by a mirror surface which is a display surface of the electric mirror 212L and a direction along the left side surface of the vehicle A is referred to as a mirror angle.
  • the motorized mirror 212L displays an image of the reference visual range to the driver, that is, the mirror angle when facing the reference visual direction is 90 °.
  • the mirror driver 211 controls the motorized mirror 212L. Adjust the mirror angle to 90 ° + ⁇ / 2.
  • the image of the recommended viewing range is viewed by the driver through the electric mirror 212L.
  • FIG. 15 shows an example of adjusting the direction of the electric mirror 212L, the same applies to adjusting the direction of the electric mirror 212R.
  • the visual recognition range setting unit 12 sets the recommended visual recognition range based on the shape of the traveling lane in the horizontal direction.
  • the visual recognition range setting unit 12 may set the recommended visual recognition range based on the vertical shape of the lane, that is, the slope, or set the recommended visual recognition range based on both the horizontal shape and the vertical shape. It is good.
  • a method of setting the recommended visual recognition range based on the slope of the traveling lane will be described.
  • the gradient of the traveling lane can be acquired from the white line recognition information of the white line recognition device 31 acquired by the lane shape acquisition unit 11.
  • a traveling lane is a straight line for simplification of explanation.
  • the visual recognition range setting unit 12 is a first recommended visual recognition point Q1 separated by 30 m rearward along the traveling lane from the head position of the host vehicle A, and to the right with respect to the traveling direction of the traveling lane from the first recommended visual recognition point Q1.
  • the visual recognition range setting unit 12 moves the recommended visual recognition ranges 52L and 52R in the vertical direction according to the gradient of the traveling lane of the host vehicle A, thereby selecting the appropriate recommended visual recognition range according to the gradient of the traveling lane It can be set.
  • the recommended viewing range may be determined in consideration of both the horizontal shape and the slope of the lane. As a result, it is possible to make the driver visually recognize an image of an appropriate recommended visual recognition range according to a road shape such as an interchange, an entrance of a freeway, a junction, etc. where the three-dimensional shape changes rapidly.
  • the motorized mirror may have two mirror surfaces which can independently adjust the mirror angle.
  • FIG. 18 shows a motorized mirror 213L in this modification.
  • the motorized mirror 213 L has a first mirror surface 441 and a second mirror surface 442.
  • An image of the recommended visual range is displayed on the first mirror surface 441, and an image of the reference visual range is displayed on the second mirror surface 442.
  • the driver can simultaneously view the video of the recommended viewing range and the video of the reference viewing range.
  • the traveling lane shape information includes the traveling lane curvature information. Therefore, according to the rear side image control device 102, since the recommended visual recognition range is determined based on the curvature of the traveling lane, it is possible to make the driver visually recognize an appropriate recommended visual recognition range according to the curvature of the traveling lane.
  • the traveling lane shape information includes traveling lane gradient information. Therefore, according to the rear side image control device 102, since the recommended visual recognition range is determined based on the slope of the traveling lane, it is possible to make the driver visually recognize an appropriate recommended visual recognition range according to the slope of the traveling lane.
  • the recommended visual recognition range is separated from the first recommended visual recognition point by a first distance along the traveling lane from the host vehicle and a second distance in the normal direction of the own vehicle from the first recommended visual recognition point And a second recommended viewing point. Therefore, according to the rear side image control device 102, the driver can visually recognize other vehicles traveling behind the host vehicle.
  • the rear side video display device 22 includes the electric mirrors 212L and 212R of the host vehicle A, and the mirror control unit 13A of the rear side video display device 22 controls the directions of the electric mirrors 212L and 212R. . Therefore, according to the rear side image display device 22, the driver can be made to visually recognize the recommended visual recognition range through the electric mirrors 212L and 212R.
  • the lane shape obtaining unit 11 obtains the shape information of the traveling lane based on the recognition result of the white line recognition device 31 that recognizes the white line of the traveling lane. Therefore, according to the rear side image display device 22 of the second embodiment, it is possible to determine the recommended viewing range after accurately grasping the lane shape.
  • the visible range setting unit 12 sets an area located in a specific direction based on the own vehicle A on the rear side of the own vehicle A regardless of the shape information of the traveling lane behind the own vehicle A as a reference visible range 50L, Determined as 50R.
  • the mirror control unit 13A is a mirror of the rear side video display device 22 so that the video of the recommended visual range and the video of the reference visual range are displayed to the driver.
  • the drive unit 211 is controlled. Therefore, the driver can simultaneously view the image of the recommended viewing range and the image of the reference viewing range through the mirror.
  • FIG. 19 is a block diagram showing a configuration of a rear side video display system according to a third embodiment.
  • the rear side image display system according to the third embodiment is the rear side image display system according to the second embodiment, which uses an electronic mirror as a rear side image display device instead of the motorized mirror.
  • the rear side video display system includes a rear side video control device 103, a rear side video display device 23, and a white line recognition device 31.
  • the rear side video control device 103 includes a camera control unit 13B in place of the mirror control unit 13A in the configuration of the rear side video control device 102 according to the second embodiment.
  • the camera control unit 13B controls the camera drive unit 231 such that the cameras 232L and 232R capture the recommended viewing range.
  • the direction in which the cameras 232L and 232R capture the recommended viewing range is referred to as a recommended viewing direction
  • the direction in which the cameras 232L and 232R capture a reference viewing range is referred to as a reference viewing direction.
  • the rear side image display device 23 includes a camera drive unit 231, cameras 232L and 232R, and monitors 233L and 233R.
  • the camera 232L is attached, for example, in front of the left door of the host vehicle A, and captures an image of the left rear side of the host vehicle A.
  • the camera 232R is attached, for example, in front of the right door of the host vehicle A, and captures an image of the rear right side of the host vehicle A.
  • the camera drive unit 231 adjusts the shooting direction of the cameras 232L and 232R to the recommended viewing direction according to the control of the camera control unit 13B.
  • the image captured by the camera 232L is displayed on the monitor 233L, and the image captured by the camera 232R is displayed on the monitor 233R.
  • the monitors 233L and 233R are respectively mounted on the host vehicle A and are visually recognized by the driver. Therefore, the driver can view the video of the recommended viewing range through the monitors 233L and 233R.
  • the rear side image display device 23 is mounted on the host vehicle A that displays captured images of the cameras 232L and 233R, which are imaging devices that capture the rear side of the host vehicle A, and cameras 232L and 233R. And the monitors 233L and 233R. Therefore, the driver can view the video of the recommended viewing range through the monitors 233L and 233R.
  • the camera control unit 13B controls the shooting direction of the cameras 232L and 232R. Therefore, the driver can view the recommended viewing range through the monitors 233L and 233R.
  • the video of the recommended viewing range is displayed on the monitors 233L and 233R.
  • a wide-angle camera is used to capture a wider range than that including the recommended viewing range, and then the captured image of the wide-angle camera is trimmed in accordance with the recommended viewing range. Is displayed on the monitors 233L and 233R.
  • FIG. 20 is a block diagram showing a configuration of a rear side video display system according to a fourth embodiment.
  • the rear side video display system according to the fourth embodiment includes a rear side video control device 104, a rear side video display device 24, and a white line recognition device 31.
  • the rear side video control device 104 includes a trimming control unit 13C in place of the camera control unit 13B in the configuration of the rear side video control device 103 according to the third embodiment.
  • the trimming control unit 13 ⁇ / b> C controls the trimming of the images captured by the wide-angle cameras 242 L and 242 R by the trimming unit 241.
  • the rear side image display device 24 includes wide-angle cameras 242L and 242R, a trimming unit 241, and monitors 233L and 233R.
  • the wide-angle camera 242L is attached, for example, in front of the left door of the host vehicle A, and images the left rear side of the host vehicle A.
  • the wide-angle camera 242R is attached, for example, in front of the right door of the host vehicle A, and images the right rear side of the host vehicle A.
  • the trimming unit 241 trims the images captured by the wide-angle cameras 242L and 242R. As shown in FIG. 21, a partial range of the photographed image 53 of the wide angle cameras 242L and 242R is a trimming range 54. An image obtained by trimming the captured image of the wide-angle camera 242L is displayed on the monitor 233L, and an image obtained by trimming the captured image of the wide-angle camera 242R is displayed on the monitor 233R.
  • FIG. 22 shows the relationship between the photographed image 53L of the wide-angle camera 242L and the trimming range when the host vehicle A travels on a straight lane.
  • the shooting direction of the shot image is attached below the shot image 53L in FIG.
  • the angle of view of the wide-angle camera 242L is 20 °
  • the shooting direction of the right end of the captured image 53L is 0 °
  • the shooting direction of the left end is 20 °.
  • the trimming unit 241 sets a range corresponding to the reference visual range in the photographed image 53L as the trimming range 54L.
  • the trimming range 54L is a range in which the shooting direction of the shot image 53L is 0 ° to 10 °. Therefore, as shown in FIG. 23, the video of the reference visual recognition range including the other vehicle B is displayed on the monitor 233L.
  • FIG. 24 shows the relationship between the photographed image 53L of the wide-angle camera 242L and the trimming range when the host vehicle A travels on a curved lane.
  • the trimming unit 241 sets a range corresponding to the recommended viewing range in the photographed image 53L as the trimming range 54L.
  • the trimming range 54L is a range in which the shooting direction of the shot image 53L is 8 ° to 18 °. Therefore, as shown in FIG. 25, an image of the recommended viewing direction including the other vehicle B is displayed on the monitor 233L.
  • both the video of the recommended visual range and the video of the reference visual range may be trimmed as shown in FIG.
  • the trimming unit 241 trims the range 54L1 of the photographed direction from 0 ° to 6 ° in the photographed image 53L as a video of the reference visual range, and the range 54L2 of the photographing direction from 12 ° to 16 ° is the recommended visual range Trim as a picture.
  • the total angle of view of the two images thus trimmed is 10 °, which is equal to the display range of the monitor 233L. Therefore, as shown in FIG. 27, without changing the screen size of the monitor 233L, it is possible to display the video of the recommended viewing range and the video of the reference viewing range side by side on the monitor 233L.
  • a tilt image 55 representing the shooting direction of the shot image 53L in the video 54L2 may be added to the video 54L2 in the recommended viewing range.
  • the driver can easily recognize the difference between the image of the recommended viewing range and the image of the reference viewing range.
  • the shape of the trimming range may not be rectangular, and may be, for example, trapezoidal as shown in FIG. That is, the trimming unit 241 trims the video of the recommended visible range in a trapezoidal shape. At this time, if the trapezoid angle ⁇ is adjusted according to the curvature of the traveling lane in the recommended viewing range, an appropriate recommended viewing range corresponding to the shape of the lane is displayed on the monitors 233L and 233R.
  • the shape of the trimming range is not limited to a quadrangular trapezoid, but a shape similar to a trapezoid may be formed by using a curve or a plurality of line segments in part of the trimming range.
  • the left side of the trimming range 54L1 may have a convex curve shape
  • the right side of the trimming range 54L2 may have a concave curve shape.
  • the rear side image display device 24 includes a trimming unit 241 that trims an image captured by the wide-angle cameras 242L and 242R, which are imaging devices, and the monitors 233L and 233R select the images trimmed by the trimming unit 241. indicate.
  • the trimming control unit 13C of the rear side video control device 104 controls the trimming range of the trimming unit 241. By adjusting the trimming range in accordance with the recommended viewing range, the driver can view the recommended viewing range through the monitors 233L and 233R.
  • the rear side video control devices 103 and 104 acquire the lane shape using the white line recognition device 31.
  • the lane shape acquisition unit 11 in the rear side image control devices 103 and 104 may acquire left and right camera images, recognize a white line by performing image recognition, and acquire a lane shape. According to such a configuration, since the white line recognition device 31 can be omitted, the cost can be reduced.
  • the rear side video display device 24 performs the trimming, but the rear side video control device 104 may perform the trimming.
  • the trimming unit 241 is provided not in the rear side video control device 24 but in the rear side video control device 104.
  • the angle of view of the wide angle camera 242L is described as 20 ° in the above, the angle of view of the wide angle cameras 242L and 242R is not limited thereto. Various angles of view are used according to the specifications of the wide-angle cameras 242L, 242R.
  • an image serving as a basis of trimming in the trimming unit 241 is a composite image of photographed images of a plurality of cameras having different photographing directions.
  • FIG. 30 is a block diagram showing a configuration of a rear side video control system according to the fifth embodiment.
  • the rear side video control system of the fifth embodiment includes a rear side video control device 105, a rear side video display device 25, and a white line recognition device 31.
  • the same reference numerals as in the other embodiments denote the same or corresponding parts.
  • the rear side video control device 105 is the same as the rear side video control device 104 of the fourth embodiment.
  • the rear side image display device 25 includes cameras 242L1 and 242L2 instead of the wide-angle camera 242L, and includes cameras 242R1 and 242R2 instead of the wide-angle camera 242R.
  • FIG. 31 shows the installation places of the cameras 242L1, 242L2, 242R1, 242R2 in the host vehicle A.
  • the cameras 242L1 and 242L2 are installed on the left front of the host vehicle A. Assuming that the direction of the left side surface of the host vehicle A is 0 °, the camera 242L1 captures a direction of 0 ° to 15 °. The camera 242L2 similarly captures a direction of 15 ° to 30 °.
  • the cameras 242R1 and 242R2 are installed on the right front of the host vehicle A. Assuming that the direction of the left side surface of the host vehicle A is 0 °, the camera 242R1 captures a direction of 0 ° to 15 °. The camera 242L2 similarly captures a direction of 15 ° to 30 °.
  • FIG. 32 and 33 show a composite image by the composition unit 251.
  • FIG. FIG. 32 shows a composite image when the host vehicle A travels in a straight lane
  • FIG. 33 shows a composite image when the host vehicle A travels in a curved lane.
  • the combining unit 251 combines the two images so that the captured image 53L2 of the camera 242L2 is positioned on the left and the captured image 53L1 of the camera 242L1 is positioned on the right according to the actual capturing direction. In these figures, the shooting direction of the camera is added below the composite image.
  • FIGS. 32 and 33 show composite images of captured images of the camera 242L1 and the camera 242L2, captured images of the camera 242R1 and the camera 242R2 are similarly combined.
  • the trimming unit 241 trims a region representing a recommended visible range from the composite image created by the combining unit 251. That is, the trimming unit 241 performs trimming on the combined image of the captured images of the camera 242L1 and the camera 242L2, and performs trimming on the combined image of the captured images of the camera 242R1 and the camera 242R2.
  • the monitor 233L displays a trimmed image of a composite image of images captured by the camera 242L1 and the camera 242L2.
  • the monitor 233R displays a trimmed image of a composite image of images captured by the camera 242R1 and the camera 242R2.
  • the photographing device of the rear side video display device 25 is a plurality of cameras with different photographing directions, that is, cameras 242L1, 242L2, 242R1, 242R2.
  • the rear side image display device 25 includes a combining unit 251 that combines the captured images of the cameras 242L1, 242L2, 242R1, and 242R2.
  • the trimming unit 241 trims the combined image of the combining unit 251. According to the configuration of the fifth embodiment, it is possible to make the driver visually recognize the recommended viewing range which changes according to the shape of the lane, even without the camera drive unit for adjusting the shooting direction of the cameras 242L1, 242L2, 242R1, 242R2. . In addition, trimming can be performed according to the recommended viewing range without using a wide-angle camera, and the driver can view the recommended viewing range through the monitors 233L and 233R.
  • FIG. 34 is a block diagram showing a configuration of a rear side video display system of a sixth embodiment.
  • the rear side image display system according to the sixth embodiment includes a rear side image control device 106, a rear side image display device 26, a map data storage unit 32, and a vehicle position detection device 33.
  • the rear side video control device 106 has the same configuration as the rear side video control device 103 of the third embodiment, and the rear side video display device 26 is the same as the rear side video display device 23 of the third embodiment. It is a structure.
  • the sixth embodiment is different from the third embodiment in the method of acquiring the lane shape of the traveling lane of the own vehicle by the lane shape acquisition unit 11 and is the same as the third embodiment except the above.
  • the map data storage unit 32 stores map data. Map data includes shape information of each lane of the road.
  • the vehicle position detection device 33 includes a satellite measurement system (Navigation Satellite System: NSS) such as a Global Positioning System (GPS) or a Quasi-Zenith Satellite System (QZSS), and a vehicle A.
  • NSS Satellite Measurement Satellite System
  • GPS Global Positioning System
  • QZSS Quasi-Zenith Satellite System
  • vehicle A The absolute position of the host vehicle A is detected using a vehicle sensor such as a vehicle speed sensor or an acceleration sensor mounted.
  • the lane shape acquisition unit 11 acquires the absolute position of the host vehicle A from the vehicle position detection device 33. Then, the lane shape acquisition unit 11 refers to the map data of the map data storage unit 32 based on the absolute position of the host vehicle A, and acquires the lane shape of the traveling lane of the host vehicle A.
  • the shape of the lane is represented by a series of coordinates of nodes at both ends of the lane link and a shape complementary point in the lane link.
  • the lane shape may be expressed in any manner as long as it is an expression indicating the road shape in the map database.
  • the lane links may be divided into sublinks for each lane section having the same curvature continuously, and the shape of the lane may be represented by a set of sublinks. Coordinates, curvature, and length information are given to each sublink.
  • the camera drive unit 231 since the curvatures are equal in one lane sub link, the camera drive unit 231 does not need to change the directions of the cameras 232L and 232R. Therefore, the processing in the camera control unit 13B and the camera drive unit 231 can be reduced.
  • the curvatures are always equal in the roundabout round shape shown in FIG. 35
  • the lane shape is represented by one lane sublink. Therefore, while traveling on the roundabout, the directions of the cameras 232L and 232R can always be set constant. That is, processing in the camera control unit 13B and the camera drive unit 231 can be reduced.
  • the map data storage unit 32 is stored, for example, in a data server external to the rear side video control device 106. Alternatively, the map data storage unit 32 may be included in the rear side image control device 106.
  • the lane shape acquisition unit 11 acquires the traveling lane shape information by referring to the map data based on the position information of the host vehicle. Therefore, it is possible to accurately acquire the shape information of the traveling lane. Therefore, the rear side image control device 106 can determine the recommended viewing range with high accuracy.
  • a region including another vehicle traveling in a lane adjacent to the traveling lane of the host vehicle A is set as a recommended visual recognition range.
  • FIG. 36 is a block diagram showing a configuration of a rear side video display system of a seventh embodiment.
  • the rear side video display system according to the seventh embodiment includes a rear side video control device 107, a rear side video display device 27, a white line recognition device 31, and a peripheral moving object detection device 34.
  • the same reference numerals as in the other embodiments denote the same or corresponding parts.
  • the rear side video control device 107 has the same configuration as the rear side video control device 103 of the third embodiment, and the rear side video display device 27 is the same as the rear side video display device 23 of the third embodiment. It is a structure. That is, the rear side image display system of the seventh embodiment is configured to include the peripheral moving body detection device 34 in the rear side image display system of the third embodiment.
  • the peripheral moving body detection device 34 is constituted by a laser radar, a millimeter wave radar, an image processing sensor, an ultrasonic sensor, or other sensors, and the presence or absence of a moving body around the host vehicle A Detect relative position relative to or change in relative position.
  • the information detected by the peripheral moving body detection device 34 is output to the visual recognition range setting unit 12 as peripheral moving body detection information.
  • the visual recognition range setting unit 12 sets a recommended visual recognition range based on the peripheral moving body detection information.
  • FIG. 37 is a flow chart showing the operation of the rear side video display system of the seventh embodiment.
  • the operation of the rear side video display system of the seventh embodiment will be described below with reference to FIG. This flow starts, for example, at the timing when the accessory power supply of the host vehicle A is turned on, and is repeatedly performed at a timing such as a fixed cycle while the host vehicle A is traveling.
  • the camera drive unit 231 aligns the shooting directions of the cameras 232L and 232R with the reference viewing direction (step S301).
  • the lane shape acquisition unit 11 acquires white line recognition information from the white line recognition device 31, and recognizes the shape of the traveling lane of the host vehicle A based on the white line recognition information (step S302).
  • the visual recognition range setting unit 12 acquires peripheral moving body detection information from the peripheral moving body detection device 34 (step S303).
  • the visual recognition range setting unit 12 is, based on the surrounding moving body detection information, another moving body (hereinafter, referred to as “peripheral moving body”) that travels in the adjacent lane of the traveling lane of the own vehicle behind the own vehicle. It is determined whether or not there is (step S304).
  • the visual recognition range setting unit 12 sets a recommended visual recognition range according to the shape of the traveling lane (step S305).
  • the setting method of this recommended visual recognition range is as having demonstrated in FIG.
  • the visual recognition range setting unit 12 sets a recommended visual recognition range in an area including the peripheral moving body (step S306).
  • the visual recognition range setting unit 12 may set the recommended visual recognition range in a region including the peripheral moving bodies closest to the host vehicle A.
  • step S307 under the control of the camera control unit 13B, the camera drive unit 231 aligns the shooting directions of the cameras 232L and 232R with the recommended viewing directions (step S307). Thereafter, the flow returns to step S302.
  • FIG. 38 shows a recommended viewing range according to the present embodiment.
  • the vehicle A travels in the right lane
  • the other vehicle B travels in the left lane behind the vehicle A.
  • the recommended viewable range 52L at the left rear of the host vehicle A is set to an area including the other vehicle B.
  • An angle between a straight line connecting the vehicle A and the other vehicle B and a direction along the side surface of the left body of the vehicle A is defined as ⁇ .
  • the camera 232L is adjusted to face in a direction away from the direction along the left body side surface of the host vehicle A by an angle ⁇ .
  • the camera 232L can capture the recommended viewing range 52L shown in FIG.
  • an image of the recommended viewing range 52L is displayed on the monitor 233L, and the driver can view the other vehicle B through the monitor 233L.
  • the visual recognition range setting unit 12 in the rear side video control device 107 determines the presence or absence of another vehicle B which is a moving object traveling a lane adjacent to the traveling lane of the own vehicle A behind the own vehicle A.
  • another vehicle B is a moving object traveling a lane adjacent to the traveling lane of the own vehicle A behind the own vehicle A.
  • an area including the other vehicle B is defined as a recommended viewing range. Therefore, the driver can view the other vehicle B through the monitors 233L and 233R.
  • FIG. 41 is a block diagram showing a configuration of a rear side video display system according to an eighth embodiment.
  • the rear side image display system according to the eighth embodiment includes a rear side image control device 108, a rear side image display device 28, and a white line recognition device 31.
  • the rear side video control device 108 is the same as the rear side video control device 104 of the fourth embodiment.
  • the rear side image display device 28 includes wide-angle cameras 281R and 281L and a rear camera 281B as imaging devices. Furthermore, the rear side image display device 28 includes a combining unit 251, a trimming unit 241, and monitors 233L and 233R.
  • FIG. 42 is a diagram showing the installation locations of the cameras in the host vehicle A.
  • the wide-angle camera 281L is installed on the left front of the host vehicle A, and captures an image of the range of the angle ⁇ l from the left side surface of the host vehicle A.
  • the wide-angle camera 281R is installed on the right front of the host vehicle A, and captures a range of the angle ⁇ r from the right side surface of the host vehicle A.
  • the combining unit 251 combines the captured image 57L of the wide-angle camera 281L, the captured image 57B of the rear camera 281B, and the captured image 57R of the wide-angle camera 281R to create a panoramic image.
  • FIG. 43 shows a panoramic image. In the panoramic image, the captured image 57L is disposed at the left, the captured image 57B is at the center, and the captured image 57R is disposed to the right.
  • the trimming unit 241 adjusts the trimming range 54 of the panoramic image in accordance with the shape of the traveling lane behind the host vehicle A.
  • the dimensions of the trimming range are adjusted to the dimensions of the display screen of the monitor 233L, 233R. Specifically, when the host vehicle A is traveling in a straight lane, trimming is performed so that the photographed images 57L and 57R are evenly included. Further, when the host vehicle A travels in a lane that curves to the right, the trimming unit 241 moves the trimming range 54 in the right direction so that the photographed image 57R is trimmed more than the photographed image 57L.
  • the trimming unit 241 moves the trimming range 54 in the left direction so that the photographed image 57L is trimmed more than the photographed image 57R. As described above, the trimming unit 241 performs trimming of the panoramic image in accordance with the recommended viewing range according to the shape of the traveling lane.
  • the trimming range 54 When the recommended visual recognition range is determined in consideration of only the horizontal shape of the traveling lane, for example, the curvature, the trimming range 54 only moves in the lateral direction with respect to the panoramic image as shown in FIG. However, when the recommended viewing range is determined in consideration of the gradient of the traveling lane, as shown in FIG. 44, the trimming unit 241 moves the trimming frame not only horizontally but also vertically with respect to the panoramic image. Perform trimming according to the recommended visual range.
  • the imaging device of the rear side image display device 28 is a plurality of cameras with different imaging directions, that is, wide-angle cameras 281L and 281R and a rear camera 281B.
  • the rear side image display device 28 includes a combining unit 251 that combines the images captured by the wide-angle cameras 281L and 281R and the rear camera 281B.
  • the trimming unit 241 trims the image combined by the combining unit 251. Therefore, the driver can be made to visually recognize the appropriate recommended visual recognition range along the shape of the traveling lane.
  • FIG. 45 is a block diagram showing a configuration of a rear side video control system according to a ninth embodiment.
  • the rear side image control system according to the ninth embodiment includes a rear side image control device 109, a rear side image display device 29, a map data storage unit 32, a vehicle position detection device 33, and a vehicle turning angle detection device 35. There is.
  • the configurations of the rear side video control device 109 and the rear side video display device 29 are the same as those of the rear side video control device 102 and the rear side video display device 22 of the second embodiment.
  • the rear side video control device 109 is connected to the map data storage unit 32, the vehicle position detection device 33, and the vehicle turning angle detection device 35, and these are configured to be usable.
  • the vehicle turning angle detection device 35 detects a turning angle while the host vehicle is turning right and left, and outputs the detected turning angle to the visual recognition range setting unit 12.
  • FIG. 46 is a flowchart showing the operation of the rear side video control system of the ninth embodiment. The operation of the rear side video control system of the ninth embodiment will be described below with reference to FIG.
  • the mirror drive unit 211 is controlled by the mirror control unit 13A, and the directions of the electric mirrors 212L and 212R are adjusted to the reference visual direction so that the electric mirrors 212L and 212R display the reference visual ranges 50L and 50R to the driver. (Step S401).
  • the lane shape acquisition unit 11 acquires position information of the host vehicle from the vehicle position detection device 33 (step S402).
  • the lane shape acquisition unit 11 accesses the map data storage unit 32 based on the position information of the own vehicle acquired in step S402, refers to the map data, and acquires the lane shape in the vicinity of the own vehicle (step S403).
  • the vicinity of the host vehicle is, for example, a range of 5 m around the host vehicle.
  • the visual recognition range setting unit 12 acquires the lane shape in the vicinity of the host vehicle and the position information of the host vehicle from the lane shape acquisition unit 11, and determines whether the host vehicle is turning right or left at the intersection based on these. (Step S404).
  • the visual recognition range setting unit 12 determines whether the host vehicle is entering the intersection from the right turn lane or the left turn lane based on the position information of the host vehicle, or based on the turning angle of the host vehicle acquired from the vehicle turning angle detection device 35. Then, it is determined whether or not the vehicle is changing its course.
  • the visual recognition range setting unit 12 sets a recommended visual recognition area on the entry lane to the intersection (step S405).
  • the recommended visual recognition area is an area where an absolute position on the approach lane is determined, unlike the recommended visual recognition area.
  • the visual recognition range setting unit 12 sets an area including the recommended visual recognition area as a recommended visual recognition area (step S406). Specifically, the visual recognition range setting unit 12 acquires the turning angle at the intersection of the own vehicle from the vehicle turning angle detection device 35, and calculates the angle between the own vehicle and the recommended visual recognition area from the turning angle of the own vehicle. And the visual recognition range setting part 12 sets a recommendation visual recognition range based on the angle of the own vehicle and a recommendation visual recognition area
  • the viewing range setting unit 12 sets a recommended viewing range based on the shape of the rear lane of the host vehicle (step S407).
  • the setting method of the recommended visual recognition range here is as having demonstrated in FIG.
  • the mirror drive unit 211 aligns the directions of the electric mirrors 212L and 212R with the recommended visual recognition direction according to the control of the mirror control unit 13A (step S408).
  • FIG. 47 shows a recommended viewing area 58 when the vehicle A turns left at the intersection and a recommended viewing range of the electric mirror 212L.
  • the direction of the motorized mirror 212L is always adjusted in the recommended viewing direction, so the driver can always view the recommended viewing area 58. Since the recommended visual recognition area 58 is set at the left end of the entry lane to the intersection, the driver can confirm whether or not the vehicle such as a motorcycle going straight from behind is caught when the host vehicle A turns left.
  • the visual recognition range setting unit 12 determines the shape information of the entry lane on which the vehicle travels when entering the intersection.
  • the recommended visual recognition area is set on the approach lane based on the above, and the recommended visual recognition area is set based on the angle of the host vehicle and the recommended visual recognition area and the position of the host vehicle. Therefore, when the driver turns his / her right or left, the driver can confirm whether or not another vehicle is caught.
  • the lane shape acquisition unit 11, the visual range setting unit 12, the control unit 13, the mirror control unit 13A, the camera control unit 13B and the trimming control unit 13C in the above-described rear side video control device 101-109 are the processing circuits shown in FIG. It is realized by 81. That is, the processing circuit 81 calls the lane shape acquisition unit 11, the visual range setting unit 12, the control unit 13, the mirror control unit 13A, the camera control unit 13B, and the trimming control unit 13C (hereinafter referred to as "lane shape acquisition unit 11 etc.” ).
  • Dedicated hardware may be applied to the processing circuit 81, or a processor that executes a program stored in a memory may be applied.
  • the processor is, for example, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor) or the like.
  • the processing circuit 81 may be, for example, a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), an FPGA (field-programmable) Gate Array) or a combination thereof is applicable.
  • ASIC application specific integrated circuit
  • FPGA field-programmable Gate Array
  • the processing circuit 81 When the processing circuit 81 is a processor, the functions of the lane shape acquisition unit 11 and the like are realized by a combination of software or the like (software, firmware or software and firmware). Software and the like are described as a program and stored in a memory. As shown in FIG. 49, the processor 82 applied to the processing circuit 81 reads out and executes the program stored in the memory 83 to realize the function of each part. That is, when executed by the processing circuit 81, the rear side image control device 101-109 obtains the shape information of the traveling lane of the own vehicle, and the self side vehicle based on the shape information of the traveling lane behind the own vehicle.
  • a memory 83 is provided for storing the program that is to be executed and the step of controlling. In other words, it can be said that this program causes the computer to execute the procedure and method of the lane shape acquisition unit 11 and the like.
  • the memory 83 is, for example, non-volatile, such as random access memory (RAM), read only memory (ROM), flash memory, erasable programmable read only memory (EPROM), electrically erasable programmable read only memory (EEPROM), etc. Or volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk) and its drive device etc., or any storage medium used in the future It may be.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable read only memory
  • EEPROM electrically erasable programmable read only memory
  • achieved by either hardware, software, etc. was demonstrated.
  • the present invention is not limited to this, and a part of the lane shape acquisition unit 11 or the like may be realized by dedicated hardware, and another part may be realized by software or the like.
  • the function of the visual recognition range setting unit 12 is realized by a processing circuit as dedicated hardware, and the processing circuit 81 as the processor 82 reads and executes the program stored in the memory 83 for other than that. It is possible to realize that function.
  • the processing circuit can implement each of the functions described above by hardware, software, etc., or a combination thereof.
  • the rear side image control device 101-109 is an in-vehicle device, a PND (Portable Navigation Device), a communication terminal (for example, a portable terminal such as a mobile phone, a smart phone, and a tablet) and an application installed in these.
  • the present invention can also be applied to a combination of the functions of the above and a server and the like as appropriate.
  • each function or each component of the rear side image control device 101-109 described above may be distributed to each device constructing the system, or may be concentrated on any one of the devices. It may be arranged.
  • the lane shape acquisition unit 11, the control unit 13, and the rear side image display device 21 are disposed in the host vehicle A, and the visual recognition range setting unit 12 is disposed in the server S.
  • each embodiment and each modification can be freely combined, or each embodiment and each modification can be suitably modified or omitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本発明は、走行車線の形状を問わず車両の後方の走行車線および隣接車線を運転者に適切に視認させることを目的とする。本発明の後側方映像制御装置は、自車両の後側方の映像を運転者に表示する後側方映像表示装置(21)を制御する後側方映像制御装置(101)であって、自車両の走行車線の形状情報を取得する車線形状取得部(11)と、自車両の後方の走行車線の形状情報に基づき自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定める視認範囲設定部(12)と、推奨視認範囲の映像が運転者に表示されるように後側方映像表示装置(21)を制御する制御部(13)と、を備える。

Description

後側方映像制御装置および後側方映像制御方法
 本発明は、車両の運転者に対する後側方映像の表示を制御する技術に関する。
 車両の運転者が後側方を確認するための手段として、ミラーなどの後側方映像表示装置が用いられている。ミラーの方向はドライバの操作により調整が可能で、例えば車両の位置を基準に規定された基準視認範囲を視認できるように調整される。
 特許文献1には、車両が直線道路を走行している際に運転者が走行車線および隣接車線の状況を視認可能な後側方映像表示装置が記載されている。しかし、特許文献1の技術では、車両がカーブを走行中に自車両走行車線および隣接車線の視認が出来ない場合があった。
 これに対して特許文献2では、車両の走行軌跡等から車線のカーブの曲率を推定し、曲率を基に道路形状を推定し、後方の走行車線に後方視認装置の表示方向を合わせる試みがなされている。
特開2015-144407号公報 特開2009-280196号公報
 しかし、車両は必ずしも車線形状に沿ってカーブを走行するとは限らないため、車両の走行軌跡から車線形状を求めると誤差が生じることがある。そのため、運転者に車両の後方の走行車線および隣接車線を適切に視認させることができないという問題があった。
 本発明は上述の問題に鑑みてなされたものであり、走行車線の形状を問わず車両の後方の走行車線および隣接車線を運転者に適切に視認させることを目的とする。
 本発明の後側方映像制御装置は、自車両の後側方の映像を運転者に表示する後側方映像表示装置を制御する後側方映像制御装置であって、自車両の走行車線の形状情報を取得する車線形状取得部と、自車両の後方の走行車線の形状情報に基づき自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定める視認範囲設定部と、推奨視認範囲の映像が運転者に表示されるように後側方映像表示装置を制御する制御部と、を備える。
 本発明の後側方映像制御方法は、自車両の後側方の映像を運転者に表示する後側方映像表示装置を制御する後側方映像制御方法であって、自車両の走行車線の形状情報を取得し、自車両の後方の走行車線の形状情報に基づき自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定め、推奨視認範囲の映像が運転者に表示されるように後側方映像表示装置を制御する。
 本発明の後側方映像制御装置は、自車両の後側方の映像を運転者に表示する後側方映像表示装置を制御する後側方映像制御装置であって、自車両の走行車線の形状情報を取得する車線形状取得部と、自車両の後方の走行車線の形状情報に基づき自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定める視認範囲設定部と、推奨視認範囲の映像が運転者に表示されるように後側方映像表示装置を制御する制御部と、を備える。これにより、運転者は走行車線の形状を問わず車両の後方の走行車線および隣接車線を適切に視認することができる。
 本発明の後側方映像制御方法は、自車両の後側方の映像を運転者に表示する後側方映像表示装置を制御する後側方映像制御方法であって、自車両の走行車線の形状情報を取得し、自車両の後方の走行車線の形状情報に基づき自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定め、推奨視認範囲の映像が運転者に表示されるように後側方映像表示装置を制御する。これにより、運転者は走行車線の形状を問わず車両の後方の走行車線および隣接車線を適切に視認することができる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1の後側方映像表示システムの構成図である。 実施の形態1の後側方映像表示システムの動作を示すフローチャートである。 実施の形態2の後側方映像表示システムの構成図である。 電動ミラーの自車両における位置を示す図である。 基準視認範囲を例示する図である。 基準視認範囲を表示する後側方映像表示装置の表示画面を示す図である。 自車両が直線道路を走行する際の基準視認範囲と他車両との位置関係を示す図である。 図7に示す位置関係における電動ミラーの表示映像を示す図である。 自車両が曲線道路を走行する際の基準視認範囲と他車両との位置関係を示す図である。 図9に示す位置関係における電動ミラーの表示映像を示す図である。 自車両の軌道を基に走行車線の形状を推定する概念図である。 推奨視認範囲の設定方法を示す図である。 図10に示す位置関係における後側方映像表示装置の表示画面を示す図である。 実施の形態2の後側方映像表示システムの動作を示すフローチャートである。 電動ミラーの方向調整例を示す図である。 自車両が勾配のある車線を走行する際の推奨視認範囲を示す図である。 自車両が勾配のある車線を走行する際の推奨視認範囲を示す図である。 実施の形態2の変形例における電動ミラーを示す図である。 実施の形態3の後側方映像表示システムの構成を示すブロック図である。 実施の形態4の後側方映像表示システムの構成を示すブロック図である。 広角カメラの撮影画像のトリミング範囲を示す図である。 自車両が直線車線を走行時の広角カメラの撮影画像を示す図である。 モニタの表示映像を示す図である。 自車両がカーブ車線を走行時の広角カメラの撮影画像を示す図である。 モニタの表示映像を示す図である。 自車両がカーブ車線を走行時の広角カメラの撮影画像のトリミング範囲を示す図である。 モニタの表示映像を示す図である。 モニタの表示映像を示す図である。 台形形状のトリミング範囲を示す図である。 実施の形態5の後側方映像制御システムの構成を示すブロック図である。 自車両におけるカメラの設置場所を示す図である。 合成部による合成画像を示す図である。 合成部による合成画像を示す図である。 実施の形態6の後側方映像表示システムの構成を示すブロック図である。 真円形状のラウンドアバウトを示す図である。 実施の形態7の後側方映像表示システムの構成を示すブロック図である。 実施の形態7の後側方映像表示システムの動作を示すフローチャートである。 推奨視認範囲を示す図である。 カメラの方向を示す図である。 モニタの表示映像を示す図である。 実施の形態8の後側方映像表示システムの構成を示すブロック図である。 自車両における各カメラの設置場所を示す図である。 パノラマ画像を示す図である。 パノラマ画像を示す図である。 実施の形態9の後側方映像制御システムの構成を示すブロック図である。 実施の形態9の後側方映像制御システムの動作を示すフローチャートである。 自車両が交差点を左折する際の推奨視認領域と電動ミラーの方向を示す図である。 後側方映像制御装置のハードウェア構成を示す図である。 後側方映像制御装置のハードウェア構成を示す図である。 自車両とサーバによる実施の形態1の後側方映像制御装置の構成例を示す図である。
 <実施の形態1>
 図1は、実施の形態1の後側方映像表示システムの構成を示すブロック図である。実施の形態1の後側方映像表示システムは、後側方映像制御装置101と、後側方映像表示装置21を備えている。
 後側方映像表示装置21は、自車両に搭載され、自車両の運転者に対して自車両の後側方の映像を表示する。なお、本明細書では後側方映像表示装置が搭載される車両を「自車両」と称し、それ以外の車両を「他車両」と称して両者を区別する。
 後側方映像制御装置101は、後側方映像表示装置21の表示を制御する装置である。後側方映像制御装置101は、車線形状取得部11、視認範囲設定部12、および制御部13を備えている。
 車線形状取得部11は、自車両の走行車線の形状情報を取得する。走行車線の形状情報は、走行車線の水平方向の形状情報と垂直方向の形状情報の一方又は両方を含んでいる。走行車線の水平方向の形状情報は、数学的、または地図データベースに用いられるどのような表現であっても良い。例えば、走行車線の水平方向の形状情報は、2次元の点座標列集合、クロソイドなどの幾何学的表現、円に関するような曲率を使って表現されていても良い。また、走行車線の垂直方向の形状情報は、例えば勾配に関する情報であっても良く、水平方向の形状情報に用いた数学的な表現が用いられても良い。また、垂直方向の変化が曲率を用いて表現されていても良い。また、走行車線の形状は3次元形状であっても良く、3次元の点座標列集合または数学的な3次元関数で表現されても良い。また、走行車線の形状情報は水平方向と垂直方向とで異なる表現が用いられても良い。また、車線形状は車線幅を含んで表現されても良い。また、走行車線の形状を帯状の面とするような表現が用いられても良い。
 視認範囲設定部12は、自車両の後方の走行車線の形状に基づき、自車両の後側方のうち、自車両の後方の走行車線またはその隣接車線を走行する他車両を視認できる方向に位置する領域を推奨視認範囲に設定する。自車両の後側方とは、自車両の右後方と左後方のことである。
 制御部13は、視認範囲設定部12が決定した推奨視認範囲の映像が運転者に表示されるよう、後側方映像表示装置21を制御する。
 制御部13の制御を受けて、後側方映像表示装置21は推奨視認範囲の映像を運転者に表示する。これにより、運転者は推奨視認範囲の映像を視認することができる。
 図2は、実施の形態1の後側方映像表示システムの動作を示すフローチャートである。以下、図2に沿って実施の形態1の後側方映像表示システムの動作を説明する。このフローは、例えば自車両のアクセサリ電源がオンになったタイミングで開始し、自車両のアクセサリ電源がオフになるまで継続する。まず、車線形状取得部11が走行車線の形状情報を取得する(ステップS101)。次に、視認範囲設定部12が推奨視認範囲を設定する(ステップS102)。その後、制御部13が後側方映像表示装置21を制御し、推奨視認範囲の映像を運転者に表示させ(ステップS103)、フローはステップS101に戻る。
 <実施の形態1の効果>
 実施の形態1の後側方映像制御装置101は、自車両の後側方の映像を運転者に表示する後側方映像表示装置21を制御する。後側方映像制御装置101は、自車両の走行車線の形状情報を取得する車線形状取得部11と、自車両の後方の走行車線の形状情報に基づき自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定める視認範囲設定部12と、推奨視認範囲の映像が運転者に表示されるように後側方映像表示装置21を制御する制御部13と、を備える。このように、後側方映像制御装置101は、自車両の走行車線の形状情報に基づき定める推奨視認範囲の映像を後側方映像表示装置21に表示させるため、自車両の走行車線が直線か曲線かに関わらず、自車両の後方の走行車線またはその隣接車線を走行する他車両を運転者に視認させることができる。
 実施の形態1の後側方映像制御方法は、自車両の後側方の映像を運転者に表示する後側方映像表示装置を制御する後側方映像制御方法であって、自車両の走行車線の形状情報を取得し、自車両の後方の走行車線の形状情報に基づき自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定め、推奨視認範囲の映像が運転者に表示されるように後側方映像表示装置を制御する。このように、実施の形態1の後側方映像制御方法によれば、自車両の走行車線の形状情報に基づき定める推奨視認範囲の映像を後側方映像表示装置21に表示させるため、自車両の走行車線が直線か曲線かに関わらず、自車両の後方の走行車線またはその隣接車線を走行する他車両を運転者に視認させることができる。
 <実施の形態2>
 図3は、実施の形態2の後側方映像表示システムの構成を示すブロック図である。実施の形態2の後側方映像表示システムは、後側方映像制御装置102、後側方映像表示装置22および白線認識装置31を備えている。図3において、他の実施の形態と同一または対応する構成には同一の参照符号を付している。後側方映像制御装置102は、車線形状取得部11、視認範囲設定部12およびミラー制御部13Aを備えている。
 白線認識装置31は、自車両に搭載されたカメラにより自車両の周囲を撮影し、撮影画像を画像認識することにより自車両の走行車線または隣接車線の白線形状を認識する。白線認識装置31は、白線形状の認識結果を白線認識情報として車線形状取得部11に出力する。
 車線形状取得部11は、白線認識装置31から取得した白線認識情報に基づき自車両の走行車線または隣接車線の車線形状を取得する。
 視認範囲設定部12は、車線形状取得部11から車線形状を取得し、自車両の後方の走行車線の形状に基づき推奨視認範囲を設定する。また、視認範囲設定部12は、自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を基準視認範囲に設定する。
 ミラー制御部13Aは、運転者に基準視認範囲または推奨視認範囲の映像が表示されるように後側方映像表示装置22のミラー駆動部211を制御する。
 後側方映像表示装置22は、ミラー駆動部211、電動ミラー212L,212Rを備えている。図4に示すように、電動ミラー212Lは自車両Aの左ドアの前方に取り付けられ、自車両Aの左後方の映像を鏡面に映して運転者に表示する。また、電動ミラー212Rは自車両Aの右ドアの前方に取り付けられ、自車両Aの右後方の映像を鏡面に映して運転者に表示する。電動ミラー212L,212Rの方向はミラー制御部13Aによって定められ、ミラー制御部13Aの制御の下でミラー駆動部211により調整される。なお、電動ミラー212L,212Rの参照符号における添え字のLは左を表し、Rは右を表している。このことは、LまたはRの添え字が参照符号に付された他の構成要素についても同様である。図4では、説明の都合上電動ミラー212L,212Rを大きく描いているが、実際は通常の電動ミラーの大きさである。
 図5は、基準視認範囲を例示する図である。基準視認範囲は、自車両Aの右後方と左後方にそれぞれ設定される。自車両Aの右後方の基準視認範囲50Rは、自車両Aから5m右かつ30m後ろの地点を基準視認点P0としたとき、自車両Aの右側方に沿った方向と自車両Aから基準視認点P0への方向との間の範囲として規定される。自車両Aの左後方の基準視認範囲50Lは、自車両Aに対して基準視認範囲50Rと左右対称の範囲である。このように、基準視認範囲の位置は自車両Aを基準として相対的に定められ、自車両Aの走行車線の形状に関わらず固定である。この例の場合、基準視認範囲の視野角βは、β=tan-1(5/30)より、約9.5°である。なお、基準視認範囲は図5で示したものに限らない。例えば基準視認範囲50Rと基準視認範囲50Lは自車両Aに対して非対称であっても良い。また、「Handbook of Camera Monitor Systems, The Automotive Mirror-Replacement Technology based on ISO 16505, Editors: Terzis, Anestis (Ed.)」ではカメラモニタリングシステムにおける望ましい視認範囲が記述されており、この視認範囲を基準視認範囲に採用しても良い。
 図6は、基準視認方向を向いた電動ミラー212Rの表示映像を示している。本実施の形態では、電動ミラーが基準視認範囲を表示する際の方向を基準視認方向と称し、電動ミラーが推奨視認範囲を表示する際の方向を推奨視認方向と称する。電動ミラー212L,212Rは筐体43と鏡面44とを備えている。鏡面44の横方向の寸法をa、縦方向の寸法をbとする。鏡面44の左端からa/4の領域に自車両Aの右ボディ側面が表示され、残りの領域に基準視認範囲50Rの映像が表示される。また、鏡面44の下端から2b/3の領域に走行車線または隣接車線などの道路が表示され、残りの領域に道路の上空が表示される。ここでは電動ミラー212Rにおける表示を説明したが、基準視認方向を向いた電動ミラー212Lにおける表示もこれと同様である。なお、図6には電動ミラー212Rの表示映像を示したが、これは自車両Aの運転者の方向から電動ミラー212Rを見た時に視認される映像を示している。また、電動ミラーにおける基準視認範囲の映像の表示態様は図6で示したものに限らない。例えば鏡面44の下端からb/3の領域に走行車線または隣接車線などの道路が表示され、残りの領域に道路の上空が表示されても良い。
 図7は、自車両Aが直線道路を走行する際の基準視認範囲50Lと他車両Bとの位置関係を示している。自車両Aは直線の2車線道路の右側車線を走行しており、他車両Bは自車両Aの左後方で左側車線を走行している。他車両Bの位置は、基準視認範囲50Lに含まれている。従って、図8に示すように電動ミラー212Lには他車両Bが表示される。
 図9は、自車両Aが曲線道路を走行する際の基準視認範囲50Lと他車両Bとの位置関係を示している。自車両Aの後方の走行車線が曲線である場合、他車両Bの位置は基準視認範囲50Lから逸脱する。そのため、電動ミラー212Lの方向を基準視認方向に固定していると、図10に示すように電動ミラー212Lには他車両Bが表示されない。従って、運転者が常に他車両Bを視認するためには、自車両Aの後方の走行車線の形状に応じて電動ミラー212Lの方向を変えることが必要である。本実施の形態では、自車両Aの後方の走行車線の水平方向の形状に応じて自車両の後側方の一部の方向に位置する領域を推奨視認範囲に設定し、推奨視認範囲の映像を後側方映像表示装置21に表示させることにより、上記の問題を解決する。
 図11は、自車両Aの走行軌跡と走行車線の形状とを比較する図である。自車両Aの走行軌跡は、例えば自車両Aに搭載した加速度センサおよび車速センサなど、各種のセンサを用いて検出することが可能である。そして、自車両Aの走行軌跡を走行車線の形状と推定することも可能である。しかし、自車両Aの走行軌跡は周辺状況、運転者の走行特性または心理状態等により左右されるため、図11に示すように必ずしも走行車線の形状に沿ったものであるとは限らない。自車両Aの走行軌跡は、out-in-outの軌跡c1、またはin-out-inの軌跡c2となり得る。従って、本実施の形態の車線形状取得部11は、走行車線の形状を自車両Aの走行軌跡から推定するのではなく、直接的に検出または取得することにより、正確に走行車線の形状を把握する。
 図12を用いて推奨視認範囲の設定方法を説明する。まず視認範囲設定部12は、自車両Aの先頭位置Q0から走行車線に沿って後方に第1の距離である30mだけ離れた地点を第1推奨視認地点Q1とする。視認範囲設定部12は、例えば走行車線の形状情報の一例である曲率情報を用いて第1推奨視認地点Q1を設定することができる。次に視認範囲設定部12は、第1推奨視認地点Q1から走行車線の法線方向、すなわち第1推奨視認地点Q1における走行車線の進行方向に対して左に第2の距離である5mだけ離れた地点を第2推奨視認地点Q2とする。そして視認範囲設定部12は、先頭位置Q0、第1推奨視認地点Q1および第2推奨視認地点Q2を含む範囲を、自車両Aの左後方の推奨視認範囲52Lに設定する。このとき、図13に示すように、電動ミラー212Lには他車両Bが表示される。以上は自車両Aの左後方の推奨視認範囲52Lの設定方法であるが、右後方の推奨視認範囲52Rの設定方法もこれと同様である。この設定方法によれば、自車両Aの走行車線が直線の場合に基準視認範囲と推奨視認範囲は同じ範囲になる。なお、第2推奨視認地点Q2は、第1推奨視認地点Q1から走行車線の法線方向に離れた地点に限るものではなく、線Q0-Q1に対して自車両Aの進行方向の外側方向であれば、正確に法線方向になくても良い。例えば、線Q0-Q1と線Q2-Q1のなす角は直角でも良い。また、図5の基準視認範囲について説明したように、線Q0-Q1を基準に視野角がβとなるように第2推奨視認地点Q2が定められても良い。
 なお、図12では自車両Aの先頭位置Q0を基準に推奨視認範囲を設定することについて説明したが、推奨視認範囲は自車両Aの他の位置を基準に設定されても良い。例えば、電動ミラー212Lの位置を基準に推奨視認範囲52Lが設定され、電動ミラー212Rの位置を基準に推奨視認範囲52Rが設定されても良い。
 図14は、実施の形態2の後側方映像表示システムの動作を示すフローチャートである。以下、図14に沿って実施の形態2の後側方映像表示システムの動作を説明する。このフローは、例えば自車両Aのアクセサリ電源がオンになったタイミングで開始し、自車両Aのアクセサリ電源がオフになるまで継続する。
 まず、ミラー駆動部211がミラー制御部13Aの制御を受け、電動ミラー212L,212Rがそれぞれ基準視認範囲50L,50Rの映像を運転者に表示するよう、電動ミラー212L、212Rの方向を基準視認方向に調整する(ステップS201)。
 次に、車線形状取得部11が白線認識装置31から白線認識情報を取得し、白線認識情報に基づき自車両Aの走行車線の形状を認識する(ステップS202)。
 その後、視認範囲設定部12は車線形状取得部11から自車両Aの後方の走行車線の形状情報を取得し、これに基づき推奨視認範囲を設定する(ステップS203)。推奨視認範囲の設定方法は、図12で説明したとおりである。
 最後に、ミラー駆動部211がミラー制御部13Aの制御を受け、電動ミラー212L,212Rがそれぞれ推奨視認範囲52L,52Rの映像を運転者に表示するよう、電動ミラー212L、212Rの方向を推奨視認方向に調整する(ステップS204)。その後、フローはステップS202に戻る。
 図15は、電動ミラー212Lの方向調整例を示している。ここで、電動ミラー212Lの表示面である鏡面と自車両Aのボディ左側面に沿った方向とのなす角度をミラー角度と称する。そして、電動ミラー212Lが運転者に基準視認範囲の映像を表示する際、すなわち基準視認方向を向いている際のミラー角度を90°とする。図12に示すように、自車両Aから第1推奨視認地点Q1への方向と自車両Aの左ボディ側面に沿った方向とのなす角度をθとすると、ミラー駆動部211は電動ミラー212Lのミラー角度を90°+θ/2に調整する。これにより、電動ミラー212Lを通して運転者に推奨視認範囲の映像が視認される。図15では電動ミラー212Lの方向調整例を示したが、電動ミラー212Rの方向調整についても同様である。
 上記では、視認範囲設定部12が走行車線の水平方向の形状を基に推奨視認範囲を設定することについて説明した。しかし、視認範囲設定部12は車線の垂直方向の形状すなわち勾配を基に推奨視認範囲を設定しても良いし、水平方向の形状と垂直方向の形状の両方を基に推奨視認範囲を設定しても良い。以下、走行車線の勾配を基に推奨視認範囲を設定する方法について説明する。なお、走行車線の勾配は、車線形状取得部11が取得する白線認識装置31の白線認識情報から取得可能である。
 図16は、自車両Aがt=T1において平地を走行し、その後t=T2において上り坂を走行する様子を示している。なお、説明の簡単化のため走行車線は直線であると想定する。視認範囲設定部12は、自車両Aの先頭位置から走行車線に沿って後方に30mだけ離れた第1推奨視認地点Q1と、第1推奨視認地点Q1から走行車線の進行方向に対して右に5mだけ離れた第2推奨視認地点Q2とを含む範囲を、推奨視認範囲52Rに設定する。従って、t=T1において推奨視認範囲52Rには推奨視認地点Q1,Q2が含まれる。
 しかし、t=T2において自車両は上り勾配を有する走行車線を走行しているため、推奨視認範囲52Rをt=T1のときと同じにすると推奨視認地点Q1,Q2が含まれない。従って、図17に示すように、t=T2では推奨視認地点Q1,Q2を含むように推奨視認範囲52Rを上方向に移動する。これにより、t=T2においても電動ミラー212Rに推奨視認地点Q1,Q2を表示させることができる。
 図16及び図17では、自車両Aの右後方の推奨視認範囲52Rについて説明したが、自車両Aの左後方の推奨視認範囲52Lについても同様である。また、上り勾配を有する走行車線において推奨視認範囲52L,52Rは上方向に移動するが、下り勾配を有する走行車線では推奨視認範囲52L,52Rは下方向に移動する。このように、視認範囲設定部12は、推奨視認範囲52L,52Rを自車両Aの走行車線の勾配に応じて上下方向に移動することによって、走行車線の勾配に応じた適切な推奨視認範囲を設定することができる。
 図16及び図17では、説明のため車線の勾配のみを考慮した場合を説明した。しかし、車線の水平方向の形状と勾配の両方を考慮して推奨視認範囲を決定しても良い。これにより、インターチェンジ、高速道路の出入り口、ジャンクションなど、3次元の形状変化が激しい道路形状に応じて、適切な推奨視認範囲の映像を運転者に視認させることができる。
 <実施の形態2の変形例>
 図13に示したように、電動ミラー212L,212Rはそれぞれ一つの鏡面を有しており、当該鏡面に推奨視認範囲の映像を表示する。但し、推奨視認範囲は自車両Aの直進車線走行時には基準視認範囲に一致するため、電動ミラー212L,212Rの鏡面は自車両Aの直進車線走行時には基準視認範囲の映像を表示するとも言える。
 本実施の形態の変形例として、電動ミラーは独立してミラー角度を調整可能な2つの鏡面を有しても良い。図18はこの変形例における電動ミラー213Lを示している。電動ミラー213Lは第1の鏡面441と第2の鏡面442とを有している。第1の鏡面441には推奨視認範囲の映像が表示され、第2の鏡面442には基準視認範囲の映像が表示される。これにより、運転者は推奨視認範囲の映像と基準視認範囲の映像を同時に視認することができる。
 <実施の形態2の効果>
 実施の形態2において、走行車線の形状情報は走行車線の曲率情報を含む。従って、後側方映像制御装置102によれば、推奨視認範囲が走行車線の曲率に基づき定められるため、走行車線の曲率に応じた適切な推奨視認範囲を運転者に視認させることができる。
 実施の形態2において、走行車線の形状情報は走行車線の勾配情報を含む。従って、後側方映像制御装置102によれば、推奨視認範囲が走行車線の勾配に基づき定められるため、走行車線の勾配に応じた適切な推奨視認範囲を運転者に視認させることができる。
 推奨視認範囲は、自車両から走行車線に沿って第1の距離だけ後方の第1推奨視認地点と、第1推奨視認地点から自車両の進行方向の法線方向に第2の距離だけ離れた第2推奨視認地点とを含む。従って、後側方映像制御装置102によれば、自車両の後方を走行する他車両を運転者に視認させることができる。
 実施の形態2において、後側方映像表示装置22は自車両Aの電動ミラー212L,212Rを備え、後側方映像表示装置22のミラー制御部13Aは、電動ミラー212L,212Rの方向を制御する。従って、後側方映像表示装置22によれば、電動ミラー212L,212Rを通して運転者に推奨視認範囲を視認させることができる。
 また、実施の形態2において、車線形状取得部11は、走行車線の白線を認識する白線認識装置31の認識結果に基づき、走行車線の形状情報を取得する。従って、実施の形態2の後側方映像表示装置22によれば、正確に車線形状を把握した上で推奨視認範囲を決定することができる。
 視認範囲設定部12は、自車両Aの後方の走行車線の形状情報に関わらず自車両Aの後側方のうち自車両Aを基準とした特定の方向に位置する領域を基準視認範囲50L,50Rと定める。実施の形態2の変形例において、ミラー制御部13Aは、図18に示すように推奨視認範囲の映像と基準視認範囲の映像とが運転者に表示されるよう後側方映像表示装置22のミラー駆動部211を制御する。従って、運転者はミラーを通して推奨視認範囲の映像と基準視認範囲の映像を同時に視認することができる。
 <実施の形態3>
 図19は、実施の形態3の後側方映像表示システムの構成を示すブロック図である。図19において、他の実施の形態と同一または対応する構成には同一の参照符号を付している。実施の形態3の後側方映像表示システムは、実施の形態2の後側方映像表示システムにおいて、後側方映像表示装置として電動ミラーに代えて電子ミラーを用いるものである。
 実施の形態3の後側方映像表示システムは、後側方映像制御装置103、後側方映像表示装置23および白線認識装置31を備えている。後側方映像制御装置103は、実施の形態2の後側方映像制御装置102の構成において、ミラー制御部13Aに代えてカメラ制御部13Bを備えたものである。
 カメラ制御部13Bは、カメラ232L,232Rがそれぞれ推奨視認範囲を撮影するようにカメラ駆動部231を制御する。本実施の形態では、カメラ232L,232Rが推奨視認範囲を撮影する際の方向を推奨視認方向と称し、カメラ232L,232Rが基準視認範囲を撮影する際の方向を基準視認方向と称する。
 後側方映像表示装置23は、カメラ駆動部231、カメラ232L,232Rおよびモニタ233L,233Rを備えている。カメラ232Lは、例えば自車両Aの左ドアの前方に取り付けられ、自車両Aの左後側方を撮影する。カメラ232Rは、例えば自車両Aの右ドアの前方に取り付けられ、自車両Aの右後側方を撮影する。カメラ駆動部231は、カメラ制御部13Bの制御に従いカメラ232L,232Rの撮影方向を推奨視認方向に調整する。
 カメラ232Lの撮影映像はモニタ233Lに表示され、カメラ232Rの撮影映像はモニタ233Rに表示される。モニタ233L,233Rはそれぞれ自車両Aに搭載され運転者に視認される。従って、運転者はモニタ233L,233Rを通して推奨視認範囲の映像を視認することができる。
 <実施の形態3の効果>
 実施の形態3において、後側方映像表示装置23は、自車両Aの後側方を撮影する撮影装置であるカメラ232L,233Rと、カメラ232L,233Rの撮影映像を表示する自車両Aに搭載されたモニタ233L,233Rとを備える。従って、運転者はモニタ233L,233Rを通して推奨視認範囲の映像を視認することができる。
 また、実施の形態3の後側方映像制御装置103において、カメラ制御部13Bはカメラ232L,232Rの撮影方向を制御する。従って、運転者はモニタ233L,233Rを通して推奨視認範囲を視認することができる。
 <実施の形態4>
 実施の形態3では、カメラ駆動部231がカメラ232L,232Rの撮影方向を推奨視認方向にあわせることにより、モニタ233L,233Rに推奨視認範囲の映像が表示された。これに対して実施の形態4では、広角カメラを用いて推奨視認範囲を含むそれよりも広い範囲を撮影した後、広角カメラの撮影画像を推奨視認範囲に合せてトリミングすることにより、推奨視認範囲の映像をモニタ233L,233Rに表示させる。
 図20は、実施の形態4の後側方映像表示システムの構成を示すブロック図である。図20において、他の実施の形態と同一または対応する構成には同一の参照符号を付している。実施の形態4の後側方映像表示システムは、後側方映像制御装置104、後側方映像表示装置24および白線認識装置31を備えている。後側方映像制御装置104は、実施の形態3の後側方映像制御装置103の構成において、カメラ制御部13Bに代えてトリミング制御部13Cを備えたものである。
 トリミング制御部13Cは、トリミング部241による広角カメラ242L,242Rの撮影画像のトリミングを制御する。
 後側方映像表示装置24は、広角カメラ242L,242R、トリミング部241およびモニタ233L,233Rを備えている。広角カメラ242Lは、例えば自車両Aの左ドアの前方に取り付けられ、自車両Aの左後側方を撮影する。広角カメラ242Rは、例えば自車両Aの右ドアの前方に取り付けられ、自車両Aの右後側方を撮影する。
 トリミング部241は、広角カメラ242L,242Rの撮影画像をトリミングする。図21に示すように、広角カメラ242L,242Rの撮影画像53の一部の範囲がトリミング範囲54となる。広角カメラ242Lの撮影画像をトリミングした映像はモニタ233Lに表示され、広角カメラ242Rの撮影画像をトリミングした映像はモニタ233Rに表示される。
 図22は、自車両Aが直線車線を走行時の広角カメラ242Lの撮影画像53Lとトリミング範囲との関係を示している。図22において撮影画像53Lの下には撮影画像の撮影方向が付記されている。広角カメラ242Lの画角は20°であり、撮影画像53Lの右端の撮影方向を0°、左端の撮影方向を20°とする。自車両Aが直線車線を走行時、運転者は基準視認範囲を視認する必要がある。従って、トリミング部241は撮影画像53Lのうち基準視認範囲に対応する範囲をトリミング範囲54Lとする。図22の例では、撮影画像53Lの撮影方向が0°から10°の範囲がトリミング範囲54Lである。従って、図23に示すようにモニタ233Lには他車両Bを含む基準視認範囲の映像が表示される。
 図24は、自車両Aがカーブ車線を走行時の広角カメラ242Lの撮影画像53Lとトリミング範囲との関係を示している。自車両Aがカーブ車線を走行時、運転者は推奨視認範囲を視認する必要がある。従って、トリミング部241は撮影画像53Lのうち推奨視認範囲に対応する範囲をトリミング範囲54Lとする。図24の例では、撮影画像53Lの撮影方向が8°から18°の範囲がトリミング範囲54Lである。従って、図25に示すようにモニタ233Lには他車両Bを含む推奨視認方向の映像が表示される。
 あるいは、自車両Aがカーブ車線を走行時には、図26に示すように推奨視認範囲の映像と基準視認範囲の映像の両方がトリミングされても良い。この例でトリミング部241は、撮影画像53Lのうち撮影方向が0°から6°の範囲54L1を基準視認範囲の映像としてトリミングし、撮影方向が12°から16°の範囲54L2を推奨視認範囲の映像としてトリミングする。こうしてトリミングされた2つの映像の合計画角は10°でありモニタ233Lの表示範囲に等しい。従って、図27に示すようにモニタ233Lの画面サイズを変えることなく、推奨視認範囲の映像と基準視認範囲の映像とを横並びでモニタ233Lに表示することができる。
 このとき、図28に示すように推奨視認範囲の映像54L2には、映像54L2における撮影画像53Lの撮影方向を表す傾斜画像55が加えられても良い。これにより、運転者は推奨視認範囲の映像と基準視認範囲の映像の違いを容易に認識することができる。
 また、トリミング範囲の形状は矩形でなくても良く、例えば図29に示すように台形であっても良い。すなわち、トリミング部241は台形形状に推奨視認範囲の映像をトリミングする。このとき、台形の角度θが推奨視認範囲における走行車線の曲率に応じて調整されれば、車線の形状に応じた適切な推奨視認範囲がモニタ233L,233Rに表示される。また、トリミング範囲の形状は四角形である台形にこだわるものではなく、トリミング範囲の一部に曲線または複数の線分を用いて台形に類する形状が構成されても良い。例えば、トリミング範囲54L1の左辺が凸の曲線形状であり、トリミング範囲54L2の右辺が凹の曲線形状であっても良い。
 <実施の形態4の効果>
 実施の形態4の後側方映像表示装置24は、撮影装置である広角カメラ242L,242Rの撮影画像をトリミングするトリミング部241を備え、モニタ233L,233Rは、トリミング部241でトリミングされた画像を表示する。実施の形態4の後側方映像制御装置104のトリミング制御部13Cは、トリミング部241のトリミング範囲を制御する。トリミング範囲が推奨視認範囲にあわせて調整されることにより、運転者はモニタ233L,233Rを通して推奨視認範囲を視認することができる。
 なお、実施の形態3,4において、後側方映像制御装置103,104は白線認識装置31を用いて車線形状を取得した。しかし、後側方映像制御装置103,104において車線形状取得部11は、左右のカメラ映像を取得し、画像認識を実行することにより白線を認識し、車線形状を取得しても良い。このような構成によれば、白線認識装置31を省略することが出来るため、コストダウンを図ることが可能となる。
 また、実施の形態4では後側方映像表示装置24がトリミングを実施したが、後側方映像制御装置104がトリミングを実施する構成であっても良い。この場合、トリミング部241は後側方映像制御装置24ではなく後側方映像制御装置104に設けられる。
 また、上記では広角カメラ242Lの画角を20°と述べたが、広角カメラ242L,242Rの画角はこれに限らない。広角カメラ242L,242Rの仕様に応じて様々な画角が用いられる。
 <実施の形態5>
 実施の形態5は、実施の形態4において、トリミング部241におけるトリミングの基となる画像を撮影方向の異なる複数のカメラの撮影画像の合成画像としたものである。
 図30は、実施の形態5の後側方映像制御システムの構成を示すブロック図である。実施の形態5の後側方映像制御システムは、後側方映像制御装置105、後側方映像表示装置25および白線認識装置31を備えている。図30において、他の実施の形態と同一または対応する構成には同一の参照符号を付している。
 後側方映像制御装置105は、実施の形態4の後側方映像制御装置104と同様である。後側方映像表示装置25は、実施の形態4の後側方映像表示装置24の構成において、広角カメラ242Lに代えてカメラ242L1,242L2を備え、広角カメラ242Rに代えてカメラ242R1,242R2を備え、さらに合成部251を備えたものである。
 図31は、自車両Aにおけるカメラ242L1,242L2,242R1,242R2の設置場所を示している。カメラ242L1,242L2は、自車両Aの左前方に設置される。カメラ242L1は自車両Aの左側面の方向を0°とすると、0°から15°の方向を撮影する。カメラ242L2は同様に15°から30°の方向を撮影する。カメラ242R1,242R2は、自車両Aの右前方に設置される。カメラ242R1は、自車両Aの左側面の方向を0°とすると、0°から15°の方向を撮影する。カメラ242L2は同様に15°から30°の方向を撮影する。
 図32と図33は、合成部251による合成画像を示している。図32は自車両Aが直線車線を走行時の合成画像を示し、図33は自車両Aがカーブ車線を走行時の合成画像を示している。合成部251は、実際の撮影方向にあわせてカメラ242L2の撮影画像53L2が左、カメラ242L1の撮影画像53L1が右に位置するように両画像を合成する。これらの図において合成画像の下にはカメラの撮影方向が付記されている。なお、図32と図33ではカメラ242L1とカメラ242L2の撮影画像の合成画像を示したが、カメラ242R1とカメラ242R2の撮影画像も同様に合成される。
 トリミング部241は実施の形態4と同様に、合成部251が作成した合成画像から推奨視認範囲を表す領域をトリミングする。すなわち、トリミング部241は、カメラ242L1とカメラ242L2の撮影画像の合成画像からトリミングを行い、カメラ242R1とカメラ242R2の撮影画像の合成画像からトリミングを行う。
 モニタ233Lは、カメラ242L1とカメラ242L2の撮影画像の合成画像のトリミング画像を表示する。モニタ233Rは、カメラ242R1とカメラ242R2の撮影画像の合成画像のトリミング画像を表示する。これにより、運転者はモニタ233Lを通して自車両Aの左後方の推奨視認範囲を視認することができ、モニタ233Rを通して自車両Aの右後方の推奨視認範囲を視認することができる。
 <実施の形態5の効果>
 実施の形態5において、後側方映像表示装置25の撮影装置は撮影方向の異なる複数のカメラ、すなわちカメラ242L1,242L2,242R1,242R2である。そして、後側方映像表示装置25は、カメラ242L1,242L2,242R1,242R2の撮影画像を合成する合成部251を備える。また、トリミング部241は、合成部251の合成画像をトリミングする。実施の形態5の構成によれば、カメラ242L1,242L2,242R1,242R2の撮影方向を調整するカメラ駆動部がなくても、車線の形状によって変化する推奨視認範囲を運転者に視認させることができる。また、広角カメラを用いなくても推奨視認範囲にあわせたトリミングが可能であり、運転者はモニタ233L,233Rを通して推奨視認範囲を視認することができる。
 <実施の形態6>
 図34は、実施の形態6の後側方映像表示システムの構成を示すブロック図である。実施の形態6の後側方映像表示システムは、後側方映像制御装置106、後側方映像表示装置26、地図データ格納部32、および車両位置検出装置33を備える。
 後側方映像制御装置106は実施の形態3の後側方映像制御装置103と同様の構成であり、後側方映像表示装置26は実施の形態3の後側方映像表示装置23と同様の構成である。
 実施の形態6において、車線形状取得部11が自車両の走行車線の車線形状を取得する方法が実施の形態3と異なっており、それ以外は実施の形態3と同様である。
 地図データ格納部32は、地図データを格納している。地図データには道路の各車線の形状情報が含まれている。
 車両位置検出装置33は、全地球測位システム(Global Positioning System:GPS)または準天頂衛星システム(Quasi-Zenith Satellite System:QZSS)などの衛星測定システム(Navigation Satellite System:NSS)と、自車両Aに搭載された車速センサ又は加速度センサ等の車両センサを用いて、自車両Aの絶対位置を検出する。
 車線形状取得部11は、車両位置検出装置33から自車両Aの絶対位置を取得する。そして、車線形状取得部11は、自車両Aの絶対位置に基づき地図データ格納部32の地図データを参照し、自車両Aの走行車線の車線形状を取得する。
 地図データでは、例えば車線リンクの両端のノードと、車線リンク内の形状補完点との座標列で車線の形状が表現される。
 車線形状は、地図データベースにおける道路形状を示す表現ならば、どのように表現されても良い。例えば、車線リンクは連続して同じ曲率を有する車線区間ごとにサブリンクに分割され、車線の形状がサブリンクの集合により表されていても良い。各サブリンクに座標、曲率、長さの情報が与えられる。この場合、一つの車線サブリンク内では曲率が等しいため、カメラ駆動部231はカメラ232L,232Rの方向を変更する必要がない。従って、カメラ制御部13Bおよびカメラ駆動部231における処理を少なくすることができる。特に、図35に示す真円形状のラウンドアバウトでは常に曲率が等しいため、一つの車線サブリンクで車線形状が表現される。従って、ラウンドアバウトを走行中は、カメラ232L,232Rの方向を常に一定に定めることができる。すなわち、カメラ制御部13Bおよびカメラ駆動部231における処理を少なくすることができる。
 地図データ格納部32は、例えば後側方映像制御装置106の外部のデータサーバに格納されている。あるいは、地図データ格納部32は後側方映像制御装置106に含まれていても良い。
 <実施の形態6の効果>
 実施の形態6の後側方映像制御装置106において、車線形状取得部11は、自車両の位置情報に基づき地図データを参照することにより走行車線の形状情報を取得する。従って、正確に走行車線の形状情報を取得できる。そのため、後側方映像制御装置106は高精度に推奨視認範囲を決定することができる。
 また、車線の形状を連続して同じ曲率を有する車線区間を一つのサブリンクで表し、サブリンクの集合として表した地図データフォーマットを用いても良い。この場合、一つのサブリンク内では曲率が一定であるため、視認範囲設定部12は推奨視認範囲を変更する必要がない。従って、その間、カメラ制御部13Bの制御処理、およびカメラ駆動部231によるカメラの駆動処理は行われず、これらの構成における処理を少なくすることができる。
 <実施の形態7>
 実施の形態7では、自車両Aの走行車線の隣接車線を走行する他車両を含む領域を推奨視認範囲として設定する。
 図36は、実施の形態7の後側方映像表示システムの構成を示すブロック図である。実施の形態7の後側方映像表示システムは、後側方映像制御装置107、後側方映像表示装置27、白線認識装置31および周辺移動体検出装置34を備えている。図36において、他の実施の形態と同一または対応する構成には同一の参照符号を付している。
 後側方映像制御装置107は実施の形態3の後側方映像制御装置103と同様の構成であり、後側方映像表示装置27は実施の形態3の後側方映像表示装置23と同様の構成である。すなわち、実施の形態7の後側方映像表示システムは、実施の形態3の後側方映像表示システムに周辺移動体検出装置34を備えた構成である。
 周辺移動体検出装置34は、レーザレーダ、ミリ波レーダ、画像処理センサ、超音波センサ、またはその他のセンサにより構成され、自車両Aの周辺の移動体の有無、周辺の移動体の自車両Aに対する相対位置、または相対位置の変化を検出する。周辺移動体検出装置34が検出した情報は周辺移動体検出情報として視認範囲設定部12に出力される。
 視認範囲設定部12は、実施の形態3で説明した動作に加えて、周辺移動体検出情報に基づき推奨視認範囲を設定する。
 図37は、実施の形態7の後側方映像表示システムの動作を示すフローチャートである。以下、図37に沿って実施の形態7の後側方映像表示システムの動作を説明する。このフローは、例えば自車両Aのアクセサリ電源がオンになったタイミングで開始し、自車両Aの走行中は一定周期などのタイミングで繰り返し行われる。
 まず、カメラ駆動部231がカメラ制御部13Bの制御を受け、カメラ232L,232Rの撮影方向をそれぞれ基準視認方向にあわせる(ステップS301)。
 次に、車線形状取得部11が白線認識装置31から白線認識情報を取得し、白線認識情報に基づき自車両Aの走行車線の形状を認識する(ステップS302)。
 その後、視認範囲設定部12が周辺移動体検出装置34から周辺移動体検出情報を取得する(ステップS303)。
 次に、視認範囲設定部12は、周辺移動体検出情報に基づき、自車両の後方に、自車両の走行車線の隣接車線を走行する他の移動体(以下、「周辺移動体」と称する)がいるか否かを判断する(ステップS304)。
 周辺移動体がいない場合、視認範囲設定部12は走行車線の形状に応じて推奨視認範囲を設定する(ステップS305)。この推奨視認範囲の設定方法は、図12で説明したとおりである。
 周辺移動体がいる場合、視認範囲設定部12は周辺移動体を含む領域に推奨視認範囲を設定する(ステップS306)。周辺移動体が複数いる場合、視認範囲設定部12は自車両Aから最も近い周辺移動体を含む領域に推奨視認範囲を設定しても良い。
 ステップS305またはステップS306で視認範囲設定部12が推奨視認範囲を設定した後、後側方映像表示システムの処理はステップS307に移行する。ステップS307では、カメラ駆動部231がカメラ制御部13Bの制御を受けて、カメラ232L,232Rの撮影方向をそれぞれ推奨視認方向にあわせる(ステップS307)。その後、フローはステップS302に戻る。
 図38は、本実施の形態による推奨視認範囲を示している。図38において、自車両Aは右側車線を走行し、他車両Bは自車両Aの後方で左側車線を走行している。このとき、自車両Aの左後方の推奨視認範囲52Lは他車両Bを含む領域に設定される。なお、自車両Aと他車両Bとを結ぶ直線と自車両Aの左ボディ側面に沿った方向とがなす角度をαとする。
 カメラ232Lは、図39に示すように、自車両Aの左ボディ側面に沿った方向から角度αだけ離れた方向を向くように調整される。これにより、カメラ232Lは図38に示す推奨視認範囲52Lを撮影することができる。このとき、モニタ233Lには図40に示すように推奨視認範囲52Lの映像が表示され、運転者はモニタ233Lを通して他車両Bを視認することができる。
 <実施の形態7の効果>
 実施の形態7の後側方映像制御装置107における視認範囲設定部12は、自車両Aの後方で自車両Aの走行車線の隣接車線を走行する移動体である他車両Bの有無を判断し、他車両Bがいる場合には他車両Bを含む領域を推奨視認範囲と定める。従って、運転者はモニタ233L,233Rを通して他車両Bを視認することができる。
 <実施の形態8>
 図41は、実施の形態8の後側方映像表示システムの構成を示すブロック図である。図41において、他の実施の形態と同一または対応する構成には同一の参照符号を付している。実施の形態8の後側方映像表示システムは、後側方映像制御装置108、後側方映像表示装置28および白線認識装置31を備えている。後側方映像制御装置108は、実施の形態4の後側方映像制御装置104と同様である。
 後側方映像表示装置28は、撮影装置として広角カメラ281R,281Lおよび後方カメラ281Bを備えている。さらに、後側方映像表示装置28は、合成部251、トリミング部241、モニタ233L,233Rを備えている。
 図42は、自車両Aにおける各カメラの設置場所を示す図である。広角カメラ281Lは自車両Aの左前方に設置され、自車両Aの左側面から角度θlの範囲を撮影する。広角カメラ281Rは自車両Aの右前方に設置され、自車両Aの右側面から角度θrの範囲を撮影する。後方カメラ281Bは自車両の後方に設置され、自車両の後方を中心に角度θbの範囲を撮影する。例えばθl=θr=20°であり、θb=10°である。
 合成部251は、広角カメラ281Lの撮影画像57L、後方カメラ281Bの撮影画像57B、広角カメラ281Rの撮影画像57Rを合成してパノラマ画像を作成する。図43はパノラマ画像を示している。パノラマ画像において、撮影画像57Lが左、撮影画像57Bが中央、撮影画像57Rが右に配置される。
 トリミング部241は、自車両Aの後方の走行車線の形状に応じてパノラマ画像のトリミング範囲54を調整する。但し、トリミング範囲の寸法は、モニタ233L,233Rの表示画面の寸法にあわせられる。具体的には、自車両Aが直進車線を走行している場合には、撮影画像57L,57Rが均等に含まれるようトリミングする。また、自車両Aが右へカーブする車線を走行している場合には、トリミング部241は撮影画像57Rが撮影画像57Lよりも多くトリミングされるようにトリミング範囲54を右方向へ移動する。また、自車両が左へカーブする車線を走行している場合には、トリミング部241は撮影画像57Lが撮影画像57Rよりも多くトリミングされるようにトリミング範囲54を左方向へ移動する。このように、トリミング部241は、走行車線の形状に応じた推奨視認範囲にあわせてパノラマ画像のトリミングを行う。
 推奨視認範囲が走行車線の水平方向の形状、例えば曲率のみを考慮して定められる場合、トリミング範囲54は図43に示すようにパノラマ画像に対して左右方向へ移動するのみである。しかし、推奨視認範囲が走行車線の勾配も考慮して定められる場合、図44に示すように、トリミング部241はトリミング枠をパノラマ画像に対して左右方向のみならず上下方向へ移動することにより、推奨視認範囲にあわせたトリミングを行う。
 <実施の形態8の効果>
 実施の形態8において、後側方映像表示装置28の撮影装置は、撮影方向の異なる複数のカメラすなわち、広角カメラ281L,281Rおよび後方カメラ281Bである。後側方映像表示装置28は、広角カメラ281L,281Rおよび後方カメラ281Bの撮影画像を合成する合成部251を備え、トリミング部241は、合成部251で合成された画像をトリミングする。従って、走行車線の形状に沿った適切な推奨視認範囲を運転者に視認させることができる。
 <実施の形態9>
 実施の形態9では、自車両が交差点で進路変更する際に、推奨視認領域を適切に設定する。
 図45は、実施の形態9の後側方映像制御システムの構成を示すブロック図である。図45において、他の実施の形態と同一または対応する構成には同一の参照符号を付している。実施の形態9の後側方映像制御システムは、後側方映像制御装置109、後側方映像表示装置29、地図データ格納部32、車両位置検出装置33および車両旋回角度検出装置35を備えている。
 後側方映像制御装置109および後側方映像表示装置29の構成は、実施の形態2の後側方映像制御装置102および後側方映像表示装置22と同様である。
 但し、後側方映像制御装置109は地図データ格納部32、車両位置検出装置33、車両旋回角度検出装置35と接続され、これらを利用可能に構成されている。
 車両旋回角度検出装置35は、自車両が右左折中に旋回角度を検出し、検出した旋回角度を視認範囲設定部12に出力する。
 図46は、実施の形態9の後側方映像制御システムの動作を示すフローチャートである。以下、図46に沿って実施の形態9の後側方映像制御システムの動作を説明する。
 まず、ミラー駆動部211がミラー制御部13Aの制御を受け、電動ミラー212L,212Rがそれぞれ基準視認範囲50L,50Rを運転者に表示するよう、電動ミラー212L、212Rの方向を基準視認方向に調整する(ステップS401)。
 次に、車線形状取得部11が車両位置検出装置33から自車両の位置情報を取得する(ステップS402)。
 その後、車線形状取得部11がステップS402で取得した自車両の位置情報を基に、地図データ格納部32にアクセスして地図データを参照し、自車両の近傍の車線形状を取得する(ステップS403)。ここで自車両の近傍とは、例えば自車両の周囲5mの範囲とする。
 次に、視認範囲設定部12は、車線形状取得部11から自車両の近傍の車線形状および自車両の位置情報を取得し、これらに基づき自車両が交差点で右左折中か否かを判断する(ステップS404)。視認範囲設定部12は、自車両の位置情報を基に自車両が右折車線または左折車線から交差点に進入しているかによって、あるいは、車両旋回角度検出装置35から取得した自車両の旋回角度を基に、自車両が進路変更中であるか否かを判断する。
 ステップS404で自車両が交差点で右左折中の場合、視認範囲設定部12は、交差点への進入車線上に推奨視認領域を設定する(ステップS405)。推奨視認領域は推奨視認範囲とは異なり、進入車線上の絶対位置が定められた領域である。
 次に、視認範囲設定部12は、推奨視認領域を含む領域を推奨視認範囲とする(ステップS406)。具体的には、視認範囲設定部12は、車両旋回角度検出装置35から自車両の交差点における旋回角度を取得し、自車両の旋回角度から、自車両と推奨視認領域との角度を計算する。そして、視認範囲設定部12は自車両と推奨視認領域との角度を基に推奨視認範囲を設定する。視認範囲設定部12は自車両と推奨視認領域の角度を計算する際、推奨視認領域内のある地点を代表点とし、代表点と自車両との角度を計算しても良い。
 一方、ステップS404で自車両が交差点で右左折中でない場合、視認範囲設定部12は自車両の後方車線の形状に基づき推奨視認範囲を設定する(ステップS407)。ここでの推奨視認範囲の設定方法は図12で説明したとおりである。
 視認範囲設定部12がステップS406またはステップS407で推奨視認範囲を設定した後、ミラー駆動部211はミラー制御部13Aの制御に従い電動ミラー212L,212Rの方向を推奨視認方向に合わせる(ステップS408)。
 図47は、自車両Aが交差点を左折する際の推奨視認領域58と、電動ミラー212Lの推奨視認範囲を示している。電動ミラー212Lは、自車両Aが交差点を左折する際、常に推奨視認方向に方向が調整されるため、運転者は常に推奨視認領域58を視認することができる。推奨視認領域58は、交差点に対する進入車線の左端に設定されるため、運転者は自車両Aが左折する際に後方から直進するバイク等の車両を巻き込まないか確認することができる。
 <実施の形態9の効果>
 実施の形態9の後側方映像制御装置109において、自車両が交差点で右折または左折を行う際、視認範囲設定部12は、自車両が交差点への進入の際に走行する進入車線の形状情報に基づき進入車線上に推奨視認領域に設定し、自車両および推奨視認領域の角度並びに自車両の位置に基づき推奨視認範囲を設定する。従って、運転者は自車両が右左折する際に他車両を巻き込まないか確認することができる。
 <ハードウェア構成>
 上述した後側方映像制御装置101-109における車線形状取得部11、視認範囲設定部12、制御部13、ミラー制御部13A、カメラ制御部13Bおよびトリミング制御部13Cは、図48に示す処理回路81により実現される。すなわち、処理回路81は、車線形状取得部11、視認範囲設定部12、制御部13、ミラー制御部13A、カメラ制御部13Bおよびトリミング制御部13C(以下、「車線形状取得部11等」と称する)を備える。処理回路81には、専用のハードウェアが適用されても良いし、メモリに格納されるプログラムを実行するプロセッサが適用されても良い。プロセッサは、例えば中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。
 処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。車線形状取得部11等の各部の機能それぞれは、複数の処理回路81で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
 処理回路81がプロセッサである場合、車線形状取得部11等の機能は、ソフトウェア等(ソフトウェア、ファームウェアまたはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図49に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、後側方映像制御装置101-109は、処理回路81により実行されるときに、自車両の走行車線の形状情報を取得するステップと、自車両の後方の走行車線の形状情報に基づき自車両の後側方のうち自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定めるステップと、推奨視認範囲の映像が運転者に表示されるように後側方映像表示装置を制御するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、車線形状取得部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)及びそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、車線形状取得部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、車線形状取得部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、視認範囲設定部12については専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、処理回路は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。後側方映像制御装置101-109は、車載装置の他、車載装置、PND(Portable Navigation Device)、通信端末(例えば携帯電話、スマートフォン、およびタブレットなどの携帯端末)、およびこれらにインストールされるアプリケーションの機能、並びにサーバなどを適宜に組み合わせて構築されるにも適用することができる。この場合、以上で説明した後側方映像制御装置101-109の各機能または各構成要素は、システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。図50は、自車両AとサーバSによる実施の形態1の後側方映像制御装置101の構成例を示している。自車両Aに車線形状取得部11、制御部13、後側方映像表示装置21が配置され、サーバSに視認範囲設定部12が配置される。
 なお、本発明は、その発明の範囲内において、各実施の形態および各変形例を自由に組み合わせたり、各実施の形態および各変形例を適宜、変形または省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は全ての態様において例示であり、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得る。
 11 車線形状取得部、12 視認範囲設定部、13 制御部、13A ミラー制御部、13B カメラ制御部、13C トリミング制御部、21-29 後側方映像表示装置、31 白線認識装置、32 地図データ格納部、33 車両位置検出装置、34 周辺移動体検出装置、35 車両旋回角度検出装置、44 鏡面、50L,50R 基準視認範囲、52L,52R 推奨視認範囲、81 処理回路、82 プロセッサ、83 メモリ、101-109 後側方映像制御装置、211 ミラー駆動部、212L,212R,213L 電動ミラー、231 カメラ駆動部、232L,232R カメラ、233L,233R モニタ、441 第1の鏡面、442 第2の鏡面。

Claims (16)

  1.  自車両の後側方の映像を運転者に表示する後側方映像表示装置を制御する後側方映像制御装置であって、
     前記自車両の走行車線の形状情報を取得する車線形状取得部と、
     前記自車両の後方の走行車線の形状情報に基づき前記自車両の後側方のうち前記自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定める視認範囲設定部と、
     前記推奨視認範囲の映像が前記運転者に表示されるように前記後側方映像表示装置を制御する制御部と、を備える、
    後側方映像制御装置。
  2.  前記走行車線の形状情報は、前記走行車線の曲率情報を含む、
    請求項1に記載の後側方映像制御装置。
  3.  前記走行車線の形状情報は、前記走行車線の勾配情報を含む、
    請求項1に記載の後側方映像制御装置。
  4.  前記推奨視認範囲は、前記自車両から前記走行車線に沿って第1の距離だけ後方の第1推奨視認地点と、前記第1推奨視認地点から前記自車両の進行方向に対して外側の方向に第2の距離だけ離れた第2推奨視認地点とを含む、
    請求項1に記載の後側方映像制御装置。
  5.  前記後側方映像表示装置は、前記自車両の電動ミラーを備え、
     前記制御部は、前記電動ミラーの方向を制御する、
    請求項1に記載の後側方映像制御装置。
  6.  前記後側方映像表示装置は、
     前記自車両の後側方を撮影する撮影装置と、
     前記撮影装置の撮影映像を表示する前記自車両に搭載されたモニタと、を備える、
    請求項1に記載の後側方映像制御装置。
  7.  前記制御部は、前記撮影装置の撮影方向を制御する、
    請求項6に記載の後側方映像制御装置。
  8.  前記後側方映像表示装置は、前記撮影装置の撮影映像をトリミングするトリミング部を備え、
     前記モニタは、前記トリミング部でトリミングされた映像を表示し、
     前記制御部は、前記トリミング部のトリミング範囲を制御する、
    請求項6に記載の後側方映像制御装置。
  9.  前記撮影装置は撮影方向の異なる複数のカメラであり、
     前記後側方映像表示装置は、前記複数のカメラの撮影映像を合成する合成部を備え、
     前記トリミング部は、前記合成部で合成された映像をトリミングする、
    請求項8に記載の後側方映像制御装置。
  10.  前記車線形状取得部は、前記走行車線の白線を認識する白線認識装置の認識結果に基づき、前記走行車線の形状情報を取得する、
    請求項1に記載の後側方映像制御装置。
  11.  前記車線形状取得部は、前記自車両の位置情報に基づき地図データを参照することにより前記走行車線の形状情報を取得する、
    請求項1に記載の後側方映像制御装置。
  12.  前記地図データは、連続して同じ曲率を有する車線区間を一つのサブリンクで表し、サブリンクの集合として車線の形状を表したデータである、
    請求項11に記載の後側方映像制御装置。
  13.  前記視認範囲設定部は、前記自車両の後方で前記自車両の走行車線の隣接車線を走行する移動体の有無を判断し、前記移動体がいる場合には前記移動体を含む領域を前記推奨視認範囲と定める、
    請求項1に記載の後側方映像制御装置。
  14.  前記視認範囲設定部は、前記自車両の後方の走行車線の形状情報に関わらず前記自車両の後側方のうち前記自車両を基準とした特定の方向に位置する領域を基準視認範囲と定め、
     前記制御部は、前記推奨視認範囲の映像と前記基準視認範囲の映像とが運転者に表示されるよう前記後側方映像表示装置を制御する、
    請求項1に記載の後側方映像制御装置。
  15.  前記自車両が交差点で右折または左折を行う際、
     前記視認範囲設定部は、前記自車両が前記交差点への進入の際に走行する進入車線の形状情報に基づき前記進入車線上に推奨視認領域を設定し、前記自車両および前記推奨視認領域の角度並びに前記自車両の位置に基づき前記推奨視認範囲を設定する、
    請求項1に記載の後側方映像制御装置。
  16.  自車両の後側方の映像を運転者に表示する後側方映像表示装置を制御する後側方映像制御方法であって、
     前記自車両の走行車線の形状情報を取得し、
     前記自車両の後方の走行車線の形状情報に基づき前記自車両の後側方のうち前記自車両を基準とした特定の方向に位置する領域を推奨視認範囲と定め、
     前記推奨視認範囲の映像が前記運転者に表示されるように前記後側方映像表示装置を制御する、
    後側方映像制御方法。
PCT/JP2017/034299 2017-09-22 2017-09-22 後側方映像制御装置および後側方映像制御方法 WO2019058504A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2017/034299 WO2019058504A1 (ja) 2017-09-22 2017-09-22 後側方映像制御装置および後側方映像制御方法
DE112017008075.4T DE112017008075T5 (de) 2017-09-22 2017-09-22 Rücksichtvideo-Steuervorrichtung und Rücksichtvideo-Steuerverfahren
US16/638,281 US20200207275A1 (en) 2017-09-22 2017-09-22 Lateral rear image control apparatus and lateral rear image control method
JP2019542909A JP6727451B2 (ja) 2017-09-22 2017-09-22 後側方映像制御装置および後側方映像制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/034299 WO2019058504A1 (ja) 2017-09-22 2017-09-22 後側方映像制御装置および後側方映像制御方法

Publications (1)

Publication Number Publication Date
WO2019058504A1 true WO2019058504A1 (ja) 2019-03-28

Family

ID=65809567

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034299 WO2019058504A1 (ja) 2017-09-22 2017-09-22 後側方映像制御装置および後側方映像制御方法

Country Status (4)

Country Link
US (1) US20200207275A1 (ja)
JP (1) JP6727451B2 (ja)
DE (1) DE112017008075T5 (ja)
WO (1) WO2019058504A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112565673A (zh) * 2019-09-26 2021-03-26 歌乐株式会社 显示控制装置及显示控制方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11383728B2 (en) * 2019-03-14 2022-07-12 Cnh Industrial America Llc System and method for collecting data associated with the operation of an agricultural machine in different operating modes

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10138838A (ja) * 1996-11-08 1998-05-26 Toyota Motor Corp ミラー制御装置
JP2000028372A (ja) * 1998-07-10 2000-01-28 Honda Motor Co Ltd 道路形状予測方法および車両制御方法
JP2006527689A (ja) * 2003-06-19 2006-12-07 ゾハー アグレスト 車両用ミラーを自動調整するためのシステムおよび方法
JP2009168779A (ja) * 2008-01-21 2009-07-30 Toyota Motor Corp 車載ナビゲーション装置
JP2009280196A (ja) * 2008-04-21 2009-12-03 Denso Corp 視界提供装置、および警告装置
WO2015083228A1 (ja) * 2013-12-03 2015-06-11 富士通株式会社 表示制御装置、表示制御方法、及びプログラム
JP2015144407A (ja) * 2013-12-27 2015-08-06 株式会社Jvcケンウッド 視界支援装置、視界支援方法、及び視界支援プログラム
JP2016220011A (ja) * 2015-05-20 2016-12-22 株式会社デンソー 画像処理装置、電子ミラーシステム、及び画像処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10138838A (ja) * 1996-11-08 1998-05-26 Toyota Motor Corp ミラー制御装置
JP2000028372A (ja) * 1998-07-10 2000-01-28 Honda Motor Co Ltd 道路形状予測方法および車両制御方法
JP2006527689A (ja) * 2003-06-19 2006-12-07 ゾハー アグレスト 車両用ミラーを自動調整するためのシステムおよび方法
JP2009168779A (ja) * 2008-01-21 2009-07-30 Toyota Motor Corp 車載ナビゲーション装置
JP2009280196A (ja) * 2008-04-21 2009-12-03 Denso Corp 視界提供装置、および警告装置
WO2015083228A1 (ja) * 2013-12-03 2015-06-11 富士通株式会社 表示制御装置、表示制御方法、及びプログラム
JP2015144407A (ja) * 2013-12-27 2015-08-06 株式会社Jvcケンウッド 視界支援装置、視界支援方法、及び視界支援プログラム
JP2016220011A (ja) * 2015-05-20 2016-12-22 株式会社デンソー 画像処理装置、電子ミラーシステム、及び画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112565673A (zh) * 2019-09-26 2021-03-26 歌乐株式会社 显示控制装置及显示控制方法
EP3798058A1 (en) * 2019-09-26 2021-03-31 Clarion Co., Ltd. Display control device and display control method
US11245866B2 (en) 2019-09-26 2022-02-08 Clarion Co., Ltd. Display control device and display control method
CN112565673B (zh) * 2019-09-26 2023-09-01 歌乐株式会社 显示控制装置及显示控制方法
JP7440235B2 (ja) 2019-09-26 2024-02-28 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置、及び表示制御方法

Also Published As

Publication number Publication date
DE112017008075T5 (de) 2020-06-18
JP6727451B2 (ja) 2020-07-22
JPWO2019058504A1 (ja) 2020-02-27
US20200207275A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
US9151626B1 (en) Vehicle position estimation system
US9863775B2 (en) Vehicle localization system
KR101389884B1 (ko) 차량 이미지를 처리하기 위한 동적 이미지 처리 방법 및 시스템
US8477191B2 (en) On-vehicle image pickup apparatus
US20140114534A1 (en) Dynamic rearview mirror display features
EP2743889A2 (en) Stereoscopic camera object detection system and method of aligning the same
EP1974998A1 (en) Driving support method and driving support apparatus
US20050030378A1 (en) Device for image detecting objects, people or similar in the area surrounding a vehicle
JP6532616B2 (ja) 表示制御装置、表示システム、及び、表示制御方法
WO2019058504A1 (ja) 後側方映像制御装置および後側方映像制御方法
US20230283758A1 (en) Multi-aperture zoom digital cameras and methods of using same
US10775791B2 (en) Image processing apparatus and method for vehicle
JP6656493B2 (ja) 表示制御装置及び表示制御方法
JP2005182305A (ja) 車両走行支援装置
US10249056B2 (en) Vehicle position estimation system
KR102473404B1 (ko) 탑뷰 제공 장치
KR20220097656A (ko) 운전자 보조 장치, 차량 및 그 제어 방법
JP6621969B2 (ja) 後側方映像制御装置および後側方映像制御方法
US20190193634A1 (en) Vehicle
JP6824439B2 (ja) 表示制御装置及び表示制御方法
JP2005178623A (ja) 車両用表示装置
KR102302574B1 (ko) 스테레오 카메라 모듈 및 스테레오 카메라의 캘리브레이션 방법
JP3373331B2 (ja) 車間距離検出装置
KR101517130B1 (ko) 차량의 주행 안전 시스템
KR20230068653A (ko) 차량용 어라운드 뷰 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17925746

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019542909

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17925746

Country of ref document: EP

Kind code of ref document: A1