WO2014129026A1 - 運転支援装置、および画像処理プログラム - Google Patents

運転支援装置、および画像処理プログラム Download PDF

Info

Publication number
WO2014129026A1
WO2014129026A1 PCT/JP2013/080229 JP2013080229W WO2014129026A1 WO 2014129026 A1 WO2014129026 A1 WO 2014129026A1 JP 2013080229 W JP2013080229 W JP 2013080229W WO 2014129026 A1 WO2014129026 A1 WO 2014129026A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
area
image
display
driving support
Prior art date
Application number
PCT/JP2013/080229
Other languages
English (en)
French (fr)
Inventor
圭 忍田
崇 渡邊
遼彦 西口
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to US14/647,319 priority Critical patent/US9589194B2/en
Priority to CN201380069122.XA priority patent/CN104885448B/zh
Priority to JP2015501270A priority patent/JP6081570B2/ja
Publication of WO2014129026A1 publication Critical patent/WO2014129026A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images

Definitions

  • the present invention relates to a driving support device and an image processing program.
  • Priority is claimed on Japanese Patent Application No. 2013-032009, filed Feb. 21, 2013, the content of which is incorporated herein by reference.
  • a photographing means capable of photographing a rear side area of a vehicle and a blind spot area outside the visible range of a side mirror adjacent to the rear side area and an image photographed by the photographing means are visibly displayed to the driver of the vehicle
  • a driving support device which comprises: This driving support device enlarges the area within the visible range of the side mirror and compresses and displays the dead area outside the visible range of the side mirror, thereby eliminating the discomfort when looking at the door mirror and the monitor, and the door mirror The visual sense of the distance to other vehicles is made to be almost the same regardless of whether it is viewed with the or the monitor.
  • Patent Document 1 mainly aims to generate a display screen close to the appearance of the door mirror, and a compressed image is simply displayed for an area outside the visible range of the door mirror. For this reason, in a specific scene where the necessity for allowing the driver to visually recognize the area far from the vehicle is high, the driver may not be able to visually recognize the area more clearly than in the normal scene.
  • WHEREIN The driving assistance device which can make a driver visually recognize the imaging region far from a vehicle more clearly. , And aims to provide an image processing program.
  • a driving assistance apparatus includes an imaging unit configured to capture an area around a vehicle, an image processing unit configured to process an image captured by the imaging unit to generate a display image, and the image processing A display unit configured to display the display image generated by the unit; and the image processing unit, when the setting condition is not satisfied, of the images captured by the imaging unit, the side far from the vehicle To generate a display image in which the visibility of the display area corresponding to the first area, which is an imaging area, is lower than the visibility of the display area corresponding to a second area, which is the imaging area closer to the vehicle When the setting condition is satisfied, a display image is generated in which the visibility of the display area corresponding to the first area is improved as compared with the case where the setting condition is not satisfied.
  • the driver can more clearly view the imaging region on the side far from the vehicle.
  • the image processing unit changes the luminance, the lightness, the saturation, the contrast, the resolution, or the combination thereof in the display area corresponding to the first area.
  • the visibility may be changed.
  • fluid stimulation can be sufficiently reduced because the factor acting as a direct stimulation on the driver's eye is reduced.
  • the imaging unit may be attached near a door mirror of the vehicle, and may image a rear side of the vehicle;
  • an angle between the imaging direction and the central axis direction of the vehicle may be a region equal to or greater than a predetermined angle, and the second region is the image captured by the imaging unit Among them, the angle between the imaging direction and the direction parallel to the central axis direction of the vehicle may be an area smaller than the predetermined angle.
  • the setting condition may include an operation of a specific switch among the switches mounted on the vehicle.
  • the specific switch may be a switch for operating a turn indicator.
  • the setting condition may include the vehicle traveling in a predetermined area near an intersection.
  • the setting condition may include that a steering angle of the vehicle is equal to or larger than a predetermined value.
  • the setting condition may include that a navigation device mounted on the vehicle has provided guidance on turning or lane change.
  • the image processing unit may change the degree of visibility based on the speed of the vehicle.
  • the speed of the vehicle is low and the fluid stimulation is weak even if the visibility of the display area corresponding to the first area is increased, the display area corresponding to the first area to the driver Clearly visible.
  • the vehicle speed is high and the fluid stimulation becomes strong if the visibility of the display area corresponding to the first area is enhanced, the visibility of the display area corresponding to the first area is reduced to bother the driver. Can be reduced.
  • An image processing program includes an imaging unit for imaging the periphery of a vehicle, an image processing unit for processing an image imaged by the imaging unit to generate a display image, and the image processing
  • the image processing unit of the driving assistance apparatus which includes a display unit for displaying the display image generated by the unit, determines whether the setting condition is satisfied or not, and when the setting condition is not satisfied, the imaging unit Among the captured images, the visibility of the display area corresponding to the first area which is the imaging area far from the vehicle is displayed corresponding to the second area which is the imaging area closer to the vehicle
  • the display image is generated with lower visibility than the area, and when the setting condition is satisfied, the visibility of the display area corresponding to the first area is compared with the case where the setting condition is not satisfied.
  • FIG. 2 is a view showing an example of an imaging area of the camera 10
  • FIG. 21 is a reference diagram shown for comparison with the present embodiment, in which the image data input from the camera 10 is subjected to horizontal flip only and displayed as it is (or in the case where the same processing is performed for the entire image)
  • FIG. 21 shows an example.
  • the driving support device of the present embodiment is mounted on a vehicle such as a vehicle driven by only an engine, a hybrid vehicle, an electric vehicle (EV), and the like. It is displayed as a moving image at a position where a driver such as a panel can visually recognize. This allows the driver to monitor the area behind the vehicle, which would otherwise have to be monitored largely backwards through the left and right side door mirrors etc., by looking at the display device. Therefore, the burden of monitoring of the driver can be reduced. Further, the driver can monitor the rear of the vehicle in a wider area by expanding the imaging area of the camera to the blind spot area of the door mirror. As described above, the driving support device of the present embodiment relates to a technology that suitably assists the driver in monitoring, for example, the rear side of the vehicle, and solves various problems described later.
  • FIG. 1 is a block diagram showing an example of the configuration of the driving support device 1 according to the first embodiment.
  • the driving support device 1 includes a camera 10 (imaging unit), a display device 20 (display unit), a blinker switch 30 (direction indicator), a steering angle sensor 32, a shift position sensor 34, and a navigation device 40. And an electronic control unit (ECU) 50.
  • ECU electronice control unit
  • FIG. 2 is a diagram illustrating the positional relationship of the camera 10, the display device 20, the turn signal switch 30, etc. as viewed from the driver's seat.
  • the camera 10 is attached to, for example, a housing portion of one door mirror of a vehicle (hereinafter, simply referred to as a vehicle) on which the driving assistance device 1 is mounted.
  • the camera 10 may be mounted on either side of the vehicle, but in the following description it shall be mounted on the left side.
  • the camera 10 is attached to the lower part of the left side door mirror LM, for example. Further, the camera 10 may be attached to any position that can capture an image of the rear side of the vehicle, such as near a fender mirror, as well as the door mirror.
  • the display device 20 is attached at any position that can be viewed by the driver, such as an instrument panel of a vehicle.
  • the turn signal switch 30 is attached to a turn signal lever provided at the side of the steering wheel.
  • the camera 10 is, for example, a camera using a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • FIG. 3 is a view showing an example of an imaging area of the camera 10.
  • the imaging area A of the camera 10 is, for example, an imaging area A1 (first area) having an angle with the center axis direction of the vehicle V (the backward direction in the case of vectors)
  • an imaging area A2 second area in which the angle formed with the central axis direction M is less than a predetermined angle ⁇ .
  • the imaging area A2 substantially matches the area that the driver can monitor via the left door mirror.
  • the predetermined angle ⁇ is a set value preset by an experiment or the like.
  • the display device 20 is, for example, a liquid crystal display (LCD) or an organic electroluminescence (EL) display.
  • the display content of the display device 20 according to the embodiment of the present invention is determined by the electronic control unit 50.
  • the display device 20 functions as a touch panel and may double as an input operation device.
  • the display device 20 may be shared by the navigation device 40 and the electronic control unit 50.
  • the display device 20 may be a projection device such as a HUD (Head Up Display).
  • the blinker switch 30 detects, for example, an operation state of a blinker lever for a driver to operate a blinker (a direction indicator), and outputs a signal indicating a detection result to the electronic control unit 50.
  • the turn signal switch 30 outputs a signal indicating to the electronic control unit 50 whether the turn signal lever is in the neutral state, the turn signal lever is operated to the left, or the turn signal lever is operated to the right. Do.
  • the steering angle sensor 32 detects, for example, the steering angle of the steering wheel operated by the driver, and outputs a signal indicating the detection result to the electronic control unit 50.
  • the steering angle sensor 32 may also detect the angle (actual steering angle) of the steered wheels of the vehicle.
  • the shift position sensor 34 detects at which shift position the transmission of the vehicle is operating among, for example, first gear, second gear, D (drive), N (neutral), B (back), etc. A signal indicating the detection result is output to the electronic control unit 50.
  • the navigation device 40 uses, for example, a storage device such as a GPS (Global Positioning System) receiver, an HDD (Hard Disk Drive) storing flash map information, a flash memory, and an EEPROM (Electrically Erasable Programmable Read-Only Memory).
  • a storage device such as a GPS (Global Positioning System) receiver, an HDD (Hard Disk Drive) storing flash map information, a flash memory, and an EEPROM (Electrically Erasable Programmable Read-Only Memory).
  • a navigation control device that performs processing for providing route guidance to a destination, a speaker for voice output, and the like.
  • the GPS receiver detects the position (latitude, longitude, altitude) of the vehicle, for example, by a method such as single positioning, relative positioning (differential-GPS), RTK (real time Kinematic) positioning, or the like.
  • the map information is information in which information such as width, number of lanes, slope, curvature and the like is added to the road of each section, for example, and the shape and the like are described for each intersection.
  • the navigation control device searches for an optimal route from the current position of the vehicle to the destination designated by the driver, and provides guidance information for turning to the left or turn of lane so that the vehicle can travel along the route. Is output from a speaker or the like.
  • the electronic control unit 50 may be, for example, a processing device such as a central processing unit (CPU), a read only memory (ROM), a flash memory, a non-volatile memory such as an HDD or EEPROM, a data memory such as a random access memory (RAM), and communication
  • a processing device such as a central processing unit (CPU), a read only memory (ROM), a flash memory, a non-volatile memory such as an HDD or EEPROM, a data memory such as a random access memory (RAM), and communication
  • An interface, a timer, and the like are control devices connected via a bus.
  • the program memory and the data memory are combined and expressed as a storage unit 60.
  • the electronic control unit 50 includes a determination unit 52 and an image processing unit 54 as functional units that function when the CPU executes a program stored in the non-volatile memory.
  • the determination unit 52 determines whether or not the vehicle satisfies a set condition indicating that the driver is in a specific traveling scene where the driver needs to monitor the imaging area A1 (see FIG. 3).
  • the specific driving scene is, for example, a scene in which the driver is trying to turn left, to change lanes to the left, or traveling near an intersection. In these traveling scenes, there is a high need to monitor vehicles, pedestrians, bicycles, and the like present on the left side, and there is a high need to clearly display the imaging region A1 on the display device 20.
  • the determination unit 52 determines whether the vehicle is in a specific traveling scene based on signals input from the blinker switch 30, the steering angle sensor 32, and the shift position sensor 34, control signals input from the navigation device 40, and the like. judge. Details of the determination by the determination unit 52 will be described later.
  • the image processing unit 54 performs, for example, the processing described below after the image data captured by the camera 10 is horizontally reversed and matched with the scenery when the driver looks at the door mirror LM. Generate a display image to be displayed.
  • the image processing unit 54 performs different processing based on the determination result by the determination unit 52 to generate a display image.
  • the image data captured by the camera 10 is stored, for example, in a buffer area or the like set in the RAM for each imaging frame, and a display image generated by processing the image processing unit 54 is, for example, It is output to the display device 20 for each frame.
  • the display device 20 displays moving images by sequentially displaying display images input from the electronic control unit.
  • the image processing unit 54 reduces the visibility of the display area S1 corresponding to the imaging area A1 than the visibility of the display area S2 corresponding to the imaging area A2 To generate a display image.
  • to reduce the visibility means to reduce any of luminance, lightness, saturation, contrast, or resolution, or a combination thereof (hereinafter referred to as luminance or the like). Also, to reduce the visibility may be to completely mask the entire area to make it invisible.
  • FIG. 4 is a reference diagram for comparison with the present embodiment, in the case where the image data input from the camera 10 is subjected to horizontal flip only and displayed as it is (or in the case where the same processing is performed for the entire image). It is a figure which shows an example of the display image S.
  • FIG. The display area S1 shown in FIG. 4 is an imaging target object corresponding to the travel of the vehicle (guard rail support, parked vehicle, pedestrian, building, etc.) in view of imaging an area away from the vehicle in the vehicle width direction.
  • the movement amount per hour of) is large, and the fluid stimulation in appearance is strong. For this reason, when displaying without performing special processing, the driver may feel troublesome.
  • the image processing unit 54 when the vehicle is not in a specific traveling scene, performs, for example, a predetermined process on image data as the display image for the display area S2 corresponding to the imaging area A2. For the display area S1 corresponding to the imaging area A1, a display image S in which the visibility is lower than that of the display area S2 is generated.
  • the constant process is a process of adjusting the brightness and the like according to the characteristics of the camera 10 and the characteristics of the display device 20, and such a process may not be performed at all.
  • FIG. 5 is a view showing an example of the display image S when the visibility of the display area S1 corresponding to the imaging area A1 is reduced.
  • the driving support device 1 can suppress the driver from feeling troublesome due to fluid stimulation.
  • the visibility of the display area S2 is higher than that of the display area S1, it is possible to achieve the purpose of displaying the same landscape as that seen through the door mirror LM on the display device 20.
  • the compression rate of the region far from the vehicle is increased, so it seems that processing is performed in the same sense, but only by increasing the compression rate In some cases, fluid stimulation can not be reduced sufficiently.
  • the driving support device 1 of the present embodiment can sufficiently reduce the fluid stimulation, because it lowers factors such as brightness and brightness that act as a stimulus directly on the driver's eyes.
  • the image processing unit 54 When the vehicle is in a specific traveling scene, the image processing unit 54 generates a display image in which the visibility of the display area S1 is improved as compared with the case of the above (1). In this case, the image processing unit 54 performs the same process as the constant process performed on the display area S2 in the case of (1), for example, on the entire imaging area A, to obtain a display image S. Not limited to this, the image processing unit 54 may make the brightness and the like of the display areas S1 and S2 different when the vehicle is in a specific traveling scene.
  • the display image S1 when the visibility of the display area S corresponding to the imaging area A1 is improved is, for example, similar to that shown in FIG.
  • an image corresponding to a blind spot area outside the area viewable through the door mirror LH is displayed more clearly.
  • the driver can more clearly view the imaging area A1 far from the vehicle.
  • the area which the driver can monitor is expanded compared to the conventional vehicle.
  • FIG. 6 is a view showing an example of the display image S when the vehicle W which is a monitoring target is present in the imaging area A1.
  • the image processing unit 54 performs processing to increase the luminance or the like of the display area S1 as compared to the case (2).
  • whether or not there is a monitoring target object in the imaging area A1 is within the predetermined distance if the captured image analysis of the camera 10 (extracting an edge point and a rectangular area of a predetermined size or more in which edge points are connected) exists. It may be determined based on the presence of a vehicle or the like, or a radar device or the like may be provided separately from the configuration shown in FIG. 1 to detect the presence and relative position of the object to be monitored.
  • FIG. 7 is an example of a flowchart showing the flow of processing performed by the determination unit 52 of the present embodiment.
  • the flowchart of FIG. 7 is repeatedly executed, for example, in a predetermined cycle.
  • the determination unit 52 determines, based on the signal input from the blinker switch 30, whether the blinker is operated to the left (step S100). When the winker is operated to the left, the determination unit 52 determines that the vehicle is in a specific traveling scene (setting condition is satisfied) (step S112).
  • the determination unit 52 determines whether the vehicle is traveling near the intersection (step S102). When the vehicle is traveling near the intersection, the determination unit 52 determines that the vehicle is in a specific traveling scene (step S112). In addition, the determination unit 52 determines whether or not the vehicle is traveling near the intersection based on a signal input from the navigation device 40. The navigation device 40 repeatedly determines whether the vehicle is traveling near the intersection by comparing the position of the vehicle specified by the GPS receiver with the map information, and outputs the determination result to the electronic control unit 50. Do.
  • the “near intersection” is defined as, for example, an area within an intersection and an area including an area before the intersection.
  • FIG. 8 is a diagram showing an example of an area defined as the vicinity of an intersection.
  • the determination unit 52 determines the magnitude of the steering angle (steering angle or actual steering angle of the vehicle) to the left based on the signal input from the steering angle sensor 32. It is determined whether it is more than a predetermined angle (step S104). If the magnitude of the steering angle of the vehicle to the left (the steering angle or the actual steering angle of the vehicle) is equal to or greater than a predetermined angle, the determination unit 52 determines that the vehicle is in a specific traveling scene (step S112).
  • the determination unit 52 is instructed by the navigation device 40 to make a left turn or a lane change in the left direction (or the guidance is started It is determined whether or not it is within a predetermined time) (step S106).
  • the navigation device 40 guides the driver to turn left or to change lanes in the left direction, the determination unit 52 determines that the vehicle is in a specific traveling scene (step S112).
  • the determination unit 52 determines that the shift position is 1st, 2nd, B (back) based on the signal input from the shift position sensor 34. It is determined whether it is any of (step S108). If the shift position is any one of the first gear, second gear, and B (back), the determination unit 52 determines that the vehicle is in a specific traveling scene (step S112). When the shift position is either 1st gear, 2nd gear, or B (back), the speed of the vehicle is not very high, so that the fluid stimulation by the display image S is not too strong, and, for example, When traveling slowly, it is considered to increase the need to monitor the surroundings of the vehicle.
  • the determination unit 52 determines that it is not a specific traveling scene (the setting condition is not satisfied) (step S110).
  • the determination result by the determination unit 52 is stored, for example, in an area to which the image processing unit 54 in the RAM can refer. Among the determination processes of steps S100 to S108 in the flowchart of FIG. 7, a part of the determination processes may be omitted, or another determination process may be added. For example, if the vehicle speed is equal to or less than a predetermined vehicle speed, it may be determined that the vehicle is in a specific traveling scene.
  • FIG. 9 is an example of a flowchart showing the flow of processing executed by the image processing unit 54 of the present embodiment.
  • the flowchart of FIG. 9 is repeatedly executed, for example, each time data of one frame is processed.
  • the image processing unit 54 determines whether the determination unit 52 determines that the vehicle is in a specific traveling scene (step S150). If the determination unit 52 determines that the scene is not a specific traveling scene, the image processing unit 54 generates a display image in which the visibility of the display area S1 is low and the visibility of the display area S2 is normal (step S152).
  • the image processing unit 54 determines whether a monitoring target object exists in the imaging area A1 (step S154). When it is determined that the monitoring target does not exist in the imaging area A1, the image processing unit 54 generates a display image in which the visibility of the display area S1 and the visibility of the display area S3 are normal (step S156). In step S156, the visibility of the display area S1 may be higher or lower than the visibility of the display area S2. In the description of FIG.
  • the expressions such as low, normal, and high are relative ones, and the high / low relationship of the visibility necessary for the application of the present invention (in the step S152, the visibility of the display area S1 is the display area S2 It is sufficient if the visibility of the display area S1 in step S156 is higher than the visibility of the display area S1 in step S152.
  • the image processing unit 54 If it is determined that the monitoring target is present in the imaging area A1, the image processing unit 54 generates a display image in which the visibility of the display area S1 is high and the visibility of the display area S3 is normal (step S158).
  • the image processing unit 54 outputs the generated display image S to the display device 20 (step S160).
  • the driving support device 1 of the present embodiment when the vehicle is not in a specific traveling scene, the display image S in which the visibility of the display area S1 is lower than that of the display area S2 is generated. As a result, it is possible to prevent the driver from being bothered by fluid stimulation. On the other hand, since the visibility of the display area S2 is higher than that of the display area S1, it is possible to achieve the purpose of displaying the same landscape as that seen through the door mirror LM on the display device 20.
  • the driving support device 1 of the present embodiment it is possible to sufficiently reduce the fluid stimulation because the elements acting as the stimulation directly on the driver's eyes, such as brightness and brightness, are reduced.
  • the driving support device 1 of the present embodiment when the monitoring target is present in the imaging area A1 and the driver is more likely to monitor the imaging area A1, the display area on the side far from the vehicle is displayed. S1 can be more clearly viewed by the driver.
  • the camera 10 is attached to the left side door mirror LM in the description of the first embodiment, the camera 10 may be attached to the right side door mirror RM. Also, the camera 10 may be attached to a place other than the door mirror, or the camera 10 may be attached to the left and right door mirrors as in the third embodiment described later.
  • step S100 in the flowchart of FIG. 7 is read as “determining whether or not the blinker is operated to the right”. Further, the determination in step S104 is read as "determining whether or not the magnitude of the steering angle of the vehicle to the right (the steering angle or the actual steering angle of the vehicle) is equal to or greater than a predetermined angle”. Further, the determination in step S106 is read as “determining whether or not the navigation device 40 guides the user to make a lane change in the right or right direction”.
  • FIG. 10 is a block diagram showing an example of the configuration of the driving support device 2 according to the second embodiment.
  • the driving support device 2 includes a vehicle speed sensor 36 in addition to the configuration of the driving support device 1 of the first embodiment.
  • the description of the parts common to the first embodiment will be omitted, and only the differences from the first embodiment will be described.
  • the vehicle speed sensor 36 includes, for example, a wheel speed sensor attached to each of four wheels of the vehicle, and a computer that generates a signal indicating the vehicle speed according to the output of the wheel speed sensor. Output to In addition, the vehicle speed sensor 36 may be attached to the transmission of the vehicle.
  • the processing of the determination unit 52 is the same as that of the first embodiment, and thus the description thereof is omitted.
  • the image processing unit 54 changes the degree of visibility of the display area S1 based on the vehicle speed input from the vehicle speed sensor 36 when the vehicle is not in a specific traveling scene.
  • FIG. 11 is a diagram illustrating the relationship between the vehicle speed and the visibility (brightness and the like) of the display area S1 in the second embodiment. As illustrated in FIG. 11, the image processing unit 54 of the second embodiment reduces the visibility of the display area S1 as the vehicle speed is higher.
  • the upper limit value U such as luminance is set to be the same as, for example, the luminance in the case of a specific traveling scene.
  • the processing when the vehicle speed is low and the fluid stimulation is weak even if the visibility of the display area S1 is increased, the driver can clearly view the display area S1.
  • the vehicle speed when traveling slowly in a city area, it is possible to cope with an increase in the need to monitor the surroundings of the vehicle.
  • the fluid stimulation becomes strong, the visibility of the display area S1 can be reduced, and the annoyance of the driver can be reduced.
  • the fluid stimulation is low even if the vehicle speed is low and the visibility of the display area S1 is high. If the display area S1 is weak, the driver can clearly view the display area S1. Further, when the vehicle speed is high and the visibility of the display area S1 is enhanced, the fluid stimulation becomes strong, the visibility of the display area S1 can be reduced and the annoyance of the driver can be reduced.
  • FIG. 12 is a block diagram showing an example of the configuration of the driving support device 3 according to the third embodiment.
  • the driving support device 3 according to the third embodiment includes the left camera 12 and the right camera 14 attached to the left and right sides of the vehicle, respectively.
  • the left camera 12 is attached to, for example, the lower part of the left side door mirror LM
  • the right camera 14 is attached to, for example, the lower part of the right side door mirror RM.
  • the left camera 12 and the right camera 14 may be attached at any positions capable of imaging the left rear side and the right rear side of the vehicle, respectively.
  • the electronic control unit 50 further includes an image switching unit 56 as a functional unit that functions when the CPU executes a program stored in the non-volatile memory.
  • an image switching unit 56 as a functional unit that functions when the CPU executes a program stored in the non-volatile memory.
  • FIG. 13 is an example of a flowchart showing the flow of processing performed by the determination unit 52 according to the third embodiment.
  • the flowchart of FIG. 13 is repeatedly executed, for example, in a predetermined cycle.
  • the determination unit 52 determines whether the blinker is operated to the left based on the signal input from the blinker switch 30 (step S200). When the winker is operated to the left, the determination unit 52 determines that the vehicle is in a specific traveling scene (1) (step S222).
  • the specific traveling scene (1) is a scene where it is highly necessary to monitor the side far from the vehicle on the left side of the vehicle. The handling of this will be described later.
  • the determination unit 52 determines whether the winker is operated to the right based on the signal input from the winker switch 30 (step S202). When the winker is operated to the left, the determination unit 52 determines that the vehicle is in a specific traveling scene (2) (step S216).
  • the specific traveling scene (2) is a scene where it is highly necessary to monitor the side far from the vehicle on the right side of the vehicle.
  • the determination unit 52 determines whether the vehicle is traveling near the intersection (step S204). When the vehicle is traveling near the intersection, the determination unit 52 determines that the vehicle is in a specific traveling scene (3) (step S220).
  • the specific traveling scene (3) is a scene judged to be highly necessary to monitor the side far from the vehicle regardless of which side the vehicle is.
  • the determination unit 52 determines whether the magnitude of the steering angle of the vehicle to the left is equal to or greater than a predetermined angle based on the signal input from the steering angle sensor 32 (Step S206). If the magnitude of the steering angle of the vehicle in the left direction is equal to or greater than the predetermined angle, the determination unit 52 determines that the vehicle is in a specific traveling scene (1) (step S222).
  • the determination unit 52 determines that the magnitude of the steering angle of the vehicle in the right direction is the predetermined angle based on the signal input from the steering angle sensor 32 It is determined whether it is above or not (step S208). If the magnitude of the steering angle of the vehicle in the right direction is equal to or greater than the predetermined angle, the determination unit 52 determines that the vehicle is in a specific traveling scene (2) (step S216).
  • the determination unit 52 determines whether or not the navigation device 40 is instructed to make a left turn or a lane change in the left direction (step S210). ). When the navigation device 40 guides the driver to turn left or change lanes in the left direction, the determination unit 52 determines that the vehicle is in a specific traveling scene (1) (step S222).
  • the determination unit 52 determines whether guidance for lane change rightward or rightward navigation is provided by the navigation device 40 (step S212). When the navigation device 40 guides the user to make a right turn or a lane change, the determination unit 52 determines that the vehicle is in a specific traveling scene (2) (step S216).
  • the determination unit 52 determines that the shift position is 1st, 2nd, B (back) based on the signal input from the shift position sensor 34. It is determined whether it is any of (step S214). When the shift position is any one of the first gear, second gear, and B (back), the determination unit 52 determines that the vehicle is in a specific traveling scene (3) (step S220).
  • the determination unit 52 determines that it is not a specific traveling scene (the setting condition is not satisfied) (step S218).
  • the determination result by the determination unit 52 is stored, for example, in an area to which the image processing unit 54 in the RAM can refer.
  • a part of the determination processing of steps S200 to S214 may be omitted, or another determination processing may be added. For example, if the vehicle speed is equal to or less than a predetermined vehicle speed, it may be determined that the vehicle is in a specific traveling scene (3).
  • the image processing unit 54 performs the same process as the process shown in FIG. 9 for each of the left and right image data.
  • the process of step S150 determines whether “the determination unit 52 determines that the vehicle is in a specific traveling scene (1) or (3)
  • the processing in step S150 is “whether or not it is determined that the determination unit 52 is in the specific traveling scene (2) or (3) Replace with "judge".
  • the image switching unit 56 switches which of the left and right side display images is to be displayed on the display device 20 according to the determination result by the determination unit 52. For example, when it is determined that the vehicle is a specific traveling scene (1), the image switching unit 56 causes the display device 20 to display only the display image generated from the captured image of the left camera 12 and the vehicle If it is determined that the specific traveling scene (2), only the display image generated from the captured image of the right camera 14 is displayed on the display device 20, and the vehicle is the specific traveling scene (3) When it is determined, the display screen of the display device 20 is divided and displayed on both the display image generated from the captured image of the left camera 12 and the display image generated from the captured image of the right camera 14.
  • FIG. 14 is an example of a display image of the display device 20 according to the traveling scene of the vehicle.
  • the display image generated from the captured image of the left camera 12 is referred to as “left image”
  • the display image generated from the captured image of the right camera 14 is referred to as “right image”.
  • the driving support device 3 of the present embodiment in addition to the same effects as the driving support device 1 of the first embodiment and the driving support device 3 of the second embodiment, only either side is monitored When the need is high, more appropriate vehicle surroundings monitoring can be realized because the display image on the side is selected.
  • the image switching unit 56 may be omitted, and the display screen of the display device 20 may be constantly divided and displayed on both the left and right display images.
  • the display image is generated based on the captured image obtained by imaging the rear side of the vehicle.
  • a display image may be generated that reproduces the landscape, or may be generated based on a captured image obtained by capturing the front of the vehicle. In the latter case, the captured image may be, for example, an infrared image at night.
  • Imaging unit 20
  • Display device 20
  • blinker switch direction indicator
  • Shift position sensor 36
  • Vehicle speed sensor 40
  • Navigation device 50
  • Determination unit 54
  • image processing unit 56
  • image switching unit 60 storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Studio Devices (AREA)

Abstract

 運転支援装置は、車両周辺を撮像する撮像部と、前記撮像部により撮像された画像に処理を行って表示画像を生成する画像処理部と、前記画像処理部により生成された前記表示画像を表示する表示部と、を備え、前記画像処理部は、設定条件を満たさない場合には、前記撮像部により撮像された前記画像のうち、前記車両から遠い側の撮像領域である第1の領域に対応する表示領域の視認性を、前記車両に近い側の撮像領域である第2の領域に対応する表示領域の視認性よりも低下させた表示画像を生成し、前記設定条件を満たす場合には、前記設定条件を満たさない場合に比して前記第1の領域に対応する前記表示領域の前記視認性を向上させた表示画像を生成する。

Description

運転支援装置、および画像処理プログラム
 本発明は、運転支援装置、および画像処理プログラムに関する。
 本願は、2013年2月21日に出願された日本国特願2013-032009号に基づき優先権を主張し、その内容をここに援用する。
 従来、車両の後側方領域、および後側方領域に隣接するサイドミラーの視認範囲外の死角領域を撮影可能な撮影手段と、撮影手段が撮影した映像を車両の運転者に視認可能に表示する表示手段と、を備える運転支援装置が知られている。この運転支援装置は、サイドミラーの視認範囲内の領域を拡大し、サイドミラーの視認範囲外の死角領域を圧縮して表示することで、ドアミラーとモニタとを見たときの違和感をなくし、ドアミラーとモニタのいずれで視認しても他車両に対する距離感がほぼ一致するようにしている。
日本国特開2008-22125号公報
 上記特許文献1に記載の技術は、ドアミラーの見え方に近い表示画面を生成することを主眼としており、ドアミラーの視認範囲外の領域に関しては、単に圧縮画像を表示するものとしている。このため、車両から遠い側の領域を運転者に視認させる必要性が高くなる特定の場面において、その領域を、通常の場面よりも明確に運転者に視認させることができない場合がある。
 本発明に係る態様は、このような事情を考慮してなされたものであり、特定の場面において、車両から遠い側の撮像領域を、より明確に運転者に視認させることが可能な運転支援装置、および画像処理プログラムを提供することを目的としている。
 本発明は、上記課題を解決して係る目的を達成するために、以下の手段を採用した。
(1)本発明に係る一態様の運転支援装置は、車両周辺を撮像する撮像部と、前記撮像部により撮像された画像に処理を行って表示画像を生成する画像処理部と、前記画像処理部により生成された前記表示画像を表示する表示部と、を備え、前記画像処理部は、設定条件を満たさない場合には、前記撮像部により撮像された前記画像のうち、前記車両から遠い側の撮像領域である第1の領域に対応する表示領域の視認性を、前記車両に近い側の撮像領域である第2の領域に対応する表示領域の視認性よりも低下させた表示画像を生成し、前記設定条件を満たす場合には、前記設定条件を満たさない場合に比して前記第1の領域に対応する前記表示領域の前記視認性を向上させた表示画像を生成する。
 上記(1)の態様によれば、特定の場面において、車両から遠い側の撮像領域を、より明確に運転者に視認させることができる。
(2)上記(1)の態様において、前記画像処理部は、前記第1の領域に対応する前記表示領域における輝度、明度、彩度、コントラスト、または解像度、或いはこれらの組み合わせを変更することによって、前記視認性を変更してもよい。
 上記(2)の場合、運転者の眼に直接的な刺激として作用する要素を低下させるため、流体刺激を十分に低減することができる。
(3)上記(1)または(2)の態様において、前記撮像部は、前記車両のドアミラー付近に取り付けられ、前記車両の後側方を撮像してもよく、前記第1の領域は、前記撮像部が撮像した前記画像のうち撮像方向と前記車両の中心軸方向とのなす角度が所定角度以上の領域であってもよく、前記第2の領域は、前記撮像部が撮像した前記画像のうち前記撮像方向と前記車両の前記中心軸方向に平行な方向とのなす前記角度が前記所定角度未満の領域であってもよい。
(4)上記(1)から(3)のうちいずれか1つの態様において、前記設定条件は、前記車両に搭載されたスイッチのうち、特定のスイッチが操作されたことを含んでよい。
(5)上記(4)の態様において、前記特定のスイッチは、方向指示器を作動させるためのスイッチであってよい。
(6)上記(1)から(5)のうちいずれか1つの態様において、前記設定条件は、前記車両が交差点付近の所定領域を走行していることを含んでよい。
(7)上記(1)から(6)のうちいずれか1つの態様において、前記設定条件は、前記車両の舵角の大きさが所定値以上であることを含んでよい。
(8)上記(1)から(7)のうちいずれか1つの態様において、前記設定条件は、前記車両に搭載されたナビゲーション装置によって右左折または車線変更の案内がなされたことを含んでよい。
(9)上記(1)から(8)のうちいずれか1つの態様において、前記画像処理部は、前記車両の速度に基づいて前記視認性の程度を変更してもよい。
 上記(9)の場合、車両の速度が低く、第1の領域に対応する表示領域の視認性を高くしても流体刺激が弱い場合には、運転者に第1の領域に対応する表示領域を明確に視認させることができる。また、車速が高く、第1の領域に対応する表示領域の視認性を高くすると流体刺激が強くなる場合には、第1の領域に対応する表示領域の視認性を低下させて運転者の煩わしさを軽減することができる。
(10)本発明に係る一態様の画像処理プログラムは、車両周辺を撮像する撮像部と、前記撮像部により撮像された画像に処理を行って表示画像を生成する画像処理部と、前記画像処理部により生成された前記表示画像を表示する表示部とを備える運転支援装置の前記画像処理部に、設定条件を満たすか否かを判定させ、設定条件を満たさない場合には、前記撮像部により撮像された前記画像のうち、前記車両から遠い側の撮像領域である第1の領域に対応する表示領域の視認性を、前記車両に近い側の撮像領域である第2の領域に対応する表示領域の視認性よりも低下させた表示画像を生成させ、前記設定条件を満たす場合には、前記設定条件を満たさない場合に比して前記第1の領域に対応する前記表示領域の前記視認性を向上させた表示画像を生成させる。
 上記(10)の態様によれば、特定の場面において、車両から遠い側の撮像領域を、より明確に運転者に視認させることができる。
 本発明に係る態様によれば、特定の場面において、車両から遠い側の撮像領域を、より明確に運転者に視認させることができる。
本発明に係る第1実施形態の運転支援装置1の構成の一例を示す構成図である。 運転席から見たカメラ10、表示装置20、ウインカスイッチ30などの位置関係を例示した図である。 カメラ10の撮像領域の一例を示す図である。 本実施形態との比較のために示す参考図であり、カメラ10から入力された画像データを左右反転のみ行ってそのまま表示した場合(或いは画像全体について同じ処理を行った場合)の表示画像Sの一例を示す図である。 撮像領域A1に対応する表示領域S1の視認性を低下させた場合の表示画像Sの一例を示す図である。 撮像領域A1内に監視対象物である車両が存在する場合の表示画像Sの一例を示す図である。 本実施形態の判定部52により実行される処理の流れを示すフローチャートの一例である。 交差点付近として定義される領域の一例を示す図である。 本実施形態の画像処理部54により実行される処理の流れを示すフローチャートの一例である。 本発明に係る第2実施形態の運転支援装置2の構成の一例を示す構成図である。 第2実施形態における車速と表示領域S1の視認性(輝度等)の関係を例示した図である。 本発明に係る第3実施形態の運転支援装置3の構成の一例を示す構成図である。 第3実施形態の判定部52により実行される処理の流れを示すフローチャートの一例である。 車両の走行場面に応じた表示装置20の表示画像の一例である。
 以下、図面を参照し、本発明に係る一実施形態の運転支援装置、および画像処理プログラムについて説明する。本実施形態の運転支援装置は、エンジンのみで走行駆動される車両、ハイブリッド車両、電気自動車(EV)などの車両に搭載され、例えば車両の後側方を撮像したカメラの撮像画像を、インストルメントパネルなどの運転者が視認可能な位置で動画像として表示する。これによって、運転者は、本来であれば左右のドアミラーなどを介して、或いは頭部を大きく後方に向けて監視しなければならない車両後方の領域を、表示装置を見ることで監視することができるため、運転者の監視負担を軽減することができる。
また、カメラの撮像領域をドアミラーの死角領域にまで拡げることで、運転者は車両後方をより広域に監視することができる。このように、本実施形態の運転支援装置は、運転者が例えば車両の後側方を監視するのを好適に支援する技術に関するものであり、後述する種々の課題を解決するものである。
 <第1実施形態>
 [構成]
 以下、第1実施形態に係る運転支援装置1について説明する。図1は、第1実施形態に係る運転支援装置1の構成の一例を示す構成図である。運転支援装置1は、カメラ10(撮像部)と、表示装置20(表示部)と、ウインカスイッチ30(方向指示器)と、舵角センサ32と、シフト位置センサ34と、ナビゲーション装置40と、電子制御ユニット(ECU;Electronic Control Unit)50とを備える。
 図2は、運転席から見たカメラ10、表示装置20、ウインカスイッチ30などの位置関係を例示した図である。図2に示すように、カメラ10は、例えば、運転支援装置1が搭載される車両(以下、単に車両と称する)の一方のドアミラーのハウジング部に取り付けられる。カメラ10は、車両のいずれの側に取り付けられてもよいが、以下の説明では、左側に取り付けられるものとする。カメラ10は、例えば、左側のドアミラーLMの下部に取り付けられる。また、カメラ10は、ドアミラーに限らず、フェンダーミラー付近など、車両の後側方を撮像可能な任意の位置に取り付けられてもよい。表示装置20は、車両のインストルメントパネルなど、運転者が視認可能な任意の位置に取り付けられる。
ウインカスイッチ30は、ステアリングホイール脇に備えられたウインカレバーに取り付けられる。
 カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの固体撮像素子を用いたカメラである。カメラ10は、例えば、所定周期毎に車両の後側方を撮像し、撮像した画像のデータ(画像データ)を電子制御ユニット50に出力する。図3は、カメラ10の撮像領域の一例を示す図である。図3において、カメラ10の撮像領域Aは、例えば、車両Vの中心軸方向(ベクトルで考える場合は、後退方向)Mとのなす角度が所定角度θ以上の撮像領域A1(第1の領域)と、中心軸方向Mとのなす角度が所定角度θ未満の撮像領域A2(第2の領域)とを含む。撮像領域A2は、運転者が左ドアミラーを介して監視可能な領域とほぼ一致させる。所定角度θは、実験などにより予め設定された設定値である。
 図1に戻り、説明を行う。表示装置20は、例えば、液晶表示装置(LCD;Liquid Crystal Display)や有機EL(Electroluminescence)表示装置などである。本発明の実施に係る表示装置20の表示内容は、電子制御ユニット50により決定される。表示装置20は、タッチパネルとして機能し、入力操作装置を兼ねてもよい。また、表示装置20は、ナビゲーション装置40と電子制御ユニット50で共用されるものであってもよい。また、表示装置20は、HUD(Head Up Display)などの投射装置であってもよい。
 ウインカスイッチ30は、例えば、運転者がウインカ(方向指示器)を作動させるためのウインカレバーの操作状態を検出し、検出結果を示す信号を電子制御ユニット50に出力する。ウインカスイッチ30は、ウインカレバーが操作されていない中立の状態、ウインカレバーが左側に操作された状態、ウインカレバーが右側に操作された状態のいずれであるかを示す信号を電子制御ユニット50に出力する。
 舵角センサ32は、例えば、運転者により操作されるステアリングホイールの舵角を検出し、検出結果を示す信号を電子制御ユニット50に出力する。また、舵角センサ32は、車両の操舵輪の角度(実舵角)を検出してもよい。
 シフト位置センサ34は、車両の変速機が、例えば、1速、2速、D(ドライブ)、N(ニュートラル)、B(バック)等のうちいずれのシフト位置で動作しているかを検出し、検出結果を示す信号を電子制御ユニット50に出力する。
 ナビゲーション装置40は、例えば、GPS(Global Positioning System)受信機、地図情報を格納したHDD(Hard Disk Drive)やフラッシュメモリ、EEPROM(Electrically Erasable Programmable Read-Only Memory)などの記憶装置、これらを利用して目的地までの経路案内などを行うための処理を行うナビゲーション制御装置、音声出力のためのスピーカなどを備える。GPS受信機は、例えば、単独測位や相対測位(Differential-GPS)、RTK(Real Time Kinematic)測位などの手法により、車両の位置(緯度、経度、高度)を検出する。地図情報は、例えば各区間の道路について幅員、車線数、勾配、曲率などの情報が付加され、また、交差点ごとにその形状などが記述された情報である。ナビゲーション制御装置は、車両の現在位置から、運転者により指定された目的地に至る最適な経路を探索し、経路に沿って車両が走行できるように、右左折の案内情報や車線変更の案内情報を、スピーカなどから出力する。
 電子制御ユニット50は、例えば、CPU(Central Processing Unit)などの処理装置、ROM(Read Only Memory)やフラッシュメモリ、HDD、EEPROMなどの不揮発性メモリ、RAM(Random Access Memory)などのデータメモリ、通信インターフェース、タイマなどがバスを介して接続された制御装置である。図1では、プログラムメモリとデータメモリを合わせて記憶部60と表現している。また、電子制御ユニット50は、不揮発性メモリに格納されたプログラムをCPUが実行することにより機能する機能部として、判定部52と、画像処理部54とを備える。
 判定部52は、車両が、運転者が撮像領域A1(図3参照)を監視する必要性の高い特定の走行場面にあることを示す設定条件を満たすか否かを判定する。特定の走行場面とは、例えば、運転者が左折をしようとしていたり、左側に車線変更をしようとしていたり、或いは交差点付近を走行している場面である。これらの走行場面では、左側方に存在する車両や歩行者、自転車などを監視する必要性が高く、撮像領域A1を表示装置20に明確に表示させる必要性が高い。判定部52は、車両が特定の走行場面にあるか否かを、ウインカスイッチ30、舵角センサ32、シフト位置センサ34から入力される信号、ナビゲーション装置40から入力される制御信号などに基づいて判定する。判定部52による判定の詳細については後述する。
 [表示画像の生成]
 画像処理部54は、カメラ10により撮像された画像データを、例えば、左右反転させて運転者がドアミラーLMを見た風景と一致させた上で、以下に説明する処理を行い、表示装置20が表示する表示画像を生成する。画像処理部54は、判定部52による判定結果に基づいて、異なる処理を行って表示画像を生成する。カメラ10により撮影された画像データは、例えば撮像フレーム毎に、RAM上に設定されたバッファ領域などに格納され、これに対して画像処理部54が処理を行って生成された表示画像が、例えばフレーム毎に表示装置20に出力される。表示装置20は、電子制御ユニットから入力された表示画像を順次表示することで、動画像の表示を行う。
 (1)車両が特定の走行場面にない場合、画像処理部54は、撮像領域A1に対応する表示領域S1の視認性を、撮像領域A2に対応する表示領域S2の視認性よりも低下させる処理を行って、表示画像を生成する。ここで、視認性を低下させるとは、輝度、明度、彩度、コントラスト、または解像度のいずれか、或いはこれらの組み合わせ(以下、輝度等と称する)を低下させることをいう。また、視認性を低下させるとは、領域全体を完全にマスクして見えなくすることであってもよい。
 図4は、本実施形態との比較のために示す参考図であり、カメラ10から入力された画像データを左右反転のみ行ってそのまま表示した場合(或いは画像全体について同じ処理を行った場合)の表示画像Sの一例を示す図である。図4に示す表示領域S1は、車両から車両幅方向に離れた領域を撮像している関係上、車両の走行に応じた撮像対象物(ガードレールの支柱、駐車車両、歩行者、建物その他をいう)の時間当たりの移動量が大きく、見た目の流体刺激が強いものとなる。このため、特段の処理を行わずに表示すると、運転者が煩わしさを覚える場合がある。従って、本実施形態の画像処理部54は、車両が特定の走行場面にない場合、撮像領域A2に対応する表示領域S2については、例えば画像データに対して一定の処理を行って表示画像とし、撮像領域A1に対応する表示領域S1については、表示領域S2よりも視認性を低下させた表示画像Sを生成する。一定の処理とは、カメラ10の特性と表示装置20の特性に応じて輝度などを調整する処理であり、こうした処理を全く行わないことも可能である。
 図5は、撮像領域A1に対応する表示領域S1の視認性を低下させた場合の表示画像Sの一例を示す図である。係る処理によって、本実施形態の運転支援装置1は、運転者が流体刺激によって煩わしさを覚えるのを抑制することができる。一方、表示領域S2については、表示領域S1よりも視認性が高くなっているため、ドアミラーLMを介して見るものと同じ風景を表示装置20に表示させるという目的を達成することができる。
 ここで、上記特許文献1に記載の装置では、車両から遠い側の領域の圧縮率を高くしているため、同じ趣旨で処理を行っているようにも思えるが、圧縮率を高くするのみでは、流体刺激を十分に低減することができない場合がある。これに対し、本実施形態の運転支援装置1は、輝度や明度など、運転者の眼に直接的な刺激として作用する要素を低下させるため、流体刺激を十分に低減することができる。
 (2)車両が特定の走行場面にある場合、画像処理部54は、表示領域S1の視認性を上記(1)の場合よりも向上させた表示画像を生成する。この場合、画像処理部54は、撮像領域A全体について、例えば(1)の場合に表示領域S2に対して行われる一定の処理と同じ処理を行って表示画像Sとする。これに限らず、画像処理部54は、車両が特定の走行場面にある場合において、表示領域S1とS2の輝度等を異ならせてもよい。
 撮像領域A1に対応する表示領域Sの視認性を向上させた場合の表示画像S1は、例えば、図4に示すものと同様のものとなる。係る処理によって、車両が特定の走行場面にある場合には、ドアミラーLHを介して見ることができる領域よりも外側の死角領域に相当する画像が、より明確に表示される。これにより、特定の場面において、車両から遠い側の撮像領域A1を、より明確に運転者に視認させることができる。この結果、従来の車両よりも運転者が監視できる領域が拡がる。
 (3)車両が特定の走行場面にあり、且つ、撮像領域A1内に監視対象物(車両、歩行者等)が存在する場合、画像処理部54は、表示領域S1の視認性を上記(2)よりも向上させた表示画像を生成する。図6は、撮像領域A1内に監視対象物である車両Wが存在する場合の表示画像Sの一例を示す図である。この場合、画像処理部54は、(2)の場合よりも表示領域S1の輝度等を高くする処理を行う。これによって、運転者が撮像領域A1を監視する必要性が更に高い場合には、車両から遠い側の表示領域S1を、更に明確に運転者に視認させることができる。なお、撮像領域A1内に監視対象物が存在するか否かは、カメラ10の撮像画像解析(エッジ点を抽出し、エッジ点を連ねた所定サイズ以上の矩形領域が存在すれば、所定距離以内に存在する車両と判断するなど)により行ってもよいし、図1に示す構成とは別にレーダー装置などを備えて監視対象物の存在および相対位置を検知してもよい。
 [処理フロー]
 以下、判定部52による判定の詳細に係る処理の流れと、画像処理部54による処理の流れについて説明する。図7は、本実施形態の判定部52により実行される処理の流れを示すフローチャートの一例である。図7のフローチャートは、例えば所定周期で繰り返し実行される。
 まず、判定部52は、ウインカスイッチ30から入力される信号に基づき、ウインカが左側に操作されているか否かを判定する(ステップS100)。ウインカが左側に操作されている場合、判定部52は、特定の走行場面にある(設定条件を満たす)と判定する(ステップS112)。
 ウインカが左側に操作されていない場合、判定部52は、車両が交差点付近を走行中であるか否かを判定する(ステップS102)。車両が交差点付近を走行中である場合、判定部52は、特定の走行場面にあると判定する(ステップS112)。なお、判定部52は、車両が交差点付近を走行中であるか否かを、ナビゲーション装置40から入力される信号により判定する。ナビゲーション装置40は、GPS受信機により特定される車両の位置と地図情報を照らし合わせることにより、車両が交差点付近を走行中であるか否かを繰り返し判定し、判定結果を電子制御ユニット50に出力する。「交差点付近」とは、例えば交差点内の領域と、交差点手前の領域を含む領域と定義される。図8は、交差点付近として定義される領域の一例を示す図である。
 車両が交差点付近を走行中でない場合、判定部52は、舵角センサ32から入力される信号に基づき、左方向への車両の舵角(ステアリング舵角または車両の実舵角)の大きさが所定角度以上であるか否かを判定する(ステップS104)。左方向への車両の舵角(ステアリング舵角または車両の実舵角)の大きさが所定角度以上である場合、判定部52は、特定の走行場面にあると判定する(ステップS112)。
 左方向への車両の舵角の大きさが所定角度未満である場合、判定部52は、ナビゲーション装置40により左折または左方向への車線変更の案内がなされている(あるいは、案内が開始されてから所定時間以内である)か否かを判定する(ステップS106)。ナビゲーション装置40により左折または左方向への車線変更の案内がなされている場合、判定部52は、特定の走行場面にあると判定する(ステップS112)。
 ナビゲーション装置40により左折または左方向への車線変更の案内がなされていない場合、判定部52は、シフト位置センサ34から入力される信号に基づき、シフト位置が1速、2速、B(バック)のいずれかであるか否かを判定する(ステップS108)。シフト位置が1速、2速、B(バック)のいずれかである場合、判定部52は、特定の走行場面にあると判定する(ステップS112)。係る処理は、シフト位置が1速、2速、B(バック)のいずれかである場合、車両の速度が余り高くないため、表示画像Sによる流体刺激が余り強くならないことと、例えば市街地などを徐行している場合には車両の周辺監視をする必要性が高まることを考慮したものである。
 ステップS100~S108のいずれにおいても否定的な判定を得た場合、判定部52は、特定の走行場面でない(設定条件を満たさない)と判定する(ステップS110)。
 判定部52による判定結果は、例えばRAMにおける画像処理部54が参照可能な領域に格納される。なお、図7のフローチャートにおいてステップS100~S108の判定処理のうち、一部が省略されてもよいし、他の判定処理が追加されてもよい。例えば、車速が所定車速以下であれば、車両が特定の走行場面にあると判定してもよい。
 図9は、本実施形態の画像処理部54により実行される処理の流れを示すフローチャートの一例である。図9のフローチャートは、例えば1フレーム分のデータを処理する度に、繰り返し実行される。
 まず、画像処理部54は、判定部52により特定の走行場面にあると判定されたか否かを判定する(ステップS150)。判定部52により特定の走行場面でないと判定された場合、画像処理部54は、表示領域S1の視認性を低く、表示領域S2の視認性を普通にした表示画像を生成する(ステップS152)。
 判定部52により特定の走行場面にあると判定された場合、画像処理部54は、撮像領域A1内に監視対象物が存在するか否かを判定する(ステップS154)。撮像領域A1内に監視対象物が存在しないと判定した場合、画像処理部54は、表示領域S1の視認性と表示領域S3の視認性を普通にした表示画像を生成する(ステップS156)。ステップS156において、表示領域S1の視認性を表示領域S2の視認性よりも高くしてよいし、低くしてもよい。なお、図9の説明において、低い、普通、高いといった表現は相対的なものであり、本発明の適用上、必要な視認性の高低関係(ステップS152において表示領域S1の視認性が表示領域S2の視認性よりも低く、ステップS156における表示領域S1の視認性がステップS152における表示領域S1の視認性よりも高い)が満たされていれば足りる。
 撮像領域A1内に監視対象物が存在すると判定した場合、画像処理部54は、表示領域S1の視認性を高く、表示領域S3の視認性を普通にした表示画像を生成する(ステップS158)。
 ステップS150~S158の処理を終了すると、画像処理部54は、生成した表示画像Sを表示装置20に出力する(ステップS160)。
 [まとめ]
 以上説明した本実施形態の運転支援装置1によれば、車両が特定の走行場面にある場合には、特定の走行場面にない場合に比して、表示領域S1の輝度等が向上した表示画像Sが生成される。この結果、特定の場面において、車両から遠い側の撮像領域を、より明確に運転者に視認させることができる。この結果、従来の車両よりも運転者が監視できる領域が拡がる。
 また、本実施形態の運転支援装置1によれば、車両が特定の走行場面にない場合には、表示領域S1の視認性が表示領域S2よりも低い表示画像Sが生成される。この結果、運転者が流体刺激によって煩わしさを覚えるのを抑制することができる。一方、表示領域S2については、表示領域S1よりも視認性が高くなっているため、ドアミラーLMを介して見るものと同じ風景を表示装置20に表示させるという目的を達成することができる。
 また、本実施形態の運転支援装置1によれば、輝度や明度など、運転者の眼に直接的な刺激として作用する要素を低下させるため、流体刺激を十分に低減することができる。
 また、本実施形態の運転支援装置1によれば、撮像領域A1に監視対象物が存在し、運転者が撮像領域A1を監視する必要性が更に高い場合には、車両から遠い側の表示領域S1を、更に明確に運転者に視認させることができる。
 [右側への搭載について]
 第1実施形態の説明では、カメラ10が左側のドアミラーLMに取り付けられるものとしたが、右側のドアミラーRMに取り付けられてもよい。また、カメラ10がドアミラー以外の箇所に取り付けられてもよいし、後述する第3実施形態のように、カメラ10が左右のドアミラーに取り付けられてもよい。
 カメラ10が右側のドアミラーRMに取り付けられる場合、図7のフローチャートにおけるステップS100の判定は、「ウインカが右側に操作されているか否かを判定する」と読み替える。また、ステップS104の判定は、「右方向への車両の舵角(ステアリング舵角または車両の実舵角)の大きさが所定角度以上であるか否かを判定する」と読み替える。また、ステップS106の判定は、「ナビゲーション装置40により右折または右方向への車線変更の案内がなされているか否かを判定する」と読み替える。
 <第2実施形態>
 以下、第2実施形態に係る運転支援装置2について説明する。図10は、第2実施形態に係る運転支援装置2の構成の一例を示す構成図である。運転支援装置2は、第1実施形態の運転支援装置1が備える構成に加えて、車速センサ36を備える。以下、第1実施形態と共通する部分については説明を省略し、第1実施形態との相違点についてのみ説明する。
 車速センサ36は、例えば、車両の四輪にそれぞれ取り付けられた車輪速センサと、車輪速センサの出力に応じて車速を示す信号を生成する計算機とを含み、車速を示す信号を電子制御ユニット50に出力する。また、車速センサ36は、車両の変速機に取り付けられるものであってもよい。
 判定部52の処理に関しては、第1実施形態と同様であるため、説明を省略する。
 第2実施形態に係る画像処理部54は、車両が特定の走行場面にない場合において、車速センサ36から入力される車速に基づいて、表示領域S1の視認性の程度を変更する。
図11は、第2実施形態における車速と表示領域S1の視認性(輝度等)の関係を例示した図である。図11に示すように、第2実施形態の画像処理部54は、車速が高いほど、表示領域S1の視認性を低下させる。なお、輝度等の上限値Uは、例えば、特定の走行場面にある場合の輝度等と同じに設定される。
 係る処理によって、車速が低く、表示領域S1の視認性を高くしても流体刺激が弱い場合には、運転者に表示領域S1を明確に視認させることができる。この結果、例えば市街地などで徐行している場合に、車両の周辺監視をする必要性が高まることに対応することができる。また、この逆に、車速が高く、表示領域S1の視認性を高くすると流体刺激が強くなる場合には、表示領域S1の視認性を低下させて運転者の煩わしさを軽減することができる。
 以上説明した本実施形態の運転支援装置2によれば、第1実施形態の運転支援装置1と同様の効果を奏する他、車速が低く、表示領域S1の視認性を高くしても流体刺激が弱い場合には、運転者に表示領域S1を明確に視認させることができる。また、車速が高く、表示領域S1の視認性を高くすると流体刺激が強くなる場合には、表示領域S1の視認性を低下させて運転者の煩わしさを軽減することができる。
 <第3実施形態>
 以下、第3実施形態に係る運転支援装置3について説明する。図12は、第3実施形態に係る運転支援装置3の構成の一例を示す構成図である。第3実施形態に係る運転支援装置3は、車両の左右の側にそれぞれ取り付けられた、左カメラ12、右カメラ14を備える。左カメラ12は、例えば左側のドアミラーLMの下部に取り付けられ、右カメラ14は、例えば右側のドアミラーRMの下部に取り付けられる。これに限らず、左カメラ12と右カメラ14は、それぞれ車両の左後側方と右後側方を撮像可能な任意の位置に取り付けられてよい。
 また、第3実施形態に係る電子制御ユニット50は、不揮発性メモリに格納されたプログラムをCPUが実行することにより機能する機能部として、画像切替部56を更に備える。以下、第1または第2実施形態と共通する部分については説明を省略し、相違点を中心に説明する。
 図13は、第3実施形態に係る判定部52により実行される処理の流れを示すフローチャートの一例である。図13のフローチャートは、例えば所定周期で繰り返し実行される。
 まず、判定部52は、ウインカスイッチ30から入力される信号に基づき、ウインカが左側に操作されているか否かを判定する(ステップS200)。ウインカが左側に操作されている場合、判定部52は、特定の走行場面(1)にあると判定する(ステップS222)。ここで、特定の走行場面(1)とは、車両の左側における車両から遠い側を監視する必要性が高い場面である。これの扱いについては、後述する。
 ウインカが左側に操作されていない場合、判定部52は、ウインカスイッチ30から入力される信号に基づき、ウインカが右側に操作されているか否かを判定する(ステップS202)。ウインカが左側に操作されている場合、判定部52は、特定の走行場面(2)にあると判定する(ステップS216)。ここで、特定の走行場面(2)とは、車両の右側における車両から遠い側を監視する必要性が高い場面である。
 ウインカが右側に操作されていない場合、判定部52は、車両が交差点付近を走行中であるか否かを判定する(ステップS204)。車両が交差点付近を走行中である場合、判定部52は、特定の走行場面(3)にあると判定する(ステップS220)。ここで、特定の走行場面(3)とは、車両のいずれの側かに拘わらず、車両から遠い側を監視する必要性が高いと判断される場面である。
 車両が交差点付近を走行中でない場合、判定部52は、舵角センサ32から入力される信号に基づき、左方向への車両の舵角の大きさが所定角度以上であるか否かを判定する(ステップS206)。左方向への車両の舵角の大きさが所定角度以上である場合、判定部52は、特定の走行場面(1)にあると判定する(ステップS222)。
 左方向への車両の舵角の大きさが所定角度未満である場合、判定部52は、舵角センサ32から入力される信号に基づき、右方向への車両の舵角の大きさが所定角度以上であるか否かを判定する(ステップS208)。右方向への車両の舵角の大きさが所定角度以上である場合、判定部52は、特定の走行場面(2)にあると判定する(ステップS216)。
 右方向への車両の舵角の大きさが所定角度未満である場合、判定部52は、ナビゲーション装置40により左折または左方向への車線変更の案内がなされているか否かを判定する(ステップS210)。ナビゲーション装置40により左折または左方向への車線変更の案内がなされている場合、判定部52は、特定の走行場面(1)にあると判定する(ステップS222)。
 ナビゲーション装置40により左折または左方向への車線変更の案内がなされていない場合、判定部52は、ナビゲーション装置40により右折または右方向への車線変更の案内がなされているか否かを判定する(ステップS212)。ナビゲーション装置40により右折または右方向への車線変更の案内がなされている場合、判定部52は、特定の走行場面(2)にあると判定する(ステップS216)。
 ナビゲーション装置40により右折または右方向への車線変更の案内がなされていない場合、判定部52は、シフト位置センサ34から入力される信号に基づき、シフト位置が1速、2速、B(バック)のいずれかであるか否かを判定する(ステップS214)。シフト位置が1速、2速、B(バック)のいずれかである場合、判定部52は、特定の走行場面(3)にあると判定する(ステップS220)。
 ステップS200~S214のいずれにおいても否定的な判定を得た場合、判定部52は、特定の走行場面でない(設定条件を満たさない)と判定する(ステップS218)。
 判定部52による判定結果は、例えばRAMにおける画像処理部54が参照可能な領域に格納される。なお、図13のフローチャートにおいてステップS200~S214の判定処理のうち、一部が省略されてもよいし、他の判定処理が追加されてもよい。例えば、車速が所定車速以下であれば、車両が特定の走行場面(3)にあると判定してもよい。
 第3実施形態に係る画像処理部54は、左右の画像データのそれぞれについて、図9に示した処理と同様の処理を行う。なお、左側の画像データについて図9のフローチャートの処理を行う場合、ステップS150の処理は、「判定部52により特定の走行場面(1)または(3)にあると判定されたか否かを判定する」と読み替え、右側の画像データについて図9のフローチャートの処理を行う場合、ステップS150の処理は、「判定部52により特定の走行場面(2)または(3)にあると判定されたか否かを判定する」と読み替える。
 画像切替部56は、判定部52による判定結果に応じて、左右いずれの側の表示画像を表示装置20に表示させるかを切り替える。例えば、画像切替部56は、車両が特定の走行場面(1)であると判定された場合には、左カメラ12の撮像画像から生成された表示画像のみを表示装置20に表示させ、車両が特定の走行場面(2)であると判定された場合には、右カメラ14の撮像画像から生成された表示画像のみを表示装置20に表示させ、車両が特定の走行場面(3)であると判定された場合には、左カメラ12の撮像画像から生成された表示画像と右カメラ14の撮像画像から生成された表示画像の双方を、表示装置20の表示画面を分割して表示させる。なお、左側のドアミラーLMの方が、より大きい視線の動きを要することを考慮すると、車両が特定の走行場面(3)であると判定された場合には、左カメラ12の撮像画像から生成された表示画像を表示装置20に表示させてもよいし、左カメラ12の撮像画像から生成された表示画像を右カメラ14の撮像画像から生成された表示画像よりも大きい割合で表示装置20に表示させてもよい。車両が特定の走行場面にないと判定された場合、画像の切り替えに関しては、車両が特定の走行場面(3)であると判定された場合と同様であってもよい。図14は、車両の走行場面に応じた表示装置20の表示画像の一例である。図14では、左カメラ12の撮像画像から生成された表示画像を「左画像」と、右カメラ14の撮像画像から生成された表示画像を「右画像」と表記している。
 以上説明した本実施形態の運転支援装置3によれば、第1実施形態の運転支援装置1や第2実施形態の運転支援装置3と同様の効果を奏する他、左右いずれかの側のみ監視する必要性が高い場合に、その側の表示画像を選択するため、より適切な車両の周辺監視を実現することができる。
 なお、第3実施形態において、画像切替部56を省略し、左右の表示画像の双方を、常時、表示装置20の表示画面を分割して表示させるものとしてもよい。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
 例えば、上記実施形態では、車両の後側方を撮像した撮像画像に基づいて表示画像を生成するものとしたが、車両の後方を撮像した撮像画像に基づいて、ルームミラーを介して後方を見た風景を再現する表示画像を生成してもよいし、車両の前方を撮像した撮像画像に基づいて表示画像を生成してもよい。後者の場合、撮像画像は、例えば、夜間における赤外線画像であってよい。
1、2、3 運転支援装置10 カメラ(撮像部)20 表示装置(表示部)30 ウインカスイッチ(方向指示器)32 舵角センサ34 シフト位置センサ36 車速センサ40 ナビゲーション装置50 電子制御ユニット52 判定部54 画像処理部56 画像切替部60 記憶部

Claims (10)

  1.  車両周辺を撮像する撮像部と、
     前記撮像部により撮像された画像に処理を行って表示画像を生成する画像処理部と、
     前記画像処理部により生成された前記表示画像を表示する表示部と、を備え、
     前記画像処理部は、
      設定条件を満たさない場合には、前記撮像部により撮像された前記画像のうち、前記車両から遠い側の撮像領域である第1の領域に対応する表示領域の視認性を、前記車両に近い側の撮像領域である第2の領域に対応する表示領域の視認性よりも低下させた表示画像を生成し、
      前記設定条件を満たす場合には、前記設定条件を満たさない場合に比して前記第1の領域に対応する前記表示領域の前記視認性を向上させた表示画像を生成する、
     運転支援装置。
  2.  請求項1記載の運転支援装置であって、
     前記画像処理部は、前記第1の領域に対応する前記表示領域における輝度、明度、彩度、コントラスト、または解像度、或いはこれらの組み合わせを変更することによって、前記視認性を変更する、
     運転支援装置。
  3.  請求項1または2記載の運転支援装置であって、
     前記撮像部は、前記車両のドアミラー付近に取り付けられ、前記車両の後側方を撮像し、
     前記第1の領域は、前記撮像部が撮像した前記画像のうち撮像方向と前記車両の中心軸方向とのなす角度が所定角度以上の領域であり、前記第2の領域は、前記撮像部が撮像した前記画像のうち前記撮像方向と前記車両の前記中心軸方向とのなす前記角度が前記所定角度未満の領域である、
     運転支援装置。
  4.  請求項1から3のうちいずれか1項記載の運転支援装置であって、
     前記設定条件は、前記車両に搭載されたスイッチのうち、特定のスイッチが操作されたことを含む、
     運転支援装置。
  5.  請求項4記載の運転支援装置であって、
     前記特定のスイッチは、方向指示器を作動させるためのスイッチである、
     運転支援装置。
  6.  請求項1から5のうちいずれか1項記載の運転支援装置であって、
     前記設定条件は、前記車両が交差点付近の所定領域を走行していることを含む、
     運転支援装置。
  7.  請求項1から6のうちいずれか1項記載の運転支援装置であって、
     前記設定条件は、前記車両の舵角の大きさが所定値以上であることを含む、
     運転支援装置。
  8.  請求項1から7のうちいずれか1項記載の運転支援装置であって、
     前記設定条件は、前記車両に搭載されたナビゲーション装置によって右左折または車線変更の案内がなされたことを含む、
     運転支援装置。
  9.  請求項1から8のうちいずれか1項記載の運転支援装置であって、
     前記画像処理部は、前記車両の速度に基づいて前記視認性の程度を変更する、
     運転支援装置。
  10.  車両周辺を撮像する撮像部と、前記撮像部により撮像された画像に処理を行って表示画像を生成する画像処理部と、前記画像処理部により生成された前記表示画像を表示する表示部とを備える運転支援装置の前記画像処理部に、
     設定条件を満たすか否かを判定させ、
     設定条件を満たさない場合には、前記撮像部により撮像された前記画像のうち、前記車両から遠い側の撮像領域である第1の領域に対応する表示領域の視認性を、前記車両に近い側の撮像領域である第2の領域に対応する表示領域の視認性よりも低下させた表示画像を生成させ、
     前記設定条件を満たす場合には、前記設定条件を満たさない場合に比して前記第1の領域に対応する前記表示領域の前記視認性を向上させた表示画像を生成させる、
     画像処理プログラム。
PCT/JP2013/080229 2013-02-21 2013-11-08 運転支援装置、および画像処理プログラム WO2014129026A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/647,319 US9589194B2 (en) 2013-02-21 2013-11-08 Driving assistance device and image processing program
CN201380069122.XA CN104885448B (zh) 2013-02-21 2013-11-08 驾驶辅助装置以及图像处理程序
JP2015501270A JP6081570B2 (ja) 2013-02-21 2013-11-08 運転支援装置、および画像処理プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-032009 2013-02-21
JP2013032009 2013-02-21

Publications (1)

Publication Number Publication Date
WO2014129026A1 true WO2014129026A1 (ja) 2014-08-28

Family

ID=51390843

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080229 WO2014129026A1 (ja) 2013-02-21 2013-11-08 運転支援装置、および画像処理プログラム

Country Status (4)

Country Link
US (1) US9589194B2 (ja)
JP (1) JP6081570B2 (ja)
CN (1) CN104885448B (ja)
WO (1) WO2014129026A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017110069A1 (ja) * 2015-12-22 2017-06-29 パナソニックIpマネジメント株式会社 運転支援装置、運転支援方法及び運転支援プログラム
JP2017197044A (ja) * 2016-04-28 2017-11-02 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
WO2017187801A1 (ja) * 2016-04-27 2017-11-02 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2017198853A (ja) * 2016-04-27 2017-11-02 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2017227719A (ja) * 2016-06-21 2017-12-28 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2018129833A (ja) * 2018-03-15 2018-08-16 株式会社デンソー 画像処理装置
WO2019039090A1 (ja) * 2017-08-21 2019-02-28 シャープ株式会社 電子ミラーシステム
WO2019053873A1 (ja) * 2017-09-15 2019-03-21 三菱電機株式会社 後側方映像制御装置および後側方映像制御方法
JP2020078084A (ja) * 2020-02-03 2020-05-21 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2021157291A (ja) * 2020-03-25 2021-10-07 パナソニックIpマネジメント株式会社 車両用表示制御装置、表示制御方法、およびプログラム
CN113516733A (zh) * 2021-05-21 2021-10-19 北京易航远智科技有限公司 一种填充车底盲区的方法和***

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6233237B2 (ja) * 2014-08-11 2017-11-22 トヨタ自動車株式会社 運転支援装置
JP6407626B2 (ja) * 2014-08-26 2018-10-17 日立オートモティブシステムズ株式会社 物体認識装置及び車両制御システム
EP3001272B1 (en) * 2014-09-26 2017-04-12 Volvo Car Corporation Method of trajectory planning for yielding manoeuvres
US9983591B2 (en) * 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data
JP6750519B2 (ja) * 2016-05-24 2020-09-02 株式会社Jvcケンウッド 撮像装置、撮像表示方法および撮像表示プログラム
JP6788447B2 (ja) 2016-09-12 2020-11-25 日立オートモティブシステムズ株式会社 映像出力システム
JP6735506B2 (ja) * 2016-09-29 2020-08-05 パナソニックIpマネジメント株式会社 画像生成装置、および、画像処理システム
DE102017205630A1 (de) * 2017-04-03 2018-10-04 Conti Temic Microelectronic Gmbh Kameravorrichtung und Verfahren zur Erfassung eines Umgebungsbereichs eines Fahrzeugs
JP6649914B2 (ja) * 2017-04-20 2020-02-19 株式会社Subaru 画像表示装置
JP6630976B2 (ja) * 2017-11-10 2020-01-15 本田技研工業株式会社 表示システム、表示方法、およびプログラム
DE102017130566B4 (de) * 2017-12-19 2021-07-22 Mekra Lang Gmbh & Co. Kg Sichtsystem zur Erfassung einer Fahrzeugumgebung und Spiegelersatzsystem für ein Fahrzeug mit einem Sichtsystem
JP7069692B2 (ja) * 2017-12-20 2022-05-18 トヨタ自動車株式会社 画像表示装置
JP2019193031A (ja) * 2018-04-23 2019-10-31 シャープ株式会社 車両周辺表示装置
JP7147255B2 (ja) * 2018-05-11 2022-10-05 トヨタ自動車株式会社 画像表示装置
JP7086798B2 (ja) * 2018-09-12 2022-06-20 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7053437B2 (ja) * 2018-11-26 2022-04-12 本田技研工業株式会社 運転支援装置および車両
CN109624858B (zh) * 2019-01-04 2021-02-02 斑马网络技术有限公司 外后视镜的图像显示方法及装置
JP7326041B2 (ja) * 2019-06-25 2023-08-15 京セラ株式会社 画像処理装置、撮像装置、移動体、および画像処理方法
CN110312106B (zh) * 2019-07-30 2021-05-18 广汽蔚来新能源汽车科技有限公司 图像的显示方法、装置、计算机设备和存储介质
JP7276280B2 (ja) * 2020-08-18 2023-05-18 トヨタ自動車株式会社 車両用画像記録装置及び車両用画像記録方法
WO2022112810A1 (ja) * 2020-11-27 2022-06-02 日産自動車株式会社 車両支援方法及び車両支援装置
CN114296375A (zh) * 2021-12-21 2022-04-08 徐州重型机械有限公司 一种车载显示装置自动控制方法、控制***及工程车辆

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205644A (ja) * 2007-02-16 2008-09-04 Fujitsu Ltd 画像処理装置及び画像処理方法
JP2009040107A (ja) * 2007-08-06 2009-02-26 Denso Corp 画像表示制御装置及び画像表示制御システム
WO2011118125A1 (ja) * 2010-03-26 2011-09-29 本田技研工業株式会社 車両の運転を支援するための装置
WO2011155030A1 (ja) * 2010-06-08 2011-12-15 トヨタ自動車 株式会社 走行モデル作成装置及び運転支援装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0948282A (ja) 1995-08-08 1997-02-18 Mazda Motor Corp 車両用間接視認装置
US7161616B1 (en) * 1999-04-16 2007-01-09 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
US7786898B2 (en) * 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
JP4775123B2 (ja) * 2006-06-09 2011-09-21 日産自動車株式会社 車両用監視装置
JP2008004990A (ja) * 2006-06-20 2008-01-10 Nissan Motor Co Ltd 車両用表示制御装置
JP5117003B2 (ja) * 2006-07-11 2013-01-09 本田技研工業株式会社 運転支援装置
JP4882571B2 (ja) 2006-07-20 2012-02-22 日産自動車株式会社 車両用監視装置
JP5023872B2 (ja) * 2007-08-06 2012-09-12 株式会社デンソー 画像表示制御装置及び画像表示制御システム
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
JP5196265B2 (ja) 2008-12-03 2013-05-15 アイシン精機株式会社 車両周辺認知支援装置
JP2010137697A (ja) 2008-12-11 2010-06-24 Honda Motor Co Ltd 車両の運転支援装置
EP2512133B1 (en) * 2009-12-07 2018-07-18 Clarion Co., Ltd. Vehicle periphery image display system
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
JP5663352B2 (ja) * 2011-03-03 2015-02-04 日本電産エレシス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205644A (ja) * 2007-02-16 2008-09-04 Fujitsu Ltd 画像処理装置及び画像処理方法
JP2009040107A (ja) * 2007-08-06 2009-02-26 Denso Corp 画像表示制御装置及び画像表示制御システム
WO2011118125A1 (ja) * 2010-03-26 2011-09-29 本田技研工業株式会社 車両の運転を支援するための装置
WO2011155030A1 (ja) * 2010-06-08 2011-12-15 トヨタ自動車 株式会社 走行モデル作成装置及び運転支援装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017110069A1 (ja) * 2015-12-22 2017-06-29 パナソニックIpマネジメント株式会社 運転支援装置、運転支援方法及び運転支援プログラム
US10735641B2 (en) 2016-04-27 2020-08-04 JVC Kenwood Corporation In-vehicle display control device, in-vehicle display system, in-vehicle display control method, and program
WO2017187801A1 (ja) * 2016-04-27 2017-11-02 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2017198853A (ja) * 2016-04-27 2017-11-02 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2017197044A (ja) * 2016-04-28 2017-11-02 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2017227719A (ja) * 2016-06-21 2017-12-28 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
WO2019039090A1 (ja) * 2017-08-21 2019-02-28 シャープ株式会社 電子ミラーシステム
WO2019053873A1 (ja) * 2017-09-15 2019-03-21 三菱電機株式会社 後側方映像制御装置および後側方映像制御方法
JPWO2019053873A1 (ja) * 2017-09-15 2020-05-28 三菱電機株式会社 後側方映像制御装置および後側方映像制御方法
JP2018129833A (ja) * 2018-03-15 2018-08-16 株式会社デンソー 画像処理装置
JP2020078084A (ja) * 2020-02-03 2020-05-21 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2021157291A (ja) * 2020-03-25 2021-10-07 パナソニックIpマネジメント株式会社 車両用表示制御装置、表示制御方法、およびプログラム
US11368616B2 (en) 2020-03-25 2022-06-21 Panasonic Intellectual Property Management Co., Ltd. Vehicle display control device, display control method, and non-transitory computer-readable medium
JP7345114B2 (ja) 2020-03-25 2023-09-15 パナソニックIpマネジメント株式会社 車両用表示制御装置、表示制御方法、およびプログラム
CN113516733A (zh) * 2021-05-21 2021-10-19 北京易航远智科技有限公司 一种填充车底盲区的方法和***
CN113516733B (zh) * 2021-05-21 2024-05-17 北京易航远智科技有限公司 一种填充车底盲区的方法和***

Also Published As

Publication number Publication date
CN104885448A (zh) 2015-09-02
JP6081570B2 (ja) 2017-02-15
JPWO2014129026A1 (ja) 2017-02-02
US20150302259A1 (en) 2015-10-22
US9589194B2 (en) 2017-03-07
CN104885448B (zh) 2018-04-06

Similar Documents

Publication Publication Date Title
WO2014129026A1 (ja) 運転支援装置、および画像処理プログラム
US10166922B2 (en) On-vehicle image display device, on-vehicle image display method for vehicle, and on-vehicle image setting device
US9902323B2 (en) Periphery surveillance apparatus and program
JP4855158B2 (ja) 運転支援装置
EP2981077B1 (en) Periphery monitoring device and program
CN107351764B (zh) 车辆后方监视***
WO2018105417A1 (ja) 撮像装置、画像処理装置、表示システム、および車両
JP5099451B2 (ja) 車両周辺確認装置
KR20190047027A (ko) 차량의 차량 주변 리어뷰 미러 조망을 제공하는 방법
JP2020043400A (ja) 周辺監視装置
US10930070B2 (en) Periphery monitoring device
JP2013060128A (ja) 二輪車の後方映像表示装置
JP2013168063A (ja) 画像処理装置、画像表示システム及び画像処理方法
JP6762863B2 (ja) 撮像装置、画像処理装置、表示システム、および車両
JP2021043815A (ja) 画像処理装置
JP2010208359A (ja) 車両用表示装置
JP6781035B2 (ja) 撮像装置、画像処理装置、表示システム、および車両
JP2018085584A (ja) 画像処理装置、撮像装置、および表示システム
JP2018019155A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2021111854A (ja) 車両用電子ミラーシステム
WO2018092919A1 (ja) 画像処理装置、撮像装置、および表示システム
JP6974564B2 (ja) 表示制御装置
JP7296490B2 (ja) 表示制御装置及び車両
JP6759072B2 (ja) 画像処理装置、撮像装置、および表示システム
JP6720063B2 (ja) 画像処理装置、撮像装置、および表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13875747

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015501270

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14647319

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13875747

Country of ref document: EP

Kind code of ref document: A1