WO2018207308A1 - 表示制御装置および表示制御方法 - Google Patents

表示制御装置および表示制御方法 Download PDF

Info

Publication number
WO2018207308A1
WO2018207308A1 PCT/JP2017/017859 JP2017017859W WO2018207308A1 WO 2018207308 A1 WO2018207308 A1 WO 2018207308A1 JP 2017017859 W JP2017017859 W JP 2017017859W WO 2018207308 A1 WO2018207308 A1 WO 2018207308A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lane
display control
driver
video signal
Prior art date
Application number
PCT/JP2017/017859
Other languages
English (en)
French (fr)
Inventor
晴彦 若柳
下谷 光生
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2017/017859 priority Critical patent/WO2018207308A1/ja
Priority to JP2019516814A priority patent/JP6793825B2/ja
Publication of WO2018207308A1 publication Critical patent/WO2018207308A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Definitions

  • the present invention relates to a display control device and a display control method.
  • a technique for displaying an arrow indicating a course such as going straight, turning right, turning left using HUD (Head (Up Display) is known.
  • HUD Head (Up Display)
  • a technique is known in which a driver recognizes a route in advance by displaying an image superimposed on a scenery from a driver's seat of a vehicle (see, for example, Patent Documents 1 to 4).
  • the arrow indicating the course such as going straight, turning right, turning left, etc. displayed on the HUD overlaps with the vehicle traveling ahead, the building existing ahead, etc., and the visibility of the arrow indicating the course decreases. There was a problem to do. In addition, there is a problem that visibility of a vehicle and a building ahead is lowered.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a display control device and a display control method that allow a driver to recognize a lane in which the vehicle can travel by controlling the display device.
  • a display control device is a display control device that controls a display device that displays a driver support image superimposed on a scene from a driver seat of a vehicle or a live-action image in front of the vehicle.
  • a live-action image acquisition unit for acquiring a real-image image
  • a vehicle position acquisition unit for acquiring a current vehicle position
  • a feature data acquisition unit for acquiring feature data relating to a road ahead of the vehicle, a current vehicle position and Based on the feature data, on the road ahead of the vehicle, a travelable lane discriminating unit that discriminates the lane in which the vehicle can travel, and an object that overlaps the road surface in the scenery from the driver's seat of the vehicle or the live-action image in front of the vehicle
  • a video signal generation unit that generates a video signal for displaying a driver support image superimposed on a lane where the vehicle can travel, and a video signal output unit that outputs the video signal to the display device It includes a driver support image superimposed on the vehicle can travel lane has a
  • a display control method is a display control method for controlling a display device that displays a driver support image superimposed on a scene from a driver's seat of a vehicle or a live-action image in front of the vehicle.
  • Acquire a live-action image acquire the current vehicle position, acquire feature data on the road ahead of the vehicle, and based on the current vehicle position and feature data, Determines the lane that can be driven and generates a video signal that displays the driver support image superimposed on the lane that can be driven to avoid objects that overlap the road surface in the scenery from the driver's seat of the vehicle or in the live-action image in front of the vehicle.
  • the driver support image that outputs a video signal to the display device and is superimposed on the travelable lane has a width in the width direction of the lane and extends in the direction in which the lane extends.
  • the driver support image is superimposed on the travelable lane so as to avoid an object that overlaps the road surface in the scenery from the driver's seat of the vehicle or the live-action image in front of the vehicle.
  • the images By displaying the images, it is possible to prevent the object that overlaps the road surface and the driver support image from interfering with each other. Accordingly, it is possible to allow the driver to recognize a lane that can travel effectively while maintaining the visibility of an object that overlaps the road surface. Accordingly, since the vehicle is prevented from deviating from the correct route, it is possible to suppress waste of energy for returning the vehicle to the correct route.
  • the driver support image has a width in the width direction of the lane and extends in the direction in which the lane extends. It is possible to improve.
  • FIG. 1 is a block diagram of a display control device according to Embodiment 1.
  • FIG. 3 is a hardware configuration diagram of the display control apparatus according to Embodiment 1.
  • FIG. 3 is a hardware configuration diagram of the display control apparatus according to Embodiment 1.
  • FIG. 3 is a flowchart showing an operation of the display control apparatus according to the first embodiment. It is a schematic diagram which shows an example of the driver support image which the display control apparatus which concerns on Embodiment 1 displays on a display apparatus, and the scenery from the driver's seat of a vehicle. It is a schematic diagram which shows an example of the driver support image which the display control apparatus which concerns on Embodiment 1 displays on a display apparatus, and the scenery from the driver's seat of a vehicle.
  • FIG. 1 It is a schematic diagram which shows an example of the driver support image and the scenery from the driver's seat of a vehicle which the display control apparatus which concerns on Embodiment 2 displays on a display apparatus. It is a schematic diagram which shows an example of the driver support image and the scenery from the driver's seat of a vehicle which the display control apparatus which concerns on Embodiment 3 displays on a display apparatus. It is a schematic diagram which shows an example of the driver support image and the scenery from the driver's seat of a vehicle which the display control apparatus which concerns on Embodiment 3 displays on a display apparatus. It is a schematic diagram which shows the route of the route guidance of the vehicle by which the display apparatus which the display control apparatus which concerns on Embodiment 4 controls is mounted. FIG.
  • FIG. 10 is a schematic diagram illustrating an example of a driver support image displayed on the display device by the display control device according to the fourth embodiment and a scenery from the driver's seat of the vehicle.
  • FIG. 10 is a block diagram of a display control apparatus according to Embodiment 5.
  • FIG. 10 is a block diagram of a display control apparatus according to Embodiment 6.
  • FIG. 1 is a block diagram of display control apparatus 100 according to the first embodiment.
  • the display control apparatus 100 includes a vehicle position acquisition unit 1, a feature data acquisition unit 2, a travelable lane discrimination unit 3, a video signal generation unit 4, a video signal output unit 5, and a live-action video acquisition unit 6. Prepare.
  • the display control device 100 controls the display device that displays the driver support image superimposed on the scenery from the driver's seat of the vehicle.
  • the display device is a display device that displays an image through the windshield of the vehicle, for example, a HUD.
  • a vehicle equipped with a display device to be controlled by the display control device 100 is simply referred to as “vehicle”.
  • the live-action video acquisition unit 6 acquires a live-action video in front of the vehicle.
  • the vehicle position acquisition unit 1 acquires the current position of the vehicle.
  • the feature data acquisition unit 2 acquires feature data related to the road.
  • the travelable lane discriminating unit 3 discriminates a lane in which the vehicle can travel on a road ahead of the vehicle based on the current vehicle position and feature data.
  • the video signal generator 4 generates a video signal to be displayed on the display device.
  • the video signal to be displayed on the display device is a video signal that is displayed by superimposing a driver support image on a travelable lane.
  • the video signal generation unit 4 superimposes and displays a driver support image on a travelable lane so as to avoid an object overlapping the road surface in the scenery from the driver's seat of the vehicle.
  • the video signal output unit 5 outputs a video signal to the display device.
  • the driver support image superimposed on the travelable lane is an image having a width in the width direction of the lane and extending in the direction in which the lane extends.
  • FIG. 2 is a hardware configuration diagram of the display control apparatus 100.
  • the functions of the vehicle position acquisition unit 1, the feature data acquisition unit 2, the travelable lane discrimination unit 3, the video signal generation unit 4, the video signal output unit 5, and the live-action video acquisition unit 6 in the display control device 100 are represented by a processing circuit HW1. It is realized by.
  • the display control apparatus 100 acquires a live-action image in front of the vehicle, acquires the current vehicle position, acquires feature data regarding the road, and based on the current vehicle position and feature data, To determine the lane in which the vehicle can travel on the road ahead of the vehicle, generate a video signal to display the driver support image superimposed on the lane where the vehicle can travel, and output the video signal to the display device
  • the processing apparatus is provided. Even if the processing circuit HW1 is dedicated hardware, a CPU (Central processing unit, central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, processor, DSP (Digital (Signal Processor)).
  • a CPU Central processing
  • the processing circuit HW1 When the processing circuit HW1 is dedicated hardware, the processing circuit HW1 includes, for example, a single circuit, a composite circuit, a programmed processor, a processor programmed in parallel, an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable). Gate Array) or a combination of these.
  • the functions of the vehicle position acquisition unit 1, feature data acquisition unit 2, runnable lane discrimination unit 3, video signal generation unit 4, video signal output unit 5, and live-action video acquisition unit 6 may be realized by processing circuits. Alternatively, the functions of the respective units may be combined and realized by a single processing circuit.
  • the processing circuit HW1 is a processor
  • the functions of the vehicle position acquisition unit 1, the feature data acquisition unit 2, the travelable lane discrimination unit 3, the video signal generation unit 4, the video signal output unit 5, and the live-action video acquisition unit 6 Is realized by a combination of software and the like (software, firmware or software and firmware).
  • Software or the like is described as a program and stored in the memory HW3.
  • the processor HW2 applied to the processing circuit HW1 realizes the functions of the respective units by reading and executing the program stored in the memory HW3.
  • the display control device 100 when executed by the processing circuit HW1, acquires a live-action image in front of the vehicle, acquires a current vehicle position, acquires road feature data, Determining a lane in which the vehicle can travel on a road ahead of the vehicle based on the vehicle position and feature data of the vehicle, and generating a video signal for displaying a driver support image superimposed on the lane where the vehicle can travel
  • a memory HW3 is provided for storing a program that results in the step of outputting the video signal to the display device.
  • These programs are computerized procedures and methods of the vehicle position acquisition unit 1, the feature data acquisition unit 2, the travelable lane discrimination unit 3, the video signal generation unit 4, the video signal output unit 5, and the live-action video acquisition unit 6.
  • the memory HW3 is a non-volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), etc. Or a volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), or any other storage medium to be used in the future.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), etc.
  • EEPROM Electrical Erasable Programmable Read-Only Memory
  • a volatile semiconductor memory a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), or any other storage medium to be used in the future.
  • vehicle position acquisition unit 1 Some of the functions of the vehicle position acquisition unit 1, feature data acquisition unit 2, travelable lane discrimination unit 3, video signal generation unit 4, video signal output unit 5, and live-action video acquisition unit 6 are partially dedicated hardware. It may be realized by hardware and a part may be realized by software or firmware. As described above, the processing circuit HW1 can realize the above-described functions by hardware, software, firmware, or a combination thereof.
  • FIG. 4 is a flowchart showing the operation of the display control apparatus 100 according to the first embodiment.
  • FIG. 5 is a schematic diagram illustrating an example of a driver support image displayed on the display device by the display control device 100 and a scenery from the driver's seat of the vehicle.
  • FIG. 5 is a schematic diagram, and illustrations of signals, stop lines, sidewalks, pedestrian crossings, and the like are omitted.
  • the road L1 includes lanes L11 to L14. Lanes L11, L12, and L13 are lanes in the traveling direction of the vehicle, and lane L14 is an opposite lane.
  • the road L2 includes lanes L21 to L24. Lanes L21, L22, and L23 are lanes in the traveling direction of the vehicle, and lane L24 is an opposite lane.
  • the road L3 includes lanes L31 and L32. Lane L31 is the lane in the traveling direction of the vehicle, and lane L32 is the opposite lane.
  • the road L4 includes lanes L41 and L42.
  • Lane L41 is a lane in the traveling direction of the vehicle, and lane L42 is an opposite lane. It is assumed that the vehicle is traveling on a lane L12 that can only go straight on a road L1 shown in FIG.
  • the live-action video acquisition unit 6 acquires a live-action video in front of the vehicle (step S1).
  • a live-action image in front of the vehicle is acquired from a camera mounted on the vehicle.
  • the vehicle position acquisition unit 1 acquires the current vehicle position (step S2).
  • the current position of the vehicle is calculated by using information obtained from, for example, GPS (Global Positioning System), a sensor mounted on the vehicle, a camera mounted on the vehicle, and the like.
  • the feature data acquisition unit 2 acquires feature data related to the road ahead of the vehicle (step S3).
  • the road ahead of the vehicle in FIG. 5 is the road L1, where the vehicle is currently traveling, and the road L2, L3, L4 connected to the road L1 via the intersection N1.
  • feature data related to roads for example, link length, width classification, number of lanes, width of roadway, road intersection, lane marking that divides each lane, traveling direction of each lane (right turn lane, left turn lane, straight lane, etc.) Information about such is included.
  • the feature data acquisition unit 2 may acquire the feature data related to the road by communicating with the server device in which the feature data is stored, or the feature data related to the road from the database mounted on the vehicle. You may get it.
  • the feature data acquisition unit 2 may acquire the feature data related to the road by analyzing the photographed image in front of the vehicle acquired by the photographed image acquisition unit 6.
  • the analysis of the photographed video is, for example, recognizing a lane or the like based on detecting a road sign including a white line.
  • the feature data acquisition unit 2 detects a vehicle, a building, or the like that is stopped or traveling in front of its own vehicle by analyzing a live-action image in front of the vehicle.
  • the travelable lane discriminating unit 3 discriminates a lane that can travel on the road ahead of the vehicle (step S4).
  • the travelable lane discriminating unit 3 discriminates from the lane L12 of the road L1 where the vehicle is currently located that the lane L22 of the road L2 ahead through the intersection N1 is a travelable lane. Further, the travelable lane discriminating unit 3 discriminates that the lanes L21 and L23 adjacent to the lane L22 are also travelable lanes.
  • the video signal generation unit 4 generates a video signal for displaying a driver support image superimposed on a lane that can travel in the scenery from the driver's seat of the vehicle (step 5).
  • the video signal generator 4 provides driver support to the lanes L12 and L22 so as to connect the lane L12 where the vehicle is currently located and the lane L22 which is on the extension of the lane L12.
  • the image IMG10 is superimposed.
  • the vehicle 30 is traveling in front of the vehicle.
  • the driver support image IMG10 is superimposed on the travelable lanes L12 and L22 so as to avoid the vehicle 30 overlapping the road surface in the scenery from the driver's seat of the vehicle.
  • the video signal output unit 5 outputs the video signal generated by the video signal generation unit 4 to the display device (step S6).
  • the driver support image IMG10 is an image having a width in the width direction of the lanes L12 and L22 and extending in the direction in which the lane extends.
  • the driver support image IMG10 is a transparent image, and the driver can visually recognize the actual road through the driver support image IMG10.
  • the driver support image IMG10 is displayed so as to fill the shifted portion of the vehicle 30.
  • the vehicle 30 may be a motorcycle (also called a motorbike).
  • FIG. 7 is a schematic diagram illustrating an example of a driver support image displayed on the display device by the display control device 100 and a scenery from the driver's seat of the vehicle.
  • the vehicle On the road L1 shown in FIG. 7, it is assumed that the vehicle is traveling on a lane L11 in which only a left turn is possible. From the lane L11 of the road L1 where the vehicle is currently located, the lane L31 of the road L3 ahead through the intersection N1 can travel. As shown in FIG. 7, in the lane L11, vehicles 31, 32 that are about to turn left are parked waiting for a signal in front of the vehicle.
  • the video signal generator 4 superimposes the driver support image IMG20 on the lanes L12 and L31 so as to connect the lane L11 where the vehicle is currently located and the lane L31 where the vehicle can travel.
  • the driver support image IMG20 is superimposed on the travelable lanes L11 and L31 so as to avoid the vehicles 31 and 32 overlapping the road surface in the scenery from the driver's seat of the vehicle.
  • FIG. 8 is a schematic diagram illustrating an example of a driver support image displayed on the display device by the display control device 100 and a scenery from the driver's seat of the vehicle.
  • the vehicle On the road L1 shown in FIG. 8, it is assumed that the vehicle is traveling on a lane L13 in which only a right turn is possible. From the lane L13 of the road L1 where the vehicle is currently located, the lane L41 of the road L4 ahead can travel through the intersection N1.
  • a building 40 exists so as to overlap a part of the road L4 in front of the road L4.
  • the video signal generator 4 superimposes the driver support image IMG30 on the lanes L13 and L41 so as to connect the lane L13 where the vehicle is currently located and the lane L41 where the vehicle can travel.
  • the driver support image IMG30 is superimposed on the travelable lanes L13 and L41 so as to avoid the building 40 overlapping the road surface in the scenery from the driver's seat of the vehicle.
  • step S1 to step S6 in FIG. 4 is always repeated, and the latest driver support image is always displayed on the display device. That is, the driver support image displayed on the display device changes in accordance with the change in the position of the vehicle due to the traveling of the vehicle, the change in the position of the vehicle in front of the vehicle, and the building. Note that the order of executing steps S1 and S2 in FIG. 4 may be changed.
  • the driver support image is superimposed and displayed on the scenery from the driver's seat of the vehicle.
  • the driver support image is superimposed on the actual image in front of the vehicle.
  • the display device is, for example, a liquid crystal display disposed on the instrument panel of the vehicle.
  • the display control device 100 is a display control device that controls a display device that displays a driver support image superimposed on a scene from a driver seat of a vehicle or a live-action image in front of the vehicle.
  • a live-action image acquisition unit 6 for acquiring a real-image image in front of the vehicle
  • a vehicle position acquisition unit 1 for acquiring the current vehicle position
  • a feature data acquisition unit 2 for acquiring feature data relating to a road ahead of the vehicle
  • the travelable lane discriminating unit 3 that discriminates the lane in which the vehicle can travel, and the scenery from the driver's seat of the vehicle or the actual image in front of the vehicle
  • a video signal generation unit 4 that generates a video signal to be displayed by superimposing a driver support image on a travelable lane so as to avoid an object overlapping the road surface in the video, and a video signal to the display device
  • a video signal output section 5 for outputting, with a driver support
  • the driver support image is displayed on the lane where the vehicle can travel so as to avoid an object overlapping the road surface in the scenery from the driver's seat of the vehicle or in the live-action image ahead of the vehicle.
  • the driver support image is displayed on the lane where the vehicle can travel so as to avoid an object overlapping the road surface in the scenery from the driver's seat of the vehicle or in the live-action image ahead of the vehicle.
  • the driver support image has a width in the width direction of the lane and extends in the direction in which the lane extends. It is possible to improve.
  • the object overlapping the road surface is a vehicle that exists in front of the vehicle. Accordingly, it is possible to display the driver support image without deteriorating the visibility of the vehicle traveling in front and the vehicle stopped in front.
  • the object that overlaps the road surface is a building. Accordingly, it is possible to prevent the driver support image indicating a right turn or a left turn from concealing the building at the intersection in front of the vehicle, and thus it is possible to allow the driver to recognize the building that is the landmark of the intersection.
  • the video signal generation unit 4 generates a video signal that always superimposes and displays a driver support image on a travelable lane. By always displaying the driver support image superimposed on the travelable lane, it is possible for the driver to recognize the travelable lane.
  • the video signal generation unit 4 determines the lane where the vehicle is currently located and the lane of the road ahead of the intersection.
  • a video signal for superimposing and displaying a driver support image may be generated so as to be connected. Therefore, it is possible to make the driver recognize the course in the intersection. Thereby, since it is suppressed that a vehicle remove
  • the color, transmittance, tip shape, and the like of the driver support image shown in FIGS. 5 to 8 are examples, and the present invention is not limited to this.
  • the video signal generation unit 4 displays a driver support image that is displayed at the head of a column as the length of the column increases when the vehicle forms a column in a lane where the vehicle can travel.
  • the length in the extending direction of the lane is displayed longer.
  • FIG. 9 is a schematic diagram illustrating an example of a driver support image displayed on the display device by the display control device 200 and a scenery from the driver's seat of the vehicle.
  • the vehicle On the road L1 shown in FIG. 9, it is assumed that the vehicle is traveling on a lane L11 in which only a left turn is possible. From the lane L11 of the road L1 where the vehicle is currently located, the lane L31 of the road L3 ahead through the intersection N1 can travel. As shown in FIG. 9, in front of the vehicle in the lane L11, vehicles 31 to 34 to turn left stop to wait for a signal and form a line.
  • the video signal generating unit 4 displays a video signal for displaying the length A2 in the extending direction of the lane L31 of the driver support image IMG21 displayed at the head of the column as the column length A1 of the vehicles 31 to 34 is longer. Generate.
  • the video signal generation unit 4 displays the driver at the head of the column as the column length increases. You may generate
  • FIG. 10 is a schematic diagram illustrating an example of a driver support image displayed on the display device by the display control device 200 and a scenery from the driver's seat of the vehicle.
  • a line is formed in front of the vehicle, where vehicles 31 to 34 that are about to turn left stop to wait for a signal.
  • the video signal generation unit 4 displays a wider width A3 in the width direction of the lane L31 of the driver support image IMG22 displayed at the head of the column as the column length A1 is longer.
  • the driver support image displayed at the head of the line of vehicles that are parked to turn left at the intersection has been described.
  • the second embodiment is not limited to the left turn.
  • the same display is possible for the driver support image displayed at the head of the line of vehicles that are stopping in an attempt to go straight or turn right at the intersection.
  • the lane of the driver support image displayed at the head of the row extends as the length of the row increases.
  • the direction length is displayed longer. Therefore, it is possible to make the driver recognize the length of the row by the length of the driver support image displayed at the head of the row.
  • the display control apparatus 200 when the vehicle forms a column in the lane where the vehicle can travel, the longer the column, the longer the lane width direction of the driver support image displayed at the head of the column.
  • the width may be displayed wide. Therefore, the driver can recognize the length of the row by the width of the driver support image displayed at the head of the row.
  • the travelable lane discriminating unit 3 discriminates a lane in which the vehicle can travel on a road on which the vehicle navigation device performs route guidance among roads ahead of the vehicle.
  • FIG. 11 is a schematic diagram showing an example of a driver support image displayed on the display device by the display control device 300 and a scenery from the driver's seat of the vehicle.
  • Facility 41 exists on the left side of road L1 shown in FIG. In the navigation device, the facility 41 is set as a route guidance destination.
  • the facility 41 is, for example, a parking lot.
  • the vehicles 31 to 34 stop and form a line. It is assumed that the vehicle is traveling on the lane L11 on the road L1 shown in FIG.
  • the video signal generator 4 superimposes the driver support image IMG23 on the lane L11 where the vehicle is currently located.
  • the driver support image IMG23 is superimposed on the travelable lane L11 so as to avoid the vehicles 31 to 34 overlapping the road surface in the scenery from the driver's seat of the vehicle.
  • the video signal generator 4 further displays an arrow image IMG 24 from the head of the row of vehicles 31 to 34 to the facility 41.
  • the video signal generator 4 causes the arrow image IMG24 to be displayed at the head of the column as the column length A1 of the vehicles 31 to 34 increases.
  • a video signal for generating a long display A4 is generated.
  • the video signal generation unit 4 increases the number of arrows displayed at the head of the column as the column length A1 of the vehicles 31 to 34 increases.
  • a video signal that widely displays the width A5 of the image IMG25 may be generated.
  • the arrow image IMG25 is displayed three-dimensionally. It may also be displayed.
  • the travelable lane discrimination unit 3 discriminates a lane in which the vehicle can travel on a road on which the vehicle navigation device performs route guidance among roads ahead of the vehicle. Accordingly, even when the vehicle navigation device performs route guidance, it is possible to display a driver support image. Therefore, in route guidance, the vehicle is prevented from deviating from the correct route. It is possible to suppress waste of energy for returning.
  • the display control device 300 when a vehicle forms a line in a travelable lane in order to enter the destination set by the route guidance of the navigation device, the target is started from the top of the line. The image of the arrow heading to the ground is displayed. Therefore, it is possible to make the driver recognize that traffic congestion has occurred in order to enter the destination.
  • the display control device 300 when the vehicle forms a column in the lane where the vehicle can travel, the length of the arrow image displayed at the head of the column increases as the column length increases. It is displayed for a long time. Therefore, the driver can recognize the length of the row by the length of the arrow image displayed at the head of the row.
  • the display control apparatus 300 when the vehicle forms a column in the lane where the vehicle can travel, the longer the column is, the wider the image of the arrow displayed at the head of the column is. May be displayed. Accordingly, it is possible to make the driver recognize the length of the row by the width of the arrow image displayed at the head of the row.
  • the configuration of the display control apparatus 400 in the fourth embodiment is the same as that of the display control apparatus 100 (FIG. 1) in the first embodiment, and a description thereof will be omitted.
  • the operations of the travelable lane discriminating unit 3 and the video signal generating unit 4 are different from those of the first embodiment.
  • the travelable lane discriminating unit 3 discriminates a lane in which the vehicle can travel on a road on which the vehicle navigation device performs route guidance among roads ahead of the vehicle.
  • FIG. 13 is a schematic diagram showing the route guidance route of the navigation device.
  • FIG. 14 is a schematic diagram illustrating an example of a driver support image displayed on the display device by the display control device 400 and a scenery from the driver's seat of the vehicle.
  • roads L6, L7, L8, and L9 are connected to a road L5 on which the vehicle is currently traveling.
  • the route guidance of the navigation device is a route that turns right from the road L5 to the road L8 at the intersection N2.
  • a building 42 exists in front of the road L6.
  • a building 43 exists between the road L6 and the road L8.
  • a building 44 exists between the road L8 and the road L9.
  • the lanes on which the vehicle can travel are the lanes L51 and L81, respectively.
  • the video signal generation unit 4 generates a video signal for superimposing the driver support image IMG31 on the lanes L51 and L81 so as to connect the lane L51 where the current vehicle is located and the lane L81 where the vehicle can travel. To do.
  • the driver support image IMG31 is superimposed on the travelable lanes L51 and L81 so as to avoid the building 43 overlapping the road surface in the scenery from the driver's seat of the vehicle.
  • the travelable lane discriminating unit 3 discriminates a lane in which the vehicle can travel on a road on which the vehicle navigation device performs route guidance among roads ahead of the vehicle.
  • the driver may be unsure of which intersection to turn right.
  • the driver support image IMG31 is superimposed on the lanes L51 and L81 that can travel on the road where the guide route is performed so as to avoid the building 43 that overlaps the road surface in the scenery from the driver's seat of the vehicle. .
  • the building 43 can be used as a mark at an intersection that turns right. Since the building 43 serves as a mark of an intersection, it is possible to suppress the vehicle from deviating from the correct route, and thus it is possible to suppress waste of energy for returning the vehicle to the correct route.
  • the display control apparatus is not only a device that can be mounted on a vehicle, but also a display control system constructed as a system by appropriately combining with a communication terminal device, a server device, etc. Can be applied to.
  • the mobile communication device is, for example, a mobile phone, a smartphone, a tablet terminal device, or the like.
  • each component of the display control device is distributed to each device that constructs the system. May be arranged in a centralized manner, or may be arranged centrally in any of the devices.
  • FIG. 15 is a block diagram of display control apparatus 500 in the fifth embodiment.
  • the display control device 500 includes a vehicle position acquisition unit 1, a feature data acquisition unit 2, a video signal output unit 5, a live-action video acquisition unit 6, and a server device 50.
  • the server device 50 includes a travelable lane discrimination unit 3 and a video signal generation unit 4. Since parking assist control device 500 in the fifth embodiment includes the same configuration as the display control device (FIG. 1) in the first to fourth embodiments, the same reference numerals are used for the same configurations. The common explanation is omitted.
  • the server device 50 communicates with the vehicle position acquisition unit 1, the feature data acquisition unit 2, the video signal output unit 5, and the live-action video acquisition unit 6 mounted on the vehicle via a communication network such as the Internet.
  • server device 50 may have a part or all of the vehicle position acquisition unit 1, the feature data acquisition unit 2, and the live-action image acquisition unit 6.
  • the configuration of the fifth embodiment in which some components of the display control device 500 are arranged in the server device 50 is the same as the display control device in the first to fourth embodiments described above. An effect can be obtained.
  • FIG. 16 is a block diagram of display control apparatus 600 according to the sixth embodiment.
  • the display control device 600 includes a vehicle position acquisition unit 1, a feature data acquisition unit 2, a video signal output unit 5, a live-action video acquisition unit 6, and a mobile communication device 60.
  • the mobile communication device 60 includes a travelable lane discrimination unit 3 and a video signal generation unit 4. Since display control device 600 in the sixth embodiment includes the same configuration as the display control device (FIG. 1) in the first to fourth embodiments, the same reference numerals are used for the same configuration. In addition, a common description is omitted.
  • the mobile communication device 60 communicates with a vehicle position acquisition unit 1, a feature data acquisition unit 2, a video signal output unit 5, and a live-action video acquisition unit 6 mounted on a vehicle via a communication network such as the Internet.
  • the mobile communication device 60 includes a vehicle position acquisition unit 1, a feature data acquisition unit 2, a video signal output unit 5, and a live-action video acquisition unit 6 mounted on a vehicle, and Bluetooth (registered) that is a short-range wireless communication standard, for example. Trademark) or wireless communication such as wireless LAN.
  • the mobile communication device 60 may communicate with the vehicle by a wired line such as a USB (Universal Serial Bus) cable or a LAN cable.
  • USB Universal Serial Bus
  • the mobile communication device 60 may have a part or all of the vehicle position acquisition unit 1, the feature data acquisition unit 2, and the live-action image acquisition unit 6.
  • the configuration of the sixth embodiment in which some components of the display control device 600 are arranged in the mobile communication device 60 is the same as the display control device in the first to fourth embodiments described above. The effect of can be obtained.
  • Vehicle position acquisition unit 2. Feature data acquisition unit, 3. Driven lane discrimination unit, 4. Video signal generation unit, 5. Video signal output unit, 6. Live-action video acquisition unit, 100, 200, 300, 400, 500, 600 display Control device, 50 server device, 60 mobile communication device, HW1 processing circuit, HW2 processor, HW3 memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明は、表示装置を制御することによって運転者に走行可能な車線を認知させる表示制御装置および表示制御方法の提供を目的とする。表示制御装置(100)は、車両の運転席からの景色又は車両の前方の実写映像に、ドライバーサポート画像を重畳して表示させる表示装置を制御する表示制御装置であって、実写映像取得部(6)と、車両位置取得部(1)と、車両の前方の道路に関する地物データを取得する地物データ取得部(2)と、車両の前方の道路において車両が走行可能な車線を判別する走行可能車線判別部(3)と、車両の運転席からの景色又は車両の前方の実写映像において路面と重なる物体を避けるように、走行可能な車線にドライバーサポート画像を重畳して表示する映像信号を生成する映像信号生成部(4)と、映像信号出力部(5)と、を備え、ドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在する。

Description

表示制御装置および表示制御方法
 本発明は表示制御装置および表示制御方法に関する。
 車両のナビゲーション装置が運転者に事前に経路を認知させるために、例えばHUD(Head Up Display)を用いて直進、右折、左折など進路を示す矢印を表示させる技術が知られている。また、車両の運転席からの景色に画像を重畳させて表示することによって、運転者に事前に経路を認知させる技術が知られている(例えば、特許文献1~4を参照)。
特開2012-220489号公報 特開2006-350617号公報 特開2014-181927号公報 特開2000-211452号公報
 しかしながら、HUDが表示する直進、右折、左折などの進路を示す矢印が、前方を走行している車両、前方に存在する建物などに重なって表示されてしまい、進路を示す矢印の視認性が低下する問題があった。また、前方の車両、建物の視認性が低下する問題もあった。
 上述した視認性の低下によって、車両の運転者が進路の判断に迷い、経路を間違えてしまった場合、車両を正しい経路に復帰させるために、車両を走行させるエネルギーが浪費されてしまう問題があった。従って、運転者に走行可能な車線をより確実に認知させる要求が高まっている。
 本発明は以上のような課題を解決するためになされたものであり、表示装置を制御することによって運転者に走行可能な車線を認知させる表示制御装置および表示制御方法の提供を目的とする。
 本発明に係る表示制御装置は、車両の運転席からの景色又は車両の前方の実写映像に、ドライバーサポート画像を重畳して表示させる表示装置を制御する表示制御装置であって、車両の前方の実写映像を取得する実写映像取得部と、現在の車両の位置を取得する車両位置取得部と、車両の前方の道路に関する地物データを取得する地物データ取得部と、現在の車両の位置および地物データに基づいて、車両の前方の道路において、車両が走行可能な車線を判別する走行可能車線判別部と、車両の運転席からの景色又は車両の前方の実写映像において路面と重なる物体を避けるように、走行可能な車線にドライバーサポート画像を重畳して表示する映像信号を生成する映像信号生成部と、表示装置に対して映像信号を出力する映像信号出力部と、を備え、走行可能な車線に重畳されるドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在する。
 本発明に係る表示制御方法は、車両の運転席からの景色又は車両の前方の実写映像に、ドライバーサポート画像を重畳して表示させる表示装置を制御する表示制御方法であって、車両の前方の実写映像を取得し、現在の車両の位置を取得し、車両の前方の道路に関する地物データを取得し、現在の車両の位置および地物データに基づいて、車両の前方の道路において、車両が走行可能な車線を判別し、車両の運転席からの景色又は車両の前方の実写映像において路面と重なる物体を避けるように、走行可能な車線にドライバーサポート画像を重畳して表示する映像信号を生成し、表示装置に対して映像信号を出力し、走行可能な車線に重畳されるドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在する。
 本発明に係る表示制御装置および表示制御方法によれば、車両の運転席からの景色又は車両の前方の実写映像において路面と重なる物体を避けるように、走行可能な車線にドライバーサポート画像を重畳して表示させることによって、路面と重なる物体とドライバーサポート画像が干渉して表示されることを防止可能である。これにより、路面と重なる物体の視認性を維持したまま、運転者に対して効果的に走行可能な車線を認知させることが可能である。従って、車両が正しい経路から外れることが抑制されるため、車両を正しい経路に復帰させるためのエネルギーの浪費を抑制することが可能である。
 また、本発明に係る表示制御装置および表示制御方法によれば、ドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在するため、ドライバーサポート画像の視認性を向上させることが可能である。
 この発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによってより明白となる。
実施の形態1に係る表示制御装置のブロック図である。 実施の形態1に係る表示制御装置のハードウェア構成図である。 実施の形態1に係る表示制御装置のハードウェア構成図である。 実施の形態1に係る表示制御装置の動作を示すフローチャートである。 実施の形態1に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態1に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態1に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態1に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態2に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態2に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態3に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態3に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態4に係る表示制御装置が制御する表示装置が搭載された車両の経路案内の経路を示す模式図である。 実施の形態4に係る表示制御装置が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。 実施の形態5に係る表示制御装置のブロック図である。 実施の形態6に係る表示制御装置のブロック図である。
 <実施の形態1>
 <構成>
 図1は、本実施の形態1における表示制御装置100のブロック図である。図1に示すように、表示制御装置100は車両位置取得部1、地物データ取得部2、走行可能車線判別部3、映像信号生成部4、映像信号出力部5、実写映像取得部6を備える。
 表示制御装置100は、車両の運転席からの景色に、ドライバーサポート画像を重畳して表示させる表示装置を制御する。ここで、表示装置は、車両のウィンドシールド越しに映像を表示する表示装置であり、例えばHUDである。なお、本明細書において、表示制御装置100の制御対象となる表示装置を搭載した車両を、単に「車両」と記載する。
 実写映像取得部6は、車両の前方の実写映像を取得する。車両位置取得部1は現在の車両の位置を取得する。地物データ取得部2は、道路に関する地物データを取得する。走行可能車線判別部3は、現在の車両の位置および地物データに基づいて、車両の前方の道路において、車両が走行可能な車線を判別する。
 映像信号生成部4は、表示装置に表示させる映像信号を生成する。表示装置に表示させる映像信号とは、走行可能な車線にドライバーサポート画像を重畳して表示させる映像信号である。ここで、映像信号生成部4は、車両の運転席からの景色において路面と重なる物体を避けるように、走行可能な車線にドライバーサポート画像を重畳して表示させる。映像信号出力部5は表示装置に対して映像信号を出力する。
 本実施の形態1において、走行可能な車線に重畳されるドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在する画像である。
 図2は、表示制御装置100のハードウェア構成図である。表示制御装置100における車両位置取得部1、地物データ取得部2、走行可能車線判別部3、映像信号生成部4、映像信号出力部5、実写映像取得部6の各機能は、処理回路HW1により実現される。すなわち、表示制御装置100は、車両の前方の実写映像を取得し、現在の車両の位置を取得し、道路に関する地物データを取得し、現在の車両の位置および地物データに基づいて、車両の前方の道路において、車両が走行可能な車線を判別し、走行可能な車線にドライバーサポート画像を重畳して表示させる映像信号を生成し、表示装置に対して映像信号を出力する処理を行うための処理装置を備える。処理回路HW1は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)ともいう)であってもよい。
 処理回路HW1が専用のハードウェアである場合、処理回路HW1は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。車両位置取得部1、地物データ取得部2、走行可能車線判別部3、映像信号生成部4、映像信号出力部5、実写映像取得部6の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
 処理回路HW1がプロセッサである場合、車両位置取得部1、地物データ取得部2、走行可能車線判別部3、映像信号生成部4、映像信号出力部5、実写映像取得部6の各部の機能は、ソフトウェア等(ソフトウェア、ファームウェアまたはソフトウェアとファームウェア)の組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリHW3に格納される。図3に示すように、処理回路HW1に適用されるプロセッサHW2は、メモリHW3に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、表示制御装置100は、処理回路HW1により実行されるときに、車両の前方の実写映像を取得するステップ、現在の車両の位置を取得するステップ、道路に関する地物データを取得するステップ、現在の車両の位置および地物データに基づいて、車両の前方の道路において、車両が走行可能な車線を判別するステップ、走行可能な車線にドライバーサポート画像を重畳して表示させる映像信号を生成するステップ、表示装置に対して映像信号を出力するステップが結果的に実行されることになるプログラムを格納するためのメモリHW3を備える。また、これらのプログラムは、車両位置取得部1、地物データ取得部2、走行可能車線判別部3、映像信号生成部4、映像信号出力部5、実写映像取得部6の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリHW3とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等、または、今後使用されるあらゆる記憶媒体であってもよい。
 なお、車両位置取得部1、地物データ取得部2、走行可能車線判別部3、映像信号生成部4、映像信号出力部5、実写映像取得部6の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、処理回路HW1は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 <動作>
 図4は、本実施の形態1における表示制御装置100の動作を示すフローチャートである。図5は、表示制御装置100が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。なお、図5は模式図であり、信号、停止線、歩道、横断歩道などの記載を省略している。
 図5に示すように、交差点N1に対して道路L1,L2,L3,L4が接続されている状況を想定する。ここで、交差点はノードとも呼ばれる。また、交差点と交差点を繋ぐ道路はリンクとも呼ばれる。道路L1は車線L11~L14を備える。車線L11,L12,L13が車両の進行方向の車線、車線L14が対向車線である。また、道路L2は車線L21~L24を備える。車線L21,L22,L23が車両の進行方向の車線、車線L24が対向車線である。また、道路L3は車線L31,L32を備える。車線L31が車両の進行方向の車線、車線L32が対向車線である。また、道路L4は車線L41,L42を備える。車線L41が車両の進行方向の車線、車線L42が対向車線である。車両は、図5に示す道路L1において、直進のみが可能な車線L12を走行しているとする。
 まず、実写映像取得部6は車両の前方の実写映像を取得する(ステップS1)。車両の前方の実写映像は、車両に搭載されたカメラから取得される。車両位置取得部1は現在の車両の位置を取得する(ステップS2)。現在の車両の位置は例えばGPS(Global Positioning System)、車両に搭載されたセンサ、車両に搭載されたカメラなどから得た情報を利用して算出されたものである。
 次に、地物データ取得部2は、車両の前方の道路に関する地物データを取得する(ステップS3)。ここで、図5において車両の前方の道路とは、現在車両が走行している道路L1、道路L1と交差点N1を介して接続された道路L2,L3,L4である。道路に関する地物データには、例えば、リンク長、幅員区分、車線数、車道幅員、道路交差部、各車線を区画する区画線、各車線の進行方向(右折車線、左折車線、直進車線など)などに関する情報が含まれる。地物データ取得部2は、地物データが記憶されたサーバ装置と通信を行うことにより、道路に関する地物データを取得してもよいし、車両に搭載されたデータベースから道路に関する地物データを取得してもよい。
 また、地物データ取得部2は、実写映像取得部6が取得する車両の前方の実写映像を解析することによって、道路に関する地物データを取得してもよい。実写映像の解析とは例えば、白線を含む道路標示を検出することに基づいて車線などを認識することである。また、地物データ取得部2は、車両の前方の実写映像を解析することによって、自己の車両の前方で停車又は走行している車両、建物などを検出する。
 次に、走行可能車線判別部3は、車両の前方の道路において走行可能な車線の判別を行う(ステップS4)。走行可能車線判別部3は、現在車両が位置する道路L1の車線L12から、交差点N1を介して前方の道路L2の車線L22が走行可能な車線であると判別する。また、走行可能車線判別部3は、車線L22の両隣の車線L21,L23も走行可能な車線であると判別する。
 そして、映像信号生成部4は、車両の運転席からの景色において走行可能な車線にドライバーサポート画像を重畳して表示させる映像信号を生成する(ステップ5)。図5に示すように、映像信号生成部4は、現在車両が位置する車線L12と、車線L12の延長線上に位置する、走行可能な車線L22とを繋ぐように、車線L12,L22にドライバーサポート画像IMG10を重畳させる。図5に示すように、車両の前方において車両30が走行している。ドライバーサポート画像IMG10は、車両の運転席からの景色において路面と重なる車両30を避けるように、走行可能な車線L12,L22に重畳される。
 そして、映像信号出力部5は表示装置に対して、映像信号生成部4が生成した映像信号を出力する(ステップS6)。
 図5に示すように、ドライバーサポート画像IMG10は、車線L12,L22の幅方向に幅を有し、車線の延在する方向に延在する画像である。ドライバーサポート画像IMG10は、透過性のある画像であり、運転者はドライバーサポート画像IMG10を通して実際の道路を視認可能である。
 なお、図6に示すように、車両の前方において走行している車両30の位置が例えば右にずれるように変化した場合、車両30のずれた部分を埋めるようにドライバーサポート画像IMG10が表示される。なお、車両30はオートバイ(モーターバイクとも呼ばれる)であってもよい。
 図7は、表示制御装置100が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。図7に示す道路L1において、車両は左折のみが可能な車線L11を走行しているとする。現在車両が位置する道路L1の車線L11からは、交差点N1を介して前方の道路L3の車線L31が走行可能な車線である。図7に示すように、車線L11において車両の前方には、左折しようとする車両31,32が信号待ちのために停車している。
 映像信号生成部4は、現在車両が位置する車線L11と、走行可能な車線L31とを繋ぐように、車線L12,L31にドライバーサポート画像IMG20を重畳させる。ドライバーサポート画像IMG20は、車両の運転席からの景色において路面と重なる車両31,32を避けるように、走行可能な車線L11,L31に重畳される。
 図7において、停車している車両32の後ろまで自己の車両が進行すると、車両32の後ろに表示されていたドライバーサポート画像は表示されなくなる。これにより、運転者はドライバーサポート画像の表示を目安として車両32の後ろで自己の車両を停止させることができる。
 図8は、表示制御装置100が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。図8に示す道路L1において、車両は右折のみが可能な車線L13を走行しているとする。現在車両が位置する道路L1の車線L13からは、交差点N1を介して前方の道路L4の車線L41が走行可能な車線である。図8に示すように、車両の運転席からの景色において、道路L4の手前には道路L4の一部と重なるように建物40が存在している。
 映像信号生成部4は、現在車両が位置する車線L13と、走行可能な車線L41とを繋ぐように、車線L13,L41にドライバーサポート画像IMG30を重畳させる。ドライバーサポート画像IMG30は、車両の運転席からの景色において路面と重なる建物40を避けるように、走行可能な車線L13,L41に重畳される。
 上述した図4のステップS1からステップS6の一連の処理は常に繰り返され、表示装置には常に最新のドライバーサポート画像が表示される。つまり、車両の走行による車両の位置変化、車両の前方の車両、建物などの位置変化に伴って、表示装置に表示されるドライバーサポート画像が変化する。なお、図4のステップS1,S2を実行する順序を入れ替えてもよい。
 また、本実施の形態1における表示制御装置100において、車両の運転席からの景色にドライバーサポート画像が重畳して表示されるとしたが、車両の前方の実写映像にドライバーサポート画像を重畳して表示装置に表示させてもよい。この場合、表示装置は例えば車両のインストルメント・パネルに配置された液晶ディスプレイである。
 <効果>
 本実施の形態1における表示制御装置100は、車両の運転席からの景色又は車両の前方の実写映像に、ドライバーサポート画像を重畳して表示させる表示装置を制御する表示制御装置であって、車両の前方の実写映像を取得する実写映像取得部6と、現在の車両の位置を取得する車両位置取得部1と、車両の前方の道路に関する地物データを取得する地物データ取得部2と、現在の車両の位置および地物データに基づいて、車両の前方の道路において、車両が走行可能な車線を判別する走行可能車線判別部3と、車両の運転席からの景色又は車両の前方の実写映像において路面と重なる物体を避けるように、走行可能な車線にドライバーサポート画像を重畳して表示する映像信号を生成する映像信号生成部4と、表示装置に対して映像信号を出力する映像信号出力部5と、を備え、走行可能な車線に重畳されるドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在する。
 本実施の形態1における表示制御装置100および表示制御方法によれば、車両の運転席からの景色又は車両の前方の実写映像において路面と重なる物体を避けるように、走行可能な車線にドライバーサポート画像を重畳して表示させることによって、路面と重なる物体とドライバーサポート画像が干渉して表示されることを防止可能である。これにより、路面と重なる物体の視認性を維持したまま、運転者に対して効果的に走行可能な車線を認知させることが可能である。従って、車両が正しい経路から外れることが抑制されるため、車両を正しい経路に復帰させるためのエネルギーの浪費を抑制することが可能である。
 また、本発明における表示制御装置100および表示制御方法によれば、ドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在するため、ドライバーサポート画像の視認性を向上させることが可能である。
 また、本実施の形態1における表示制御装置100において、路面と重なる物体とは、前記車両の前方に存在する車両である。従って、前方を走行している車両および前方で停車している車両の視認性を低下させずにドライバーサポート画像を表示させることが可能となる。
 また、本実施の形態1における表示制御装置100において、路面と重なる物体とは、建物である。従って、車両の前方の交差点において右折又は左折を示すドライバーサポート画像が建物を隠すことを防止することができるため、運転者に対して交差点の目印となる建物を認知させることが可能となる。
 また、本実施の形態1における表示制御装置100において、映像信号生成部4は、走行可能な車線にドライバーサポート画像を常に重畳して表示させる映像信号を生成する。走行可能な車線にドライバーサポート画像を常に重畳して表示されることにより、運転者に対して効果的に走行可能な車線を認知させることが可能である。
 また、本実施の形態1における表示制御装置100において、映像信号生成部4は、車両の前方の道路に交差点が含まれる場合、現在車両が位置する車線と交差点の先にある道路の車線とを繋ぐように、ドライバーサポート画像を重畳して表示させる映像信号を生成してもよい。従って、交差点内における進路を運転者に対して認知させることが可能である。これにより、車両が正しい経路から外れることが抑制されるため、車両を正しい経路に復帰させるためのエネルギーの浪費を抑制することが可能である。
 なお、本実施の形態1において図5から図8で示したドライバーサポート画像の色、透過率、先端の形状などは一例であり、これに限定されるものではない。
 <実施の形態2>
 本実施の形態2における表示制御装置200の構成は、実施の形態1における表示制御装置100(図1)と同じため説明を省略する。本実施の形態2における表示制御装置200において、映像信号生成部4の動作が実施の形態1と異なる。
 本実施の形態2における表示制御装置200において、映像信号生成部4は、走行可能な車線において車両が列を作っている場合、列の長さが長いほど、列の先頭に表示させるドライバーサポート画像の車線の延在する方向の長さを長く表示させる。
 図9は、表示制御装置200が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。図9に示す道路L1において、車両は左折のみが可能な車線L11を走行しているとする。現在車両が位置する道路L1の車線L11からは、交差点N1を介して前方の道路L3の車線L31が走行可能な車線である。図9に示すように、車線L11において車両の前方には、左折しようとする車両31~34が信号待ちのために停車して列が形成されている。
 映像信号生成部4は、車両31~34の列の長さA1が長いほど、列の先頭に表示するドライバーサポート画像IMG21の車線L31の延在する方向の長さA2を長く表示させる映像信号を生成する。
 また、本実施の形態2における表示制御装置200において、映像信号生成部4は、走行可能な車線において車両が列を作っている場合、列の長さが長いほど、列の先頭に表示させるドライバーサポート画像の車線の幅方向の幅を広く表示させる映像信号を生成してもよい。
 図10は、表示制御装置200が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。図10に示すように、車線L11において車両の前方には、左折しようとする車両31~34が信号待ちのために停車して列が形成されている。映像信号生成部4は、列の長さA1が長いほど、列の先頭に表示するドライバーサポート画像IMG22の車線L31の幅方向の幅A3を広く表示させる。
 なお、図9および図10においては、交差点を左折しようとして停車している車両の列の先頭に表示するドライバーサポート画像について説明したが、本実施の形態2は左折に限定されるものではない。交差点を直進又は右折しようとして停車している車両の列の先頭に表示するドライバーサポート画像についても同様の表示が可能である。
 <効果>
 本実施の形態2における表示制御装置200において、走行可能な車線において車両が列を作っている場合、列の長さが長いほど、列の先頭に表示されるドライバーサポート画像の車線の延在する方向の長さが長く表示される。従って、運転者に対して、列の先頭に表示されるドライバーサポート画像の長さで列の長さを認知させることが可能となる。
 本実施の形態2における表示制御装置200において、走行可能な車線において車両が列を作っている場合、列の長さが長いほど、列の先頭に表示されるドライバーサポート画像の車線の幅方向の幅が広く表示されてもよい。従って、運転者に対して、列の先頭に表示されるドライバーサポート画像の幅の広さで列の長さを認知させることが可能となる。
 <実施の形態3>
 本実施の形態3における表示制御装置300の構成は、実施の形態1における表示制御装置100(図1)と同じため説明を省略する。本実施の形態3における表示制御装置300において、走行可能車線判別部3および映像信号生成部4の動作が実施の形態1と異なる。
 本実施の形態3において、車両にはナビゲーション装置が搭載され、ナビゲーション装置が経路案内を行っているとする。本実施の形態3において、走行可能車線判別部3は、車両の前方の道路のうち、車両のナビゲーション装置が経路案内を行う道路において車両が走行可能な車線の判別を行う。
 図11は、表示制御装置300が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。図11に示す道路L1の左側に施設41が存在する。ナビゲーション装置において施設41が経路案内の目的地に設定されている。施設41は例えば駐車場である。道路L1の車線L11には、施設41に進入するために車両31~34が停車して列が形成されている。図11に示す道路L1において、車両は車線L11を走行しているとする。
 映像信号生成部4は、現在車両が位置する車線L11にドライバーサポート画像IMG23を重畳させる。ドライバーサポート画像IMG23は、車両の運転席からの景色において路面と重なる車両31~34を避けるように、走行可能な車線L11に重畳される。映像信号生成部4はさらに、車両31~34の列の先頭から施設41に向かう矢印の画像IMG24を表示させる。
 図11に示すように、本実施の形態3における表示制御装置300において、映像信号生成部4は、車両31~34の列の長さA1が長いほど、列の先頭に表示する矢印の画像IMG24の長さA4を長く表示する映像信号を生成する。
 また、図12に示すように、本実施の形態3における表示制御装置300において、映像信号生成部4は、車両31~34の列の長さA1が長いほど、列の先頭に表示する矢印の画像IMG25の幅A5を広く表示する映像信号を生成してもよい。さらに、例えば列の長さA3が予め定められた長さよりも長い場合、矢印の画像IMG25を強調して表示するために、矢印の画像IMG25を立体的に表示させる、矢印の画像IMG25に影を付けて表示させるなどしてもよい。
 <効果>
 本実施の形態3における表示制御装置300において、走行可能車線判別部3は、車両の前方の道路のうち、車両のナビゲーション装置が経路案内を行う道路において車両が走行可能な車線の判別を行う。従って、車両のナビゲーション装置が経路案内を行っている場合においても、ドライバーサポート画像の表示が可能となるため、経路案内において、車両が正しい経路から外れることが抑制されるため、車両を正しい経路に復帰させるためのエネルギーの浪費を抑制することが可能である。
 また、本実施の形態3における表示制御装置300において、ナビゲーション装置の経路案内で設定された目的地に進入するために、走行可能な車線において車両が列を作っている場合、列の先頭から目的地に向かう矢印の画像を表示させる。従って、運転者に対して、目的地に進入するために渋滞が生じていることを認知させることが可能となる。
 また、本実施の形態3における表示制御装置300において、走行可能な車線において車両が列を作っている場合、列の長さが長いほど、列の先頭に表示される矢印の画像の長さが長く表示される。従って、運転者に対して、列の先頭に表示される矢印の画像の長さで列の長さを認知させることが可能となる。
 また、本実施の形態3における表示制御装置300において、走行可能な車線において車両が列を作っている場合、列の長さが長いほど、列の先頭に表示される矢印の画像の幅が広く表示されてもよい。従って、運転者に対して、列の先頭に表示される矢印の画像の幅で列の長さを認知させることが可能となる。
 <実施の形態4>
 本実施の形態4における表示制御装置400の構成は、実施の形態1における表示制御装置100(図1)と同じため説明を省略する。本実施の形態4における表示制御装置400において、走行可能車線判別部3および映像信号生成部4の動作が実施の形態1と異なる。
 本実施の形態4において、実施の形態3と同様、車両にはナビゲーション装置が搭載され、ナビゲーション装置が経路案内を行っているとする。本実施の形態4において、走行可能車線判別部3は、車両の前方の道路のうち、車両のナビゲーション装置が経路案内を行う道路において車両が走行可能な車線の判別を行う。
 図13は、ナビゲーション装置の経路案内の経路を示す模式図である。図14は、表示制御装置400が表示装置に表示させるドライバーサポート画像および車両の運転席からの景色の一例を示す模式図である。
 図13に示すように、現在車両が走行している道路L5に対して、道路L6,L7,L8,L9が接続されている。図13中に矢印で示すように、ナビゲーション装置の経路案内は、交差点N2において道路L5から道路L8に対して右折する経路である。道路L6の手前には建物42が存在する。道路L6と道路L8との間には建物43が存在する。道路L8と道路L9との間には建物44が存在する。
 ナビゲーション装置が経路案内を行う道路L5,L8において、車両が走行可能な車線はそれぞれ車線L51,L81である。図14に示すように、映像信号生成部4は、現在車両が位置する車線L51と、走行可能な車線L81とを繋ぐように、車線L51,L81にドライバーサポート画像IMG31を重畳させる映像信号を生成する。ドライバーサポート画像IMG31は、車両の運転席からの景色において路面と重なる建物43を避けるように、走行可能な車線L51,L81に重畳される。
 <効果>
 本実施の形態4における表示制御装置400において、走行可能車線判別部3は、車両の前方の道路のうち、車両のナビゲーション装置が経路案内を行う道路において車両が走行可能な車線の判別を行う。
 図13に示すように交差点が連続しているような道路においてナビゲーション装置による経路案内が行われている場合、どの交差点で右折するか運転者が判断に迷う場合がある。表示制御装置400においては、車両の運転席からの景色において路面と重なる建物43を避けるように、案内経路が行われている道路における走行可能な車線L51,L81にドライバーサポート画像IMG31が重畳される。これにより、ドライバーサポート画像IMG31によって建物43の視認性が低下することを防止できるため、右折する交差点において建物43を目印とすることができる。建物43が交差点の目印となることにより、車両が正しい経路から外れることが抑制されるため、車両を正しい経路に復帰させるためのエネルギーの浪費を抑制することが可能である。
 以上に述べた実施の形態1から実施の形態4の表示制御装置は、車両に搭載可能な装置としてだけでなく、通信端末装置、サーバ装置などと適宜に組み合わせてシステムとして構築される表示制御システムに適用することができる。携帯通信装置は、例えば携帯電話機、スマートフォン、タブレット型端末装置などである。
 前述のように、車両に搭載される装置、通信端末装置およびサーバ装置を適宜に組み合わせて表示制御システムが構築される場合、表示制御装置の各構成要素は、システムを構築する各装置に分散して配置されてもよいし、いずれかの装置に集中して配置されてもよい。
 表示制御装置の構成要素が部分的にサーバ装置に配置される場合の構成は、以下の実施の形態5で説明される。また、表示制御装置に備わる要素が部分的に携帯通信装置に配置される場合の構成は、以下の実施の形態6で説明される。
 <実施の形態5>
 図15は、本実施の形態5における表示制御装置500のブロック図である。図15に示すように、表示制御装置500は車両位置取得部1、地物データ取得部2、映像信号出力部5、実写映像取得部6およびサーバ装置50を備える。サーバ装置50は、走行可能車線判別部3、映像信号生成部4を備える。本実施の形態5における駐車支援制御装置500は、実施の形態1から実施の形態4における表示制御装置(図1)と同一の構成が含まれているので、同一の構成については同一の参照符号を付して、共通する説明を省略する。
 サーバ装置50は、車両に搭載された車両位置取得部1、地物データ取得部2、映像信号出力部5、実写映像取得部6と、インターネットなどの通信網を介して通信を行う。
 なお、車両位置取得部1、地物データ取得部2、実写映像取得部6の一部又は全部がサーバ装置50に備わる構成であってもよい。
 以上のように表示制御装置500の一部の構成要素がサーバ装置50に配置される本実施の形態5の構成においても、前述の実施の形態1から実施の形態4における表示制御装置と同様の効果を得ることができる。
 <実施の形態6>
 図16は、本実施の形態6における表示制御装置600のブロック図である。図16に示すように、表示制御装置600は車両位置取得部1、地物データ取得部2、映像信号出力部5、実写映像取得部6および携帯通信装置60を備える。携帯通信装置60は、走行可能車線判別部3、映像信号生成部4を備える。本実施の形態6における表示制御装置600は、実施の形態1から実施の形態4における表示制御装置(図1)と同一の構成が含まれているので、同一の構成については同一の参照符号を付して、共通する説明を省略する。
 携帯通信装置60は、車両に搭載された車両位置取得部1、地物データ取得部2、映像信号出力部5、実写映像取得部6と、インターネットなどの通信網を介して通信を行う。また、携帯通信装置60は、車両に搭載された車両位置取得部1、地物データ取得部2、映像信号出力部5、実写映像取得部6と、例えば近距離無線通信規格であるBluetooth(登録商標)又は無線LANなどの無線によって通信を行ってもよい。また、携帯通信装置60は、USB(Universal Serial Bus)ケーブル又はLANケーブルなどの有線によって、車両と通信を行ってもよい。
 なお、車両位置取得部1、地物データ取得部2および実写映像取得部6の一部又は全部が携帯通信装置60に備わる構成であってもよい。
 以上のように表示制御装置600の一部の構成要素が携帯通信装置60に配置される本実施の形態6の構成においても、前述の実施の形態1から実施の形態4における表示制御装置と同様の効果を得ることができる。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。この発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 車両位置取得部、2 地物データ取得部、3 走行可能車線判別部、4 映像信号生成部、5 映像信号出力部、6 実写映像取得部、100,200,300,400,500,600 表示制御装置、50 サーバ装置、60 携帯通信装置、HW1 処理回路、HW2 プロセッサ、HW3 メモリ。

Claims (12)

  1.  車両の運転席からの景色又は前記車両の前方の実写映像に、ドライバーサポート画像を重畳して表示させる表示装置を制御する表示制御装置であって、
     前記車両の前方の前記実写映像を取得する実写映像取得部と、
     現在の前記車両の位置を取得する車両位置取得部と、
     前記車両の前方の道路に関する地物データを取得する地物データ取得部と、
     現在の前記車両の位置および前記地物データに基づいて、前記車両の前方の道路において、前記車両が走行可能な車線を判別する走行可能車線判別部と、
     前記車両の前記運転席からの景色又は前記車両の前方の前記実写映像において路面と重なる物体を避けるように、前記走行可能な車線に前記ドライバーサポート画像を重畳して表示する映像信号を生成する映像信号生成部と、
     前記表示装置に対して前記映像信号を出力する映像信号出力部と、
     を備え、
     前記走行可能な車線に重畳される前記ドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在する、
    表示制御装置。
  2.  前記路面と重なる物体とは、前記車両の前方に存在する車両である、
    請求項1に記載の表示制御装置。
  3.  前記路面と重なる物体とは、建物である、
    請求項1に記載の表示制御装置。
  4.  前記走行可能な車線において車両が列を作っている場合、前記列の長さが長いほど、列の先頭に表示される前記ドライバーサポート画像の車線の延在する方向の長さが長く表示される、
    請求項2に記載の表示制御装置。
  5.  前記走行可能な車線において車両が列を作っている場合、前記列の長さが長いほど、列の先頭に表示される前記ドライバーサポート画像の車線の幅方向の幅が広く表示される、
    請求項2に記載の表示制御装置。
  6.  前記映像信号生成部は、前記走行可能な車線に前記ドライバーサポート画像を常に重畳して表示させる映像信号を生成する、
    請求項1に記載の表示制御装置。
  7.  前記映像信号生成部は、前記車両の前方の道路に交差点が含まれる場合、現在車両が位置する車線と前記交差点の先にある道路の車線とを繋ぐように、前記ドライバーサポート画像を重畳して表示させる前記映像信号を生成する、
    請求項1に記載の表示制御装置。
  8.  前記走行可能車線判別部は、前記車両の前方の道路のうち、前記車両のナビゲーション装置が経路案内を行う道路において前記車両が走行可能な車線の判別を行う、
    請求項1に記載の表示制御装置。
  9.  前記ナビゲーション装置の前記経路案内において設定された目的地に進入するために、前記走行可能な車線において車両が列を作っている場合、前記映像信号生成部は、前記列の先頭から前記目的地に向かう矢印の画像を表示させる映像信号を生成する、
    請求項8に記載の表示制御装置。
  10.  前記走行可能な車線において車両が列を作っている場合、前記列の長さが長いほど、列の先頭に表示される前記矢印の画像の長さが長く表示される、
    請求項9に記載の表示制御装置。
  11.  前記走行可能な車線において車両が列を作っている場合、前記列の長さが長いほど、列の先頭に表示される前記矢印の画像の幅が広く表示される、
    請求項9に記載の表示制御装置。
  12.  車両の運転席からの景色又は前記車両の前方の実写映像に、ドライバーサポート画像を重畳して表示させる表示装置を制御する表示制御方法であって、
     前記車両の前方の前記実写映像を取得し、
     現在の前記車両の位置を取得し、
     前記車両の前方の道路に関する地物データを取得し、
     現在の前記車両の位置および前記地物データに基づいて、前記車両の前方の道路において、前記車両が走行可能な車線を判別し、
     前記車両の前記運転席からの景色又は前記車両の前方の前記実写映像において路面と重なる物体を避けるように、前記走行可能な車線に前記ドライバーサポート画像を重畳して表示する映像信号を生成し、
     前記表示装置に対して前記映像信号を出力し、
     前記走行可能な車線に重畳される前記ドライバーサポート画像は、車線の幅方向に幅を有し、車線の延在する方向に延在する、
    表示制御方法。
PCT/JP2017/017859 2017-05-11 2017-05-11 表示制御装置および表示制御方法 WO2018207308A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/017859 WO2018207308A1 (ja) 2017-05-11 2017-05-11 表示制御装置および表示制御方法
JP2019516814A JP6793825B2 (ja) 2017-05-11 2017-05-11 表示制御装置および表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/017859 WO2018207308A1 (ja) 2017-05-11 2017-05-11 表示制御装置および表示制御方法

Publications (1)

Publication Number Publication Date
WO2018207308A1 true WO2018207308A1 (ja) 2018-11-15

Family

ID=64105297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/017859 WO2018207308A1 (ja) 2017-05-11 2017-05-11 表示制御装置および表示制御方法

Country Status (2)

Country Link
JP (1) JP6793825B2 (ja)
WO (1) WO2018207308A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11248926B2 (en) 2017-05-16 2022-02-15 Mitsubishi Electric Corporation Display control device and display control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271384A (ja) * 2006-03-30 2007-10-18 Denso It Laboratory Inc 道路案内システム
JP2008096105A (ja) * 2006-10-05 2008-04-24 Denso Corp 車両用ナビゲーション装置
JP2011529569A (ja) * 2008-07-31 2011-12-08 テレ アトラス ベスローテン フエンノートシャップ ナビゲーションデータを三次元で表示するコンピュータ装置および方法
WO2013080310A1 (ja) * 2011-11-29 2013-06-06 パイオニア株式会社 画像制御装置
JP2014185926A (ja) * 2013-03-22 2014-10-02 Aisin Aw Co Ltd 誘導表示システム
JP2015194473A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 情報表示装置、情報表示方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10287177A (ja) * 1997-04-15 1998-10-27 Toyota Motor Corp 車両用前方画像撮影装置及び車両用案内表示装置
JP2008151752A (ja) * 2006-12-20 2008-07-03 Nissan Motor Co Ltd 経路案内表示装置及び経路案内方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271384A (ja) * 2006-03-30 2007-10-18 Denso It Laboratory Inc 道路案内システム
JP2008096105A (ja) * 2006-10-05 2008-04-24 Denso Corp 車両用ナビゲーション装置
JP2011529569A (ja) * 2008-07-31 2011-12-08 テレ アトラス ベスローテン フエンノートシャップ ナビゲーションデータを三次元で表示するコンピュータ装置および方法
WO2013080310A1 (ja) * 2011-11-29 2013-06-06 パイオニア株式会社 画像制御装置
JP2014185926A (ja) * 2013-03-22 2014-10-02 Aisin Aw Co Ltd 誘導表示システム
JP2015194473A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 情報表示装置、情報表示方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11248926B2 (en) 2017-05-16 2022-02-15 Mitsubishi Electric Corporation Display control device and display control method

Also Published As

Publication number Publication date
JPWO2018207308A1 (ja) 2019-11-07
JP6793825B2 (ja) 2020-12-02

Similar Documents

Publication Publication Date Title
JP6658905B2 (ja) 走行支援装置及びコンピュータプログラム
JP6887743B2 (ja) 表示制御装置および表示制御方法
US11535155B2 (en) Superimposed-image display device and computer program
JP5346650B2 (ja) 情報表示装置
JP4497316B2 (ja) 車両用情報表示装置
JP6687306B2 (ja) 表示制御装置、表示装置、及び表示制御方法
WO2017094364A1 (ja) 車両制御装置
JP2005189008A (ja) ナビゲーション装置及びナビゲーションシステム
JP6693685B2 (ja) 電子装置、案内方法および案内システム
JP2008151752A (ja) 経路案内表示装置及び経路案内方法
WO2019119359A1 (en) Method, device and system for displaying augmented reality navigation information
JP6626069B2 (ja) 車両用表示装置
JP7011559B2 (ja) 表示装置、表示制御方法、およびプログラム
JP2020052045A (ja) 車両の軌跡を計画する方法
JP6917330B2 (ja) 駐車支援装置
KR20180028471A (ko) 차선 표시 장치 및 차선 표시 방법
US10198642B2 (en) Method for a motor vehicle provided with a camera, device and system
WO2018173512A1 (ja) 車両用表示制御装置及び車両用表示ユニット
JP5156307B2 (ja) 車載カメラシステム
JP6875057B2 (ja) 電子装置、走行レーン検出プログラムおよび走行レーン検出方法
US20200031227A1 (en) Display control apparatus and method for controlling display
WO2018207308A1 (ja) 表示制御装置および表示制御方法
JP2007140992A (ja) 交差点での運転支援方法及び運転支援装置
JP6448806B2 (ja) 表示制御装置、表示装置及び表示制御方法
JP2014229100A (ja) 車両用表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17909405

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019516814

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17909405

Country of ref document: EP

Kind code of ref document: A1