WO2020039224A1 - 運転計画表示方法及び運転計画表示装置 - Google Patents

運転計画表示方法及び運転計画表示装置 Download PDF

Info

Publication number
WO2020039224A1
WO2020039224A1 PCT/IB2018/001123 IB2018001123W WO2020039224A1 WO 2020039224 A1 WO2020039224 A1 WO 2020039224A1 IB 2018001123 W IB2018001123 W IB 2018001123W WO 2020039224 A1 WO2020039224 A1 WO 2020039224A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
crossing
pedestrian
image
Prior art date
Application number
PCT/IB2018/001123
Other languages
English (en)
French (fr)
Inventor
志野達弥
浅井俊弘
出川勝彦
石丸秀行
江本周平
野尻隆宏
伊東敦
Original Assignee
日産自動車株式会社
ルノー エス. ア. エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, ルノー エス. ア. エス. filed Critical 日産自動車株式会社
Priority to US17/269,284 priority Critical patent/US20210217304A1/en
Priority to JP2020537885A priority patent/JP7001169B2/ja
Priority to RU2021107096A priority patent/RU2763331C1/ru
Priority to PCT/IB2018/001123 priority patent/WO2020039224A1/ja
Priority to EP18931270.5A priority patent/EP3842287A4/en
Priority to CN201880096770.7A priority patent/CN112585032A/zh
Publication of WO2020039224A1 publication Critical patent/WO2020039224A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/547Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for issuing requests to other traffic participants; for confirming to other traffic participants they can proceed, e.g. they can overtake
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body

Definitions

  • the present disclosure relates to an operation plan display method and an operation plan display device.
  • Patent Document 1 a device that informs a pedestrian of a traveling route of a vehicle.
  • This device notifies the pedestrian of the approach of the own vehicle by predicting the traveling route of the own vehicle, and drawing a figure urging the pedestrians around the traveling route to prohibit entry into the traveling route, This is to prevent a pedestrian from entering the traveling route of the own vehicle.
  • Patent Literature 1 The technique disclosed in Patent Literature 1 is for preventing a pedestrian from entering the traveling path of the own vehicle, so that when the pedestrian has the intention of crossing the road, the pedestrian's crossing execution determination is made. The required information cannot be displayed.
  • the present disclosure has been made in view of the above-described problem, and has as its object to provide a driving plan display method and a driving plan display device capable of displaying information necessary for determining traversing for a pedestrian. I do.
  • the driving plan display method and the driving plan display device of the present disclosure provide a method of displaying a pedestrian's crossing predicted point on the road surface at a predicted crossing point from the current position of the vehicle to the crossing predicted point.
  • Information on the driving plan of the vehicle is displayed as an image.
  • the driving plan display method and the driving plan display device of the present disclosure can display information necessary for a pedestrian to determine whether to perform a crossing.
  • FIG. 1 is an overall system diagram showing an automatic operation control system A to which an operation plan display method and an operation plan display device according to Embodiment 1 are applied. It is a flow chart which shows a flow of operation plan information display processing performed by operation plan display controller 40 of the automatic operation control system A.
  • FIG. 7 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing according to the first embodiment, in which a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is a distance La. .
  • FIG. 5 is a plan view illustrating an example of an image IM displayed by the driving plan information display process in Embodiment 1, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance La.
  • the state of Lb is shown.
  • FIG. 9 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing in Embodiment 1, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance Lb.
  • the state of Lc is shown.
  • FIG. 18 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing in Embodiment 2, and illustrates a state where a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is a distance La. .
  • FIG. 15 is a plan view illustrating an example of an image IM displayed by the driving plan information display process in Embodiment 2, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance La. The state of Lb is shown.
  • FIG. 15 is a plan view illustrating an example of an image IM displayed by the driving plan information display process in Embodiment 2, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance La. The state of Lb is shown.
  • FIG. 17 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing according to Embodiment 2, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance Lb. The state of Lc is shown.
  • FIG. 21 is a plan view illustrating an example of an image IM displayed by the driving plan information display process according to Embodiment 3, in which a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is a distance La. .
  • FIG. 17 is a plan view illustrating an example of an image IM displayed by the driving plan information display process in Embodiment 3, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance La. The state of Lb is shown.
  • FIG. 21 is a plan view showing an example of an image IM displayed by the driving plan information display processing in Embodiment 3, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance Lb. The state of Lc is shown.
  • FIG. 21 is a plan view showing an example of an image IM displayed by the driving plan information display processing in Embodiment 3, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance Lb. The state of Lc is shown.
  • FIG. 21 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing according to Embodiment 4, in which a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is a distance La. .
  • FIG. 19 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing according to Embodiment 4, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance La. The state of Lb is shown.
  • FIG. 19 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing according to Embodiment 4, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance La. The state of Lb is shown.
  • FIG. 21 is a plan view showing an example of an image IM displayed by the driving plan information display processing in Embodiment 4, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance Lb. The state of Lc is shown.
  • FIG. 47 is a plan view illustrating an example of an image IM displayed by the driving plan information display process in Embodiment 5, in which a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is a distance La. .
  • FIG. 39 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing in Embodiment 5, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance La. The state of Lb is shown.
  • FIG. 39 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing in Embodiment 5, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance Lb.
  • the state of Lc is shown.
  • FIG. 39 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing according to Embodiment 6, in which a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is a distance La. .
  • FIG. 39 is a plan view illustrating an example of an image IM displayed by the driving plan information display process in Embodiment 6, wherein a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance La. The state of Lb is shown.
  • FIG. 39 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing according to Embodiment 6, in which a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is a distance La. The state of Lb is shown.
  • FIG. 39 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing according to Embodiment
  • FIG. 39 is a plan view illustrating an example of an image IM displayed by the driving plan information display processing in Embodiment 6, in which a distance between a pedestrian crossing CW as a predicted crossing point and a vehicle MV (own vehicle) is shorter than a distance Lb. The state of Lc is shown.
  • the driving plan display method and the driving plan display device according to the first embodiment are configured such that when the automatic driving mode is selected, the driving, the braking, and the steering angle are automatically controlled so as to travel along the generated target driving route. This is applied to (an example of a driving support vehicle).
  • FIG. 1 shows an automatic operation control system A to which the operation plan display method and the operation plan display device according to the first embodiment are applied.
  • the overall system configuration will be described with reference to FIG. 1
  • the automatic driving control system A includes an on-vehicle sensor 1, a map data storage unit 2, an external data communication device 3, an automatic driving control unit 4, an actuator 5, a display device 6, and an input device 7.
  • the vehicle-mounted sensor 1 includes a camera 11, a radar 12, a GPS 13, and a vehicle-mounted data communication device 14.
  • the sensor information obtained by the on-vehicle sensor 1 is output to the automatic operation control unit 4.
  • the camera 11 is a surrounding recognition sensor that realizes, as a function required for automatic driving, a function of acquiring surrounding information of the own vehicle such as a lane, a preceding vehicle, and a pedestrian Pd (see FIG. 3A) using image data.
  • the camera 11 is configured by combining, for example, a front recognition camera, a rear recognition camera, a right recognition camera, and a left recognition camera of the own vehicle.
  • the own vehicle is a vehicle equipped with the automatic driving control system A, and refers to the vehicle MV described in FIG. 3A and the like.
  • objects on the own vehicle traveling road lanes, objects outside the own vehicle traveling road (road structures, preceding vehicles, following vehicles, oncoming vehicles, surrounding vehicles, pedestrians Pd, bicycles, two-wheeled vehicles), own vehicle traveling roads (roads) White lines, road boundaries, stop lines, pedestrian crossings CW, road signs (speed limit), etc. can be detected.
  • the radar 12 is a distance measuring sensor that realizes a function of detecting the presence of an object including the pedestrian Pd around the own vehicle and a function of detecting a distance to an object around the own vehicle as functions required for automatic driving. is there.
  • the “radar 12” is a general term including a radar using radio waves, a rider using light, and a sonar using ultrasonic waves.
  • a laser radar, a millimeter-wave radar, an ultrasonic radar, a laser range finder, or the like can be used.
  • the radar 12 is configured by combining, for example, a forward radar, a backward radar, a right radar, a left radar, and the like of the own vehicle.
  • the radar 12 detects the position of an object on the own vehicle traveling road and an object outside the own vehicle traveling road (road structure, preceding vehicle, following vehicle, oncoming vehicle, surrounding vehicle, pedestrian Pd, bicycle, two-wheeled vehicle), and the like. The distance to each object is detected. If the viewing angle is insufficient, it may be added as appropriate.
  • the GPS 13 is a vehicle position sensor having a GNSS antenna 13a and detecting the vehicle position (latitude / longitude) of a stopped or running vehicle by using satellite communication.
  • GNSS is an abbreviation for “Global Navigation Satellite System: Global Navigation Satellite System”
  • GPS is an abbreviation for “Global Positioning System: Global Positioning System”.
  • the in-vehicle data communication device 14 is an external data sensor that performs wireless communication with the external data communication device 3 via the transmission / reception antennas 3a and 14a to acquire information that cannot be acquired by the vehicle from outside. .
  • the external data communication device 3 performs inter-vehicle communication between the own vehicle and another vehicle, for example, in the case of a data communication device mounted on another vehicle traveling around the own vehicle.
  • inter-vehicle communication information necessary for the own vehicle can be obtained by a request from the on-vehicle data communication device 14 among various information held by other vehicles.
  • the external data communication device 3 performs infrastructure communication between the vehicle and the infrastructure equipment.
  • information necessary for the own vehicle can be obtained by a request from the on-vehicle data communication device 14 among various information held by the infrastructure equipment.
  • the missing information or the changed information can be supplemented.
  • traffic information such as traffic congestion information and travel regulation information on a target travel route on which the vehicle is scheduled to travel can be obtained.
  • the map data storage unit 2 is constituted by a vehicle-mounted memory storing so-called electronic map data in which latitude and longitude are associated with map information.
  • the map data stored in the map data storage unit 2 is high-precision map data having at least a level of accuracy at which each lane can be recognized on a road having a plurality of lanes. By using this high-precision map data, it is possible to draw a target traveling route indicating which lane the vehicle runs in a plurality of lanes in automatic driving.
  • high-precision map data centering on the vehicle position is sent to the automatic driving control unit 4.
  • the high-precision map data has road information associated with each point, and the road information is defined by nodes and links connecting the nodes.
  • the road information includes information for specifying a road based on the position and area of the road, a road type for each road, a lane width for each road, and road shape information.
  • the road information is stored in association with information on intersection positions, intersection approach directions, intersection types, and other intersections for each piece of road link identification information.
  • the road information includes, for each piece of identification information of each road link, a road type, a lane width, a road shape, whether to go straight, a priority relationship for traveling, whether to pass (whether to enter an adjacent lane), a speed limit, and a sign. , And other road information are stored in association with each other.
  • the automatic driving control unit 4 has a function of integrating input information from the in-vehicle sensor 1 and the map data storage unit 2 to generate a target traveling route and a target vehicle speed profile (including an acceleration profile and a deceleration profile). That is, a target travel route based on the travel lane level from the current location to the destination is generated based on the high-accuracy map data from the map data storage unit 2 and a predetermined route search method, and the target vehicle speed along the target travel route is determined. Generate profiles etc.
  • the target traveling route and the The target vehicle speed profile and the like are sequentially corrected.
  • the automatic operation control unit 4 calculates a drive command value, a brake command value, and a steering angle command value so as to travel along the target travel route, and applies the calculated command value to each actuator. Output, and the vehicle travels and stops along the target traveling route. Specifically, the calculation result of the drive command value is output to the drive actuator 51, the calculation result of the brake command value is output to the brake actuator 52, and the calculation result of the steering angle command value is output to the steering angle actuator 53.
  • the actuator 5 is a control actuator for traveling and stopping the own vehicle along the target traveling route, and includes a driving actuator 51, a braking actuator 52, and a steering angle actuator 53.
  • the drive actuator 51 is an actuator that receives a drive command value from the automatic operation control unit 4 and controls a drive force output to drive wheels.
  • an engine is used for an engine vehicle
  • an engine and a motor generator (power running) are used for a hybrid vehicle
  • a motor generator (power running) is used for an electric vehicle.
  • the braking actuator 52 is an actuator that receives a braking command value from the automatic driving control unit 4 and controls a braking force that is output to driving wheels.
  • a hydraulic booster for example, a hydraulic booster, an electric booster, a brake hydraulic actuator, a brake motor actuator, a motor generator (regeneration), or the like is used.
  • the steering angle actuator 53 is an actuator that inputs a steering angle command value from the automatic driving control unit 4 and controls the steered angle of the steered wheels.
  • a steering motor or the like provided in a steering force transmission system of the steering system is used.
  • the display device 6 is a device that displays, on a map, where the vehicle is moving on a map while the vehicle is stopped and traveling by automatic driving, and provides the driver and the occupant with visual information of the vehicle position.
  • the display device 6 inputs target travel route information, own vehicle position information, destination information, and the like generated by the automatic driving control unit 4, and displays a map, a road, and a target travel route (the travel route of the own vehicle) on a display screen. ), The vehicle position, the destination, and the like are displayed in an easily recognizable manner.
  • the input device 7 is a device that performs various inputs by operating the driver.
  • the input device 7 may use a touch panel function of the display device 6, or may use another dial, switch, or the like.
  • the input by the driver includes input of information on the destination, input of settings such as constant speed traveling and following traveling during automatic driving, and the like.
  • the automatic operation control unit 4 of the automatic operation control system A includes an operation plan display controller 40, and operation plan information for displaying information relating to an operation plan described later on the road surface RS (see FIG. 3A) by the road surface image display device 10. Execute display control.
  • the road surface image display device 10 is provided at the front or upper part of the vehicle MV, irradiates visible light to a road surface RS in front of the own vehicle (for example, several tens m to several hundred m ahead), and outputs characters, figures, and the like. (See FIG. 3A).
  • a road surface image display device 10 a device that irradiates and displays a laser beam, or a device that enlarges and projects an image or video such as a so-called projector device can be used.
  • the road surface image display device 10 is arranged at a height of the ground obtained in advance by an experiment based on the longest distance at which it is desired to perform image display by irradiating the road surface RS with light.
  • the information on the driving plan displayed on the road surface RS includes the required time Tra required for the vehicle to reach the position where the image IM is displayed and the intention of the vehicle to stop. A message indicating whether or not it is included.
  • the driving plan is a plan established in advance as to what kind of driving is to be performed from the current position of the own vehicle (vehicle MV) to the pedestrian crossing CW as a predicted crossing point. Specifically, the plan is to determine at what speed or speed change the vehicle will reach the pedestrian crossing CW, whether to stop at the pedestrian crossing CW, or to pass without stopping.
  • the vehicle that performs automatic driving always generates an operation plan related to vehicle speed, acceleration / deceleration, and steering according to peripheral information and the like so as to travel along a target traveling route that has been generated in advance. Therefore, an operation plan before reaching the pedestrian crossing CW, which is the above-mentioned predetermined point, is also provided in advance. Therefore, it is possible to display information on the operation plan. Further, as information on the driving plan, information such as a distance to a pedestrian crossing CW to be described later can be displayed in addition to the required arrival time Tra.
  • the route information is information on the traveling route of the own vehicle that the automatic driving control unit 4 has.
  • the route information includes a driver request route corresponding to the driver's steering in addition to a system request route set in advance in the automatic driving control unit 4 according to a driver's input.
  • the vehicle information is information on the traveling of the own vehicle such as the vehicle speed and the steering angle of the own vehicle.
  • the vehicle periphery information is information around the vehicle obtained from the camera 11, the radar 12, and the like. Specifically, the vehicle periphery information includes road information around the own vehicle, object information around the own vehicle, and vehicle body information.
  • step S4 which proceeds after inputting the information, it is determined whether or not the pedestrian Pd has been detected around the target traveling route (traveling route) of the own vehicle.
  • the detection of the pedestrian Pd is performed based on the vehicle surrounding information, and the detection is performed at least beyond a distance at which the road surface image display device 10 irradiates light to display an image.
  • the process returns to step S1, and when the pedestrian Pd is detected, the process proceeds to the next step S5.
  • step S5 it is determined whether or not the detection point of the pedestrian Pd around the planned traveling route of the own vehicle or a nearby point is a terrain where crossing occurs. Then, in the case of a terrain where a crossing occurs, the process proceeds to step S6.
  • the terrain where the crossing occurs includes the terrain where the pedestrian crossing CW (see FIG. 3A) exists and the terrain where the road intersects.
  • the determination as to whether or not the terrain causes the crossing is based on at least the own vehicle position information and the map data information, and determines whether or not there is an pedestrian crossing CW and an intersection within a predetermined distance in front of the scheduled traveling route of the own vehicle. Including judgment. In this case, the determination of the vehicle surrounding information acquired by the vehicle-mounted sensor 1 such as the camera 11 may be added.
  • the range within the predetermined distance is within a range within which the in-vehicle sensor 1 can detect the pedestrian Pd (planned pedestrian) who is going to cross the pedestrian crossing CW and the intersection, and the image is displayed by the road surface image display device 10. It is within the range of the displayable distance or slightly within the range. Specifically, the distance is, for example, within a range of several tens to 300 m from the own vehicle.
  • step S4 when determining the terrain where the crossing occurs, or in the determination of the detection of the pedestrian Pd in step S4, it is determined that the pedestrian Pd is directly facing the road Ro or the pedestrian crossing CW of the planned traveling route. May be added.
  • step S6 which proceeds when it is determined that the terrain is such that traversing occurs in step S5, after calculating the arrival required time Tra, which is the time required for the vehicle to reach the predicted traversing point determined to be terrain where traversing occurs.
  • the process proceeds to the next step S7.
  • step S7 an operation plan information display process is executed.
  • the road surface image display device 10 displays an image IM indicating information on the driving plan on the road surface RS (see FIG. 3A and the like) at the predicted crossing point.
  • this road surface RS is an end near the sidewalk in the width direction of the road surface in the roadway area on the pedestrian crossing CW, and when the pedestrian Pd to be crossed stands in front of the pedestrian crossing CW, the foot of the road surface RS It is a nearby road surface.
  • the information on the driving plan displayed by the image IM includes the required arrival time Tra and a message notifying that the vehicle has stopped or passed at the predicted crossing point.
  • the image IM displayed by the road surface image display device 10 includes a required arrival time display section Ta to Tc that displays the required arrival time Tra as a number and a unit of seconds “s”; And a message display area Me which is an area to be displayed using a sign or the like. Then, the image IM is displayed using a color such as red or yellow that is easily recognized by the pedestrian Pd even when it overlaps the white line of the pedestrian crossing CW or the road surface RS.
  • 3A to 3C show a case where the predicted crossing point is the pedestrian crossing CW, and the distance La to Lc between the vehicle MV and the pedestrian crossing CW gradually decreases due to the traveling of the vehicle MV, which is the host vehicle.
  • the difference between the states is shown in each figure.
  • the required travel time Tra becomes shorter.
  • the number of seconds displayed on the required time display sections Ta to Tc is also changed to a small value.
  • the required arrival time Tra is displayed as a still moving image at intervals of a predetermined number of seconds (for example, at intervals of 1 second).
  • a still moving image refers to an image that looks like a moving image by switching its display in a predetermined time unit while the image itself is still. That is, the image of “12s” displayed on the required arrival time display section Ta in FIG. 3A does not move, but the display changes from “12s” to “1s” in seconds as shown in FIGS. 3A to 3C. It looks like a switching video.
  • the automatic driving control unit 4 detects the presence / absence of a signal on the pedestrian crossing CW, and when there is no signal, generates a driving plan for stopping before the pedestrian crossing CW as a driving plan.
  • the driving plan display controller 40 displays, in the message display area Me, a message indicating that the vehicle stops, as a still image or a moving image. That is, the message may be displayed as a still image, or may be displayed as a moving image that is repeatedly displayed while moving the message in a lateral direction (from left to right, for example) when viewed from the pedestrian Pd.
  • a driving plan to stop just before the pedestrian crossing CW is generated in the same manner as described above to stop.
  • the automatic driving control unit 4 creates a driving plan for passing through the pedestrian crossing CW.
  • the operation plan display controller 40 displays that the vehicle passes the message display area Me. Alternatively, in such a case, the display may not be performed in the message display area Me.
  • the pedestrian Pd who plans to cross the vehicle MV sees the display of the required arrival time display sections Ta to Tc of the image IM displayed on the road surface RS at the end of the pedestrian crossing CW, and moves the vehicle MV to the pedestrian crossing CW.
  • the time required to reach (the required time Tra) can be visually recognized. Further, by looking at the display of the message display area Me, it is possible to know whether or not the vehicle MV intends to stop at the pedestrian crossing CW. Further, since the image IM is displayed on the road surface RS, the image IM is easily visible even when the pedestrian Pd is looking downward at the mobile phone or the like.
  • the operation plan display method executed by the automatic operation control system A includes: An operation plan display method of controlling an in-vehicle road surface image display device 10 capable of displaying an image IM on a road surface RS by an operation plan display controller 40 and displaying information on an operation plan of the own vehicle on the road surface RS, Steps (S1 to S3) of acquiring information relating to the driving plan of the own vehicle and information relating to prediction of the pedestrian Pd's crossing; Steps (S4, S5) of obtaining a predicted crossing point such as a predicted crosswalk CW, and driving of the own vehicle from the current position (Pa, Pb, Pc) of the vehicle to the crosswalk CW as the predicted crossing point (S7) displaying an image of the information on the plan on the road surface RS of the pedestrian crossing CW as the predicted crossing point by the road surface image display device 10.
  • the pedestrian Pd can see the image IM displayed on the road surface RS and know the driving plan such as the required travel time Tra of the vehicle MV and the presence or absence of a stop intention, so that the pedestrian Pd can cross without hindering the crossing. Can be determined with high accuracy.
  • the vehicle MV traveling by the automatic driving control system A travels based on the driving plan generated in advance by the automatic driving control unit 4, it is possible to present information on the driving plan with high accuracy. Further, in the vehicle MV that performs automatic driving, there is a possibility that the driver does not face the traveling direction of the vehicle MV, and in this case, the pedestrian Pd is less likely to communicate with the driver through eyes and so-called eye contact. For this reason, displaying the operation plan using the image IM is more effective.
  • the operation plan display method executed by the automatic operation control system A according to the first embodiment includes: A step (S6) of obtaining a required time Tra required for the vehicle to reach the pedestrian crossing CW as a predicted crossing point from the current point (Pa, Pb, Pc) based on the acquired information;
  • the information on the operation plan displayed in the image display step (S7) on the road surface RS includes the required arrival time Tra. That is, in the image IM, the required arrival time Tra is displayed using a numeral in the required arrival time display units Ta to Tc. Therefore, the pedestrian Pd who is going to cross the pedestrian crossing CW is presented with the required travel time Tra required for the vehicle MV required to determine the execution of the crossing to reach the predicted crossing point (crosswalk CW). Can be. This allows the pedestrian Pd to more accurately determine whether to perform the crossing.
  • the operation plan display method executed by the automatic operation control system A according to the first embodiment is as follows.
  • the step (S7) of displaying an image on the road surface RS the image is displayed using a moving image representing a change in the driving plan accompanying the traveling of the own vehicle. That is, as the required travel time Tra required to reach the pedestrian crossing CW changes every moment as the vehicle MV travels, the time displayed in the required travel time display units Ta to Tc is also changed. Therefore, it is possible to accurately display an operation plan that changes every moment.
  • the pedestrian Pd who is going to cross the pedestrian crossing CW can accurately know the required arrival time Tra as the driving plan at the time of viewing the image IM.
  • the pedestrian Pd does not see the image IM at the time of FIG. 3A and the pedestrian Pd sees the image IM at the time of FIG. 3B, the pedestrian Pd needs to arrive at the time of FIG. 3B. Time Tra can be known.
  • the automatic operation control system A includes: A road surface image display device 10 mounted on the own vehicle and capable of displaying the image IM on the road surface RS; a driving plan display controller 40 for controlling the display operation of the road surface image displaying device 10; A portion for executing the processing of steps S1 to S3 as an information acquisition unit for acquiring information on the prediction of the crossing of the vehicle, and a predicted crossing point where the pedestrian Pd is predicted to cross on the target traveling route (traveling route) of the own vehicle. And a part for executing the process of step S5 as a crossing point prediction unit to be obtained.
  • the driving plan display controller 40 outputs information on the driving plan of the own vehicle from the current position (Pa to Pc) of the own vehicle to the pedestrian crossing CW as the predicted crossing point, by using the information of the pedestrian crossing CW as the predicted crossing point.
  • the display operation of the road surface image display device 10 is controlled so that an image is displayed on the road surface RS. Therefore, as described in (1) above, it is possible to present to the pedestrian Pd a driving plan, which is information necessary for determining whether or not to perform a crossing, using the image IM.
  • the pedestrian Pd who is going to cross the pedestrian crossing CW can see the image IM displayed on the road surface RS and know the driving plan such as the required travel time Tra of the vehicle MV and the intention of stopping, Crossing execution determination can be made with high accuracy.
  • FIGS. 4A to 4C show images IM displayed by the operation plan information display processing of Embodiment 2 and changes thereof.
  • pie chart display units PCa to PCc are used as images IM.
  • the required arrival time Tra is displayed as a moving image.
  • the circle graph display units PCa to PCc include a circular outer frame portion 401, a required arrival time display area 402 indicating the required arrival time Tra, and an elapsed time display area 403 indicating the time elapsed from the start of the display of the image IM.
  • the outer frame portion 401 and the required arrival time display area 402 are displayed in colors that are easily recognized on the white line of the pedestrian crossing CW and the road surface RS, such as red and yellow.
  • the elapsed time display area 403 is uncolored or displayed in white, gray, or the like, which is difficult to distinguish from the white line or the road surface RS.
  • the presence or absence of the intention to stop the vehicle MV (own vehicle) is also displayed in the message display area Me.
  • the ratio occupied by the required arrival time display area 402 and the circumferential angle gradually decrease, and the elapsed time display area 403 occupies.
  • a moving image in which the ratio and the circumferential angle gradually increase is displayed.
  • the required arrival time display area 402 represents the required arrival time Tra
  • the distances La to Lc between the sidewalk CW (crossing predicted point) and the vehicle MV may be displayed.
  • the distances La to Lc are obtained, and the distances La to Lc are displayed in step S7.
  • the pedestrian Pd visually recognizes the required travel time Tra required for the vehicle MV to reach the pedestrian crossing CW to be traversed and the presence or absence of a stop intention using the image IM. Can be accurately known. Therefore, even in the second embodiment, the effects (1) to (4) described in the first embodiment can be obtained.
  • 5A to 5C show an image IM displayed by the operation plan information display processing of the third embodiment and changes thereof.
  • the image IM is reached using the bar graph display units BGa to BGc.
  • the required time Tra is displayed as a moving image.
  • Each of the bar graph display units BGa to BGc includes a rectangular outer frame part 501, a required arrival time display area 502 indicating the required arrival time Tra, and an elapsed time display area 503 indicating the time elapsed from the start of the display of the image IM. .
  • the outer frame portion 501 and the required arrival time display area 502 are displayed in colors such as red and yellow that are easily recognized on the white line of the pedestrian crossing CW and the road surface RS.
  • the elapsed time display area 503 is not colored or is displayed in white, gray, or the like, which is difficult to distinguish from the white line or the road surface RS.
  • a message indicating whether or not the vehicle MV (own vehicle) intends to stop is displayed in the message display area Me.
  • the proportion and length of the required arrival time display area 502 decreases, while the proportion of the elapsed time display area 503 occupies. And a moving image whose length increases.
  • the pedestrian Pd visually recognizes the required time Tra required for the vehicle MV to reach the pedestrian crossing CW about to cross and the presence or absence of a stop intention by using the image IM. Can be accurately known. Therefore, even in the third embodiment, the effects (1) to (4) described in the first embodiment can be obtained.
  • FIGS. 6A to 6C show an image IM displayed by the operation plan information display processing of the fourth embodiment and changes thereof.
  • moving images from the schematic image display units SIa to SIc are used as the image IM.
  • the schematic image display units SIa to SIc schematically show the relationship between the road Ro, the crosswalk CW, and the vehicle MV (own vehicle). That is, the schematic image display units SIa to SIc include a road display unit 601 representing the road Ro, a pedestrian display unit 602 representing the pedestrian crossing CW, and a vehicle display unit 603 representing the vehicle MV.
  • the road display unit 601, the pedestrian crossing display unit 602, and the vehicle display unit 603 reduce and display the actual positional relationship between the road Ro, the pedestrian crossing CW, and the vehicle MV (own vehicle).
  • Each of the display units 601, 602, and 603 is displayed in a color that is easily recognized on the white line and the road surface RS of the pedestrian crossing CW such as red and yellow. It is displayed in white or gray etc.
  • the distance between the pedestrian crossing display unit 602 and the vehicle display unit 603 may be represented according to the required arrival time Tra, as in the second and third embodiments described above.
  • Car may be represented in accordance with the distances La to Lc.
  • step S6 when the distance is expressed in accordance with the distances La to Lc, in step S6, the distances La to Lc between the pedestrian crossing CW and the vehicle MV (own vehicle) are obtained, and the pedestrian crossing display unit 602 and the vehicle are calculated from the distances La to Lc.
  • a process for determining an interval with the display unit 603 is performed.
  • the required arrival time Tra may be obtained, and the interval between the pedestrian crossing display unit 602 and the vehicle display unit 603 may be determined from the required arrival time Tra. Also in the fourth embodiment, the presence or absence of a stop intention is displayed in the message display area Me.
  • the image IM is displayed as a moving image in which the distance between the pedestrian crossing display unit 602 and the vehicle display unit 603 decreases as the vehicle MV approaches the pedestrian crossing CW.
  • the pedestrian Pd can visually and accurately know the distance La to Lc or the required travel time Tra between the pedestrian crossing CW to be traversed and the vehicle MV, and the presence or absence of a stop intention. Therefore, even in the fourth embodiment, the effects (1) to (4) described in the first embodiment can be obtained.
  • FIG. 7A to 7C show an image IM displayed by the operation plan information display processing of the fifth embodiment and changes thereof.
  • moving images from stopwatch display units SWDa to SWDc are used as the image IM.
  • the stopwatch display sections SWDa to SWDc include a circular outer frame 701, a pointer 702 corresponding to a second hand, a vehicle image section VI indicating arrival of a vehicle, and a reference section 703 protruding inward from the outer frame 701. Prepare.
  • the outer frame 701, the pointer 702, the reference part 703, and the vehicle image VI are displayed in red, yellow, and other colors that are easily recognized on the white line of the pedestrian crossing CW and the road surface RS.
  • the other portions are not colored or displayed in white, gray, or the like, which is hard to distinguish from the white line or the road surface RS.
  • the required arrival time Tra is displayed based on the clockwise interval between the pointer 702 and the reference unit 703. Also in this case, a message indicating whether or not the vehicle MV (own vehicle) intends to stop is displayed in the message display area Me.
  • a moving image in which the pointer 702 gradually approaches the reference portion 703 as the vehicle MV approaches the pedestrian crossing CW is displayed by the image IM.
  • the pedestrian Pd can visually and accurately know the required time Tra required for the vehicle MV to reach the pedestrian crossing CW about to cross and the presence or absence of a stop intention.
  • the effects (1) to (4) described in the first embodiment can be obtained.
  • FIGS. 8A to 8C show images IM displayed by the operation plan information display processing of the sixth embodiment and changes thereof.
  • the sixth embodiment is an example in which the image IM displays the required arrival time Tra or the distances La to Lc as a moving image using the vehicle image display units VIMa to VIMc.
  • the vehicle image display units VIMa to VIMc include a circular outer frame 801, a reference vehicle image 802 displayed in contact with the inner circumference of the outer frame 801, and a vehicle image 803 displayed inside the reference vehicle image 802. Is provided.
  • the difference in size between the reference vehicle image 802 and the vehicle image 803 indicates the required arrival time Tra or the distance La to Lc between the pedestrian crossing CW and the approaching vehicle MV.
  • the outer frame 801, the reference vehicle image 802, and the vehicle image 803 are displayed in red, yellow, and the like on the white line of the pedestrian crossing CW and on the road surface RS in colors that are easily recognized.
  • the other portions are not colored or displayed in white, gray, or the like, which is hard to distinguish from the white line or the road surface RS.
  • a message indicating whether or not the vehicle MV (own vehicle) intends to stop is displayed in the message display area Me.
  • the size of the vehicle image 803 gradually decreases from that of the reference vehicle image 802. It changes to approach the size. Further, the presence or absence of the intention of stopping the vehicle MV is displayed in the message display area Me.
  • the pedestrian Pd determines the required arrival time Tra or the distance La to Lc from the vehicle MV and the intention to stop the vehicle MV at the pedestrian crossing CW, which are information necessary for performing the execution determination of the pedestrian crossing CW. You can know the presence or absence. Then, based on the information obtained from the image IM, the pedestrian Pd can accurately determine whether or not to cross the pedestrian crossing CW. Therefore, even in the sixth embodiment, the effects (1) to (4) described in the first embodiment can be obtained.
  • the present invention can be applied to a vehicle other than a vehicle that performs automatic driving.
  • the on-vehicle sensor 1 and the map data storage unit 2 can grasp the traveling route of the own vehicle and determine whether or not there is a pedestrian (scheduled person). If so, it can be applied.
  • the terrain having the pedestrian crossing CW and the intersection is illustrated as the predicted crossing point, but the crossing prediction point is not limited to this.
  • the pedestrian may be determined to be a predicted crossing point.
  • both the required travel time Tra or the distance La to Lc between the own vehicle and the pedestrian crossing CW (crossing predicted point) and a message indicating the presence or absence of a stop intention are displayed.
  • the present invention is not limited to this.
  • any one of the required arrival time Tra, the distances La to Lc, and a message indicating the presence or absence of a stop intention may be displayed.
  • a message other than the intention to stop for example, a message prohibiting crossing may be displayed according to the situation.
  • the example in which the message display area Me is arranged on the near side as viewed from the pedestrian Pd with respect to the display of the information on the required arrival time is shown, but the position is not limited to this.
  • the display of the information on the required arrival time may be displayed in the foreground, or the information on the required arrival time may be arranged on the left and right side in parallel.
  • the target driving route generated by the automatic driving control unit is used as the traveling route.
  • the invention is not limited to this.
  • the predicted traveling route may be used as the traveling route.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

歩行者に対して、自車の接近状態を正確に報せることを可能とする。 路面に画像を表示可能な車載の路面画像表示装置を運転計画表示コントローラにより制御して自車の運転計画に関する情報を路面に表示する運転計画表示方法である。 自車の運転計画に関する情報と、歩行者の横断の予測に関する情報とを取得するステップ(S1〜S3)と、取得した情報に基づいて、自車の走行予定経路における歩行者の横断が予測される横断歩道等の横断予測地点を求めるステップ(S4、S5)と、自車の現在地点から横断予測地点としての横断歩道に至るまでの自車の運転計画に関する情報を、路面画像表示装置により横断予測地点としての横断歩道の路面に画像表示するステップ(S7)と、を備える。

Description

運転計画表示方法及び運転計画表示装置
 本開示は、運転計画表示方法及び運転計画表示装置に関する。
 従来、歩行者に自車の進行経路を報せる装置が知られている(例えば、特許文献1参照)。この装置は、自車の進行経路を予測し、進行経路周辺の歩行者に対して進行経路への進入禁止を促す図形を描画することで、歩行者に対して自車の接近を報知し、歩行者が自車の進行経路に進入するのを防止するものである。
特開2014−13524号公報
 特許文献1で開示された技術は、歩行者の自車の進行経路への進入を防止するものであるため、歩行者が道路を横断する意図を有する場合に、歩行者の横断の実行判断に必要な情報を表示できない。
 本開示は、上記問題に着目してなされたもので、歩行者に対して、横断の実行の判断に必要な情報を表示可能な運転計画表示方法及び運転計画表示装置を提供することを目的とする。
 上記目的を達成するため、本開示の運転計画表示方法及び運転計画表示装置は、歩行者の横断が予測される横断予測地点の路面に、自車の現在地点から前記横断予測地点に至るまでの前記自車の前記運転計画に関する情報を、画像表示するようにした。
 本開示の運転計画表示方法及び運転計画表示装置は、歩行者に対して、横断の実行の判断に必要な情報を表示可能である。
実施の形態1の運転計画表示方法及び運転計画表示装置が適用された自動運転制御システムAを示す全体システム図である。 前記自動運転制御システムAの運転計画表示コントローラ40にて実行される運転計画情報表示処理の流れを示すフローチャートである。 実施の形態1における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laの状態を示す。 実施の形態1における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laよりも短い距離Lbの状態を示す。 実施の形態1における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Lbよりも短い距離Lcの状態を示す。 実施の形態2における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laの状態を示す。 実施の形態2における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laよりも短い距離Lbの状態を示す。 実施の形態2における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Lbよりも短い距離Lcの状態を示す。 実施の形態3における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laの状態を示す。 実施の形態3における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laよりも短い距離Lbの状態を示す。 実施の形態3における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Lbよりも短い距離Lcの状態を示す。 実施の形態4における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laの状態を示す。 実施の形態4における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laよりも短い距離Lbの状態を示す。 実施の形態4における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Lbよりも短い距離Lcの状態を示す。 実施の形態5における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laの状態を示す。 実施の形態5における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laよりも短い距離Lbの状態を示す。 実施の形態5における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Lbよりも短い距離Lcの状態を示す。 実施の形態6における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laの状態を示す。 実施の形態6における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Laよりも短い距離Lbの状態を示す。 実施の形態6における運転計画情報表示処理により表示する画像IMの一例を示す平面図であって、横断予測地点としての横断歩道CWと車両MV(自車)との距離が距離Lbよりも短い距離Lcの状態を示す。
 以下、本開示による運転計画表示方法及び運転計画表示装置を実施するための形態を図面に基づいて説明する。
 (実施の形態1)
実施の形態1における運転計画表示方法及び運転計画表示装置は、自動運転モードを選択すると、生成された目標走行経路に沿って走行するように駆動や制動や舵角が自動制御される自動運転車両(運転支援車両の一例)に適用したものである。
 図1は実施の形態1の運転計画表示方法及び運転計画表示装置が適用された自動運転制御システムAを示す。以下、図1に基づいて全体システム構成を説明する。
 自動運転制御システムAは、車載センサ1と、地図データ記憶部2と、外部データ通信器3と、自動運転制御ユニット4と、アクチュエータ5と、表示デバイス6と、入力デバイス7と、を備える。
 車載センサ1は、カメラ11と、レーダー12と、GPS13と、車載データ通信器14と、を有する。また、車載センサ1により取得したセンサ情報は、自動運転制御ユニット4へ出力される。
 カメラ11は、自動運転で求められる機能として、車線や先行車や歩行者Pd(図3A参照)等の自車の周囲情報を画像データにより取得する機能を実現する周囲認識センサである。このカメラ11は、例えば、自車の前方認識カメラ、後方認識カメラ、右方認識カメラ、左方認識カメラ等を組み合わせることにより構成される。なお、自車とは自動運転制御システムAを搭載した車両であり、図3A等に記載した車両MVを指す。
 カメラ画像から、自車走行路上物体・車線・自車走行路外物体(道路構造物、先行車、後続車、対向車、周囲車両、歩行者Pd、自転車、二輪車)・自車走行路(道路白線、道路境界、停止線、横断歩道CW・道路標識(制限速度)等を検知できる。
 レーダー12は、自動運転で求められる機能として、自車周囲の歩行者Pdを含む物体の存在を検知する機能と、自車周囲の物体までの距離を検知する機能とを実現する測距センサである。ここで、「レーダー12」とは、電波を用いたレーダーと、光を用いたライダーと、超音波を用いたソナーと、を含む総称をいう。レーダー12としては、例えば、レーザーレーダー、ミリ波レーダー、超音波レーダー、レーザーレンジファインダー等を用いることができる。このレーダー12は、例えば、自車の前方レーダー、後方レーダー、右方レーダー、左方レーダー等を組み合わせることにより構成される。
 レーダー12では、自車走行路上物体・自車走行路外物体(道路構造物、先行車、後続車、対向車、周囲車両、歩行者Pd、自転車、二輪車)等の位置が検知されると共に、各物体までの距離が検知される。なお、視野角が不足すれば、適宜追加しても良い。
 GPS13は、GNSSアンテナ13aを有し、衛星通信を利用することで停車中及び走行中の自車位置(緯度・経度)を検知する自車位置センサである。なお、「GNSS」は「Global Navigation Satellite System:全地球航法衛星システム」の略称であり、「GPS」は「Global Positioning System:グローバル・ポジショニング・システム」の略称である。
 車載データ通信器14は、外部データ通信器3との間で送受信アンテナ3a,14aを介して無線通信を行うことで、自車で取得することができない情報を外部から取得する外部データセンサである。
 外部データ通信器3は、例えば、自車の周辺を走行する他車に搭載されたデータ通信器の場合、自車と他車の間で車車間通信を行う。この車車間通信により、他車が保有する様々な情報のうち、自車で必要な情報を車載データ通信器14からのリクエストにより取得することができる。
 外部データ通信器3は、例えば、インフラストラクチャ設備に設けられたデータ通信器の場合、自車とインフラストラクチャ設備の間でインフラ通信を行う。このインフラ通信により、インフラストラクチャ設備が保有する様々な情報のうち、自車で必要な情報を車載データ通信器14からのリクエストにより取得することができる。例えば、地図データ記憶部2に保存されている地図データでは不足する情報や地図データから変更された情報がある場合、不足情報や変更情報を補うことができる。また、自車が走行を予定している目標走行経路上での渋滞情報や走行規制情報等の交通情報を取得することもできる。
 地図データ記憶部2は、緯度経度と地図情報が対応付けられた、いわゆる電子地図データが格納された車載メモリにより構成される。地図データ記憶部2に格納された地図データは、少なくとも複数車線を有する道路で各車線の認識ができるレベルの精度を持つ、高精度地図データである。この高精度地図データを用いることにより、自動運転において複数車線の中で自車がどの車線を走るかという目標走行経路を引くことができる。そして、GPS13にて検知される自車位置を自車位置情報として認識すると、自車位置を中心とする高精度地図データが自動運転制御ユニット4へと送られる。
 高精度地図データには、各地点に対応付けられた道路情報を有し、道路情報は、ノードと、ノード間を接続するリンクにより定義される。道路情報は、道路の位置及び領域により道路を特定する情報と、道路ごとの道路種別、道路ごとの車線幅、道路の形状情報とを含む。道路情報は、各道路リンクの識別情報ごとに、交差点の位置、交差点の進入方向、交差点の種別その他の交差点に関する情報を対応付けて記憶されている。また、道路情報は、各道路リンクの識別情報ごとに、道路種別、車線幅、道路形状、直進の可否、進行の優先関係、追い越しの可否(隣接レーンへの進入の可否)、制限速度、標識、その他の道路に関する情報を対応付けて記憶されている。
 自動運転制御ユニット4は、車載センサ1や地図データ記憶部2からの入力情報を統合処理し、目標走行経路と目標車速プロファイル(加速プロファイルや減速プロファイルを含む。)等を生成する機能を有する。すなわち、現在地から目的地までの走行車線レベルによる目標走行経路を、地図データ記憶部2からの高精度地図データや所定の経路検索手法等に基づいて生成すると共に、目標走行経路に沿った目標車速プロファイル等を生成する。さらに、目標走行経路に沿う自車の停車中及び走行中、車載センサ1による自車周囲のセンシング結果により自動運転を維持できないと判定すると、自車周囲のセンシング結果に基づいて、目標走行経路や目標車速プロファイル等を逐次修正する。
 自動運転制御ユニット4は、目標走行経路が生成されると、目標走行経路に沿って走行するように駆動指令値、制動指令値、舵角指令値を演算し、演算した指令値を各アクチュエータに出力し、自車を目標走行経路に沿って走行及び停止させる。具体的には、駆動指令値の演算結果を駆動アクチュエータ51へ出力し、制動指令値の演算結果を制動アクチュエータ52へ出力し、舵角指令値の演算結果を舵角アクチュエータ53へ出力する。
 アクチュエータ5は、自車を目標走行経路に沿って走行及び停止させる制御アクチュエータであり、駆動アクチュエータ51と、制動アクチュエータ52と、舵角アクチュエータ53と、を有する。
 駆動アクチュエータ51は、自動運転制御ユニット4から駆動指令値を入力し、駆動輪へ出力する駆動力を制御するアクチュエータである。駆動アクチュエータ51としては、例えば、エンジン車の場合にエンジンを用い、ハイブリッド車の場合にエンジンとモータジェネレータ(力行)を用い、電気自動車の場合にモータジェネレータ(力行)を用いる。
 制動アクチュエータ52は、自動運転制御ユニット4から制動指令値を入力し、駆動輪へ出力する制動力を制御するアクチュエータである。制動アクチュエータ52としては、例えば、油圧ブースタや電動ブースタやブレーキ液圧アクチュエータやブレーキモータアクチュエータやモータジェネレータ(回生)等を用いる。
 舵角アクチュエータ53は、自動運転制御ユニット4から舵角指令値を入力し、操舵輪の転舵角を制御するアクチュエータである。なお、舵角アクチュエータ53としては、ステアリングシステムの操舵力伝達系に設けられる転舵モータ等を用いる。
 表示デバイス6は、自動運転による停車中及び走行中に、自車が地図上で何処を移動しているか等を画面表示し、ドライバーや乗員に自車位置視覚情報を提供するデバイスである。この表示デバイス6は、自動運転制御ユニット4により生成された目標走行経路情報や自車位置情報や目的地情報等を入力し、表示画面に、地図と道路と目標走行経路(自車の走行経路)と自車位置と目的地等を視認しやすく表示する。
 入力デバイス7は、ドライバーの操作により種々の入力を行うデバイスであり、例えば、表示デバイス6のタッチパネル機能を用いてもよいし、他のダイヤルやスイッチ等を用いてもよい。なお、ドライバーによる入力としては、目的地に関する情報の入力や、自動運転時の定速走行、追従走行等の設定の入力等を行う。
 さらに、自動運転制御システムAの自動運転制御ユニット4は、運転計画表示コントローラ40を備え、路面画像表示装置10により後述する運転計画に関する情報を路面RS(図3A参照)に画像表示する運転計画情報表示制御を実行する。
 なお、路面画像表示装置10は、車両MVの前部あるいは上部に設けられ、可視光を自車の前方(例えば、数十m~数百m前方)の路面RSに照射して文字や図形等の動画を含む画像IMを表示する装置である(図3A参照)。このような路面画像表示装置10としては、レーザー光を照射して表示する装置や、いわゆるプロジェクタ装置等のように、画像や映像を拡大して投影する装置等を用いることができる。また、路面画像表示装置10は、路面RSに光を照射して画像表示を行いたい最長距離に基づいて予め実験で求めた地上高の高さに配置されている。
 そして、本実施の形態1において路面RSに表示する運転計画に関する情報には、自車が画像IMを表示する位置に到達するのに要する到達所要時間Traと、自車が停止する意図を有しているか否かを示すメッセージが含まれる。ここで、運転計画とは、自車(車両MV)の現在地点から横断予測地点としての横断歩道CWに至るまで、どのような運転を行うか前もって立てた計画である。具体的には、どのような速度あるいは速度変化で横断歩道CWに達するか、横断歩道CWで停止するのか、停止せずに通過するのかなどの計画である。すなわち、自動運転を行う車両は、予め生成した目標走行経路に沿って走行するように、周辺情報等に応じて、常に車速、加減速、操舵に関する運転計画を生成する。このため、上記の所定地点である横断歩道CWに達するまでの運転計画も予め有している。よって、運転計画に関する情報を表示することが可能である。また、運転計画に関する情報としては、上記の到達所要時間Traの他にも、後述する横断歩道CWまでの距離などの情報を表示することができる。
 次に、運転計画表示コントローラ40による運転計画表示制御の処理の流れを、図2のフローチャートにより説明する。
 ステップS1~S3では、運転計画に関する情報及び横断の予測に関する情報として経路情報と、車両情報と、車両周辺情報とを入力し取得する。経路情報は、自動運転制御ユニット4が有する自車の進行経路に関する情報である。また、この経路情報としては、予め自動運転制御ユニット4においてドライバーの入力に応じて設定したシステム要求経路に加え、ドライバーの操舵に応じたドライバー要求経路を含む。車両情報は、自車の車速、操舵角等の自車の走行に関する情報である。車両周辺情報は、カメラ11やレーダー12等から得られる車両周辺の情報である。具体的には、車両周辺情報としては、自車の周辺の道路情報と自車の周辺の物体情報と車体情報を含む。
 各情報を入力した後に進むステップS4では、自車の目標走行経路(進行経路)の周辺に歩行者Pdを検知したか否かを判定する。この歩行者Pdの検知は、車両周辺情報に基づいて行うものであり、少なくとも、路面画像表示装置10により光を照射して画像表示を行う距離を越えて検知を行う。そして、歩行者Pdを検出しない場合は、ステップS1に戻り、歩行者Pdを検出した場合は、次のステップS5に進む。
 次のステップS5では、自車の走行予定経路の周辺における歩行者Pdの検出地点、あるいは、その近傍地点が、横断が発生する地形であるか否かを判定する。そして、横断が発生する地形の場合は、ステップS6に進み、横断が発生する地形でない場合は、ステップS1に戻る。
 ここで、横断が発生する地形としては、横断歩道CW(図3A参照)が存在する地形及び道路が交差している地形が含まれるものとする。そして、横断が発生する地形か否かの判定は、少なくとも自車位置情報と地図データ情報に基づき、自車の走行予定経路の前方の所定距離の範囲内における、横断歩道CW、交差点の有無の判定を含む。この場合、カメラ11等の車載センサ1により取得した車両周辺情報の判定を加えてもよい。
 また、所定距離の範囲内とは、車載センサ1で横断歩道CWや交差点を横断しようとする歩行者Pd(横断予定者)を検出可能な距離の範囲内、かつ、路面画像表示装置10により画像表示が可能な距離の範囲内あるいはそれを僅かに超える距離の範囲内とする。具体的には、自車から例えば数十m~300m程度の距離の範囲内とする。
 さらに、横断が発生する地形の判定を行う際、もしくは、ステップS4の歩行者Pdの検知の判定に、歩行者Pdが走行予定経路の道路Roや横断歩道CWに対して正対していることを加えてもよい。
 ステップS5において横断が発生する地形と判定した場合に進むステップS6では、自車が、横断が発生する地形と判定した横断予測地点に到達するのに要する時間である到達所要時間Traを計算した後、次のステップS7に進む。
 ステップS7では、運転計画情報表示処理を実行する。この運転計画情報表示処理では、路面画像表示装置10により、運転計画に関する情報を示す画像IMを横断予測地点の路面RS(図3A等参照)に表示する。さらに、この路面RSは、横断歩道CWにおいて車道域の路面のうち、幅方向で歩道近傍の端部であって、横断予定の歩行者Pdが横断歩道CWの前に立った場合に、その足元付近となる路面である。また、本実施の形態1では、画像IMにより表示する運転計画に関する情報として、到達所要時間Tra並びに横断予測地点において停止あるいは通過する旨を報せるメッセージを含む。
 次に、図3A~図3Cに基づいて路面RSに表示する画像IMについて説明する。なお、路面画像表示装置10により表示する画像IMは、到達所要時間Traを数字と秒の単位「s」とを表示する到達所要時間表示部Ta~Tcと、停車する意図等を文字や所定のサイン等を用いて表示する領域であるメッセージ表示領域Meとを有する。そして、画像IMは、赤や黄色等、横断歩道CWの白線や路面RSに重なっても歩行者Pdが認識し易い色を用いて表示する。
 図3A~図3Cでは、横断予測地点が横断歩道CWである場合を示し、かつ、自車である車両MVの走行により、車両MVと横断歩道CWとの距離La~Lcが、徐々に短くなっている状態の違いを各図により表している。
 このように車両MV(自車)の位置(Pa)~(Pc)と横断歩道CW(横断予測地点)との距離La~Lcが短くなるに連れ、到達所要時間Traが短くなることから、到達所要時間表示部Ta~Tcにおいて表示する秒数も小さな値に変化させる。この場合、例えば、到達所要時間Traを所定秒数刻み(例えば、1秒刻み)で、静止動画により表示する。ここで、静止動画とは、画像自体は静止しているが、その表示が所定の時間単位で切り替わることで、動画のように見えるものをいう。すなわち、図3Aの到達所要時間表示部Taに表示した「12s」という画像自体は移動することはないが、図3A~図3Cで示すように表示が「12s」から「1s」に秒単位で切り替わる動画に見える。
 また、自動運転制御ユニット4では、横断歩道CWの信号の有無を検出し、信号が無い場合は、運転計画として、横断歩道CWの手前で停止する運転計画を生成する。このような場合、運転計画表示コントローラ40は、メッセージ表示領域Meに、自車が停止する旨のメッセージを静止画像あるいは動画により表示する。つまり、メッセージを静止画像により表示してもよいし、例えば、歩行者Pdから見て横方向(左から右等)にメッセージを移動させながら繰り返し表示する動画により表示してもよい。
 さらに、横断歩道CWに信号機が設置されている場合、車両MVに対する信号が停止指示(赤信号)の場合は、上記と同様に横断歩道CWの手前で停止する運転計画を生成し、停止する旨のメッセージを表示する。一方、車両MVに対する信号が通過指示(青信号)の場合は、自動運転制御ユニット4は、横断歩道CWを通過する運転計画を作成する。この場合は、運転計画表示コントローラ40は、メッセージ表示領域Meに通過する旨を表示する。あるいは、このような場合には、メッセージ表示領域Meに表示を行わないようにしてもよい。
 したがって、横断を予定する歩行者Pdは、足元の横断歩道CWの端部の路面RSに表示された画像IMの到達所要時間表示部Ta~Tcの表示を見て、車両MVが横断歩道CWに到達するのに要する時間(到達所要時間Tra)を視覚的に知ることができる。さらに、メッセージ表示領域Meの表示を見ることで、車両MVの横断歩道CWにおける停止意図の有無を知ることができる。また、画像IMを路面RSに表示するため、歩行者Pdが携帯電話等を見るために視線を下方に向けている状態であっても、画像IMが視覚に入り易い。
 以下に、実施の形態1の運転計画表示方法及び運転計画表示装置の効果を列挙する。
 (1)実施の形態1の自動運転制御システムAが実行する運転計画表示方法は、
路面RSに画像IMを表示可能な車載の路面画像表示装置10を運転計画表示コントローラ40により制御して自車の運転計画に関する情報を路面RSに表示する運転計画表示方法であって、
自車の運転計画に関する情報と、歩行者Pdの横断の予測に関する情報とを取得するステップ(S1~S3)と、取得した情報に基づいて、自車の走行予定経路における歩行者Pdの横断が予測される横断歩道CW等の横断予測地点を求めるステップ(S4、S5)と、自車の現在地点(Pa,Pb,Pc)から横断予測地点としての横断歩道CWに至るまでの自車の運転計画に関する情報を、路面画像表示装置10により横断予測地点としての横断歩道CWの路面RSに画像表示するステップ(S7)と、を備える。
 したがって、横断歩道CWを横断しようとする歩行者Pdに対して、画像IMにより横断の実行の判断に必要な運転計画に関する情報を提示することが可能である。そして、歩行者Pdは、路面RSに表示された画像IMを見て、車両MVの到達所要時間Traや停止の意図の有無等の運転計画を知ることができ、横断を阻害されることなく横断の実行判断を高精度に行うことができる。
 特に、自動運転制御システムAにより走行する車両MVでは、自動運転制御ユニット4が予め生成した運転計画に基づいて走行するため、高精度の運転計画に関する情報を提示することが可能である。さらに、自動運転を行う車両MVでは、ドライバーが、車両MVの進行方向を向いていない可能性があり、この場合、歩行者Pdはドライバーと目線による意思伝達いわゆるアイコンタクトが得られにくい。このため、画像IMにより運転計画を表示することが、いっそう有効となる。
 (2)実施の形態1の自動運転制御システムAが実行する運転計画表示方法は、
取得した情報に基づいて、自車が現在地点(Pa,Pb,Pc)から横断予測地点としての横断歩道CWに到達するまでに要する到達所要時間Traを求めるステップ(S6)をさらに備え、
路面RSに画像表示するステップ(S7)により画像表示する運転計画に関する情報に、到達所要時間Traが含まれる。すなわち、画像IMでは、到達所要時間表示部Ta~Tcにおいて、到達所要時間Traを数字を用いて表示する。
 したがって、横断歩道CWを横断しようとする歩行者Pdに対して、横断の実行の判断に必要な車両MVが横断予測地点(横断歩道CW)に到達するのに要する到達所要時間Traを提示することができる。これにより、歩行者Pdは、横断の実行判断をより正確に行うことができる。
 (3)実施の形態1の自動運転制御システムAが実行する運転計画表示方法は、
路面RSに画像表示するステップ(S7)では、自車の走行に伴う運転計画の変化を表す動画を用いて画像表示を行う。すなわち、車両MVが走行することで、横断歩道CWに到達するのに要する到達所要時間Traが時々刻々と変化するのに応じ、到達所要時間表示部Ta~Tcにおいて表示する時間も、変化させる。
 したがって、時々刻々と変化する運転計画を正確に表示することが可能となる。これにより、横断歩道CWを横断しようとする歩行者Pdは、画像IMを見た時点における運転計画としての到達所要時間Traを正確に知ることが可能となる。具体的には、図3Aの時点で歩行者Pdは、画像IMを見ておらず、図3Bの時点で歩行者Pdが画像IMを見たという場合に、この図3Bの時点での到達所要時間Traを知ることができる。
 (4)実施の形態1の自動運転制御システムAは、
自車に搭載され、路面RSに画像IMを表示可能な路面画像表示装置10と、路面画像表示装置10の表示動作を制御する運転計画表示コントローラ40と、自車の運転計画に関する情報と歩行者の横断の予測に関する情報を取得する情報取得部としてのステップS1~S3の処理を実行する部分と、自車の目標走行経路(進行経路)において歩行者Pdの横断が予測される横断予測地点を求める横断地点予測部としてのステップS5の処理を実行する部分と、を備える。そして、運転計画表示コントローラ40は、自車の現在地点(Pa~Pc)から横断予測地点としての横断歩道CWに至るまでの自車の運転計画に関する情報を、横断予測地点としての横断歩道CWの路面RSに画像表示するよう路面画像表示装置10の表示動作を制御する。
 したがって、上記(1)で述べたように、歩行者Pdに対して、画像IMにより横断の実行の判断に必要な情報である運転計画を提示することが可能である。また、横断歩道CWを横断しようとする歩行者Pdは、路面RSに表示された画像IMを見て、車両MVの到達所要時間Traや停止の意図の有無等の運転計画を知ることができ、横断の実行判断を高精度に行うことができる。
 (他の実施の形態)
以下に、他の実施の形態について説明する。なお、他の実施の形態は、路面画像表示装置10により表示する画像IMの変形例を示すものであり、自動運転制御システムAの基本的な構成については実施の形態1と同様である。
 図4A~図4Cは、実施の形態2の運転計画情報表示処理により表示する画像IM及びその変化を示すもので、実施の形態2では、画像IMとして、円グラフ表示部PCa~PCcを用いて到達所要時間Traを動画により表示する。
 この円グラフ表示部PCa~PCcは、円形の外枠部401と、到達所要時間Traを表す到達所要時間表示領域402と、画像IMの表示開始から経過した時間を示す経過時間表示領域403とを備える。なお、外枠部401及び到達所要時間表示領域402は、赤色、黄色等の横断歩道CWの白線上及び路面RS上で認識し易い色により表示する。一方、経過時間表示領域403は、無着色としたり、白線や路面RSと区別がつきにくい、白や灰色等で表示したりする。また、この場合も、メッセージ表示領域Meにおいて車両MV(自車)の停止意図の有無の表示を併せて行う。
 したがって、画像IMでは、車両MVが横断歩道CWに近付き到達所要時間Traが減少するに連れ、到達所要時間表示領域402が占める割合及び周方向角度が徐々に減少し、経過時間表示領域403の占める割合及び周方向角度が徐々に増加する動画を表示する。
 なお、到達所要時間表示領域402は、到達所要時間Traを表しているが、断歩道CW(横断予測地点)と車両MVとの距離La~Lcを表示してもよい。この場合、ステップS6において到達所要時間Traの演算に代えて、距離La~Lcを求め、ステップS7で距離La~Lcを表示する。
 以上のように、実施の形態2にあっても、歩行者Pdは、画像IMにより、横断しようとしている横断歩道CWに車両MVが到達するのに要する到達所要時間Tra及び停止意図の有無を視覚的に正確に知ることができる。よって、実施の形態2にあっても、実施の形態1で述べた(1)~(4)の効果を得ることができる。
 図5A~図5Cは、実施の形態3の運転計画情報表示処理により表示する画像IM及びその変化を示すもので、実施の形態3では、画像IMとして、棒グラフ表示部BGa~BGcを用いて到達所要時間Traを動画により表示する。
 この棒グラフ表示部BGa~BGcは、長方形の外枠部501と、到達所要時間Traを表す到達所要時間表示領域502と、画像IMの表示開始から経過した時間を示す経過時間表示領域503とを備える。なお、外枠部501及び到達所要時間表示領域502は、赤色、黄色等の横断歩道CWの白線上及び路面RS上で認識し易い色により表示する。一方、経過時間表示領域503は、無着色としたり、白線や路面RSと区別がつきにくい、白や灰色等で表示したりする。また、この場合も、メッセージ表示領域Meにおいて車両MV(自車)の停止意図の有無等のメッセージの表示を併せて行う。
 したがって、画像IMでは、車両MVが横断歩道CWに近付き到達所要時間Traが減少するに連れ、到達所要時間表示領域502が占める割合及び長さが減少する一方で、経過時間表示領域503の占める割合及びその長さが増加する動画を表示する。
 以上のように、実施の形態3にあっても、歩行者Pdは、画像IMにより、横断しようとしている横断歩道CWに車両MVが到達するのに要する到達所要時間Tra及び停止意図の有無を視覚的に正確に知ることができる。よって、実施の形態3にあっても、実施の形態1で述べた(1)~(4)の効果を得ることができる。
 図6A~図6Cは、実施の形態4の運転計画情報表示処理により表示する画像IM及びその変化を示すもので、実施の形態4では、画像IMとして、模式画像表示部SIa~SIcによる動画を用いて運転計画に関する情報を表示する。
 この模式画像表示部SIa~SIcは、道路Roと横断歩道CWと車両MV(自車)との関係を模式的に表す。すなわち、模式画像表示部SIa~SIcは、道路Roを表す道路表示部601と、横断歩道CWを表す横断歩道表示部602と、車両MVを表す車両表示部603と、を備える。また、道路表示部601と横断歩道表示部602と車両表示部603とは、道路Roと横断歩道CWと車両MV(自車)との実際の位置関係を縮小して表示する。なお、各表示部601、602、603は、赤色、黄色等の横断歩道CWの白線上及び路面RS上で認識し易い色により表示し、それ以外の部分は、無着色としたり白線や路面RSと区別がつきにくい、白や灰色等で表示したりする。
 よって、横断歩道表示部602と車両表示部603との間隔は、上述の実施の形態2、3と同様に、到達所要時間Traに応じて表してもよいが、横断歩道CWと車両MV(自車)との距離La~Lcに応じて表してもよい。このように、距離La~Lcに応じて表す場合、ステップS6では、横断歩道CWと車両MV(自車)との距離La~Lcを求め、この距離La~Lcから横断歩道表示部602と車両表示部603との間隔を決定する処理を行う。あるいは、実施の形態1のステップS6と同様に、到達所要時間Traを求め、この到達所要時間Traから横断歩道表示部602と車両表示部603との間隔を決定するようにしてもよい。また、この実施の形態4にあっても、メッセージ表示領域Meにおいて停止の意図の有無を表示する。
 したがって、実施の形態4では、画像IMでは、車両MVが横断歩道CWに近付くに連れて、横断歩道表示部602と車両表示部603との間隔が狭まる動画として表示を行う。
 これにより、歩行者Pdは、横断しようとしている横断歩道CWと、車両MVとの距離La~Lcあるいは到達所要時間Tra及び停止意図の有無を視覚的に正確に知ることができる。よって、実施の形態4にあっても、実施の形態1で述べた(1)~(4)の効果を得ることができる。
 図7A~図7Cは、実施の形態5の運転計画情報表示処理により表示する画像IM及びその変化を示すもので、実施の形態5では、画像IMとして、ストップウォッチ表示部SWDa~SWDcによる動画を用いて到達所要時間Traを表示する例である。
 これらのストップウォッチ表示部SWDa~SWDcは、円形の外周枠701と、秒針に相当する指針部702と、車両の到着を表す車両画像部VI及び外周枠701から内側に突き出た基準部703とを備える。
 なお、外周枠701、指針部702、基準部703及び車両画像部VIは、赤色、黄色等の横断歩道CWの白線上及び路面RS上で認識し易い色により表示する。一方、それ以外の部分は、無着色としたり、白線や路面RSと区別がつきにくい、白や灰色等で表示したりする。そして、指針部702と基準部703との時計回り方向の間隔により到達所要時間Traを表示する。また、この場合も、メッセージ表示領域Meにおいて車両MV(自車)の停止意図の有無等のメッセージの表示を併せて行う。
 したがって、実施の形態5では、図7A~図7Cに示すように、画像IMにより、車両MVが横断歩道CWに近付くに連れて、指針部702が基準部703に徐々に近付く動画を表示する。
 よって、歩行者Pdは、横断しようとしている横断歩道CWに車両MVが到達するのに要する到達所要時間Tra及び停止意図の有無を視覚的に正確に知ることができる。これにより、実施の形態5にあっても、実施の形態1で述べた(1)~(4)の効果を得ることができる。
 図8A~図8Cは、実施の形態6の運転計画情報表示処理により表示する画像IM及びその変化を示す。この実施の形態6は、画像IMは、車両画像表示部VIMa~VIMcを用いて到達所要時間Traあるいは距離La~Lcを動画により表示する例である。
 車両画像表示部VIMa~VIMcは、円形の外周枠801と、この外周枠801の内周に接して表示された基準車両画像802と、この基準車両画像802の内側に表示された車両画像803とを備える。そして、基準車両画像802と車両画像803との大きさの差が到達所要時間Traあるいは横断歩道CWと接近する車両MVとの距離La~Lcを表す。
 なお、車両画像表示部VIMa~VIMcは、外周枠801と基準車両画像802と車両画像803は、赤色、黄色等の横断歩道CWの白線上及び路面RS上で認識し易い色により表示する。一方、それ以外の部分は、無着色としたり、白線や路面RSと区別がつきにくい、白や灰色等で表示したりする。また、この場合も、メッセージ表示領域Meにおいて車両MV(自車)の停止意図の有無等のメッセージの表示を併せて行う。
 この実施の形態6では、図8A~図8Cに示すように、画像IMでは、車両MVが現在位置から横断歩道CWに近付くに連れて、車両画像803の大きさが徐々に基準車両画像802の大きさに近付くよう変化する。また、メッセージ表示領域Meにおいて車両MVの停止意図の有無を表示する。
 したがって、歩行者Pdは、横断歩道CWにおける横断の実行判断を行うために必要な情報である、到達所要時間Traあるいは車両MVとの距離La~Lcと、車両MVの横断歩道CWにおける停止意図の有無を知ることができる。そして、この画像IMにより得られた情報に基づいて、歩行者Pdは、横断歩道CWを横断するか否かを正確に判断することができる。よって、実施の形態6にあっても、実施の形態1で述べた(1)~(4)の効果を得ることができる。
 以上、本開示の運転計画表示方法及び運転計画表示装置を実施の形態に基づき説明してきた。しかし、具体的な構成については、この実施の形態に限られるものではなく、請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。
 例えば、実施の形態では、自動運転制御システムAにおいて実施した例を示したが、自動運転を行う車両以外の車両にも適用することができる。すなわち、運転支援装置やそれ以外の車両であっても、車載センサ1や地図データ記憶部2等により、自車の進行経路を把握できると共に、歩行者(横断予定者)の有無を判定できる車両であれば、適用することができる。
 また、実施の形態では、横断予測地点として、横断歩道CW及び交差点を有する地形を例示したが、これに限定されるものではない。例えば、横断歩道CWや交差点以外でも、道路Roを横断しようとする姿勢の歩行者を検出した場合に、横断予測地点と判定するようにしてもよい。
 また、実施の形態では、運転計画に関する情報として、到達所要時間Traあるいは横断歩道CW(横断予測地点)と自車との距離La~Lcと、停止意図の有無のメッセージとの両方を表示するものを示したが、これに限定されない。例えば、到達所要時間Traと距離La~Lcと停止意図の有無のメッセージとのいずれか1つを表示してもよい。また、メッセージを表示する場合に、停止意図以外のメッセージ、例えば、状況に応じ、横断を禁止するメッセージ等を表示してもよい。
 さらに、実施の形態では、メッセージ表示領域Meを、到着所要時間に関する情報の表示に対して歩行者Pdから見て手前側に配置した例を示したが、その位置は、これに限定されない。到着所要時間に関する情報の表示を手前に表示したり、この到着所要時間に関する情報の表示の左右に並列に配置してもよい。
 また、実施の形態では、進行経路として、自動運転制御ユニットが生成した目標走行経路を用いた例を示したが、これに限定されず、例えば、目標走行経路を生成しない運転支援装置などでは、予測した走行経路を進行経路としてもよい。

Claims (4)

  1.  路面に画像を表示可能な車載の路面画像表示装置を表示コントローラにより制御して自車の運転計画に関する情報を前記路面に表示する運転計画表示方法であって、
     前記自車の前記運転計画に関する情報と、歩行者の横断の予測に関する情報とを取得するステップと、
     前記取得した情報に基づいて、前記自車の進行経路における前記歩行者の横断が予測される横断予測地点を求めるステップと、
     前記自車の現在地点から前記横断予測地点に至るまでの前記自車の前記運転計画に関する情報を、前記路面画像表示装置により前記横断予測地点の前記路面に画像表示するステップと、
    を備える運転計画表示方法。
  2.  請求項1に記載の運転計画表示方法において、
     前記取得した情報に基づいて、前記自車が現在地点から前記横断予測地点に到達するまでに要する到達所要時間を求めるステップをさらに備え、
     前記路面に画像表示するステップにおける前記運転計画に関する情報に、前記到達所要時間が含まれる運転計画表示方法。
  3.  請求項1又は2に記載の運転計画表示方法において、
     前記路面に画像表示するステップでは、前記自車の走行に伴う前記運転計画の変化を表す動画を用いて画像表示を行う運転計画表示方法。
  4.  自車に搭載され、路面に画像を表示可能な路面画像表示装置と、
     前記路面画像表示装置の表示動作を制御する表示コントローラと、
     前記自車の運転計画に関する情報と歩行者の横断の予測に関する情報を取得する情報取得部と、
     前記自車の進行経路において前記歩行者の横断が予測される横断予測地点を求める横断地点予測部と、
    を備え、
     前記表示コントローラは、前記自車の現在地点から前記横断予測地点に至るまでの前記自車の前記運転計画に関する情報を、前記横断予測地点の前記路面に画像表示するよう前記路面画像表示装置の表示動作を制御する運転計画表示装置。
PCT/IB2018/001123 2018-08-21 2018-08-21 運転計画表示方法及び運転計画表示装置 WO2020039224A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US17/269,284 US20210217304A1 (en) 2018-08-21 2018-08-21 Driving plan display method and driving plan display device
JP2020537885A JP7001169B2 (ja) 2018-08-21 2018-08-21 運転計画表示方法及び運転計画表示装置
RU2021107096A RU2763331C1 (ru) 2018-08-21 2018-08-21 Способ отображения плана движения и устройство отображения плана движения
PCT/IB2018/001123 WO2020039224A1 (ja) 2018-08-21 2018-08-21 運転計画表示方法及び運転計画表示装置
EP18931270.5A EP3842287A4 (en) 2018-08-21 2018-08-21 METHOD OF DISPLAYING A ROUTE MAP AND DEVICE FOR DISPLAYING A ROUTE MAP
CN201880096770.7A CN112585032A (zh) 2018-08-21 2018-08-21 驾驶计划显示方法以及驾驶计划显示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2018/001123 WO2020039224A1 (ja) 2018-08-21 2018-08-21 運転計画表示方法及び運転計画表示装置

Publications (1)

Publication Number Publication Date
WO2020039224A1 true WO2020039224A1 (ja) 2020-02-27

Family

ID=69593212

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2018/001123 WO2020039224A1 (ja) 2018-08-21 2018-08-21 運転計画表示方法及び運転計画表示装置

Country Status (6)

Country Link
US (1) US20210217304A1 (ja)
EP (1) EP3842287A4 (ja)
JP (1) JP7001169B2 (ja)
CN (1) CN112585032A (ja)
RU (1) RU2763331C1 (ja)
WO (1) WO2020039224A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009248598A (ja) * 2008-04-01 2009-10-29 Toyota Motor Corp 路面描写装置
JP2014013524A (ja) 2012-07-05 2014-01-23 Mitsubishi Motors Corp 車両報知装置
JP2015143093A (ja) * 2015-02-12 2015-08-06 株式会社デンソー 対歩行者報知装置
WO2017013750A1 (ja) * 2015-07-21 2017-01-26 日産自動車株式会社 運転計画装置、走行支援装置、運転計画方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8949028B1 (en) * 2013-12-02 2015-02-03 Ford Global Technologies, Llc Multi-modal route planning
JP6537780B2 (ja) * 2014-04-09 2019-07-03 日立オートモティブシステムズ株式会社 走行制御装置、車載用表示装置、及び走行制御システム
WO2016035118A1 (ja) * 2014-09-01 2016-03-10 三菱電機株式会社 車両用照射制御システムおよび画像照射の制御方法
JP6238859B2 (ja) * 2014-09-01 2017-11-29 三菱電機株式会社 車両用照射制御システムおよび光照射の制御方法
DE102014226254A1 (de) * 2014-12-17 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben eines insbesondere autonom oder teilautonom fahrenden/fahrbaren Kraftfahrzeugs, Signalisierungsvorrichtung, Kraftfahrzeug
JP2017076232A (ja) * 2015-10-14 2017-04-20 トヨタ自動車株式会社 車両用報知装置
JP6418182B2 (ja) * 2016-03-07 2018-11-07 トヨタ自動車株式会社 車両用照明装置
JP2017226371A (ja) * 2016-06-24 2017-12-28 アイシン・エィ・ダブリュ株式会社 走行情報表示システムおよび走行情報表示プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009248598A (ja) * 2008-04-01 2009-10-29 Toyota Motor Corp 路面描写装置
JP2014013524A (ja) 2012-07-05 2014-01-23 Mitsubishi Motors Corp 車両報知装置
JP2015143093A (ja) * 2015-02-12 2015-08-06 株式会社デンソー 対歩行者報知装置
WO2017013750A1 (ja) * 2015-07-21 2017-01-26 日産自動車株式会社 運転計画装置、走行支援装置、運転計画方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3842287A4

Also Published As

Publication number Publication date
JP7001169B2 (ja) 2022-01-19
JPWO2020039224A1 (ja) 2021-08-10
US20210217304A1 (en) 2021-07-15
EP3842287A1 (en) 2021-06-30
RU2763331C1 (ru) 2021-12-28
CN112585032A (zh) 2021-03-30
EP3842287A4 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
US10589752B2 (en) Display system, display method, and storage medium
US10643474B2 (en) Vehicle control device, vehicle control method, and recording medium
JP6566132B2 (ja) 物体検出方法及び物体検出装置
JP6478415B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6462328B2 (ja) 走行制御システム
CN109421799B (zh) 车辆控制装置、车辆控制方法及存储介质
EP3358545B1 (en) Travel control method and travel control device
RU2760046C1 (ru) Способ помощи при вождении и устройство помощи при вождении
US9026356B2 (en) Vehicle navigation system and method
CN112703540B (zh) 驾驶辅助方法和驾驶辅助装置
JP6007739B2 (ja) 運転支援装置及び運転支援方法
JP6954469B2 (ja) 運転支援方法及び運転支援装置
WO2022009848A1 (ja) 自車位置推定装置、走行制御装置
US20200211379A1 (en) Roundabout assist
JP2019159611A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2020049983A (ja) 駐車支援方法及び駐車支援装置
JP7129495B2 (ja) 運転支援方法及び運転支援装置
US20210387615A1 (en) Driving Assistance Method and Driving Assistance Device
CN111824142A (zh) 显示控制装置、显示控制方法及存储介质
WO2022162909A1 (ja) 表示制御装置及び表示制御方法
JP7001169B2 (ja) 運転計画表示方法及び運転計画表示装置
JP2022060075A (ja) 運転支援装置
JP4911094B2 (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
JP2020021295A (ja) 運転支援方法及び運転支援装置
JP2023060523A (ja) 車両制御方法及び車両制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18931270

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020537885

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018931270

Country of ref document: EP

Effective date: 20210322