WO2021131785A1 - 情報処理方法及び情報処理システム - Google Patents

情報処理方法及び情報処理システム Download PDF

Info

Publication number
WO2021131785A1
WO2021131785A1 PCT/JP2020/046256 JP2020046256W WO2021131785A1 WO 2021131785 A1 WO2021131785 A1 WO 2021131785A1 JP 2020046256 W JP2020046256 W JP 2020046256W WO 2021131785 A1 WO2021131785 A1 WO 2021131785A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensing
task
execution
information processing
moving body
Prior art date
Application number
PCT/JP2020/046256
Other languages
English (en)
French (fr)
Inventor
元嗣 穴吹
一真 竹内
慎史 大山
貝尓 胡
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN202080065981.1A priority Critical patent/CN114423664A/zh
Priority to JP2021567234A priority patent/JPWO2021131785A1/ja
Publication of WO2021131785A1 publication Critical patent/WO2021131785A1/ja
Priority to US17/691,711 priority patent/US20220194408A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0017Planning or execution of driving tasks specially adapted for safety of other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Definitions

  • This disclosure relates to information processing methods and information processing systems.
  • Patent Document 1 describes a map specified from the braking distance according to the moving speed of the moving body, the braking time which is the time required to stop, and the traveling path of the moving body, and may collide with the moving body.
  • a driving support device that receives an obstacle map showing an obstacle in a certain range from a peripheral body as an external map is disclosed.
  • traveling task a task related to traveling
  • the moving body may not be able to run safely even if the running task is executed based on the external map.
  • an object of the present disclosure is to provide an information processing method and an information processing system capable of providing safety of execution of a traveling task to a moving body having various traveling specifications.
  • the information processing method is an information processing method executed by a computer, in which a task related to traveling executed in a moving body and a task mounted on the moving body are mounted on the moving body to sense the outside of the moving body.
  • the first sensing data output by the first sensor and the specifications related to the running of the moving body are acquired, the sensing requirements are calculated based on the task and the specifications, and the first sensor output by the first sensor.
  • the first sensing result is calculated based on the sensing data, it is determined whether or not the execution of the task is restricted based on the sensing requirement and the first sensing result, and it is determined that the execution of the task is restricted.
  • a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, the method, and the like. It may be realized using any combination of integrated circuits, computer programs and recording media.
  • FIG. 1 is a block diagram showing an information processing system according to an embodiment.
  • FIG. 2A is a diagram showing an example of a traveling task of the information processing system according to the embodiment.
  • FIG. 2B is a diagram showing an example of travel plan information of the information processing system according to the embodiment.
  • FIG. 2C is a diagram showing an example of vehicle specification information of the information processing system according to the embodiment.
  • FIG. 2D is a diagram showing an example of travel point information of the information processing system according to the embodiment.
  • FIG. 2E is a diagram showing an example of safety requirement information of the information processing system according to the embodiment.
  • FIG. 2F is a diagram showing an example of a required sensing region of the information processing system according to the embodiment.
  • FIG. 3 is a flowchart showing the operation of the information processing system according to the embodiment.
  • FIG. 4A is a flowchart showing the detailed operation of the information processing system according to the embodiment.
  • FIG. 4B is a diagram showing an example of an actual sensing region of the information processing system according to the embodiment.
  • FIG. 5 is a flowchart showing a process of calculating the required sensing distance.
  • FIG. 6 is a diagram showing an example of a required sensing region and a required sensing distance.
  • FIG. 7 is a flowchart showing a process of searching the target area lane.
  • FIG. 8A is a flowchart showing a process of calculating the actual sensing region.
  • FIG. 8B is a flowchart showing a process of calculating the actual sensing distance for each sensor.
  • FIG. 8A is a flowchart showing a process of calculating the actual sensing region.
  • FIG. 8B is a flowchart showing a process of calculating the actual sensing distance for
  • FIG. 9 is a diagram showing an example of the relationship between the first sensing region and the second sensing region.
  • FIG. 10 is a diagram showing an example of the relationship between the required sensing region and the actual sensing region.
  • FIG. 11 is a schematic diagram showing an information processing system in a modified example.
  • FIG. 12A is a diagram showing an example of a traveling task of the information processing system in the modified example 5.
  • FIG. 12B is a diagram showing an example of travel plan information of the information processing system in the modified example 5.
  • FIG. 12C is a diagram showing an example of robot spec information of the information processing system in the modified example 5.
  • FIG. 12D is a diagram showing an example of travel point information of the information processing system in the modified example 5.
  • FIG. 12A is a diagram showing an example of a traveling task of the information processing system in the modified example 5.
  • FIG. 12B is a diagram showing an example of travel plan information of the information processing system in the modified example 5.
  • FIG. 12C is a diagram showing an example of
  • FIG. 12E is a diagram showing an example of safety requirement information of the information processing system in the modified example 5.
  • FIG. 12F is a diagram showing an example of a required sensing region of the information processing system in the modified example 5.
  • FIG. 13 is a diagram showing an example of a required sensing region and a required sensing distance.
  • an autonomous vehicle is designed to be optimized for driving in a specific driving scene (specific area, environment, time zone, etc.).
  • a specific driving scene specific area, environment, time zone, etc.
  • the self-driving car cannot always judge whether or not it is suitable for the driving scene. Therefore, when an autonomous vehicle runs in a non-optimized driving scene, the combination of driving specifications and sensor specifications is not suitable for the driving scene, in other words, safety is improved by insufficient sensing performance with respect to driving performance. It may not be possible to secure it.
  • driving support using an external map is provided, but if the driving specifications are not suitable for the driving scene, it is not always possible to guarantee the driving safety of the moving object even if the external map is used. Absent.
  • the information processing method is an information processing method executed by a computer, which includes a task related to traveling executed in a moving body and a task mounted on the moving body and mounted on the moving body.
  • the first sensing data output by the first sensor that senses the outside and the specifications related to the running of the moving body are acquired, the sensing requirements are calculated based on the task and the specifications, and the first sensor outputs the data.
  • the first sensing result is calculated based on the first sensing data, it is determined whether or not the execution of the task is restricted based on the sensing requirement and the first sensing result, and the execution of the task is restricted. If it is determined, an instruction for restricting the execution of the task is output to the moving body.
  • the execution of the traveling task can be restricted depending on the sensing requirements and the sensing results required from the traveling specifications of the moving body. That is, when the driving specifications and the sensor specifications are not suitable for the driving scene, the execution of the driving task can be restricted. Therefore, it is possible to provide safety for executing a running task for a moving body having various running specifications.
  • the running spec and the sensor spec of the moving body are not suitable for the running scene and the execution of the running task cannot be completed or the running task cannot be executed, that is, when the moving body cannot run, the running task is concerned. Stops execution. As a result, it is possible to suppress the occurrence of an accident or an incident due to the execution of the traveling task. Further, for example, when the traveling spec and the sensor spec of the moving object are not suitable for the traveling scene and the traveling task cannot be safely executed, that is, when the moving object cannot safely travel, the content of the execution of the traveling task is changed. As a result, even if the moving body does not completely meet the driving safety conditions, the moving body continues to run safely by executing a running task with limited contents instead of the original running task. be able to.
  • the information processing system includes a first acquisition unit that acquires a task related to traveling executed in the mobile body, and a first sensor mounted on the mobile body that senses the outside of the mobile body.
  • a second acquisition unit that acquires the first sensing data to be output, a third acquisition unit that acquires specifications related to the running of the moving body, and a first calculation unit that calculates sensing requirements based on the task and the specifications.
  • the second calculation unit that calculates the first sensing result based on the first sensing data output by the first sensor, and whether or not to restrict the execution of the task based on the sensing requirement and the first sensing result. It is provided with a determination unit for determining whether or not, and an output unit for outputting an instruction for restricting the execution of the task to the moving body when it is determined that the execution of the task is restricted.
  • This information processing system also has the same effects as described above.
  • the sensing requirement includes a required sensing region which is a region where sensing is required, and the first sensing result is calculated based on the first sensing data. Including the first sensing region, in the determination, it is determined whether or not to limit the execution of the task based on the required sensing region and the first sensing region.
  • the moving body In order to avoid the occurrence of accidents or incidents at the destination, the moving body must be able to sense the destination and its surroundings. For example, the moving body must be able to sense a region to be moved and a region where an object moving to the destination can exist.
  • the execution of the traveling task can be restricted according to the comparison result between the required sensing area and the sensing area of the moving body. For example, when the moving body cannot sense the required sensing area, the execution of the traveling task can be restricted. Therefore, it is possible to provide safety in executing a traveling task.
  • the information processing method is determined according to the overlap between the required sensing region and the first sensing region.
  • the overlap between the required sensing area and the first sensing area affects the safety of execution of the driving task. Therefore, by restricting the execution of the traveling task according to the overlap, the moving body can safely execute the traveling task. That is, the moving body can travel more safely.
  • the information processing method is determined according to the degree of overlap between the required sensing region and the first sensing region.
  • the degree of overlap between the required sensing area and the first sensing area is related to the degree of safety in executing the driving task. Therefore, by limiting the execution of the traveling task according to the degree of overlap, the moving body can safely execute the traveling task. That is, the moving body can travel more safely.
  • the information processing method determines according to the region where the required sensing region and the first sensing region do not overlap.
  • the safety of executing the driving task may not be significantly reduced.
  • Areas of low importance related to driving safety such as the area behind the moving object or the area opposite to the traveling direction of the moving object, are a safety risk even if sensing is insufficient. Is low.
  • the region where the required sensing region and the first sensing region do not overlap may reduce the safety of executing the traveling task.
  • a region having a high degree of importance related to driving safety such as an region near the moving body or a region in the traveling direction of the moving body, has an increased safety risk when sensing is insufficient. Therefore, by limiting the execution of the traveling task according to the non-overlapping regions (for example, according to the importance of the regions), it is possible to improve the traveling efficiency while safely traveling the moving body.
  • the limitation is prohibition of execution of the task.
  • the limitation is a change in the execution content of the task.
  • the driving task can be safely executed by reducing the speed, changing the intersection where the vehicle turns right, changing the stop position, or delaying the start timing.
  • the content of the change of the task is determined based on the overlap between the required sensing area and the first sensing area.
  • the overlap between the required sensing area and the first sensing area affects the safety of execution of the driving task. Therefore, by changing the content of the traveling task according to the overlap, the traveling task can be changed to a highly safe content.
  • the information processing method further acquires the second sensing data output by the second sensor installed in the moving path of the moving body, and the second sensing is based on the second sensing data.
  • the result is calculated, and in the determination, the determination is made based on the second sensing result.
  • the sensing area can be expanded even if the sensing performance of the first sensor of the moving body is low. By expanding the sensing area that overlaps with the required sensing area, it becomes easier to safely execute the driving task. That is, the moving body can easily travel safely.
  • the information processing method further adds the moving body to the monitoring target or raises the monitoring priority of the moving body when it is determined that the execution of the task is restricted.
  • a moving object that restricts the execution of driving tasks is more likely to cause an accident or incident than other moving objects. Therefore, it is possible to suppress the occurrence of an accident or an incident by, for example, setting a moving object whose execution of a traveling task is restricted as a monitoring target or raising the monitoring priority. In addition, even if an accident or incident occurs, the observer can respond promptly.
  • the information processing method further notifies the manager or passenger of the mobile body that the execution of the task is restricted when it is determined that the execution of the task is restricted.
  • the manager or the passenger can grasp that the execution of the traveling task of the moving body is restricted. For example, when the manager is a watcher, it is possible to prevent the watcher from overlooking a mobile body that is more likely to cause an accident or incident than other mobile bodies. Further, since the moving body may be monitored preferentially, the burden of monitoring the moving body by the observer can be reduced. In addition, it is possible to reduce passengers' anxiety about the behavior of the moving body on which they are riding.
  • the sensing requirement includes a required sensing target that requires sensing
  • the first sensing result is calculated based on the first sensing data. Including the first sensing target, in the determination, it is determined whether or not to limit the execution of the task based on the required sensing target and the first sensing target.
  • the moving body In order to avoid the occurrence of an accident or incident at the destination, the moving body must be able to sense the target that may cause the accident or incident. For example, the moving body must be able to sense an obstacle at the moving destination, the condition of the road surface at the moving destination, and the like.
  • the execution of the traveling task can be restricted according to the comparison result between the required sensing target and the target sensed by the moving body. Therefore, it is possible to provide safety in executing a traveling task.
  • the information processing method determines according to the degree of sufficiency or the degree of agreement between the required sensing target and the first sensing target.
  • the sensing requirement includes a required sensing performance that requires sensing
  • the first sensing result is calculated based on the first sensing data. Including the first sensing performance, in the determination, it is determined whether or not to limit the execution of the task based on the required sensing performance and the first sensing performance.
  • the sensing performance of the moving body In order to avoid the occurrence of accidents or incidents at the destination, the sensing performance of the moving body must be sufficient. For example, the accuracy, accuracy, resolution, processing cycle, etc. of sensing must be sufficient.
  • the execution of the traveling task can be restricted according to the comparison result between the required sensing performance and the sensing performance of the moving body. Therefore, it is possible to provide safety in executing a traveling task.
  • the determination is made according to whether or not the required sensing performance is exceeded by the first sensing performance.
  • the moving body can safely execute the traveling task. For example, if the sensing performance of the moving object is lower than the required sensing performance, the execution of the traveling task can be restricted.
  • FIG. 1 is a block diagram showing an information processing system 1 according to an embodiment.
  • the information processing system 1 includes an automatic operation device 2, an operation control device 3, an infrastructure device 4, and a determination device 5.
  • the automatic driving device 2 may be provided in the moving body, and the automatic driving device 2 and the operation control device 3 may be provided in the moving body.
  • the automatic driving device 2 is mounted on the moving body, senses the periphery of the moving body, and controls the traveling of the moving body based on the sensing result.
  • the moving body is a vehicle, an aircraft, a ship, or the like.
  • the self-driving car 6 will be described below as a moving body.
  • the automatic driving device 2 has a first sensing unit 21 and a traveling determination unit 22.
  • the first sensing unit 21 outputs the first sensing data to the determination device 5 as the first sensor.
  • the first sensing unit 21 is, for example, a sensor or sensor module such as a Lidar (Laser Imaging Detection and Ranking) or an image pickup device, and senses the outside of the autonomous driving vehicle 6.
  • the first sensing unit 21 generates the first sensing data which is the result of sensing.
  • the first sensing data is, for example, point cloud information or an image.
  • the travel determination unit 22 acquires a task related to driving (hereinafter, may be referred to as a travel task) generated by the autonomous driving vehicle 6 generated by the travel task generation unit 31 and a travel task permission output by the travel task restriction unit 57. To do.
  • the travel determination unit 22 determines whether or not to execute the travel task based on the acquired travel task and the travel task permission, and executes the determined travel task.
  • the travel determination unit 22 outputs a travel instruction according to the travel task to the automatic driving vehicle 6.
  • the operation control device 3 has a travel task generation unit 31, a first storage unit 32, and a travel plan change unit 33.
  • the travel task generation unit 31 generates a travel task based on the travel plan information acquired from the first storage unit 32.
  • the traveling task is an abstract upper traveling control than the lower traveling control that controls the actuator.
  • the lower driving control is control of speed, acceleration, deceleration, steering angle, etc.
  • the upper driving control is straight ahead, right turn, left turn, obstacle avoidance, parking, lane change, merging. It is the control of the automatic driving vehicle 6 such as starting or stopping.
  • the traveling task includes a traveling task name, a traveling task type, and a point name, as shown in FIG. 2A.
  • FIG. 2A is a diagram showing an example of a traveling task of the information processing system 1 according to the embodiment.
  • the travel plan information includes the route and the point where the travel task on the route is executed.
  • the points are the starting point, the destination, the right turn point, the left turn point, the stop point, and the like.
  • FIG. 2B is a diagram showing an example of travel plan information of the information processing system 1 according to the embodiment.
  • the travel task generation unit 31 outputs the generated travel task to the determination device 5.
  • the first storage unit 32 stores a travel plan information database showing a travel plan of the autonomous driving vehicle 6.
  • the first storage unit 32 outputs the travel plan information in response to the request of the travel task generation unit 31. Further, when the travel plan change unit 33 changes the travel plan information, the first storage unit 32 updates the travel plan information after the change.
  • the travel plan change unit 33 stores the travel plan information in the first storage unit 32 when it becomes necessary to change the travel plan information based on an instruction for restricting the execution of the travel task (hereinafter, restriction matter). To change and update. Further, the travel plan change unit 33 may update that the travel plan information stored in the first storage unit 32 is permitted even when the travel task permission output by the travel task restriction unit 57 is acquired. The user may manually change the travel plan information to a desired plan.
  • the limitation is prohibition of execution of the traveling task or change of the execution content of the traveling task.
  • prohibition of execution of a traveling task is prohibition of traveling, prohibition of turning right or left, prohibition of stopping, and the like.
  • the change in the execution content of the running task is a change in speed or acceleration, a change in the running lane, or the like.
  • the traveling plan changing unit 33 deletes the traveling task and adds a new traveling task when the acquired restriction is prohibited from turning right. To change.
  • the infrastructure device 4 is set on an infrastructure such as a road or a traffic light.
  • the infrastructure device 4 has a second sensing unit 41.
  • the second sensing unit 41 is a sensor installed in the movement path of the autonomous driving vehicle 6, senses the surroundings of the own machine, and generates the second sensing data.
  • the second sensing unit 41 outputs the generated second sensing data to the determination device 5.
  • the second sensing unit 41 may be an example of the second sensor.
  • the determination device 5 includes a travel task acquisition unit 51, a second storage unit 52, a third storage unit 53, a fourth storage unit 54, a condition acquisition unit 55, a determination unit 56, and a travel task restriction unit 57. Have.
  • the travel task acquisition unit 51 acquires the travel task output by the travel task generation unit 31 of the operation control device 3.
  • the travel task acquisition unit 51 outputs the acquired travel task to the determination unit 56.
  • the traveling task acquisition unit 51 is an example of the first acquisition unit.
  • the second storage unit 52 stores a database of vehicle spec information (hereinafter, vehicle spec information database) indicating the vehicle specs of the autonomous driving vehicle 6.
  • vehicle spec information database indicating the vehicle specs of the autonomous driving vehicle 6.
  • the second storage unit 52 outputs vehicle spec information in response to a request from the condition acquisition unit 55.
  • the vehicle specifications are specifications related to the running of the autonomous driving vehicle 6. Specifically, as shown in FIG. 2C, the vehicle spec information includes the vehicle name, maximum acceleration, maximum deceleration, maximum speed, vehicle response time, and the like.
  • the vehicle response time is the time from when an instruction is given to the autonomous driving vehicle 6 to when the operation corresponding to the instruction is actually executed or the operation is completed. For example, the vehicle response time is the time required for the autonomous driving vehicle 6 to apply the brake when a stop instruction is given to the autonomous driving vehicle 6.
  • FIG. 2C is a diagram showing an example of vehicle spec information of the information processing system 1 according to the embodiment.
  • the third storage unit 53 stores a database of travel point information (hereinafter, travel point information database) showing various information of travel points represented by a map.
  • the third storage unit 53 outputs travel point information in response to a request from the condition acquisition unit 55.
  • the travel point information is map information of the travel route and traffic environment information.
  • the traveling point information includes map information such as the point name, the point number assigned to the point name, the type of road, the presence or absence of a traffic light, the left turn route length, the right turn route length, and straight ahead. Includes traffic environment information such as route length, speed limit, assumed maximum speed of other vehicles, and approach lane.
  • FIG. 2D is a diagram showing an example of travel point information of the information processing system 1 according to the embodiment.
  • the fourth storage unit 54 stores a database of safety requirement information (hereinafter, safety requirement information database) indicating safety requirements for driving tasks.
  • the fourth storage unit 54 outputs the safety requirement information in response to the request of the condition acquisition unit 55.
  • the safety requirement information is a requirement set in advance by the business operator or the like in order for the autonomous driving vehicle 6 to travel safely for the traveling task.
  • the safety requirement information relates to the execution condition of the driving task.
  • the safety requirement information includes the traveling task name, the target area type, the road type, the required sensing range inside the intersection, the required sensing range of the approach lane, the required sensing range calculation input, and the like.
  • FIG. 2E is a diagram showing an example of safety requirement information of the information processing system 1 according to the embodiment.
  • the safety requirement information may include information other than the information related to the above sensing requirements.
  • the safety requirement information includes safety requirements regarding the driving environment such as obstacles, blind spot areas, weather, road surface conditions, and illuminance.
  • the safety requirements for the driving environment are used to calculate the driving environment requirements.
  • the target area type indicates the type of area in which the autonomous driving vehicle 6 may collide with another object. Specifically, in the example of FIG. 2E, the target area type shows the inside of the intersection and the approach lane other than the lane in which the autonomous driving vehicle 6 exists as the type of the above area.
  • the required sensing range inside the intersection is the required sensing range of the type area inside the intersection.
  • the required sensing range inside the intersection is set to the entire area.
  • the required sensing range of the approach lane is the required sensing range of the area of the type called the approach lane. For example, since the region far away from the approach lane is unlikely to collide, the required sensing range of the approach lane is set to the region from the intersection to the required sensing distance.
  • the required sensing range calculation input is information input for calculating the required sensing distance. Therefore, it may be said that the information is associated with the required sensing range of the target area.
  • the required sensing range calculation inputs are, for example, the maximum speed of the autonomous driving vehicle 6, the speed limit, the maximum acceleration, the vehicle response time, the right turn route length, the assumed maximum speed of other vehicles, and the like.
  • the condition acquisition unit 55 acquires vehicle spec information from the second storage unit 52 and travel point information from the third storage unit 53. Further, the condition acquisition unit 55 acquires a travel task from the travel task acquisition unit 51 via the determination unit 56.
  • the condition acquisition unit 55 is an example of the first calculation unit and also an example of the third acquisition unit. Further, the condition acquisition unit 55 further acquires safety requirement information from the fourth storage unit 54.
  • the condition acquisition unit 55 calculates the execution condition of the running task.
  • the execution condition of the traveling task is a condition for determining whether or not the normal execution determination of the traveling task is possible, that is, whether or not the sensing for executing the traveling task is sufficient.
  • the execution condition of the traveling task is an execution condition of the traveling task according to at least one of the autonomous driving vehicle 6 and the traveling point.
  • the execution condition of the driving task is for determining whether or not the driving task such as straight-ahead, right-turn, left-turn, obstacle avoidance, parking, lane change, merging, starting, and stopping of the autonomous driving vehicle 6 can be executed. It is a condition. Therefore, the execution condition includes the sensing requirement as one element.
  • the execution condition includes the driving environment requirement as another factor. Factors of driving environment requirements include obstacles, blind spot areas, weather, road surface conditions, and illuminance. Execution conditions are calculated based on safety requirement information.
  • the condition acquisition unit 55 calculates and acquires the sensing requirement based on the vehicle spec information and the traveling task acquired via the determination unit 56. Specifically, the condition acquisition unit 55 calculates a required sensing region, which is a region where sensing is required, based on vehicle spec information and traveling tasks. That is, the condition acquisition unit 55 determines the required sensing area required for the autonomous driving vehicle 6 of the vehicle specifications to execute the driving task based on the traveling point information and the vehicle spec information that match the points indicated in the traveling task. Calculate and obtain. More specifically, the condition acquisition unit 55 calculates the required sensing area based on the vehicle spec information, the traveling task, and the safety requirement information.
  • the condition acquisition unit 55 acquires travel point information and safety requirement information of the corresponding travel point from the travel task.
  • the condition acquisition unit 55 acquires the target area type, the required sensing range for each target area type, and the required sensing range calculation input from the acquired safety requirement information.
  • the condition acquisition unit 55 acquires the information shown in the acquired request sensing range calculation input from the vehicle spec information and the travel point information.
  • the condition acquisition unit 55 calculates the required sensing range for each target area in the point using the acquired information.
  • the sensing range of the target region calculated in this way is the required sensing region.
  • the required sensing area includes the vehicle name, the traveling task name, the target area ID, and the required sensing range for each area type.
  • the required sensing range is, for example, the required sensing distance in the entire area or the target area.
  • the entire area is set for the target area A0
  • the required sensing distance 43 m is set for each of the target areas A1, A3, and A7.
  • FIG. 2F is a diagram showing an example of a request sensing region of the information processing system 1 according to the embodiment.
  • the condition acquisition unit 55 mainly acquires the execution condition including the request sensing area before the autonomous driving vehicle 6 travels, but the execution condition may be acquired while the autonomous driving vehicle 6 is traveling.
  • the condition acquisition unit 55 outputs the acquired execution condition to the determination unit 56.
  • the determination unit 56 acquires the first sensing data from the first sensing unit 21, acquires the second sensing data from the second sensing unit 41, and acquires the execution condition including the sensing requirement from the condition acquisition unit 55. Further, the determination unit 56 acquires a travel task from the travel task acquisition unit 51.
  • the determination unit 56 calculates the first sensing result based on the first sensing data.
  • the first sensing result is the first sensing region indicating the region sensed by the first sensing unit 21.
  • the determination unit 56 calculates the second sensing result based on the second sensing data.
  • the second sensing result is a second sensing region indicating a region sensed by the second sensing unit 41.
  • the first sensing result and the second sensing result may include other information. For example, the presence / absence of an obstacle, the type of the obstacle, the position of the obstacle, the size of the obstacle, the blind spot area due to the obstacle, the weather, the condition of the road surface, the illuminance, and the like may be included.
  • the first sensing region and the second sensing region are actual sensing regions.
  • the determination unit 56 determines whether or not to restrict the execution of the traveling task based on the first sensing result and the sensing requirement. Specifically, the determination unit 56 determines whether or not to restrict the execution of the traveling task by the autonomous driving vehicle 6 based on the first sensing region and the required sensing region of the execution condition. That is, the determination unit 56 determines whether or not the self-driving car 6 can normally determine whether or not the traveling task may be executed.
  • the fact that the execution of the traveling task can be normally determined means that the first sensing result is sufficient, that is, the first sensing result satisfies the sensing requirement. For example, the determination unit 56 determines whether or not to limit the execution of the traveling task according to the overlap between the request sensing region and the first sensing region.
  • the determination unit 56 determines according to the degree of overlap between the required sensing region and the first sensing region. For example, when the entire required sensing region or a portion of a predetermined ratio or more overlaps with the first sensing region, the determination unit 56 does not restrict the execution of the traveling task. On the contrary, when there is no portion of the required sensing region that overlaps with the first sensing region or is less than a predetermined ratio, the determination unit 56 limits the execution of the traveling task.
  • the determination unit 56 determines whether or not to restrict the execution of the traveling task based on the second sensing region. For example, the determination unit 56 determines whether or not to limit the execution of the traveling task according to the overlap between the combined sensing region and the required sensing region, which is the combination of the first sensing region and the second sensing region.
  • the determination unit 56 may make a determination according to an area where the required sensing area and the first sensing area do not overlap. Specifically, the determination unit 56 determines whether the portion of the required sensing region that does not overlap with the first sensing region is a region that affects the driving safety of the autonomous driving vehicle 6. Areas that affect safety are, for example, an area close to the autonomous driving vehicle 6, an area in the traveling direction of the autonomous driving vehicle 6, an area on a planned traveling route, a sidewalk, an area where a traffic light is located, and the like. When the region affecting the running safety is the non-overlapping portion, the determination unit 56 limits the execution of the running task.
  • the determination unit 56 determines whether or not to restrict the execution of the traveling task based on other requirements of the execution condition. Specifically, the determination unit 56 determines whether or not to restrict the execution of the travel task based on the travel environment requirement and the first sensing data. For example, when fog is generated on the route or the road surface on the route is frozen, the determination unit 56 determines that the execution of the traveling task is restricted. Further, when the number of pedestrians exceeds the threshold value or an accident occurs at a predetermined point on the route, the determination unit 56 determines that the execution of the traveling task is restricted. Further, when the animal enters the route, the determination unit 56 determines that the execution of the traveling task is restricted. Further, when the communication state between the observer terminal for monitoring the autonomous driving vehicle 6 and the autonomous driving vehicle 6 is poor, the determination unit 56 determines that the execution of the traveling task is restricted.
  • the determination unit 56 outputs the determination result to the traveling task restriction unit 57.
  • the travel task restriction unit 57 restricts the execution of the travel task according to the determination result. Specifically, according to the determination result of the sensing requirement by the determination unit 56, the travel task restriction unit 57 generates a restriction item which is an instruction for restricting the execution of the travel task. Specifically, the traveling task limiting unit 57 generates, as a limiting item, prohibition of execution of the traveling task according to the determination result of the request sensing region by the determination unit 56. For example, when the traveling task is a right turn, if the portion of the required sensing region corresponding to the right turn direction does not overlap with the first sensing region, the determination unit 56 determines that the execution of the traveling task is restricted.
  • the traveling task restriction unit 57 generates a restriction item indicating that a right turn is prohibited. Further, the traveling task limiting unit 57 determines the content of the change of the traveling task as a restriction item according to the determination result of the request sensing area by the determination unit 56. Specifically, the travel task limiting unit 57 determines the content of the travel task change based on the overlap between the first sensing region and the required sensing region (for example, the presence or absence of overlap, the degree of overlap, etc.). For example, when the traveling task is traveling straight and the overlap between the portion of the required sensing region corresponding to the traveling direction and the first sensing region is less than a predetermined ratio, the determination unit 56 restricts the execution of the traveling task. Then it is judged. Therefore, the traveling task limiting unit 57 generates a limiting item indicating a speed (in other words, a speed limit) such that the overlapping regions are equal to or more than a predetermined ratio.
  • a speed in other words, a speed limit
  • the traveling task restriction unit 57 generates restrictions according to the determination result of other requirements by the determination unit 56. Specifically, the traveling task limiting unit 57 generates restrictions according to the determination result of the traveling environment requirement. For example, when fog is generated on the route or the road surface on the route is frozen, the traveling task limiting unit 57 is generated as a restriction item for reducing the traveling speed. In addition, when the number of pedestrians is equal to or greater than the threshold value at a predetermined point on the route, or when an accident occurs, the traveling task restriction unit 57 generates a restriction item for prohibiting intrusion into the predetermined point. In addition, when an animal enters the route, the traveling task restriction unit 57 generates restrictions for prohibiting the route and changing the route. Further, when the communication state between the observer terminal for monitoring the autonomous driving vehicle 6 and the autonomous driving vehicle 6 is poor, or when an emergency vehicle approaches, the traveling task limiting unit 57 sets a restriction item for stopping the traveling. Generate.
  • the restrictions on the driving task may be generated based on the operation of the administrator.
  • the administrator selects a restriction item
  • the traveling task restriction unit 57 generates a restriction item based on the selection result.
  • the traveling task limiting unit 57 is an example of an output unit.
  • the manager is a manager of the information processing system 1 or a part of the device, an owner of the self-driving car 6, a monitor of the self-driving car 6, and the like.
  • the travel task restriction unit 57 outputs the generated restriction items to the travel determination unit 22 and the travel plan change unit 33. Further, the travel task restriction unit 57 outputs a travel task permission indicating permission for execution of the travel task that is not determined to be restricted to the travel determination unit 22. The traveling task limiting unit 57 may output the traveling task permission to the traveling plan changing unit 33.
  • FIG. 3 is a flowchart showing the processing of the information processing system 1 in the embodiment.
  • FIG. 3 describes an overall outline of the processing of the information processing system 1.
  • the condition acquisition unit 55 executes a traveling task for each traveling point according to the autonomous driving vehicle 6 based on the vehicle spec information and the traveling point information before the autonomous driving vehicle 6 travels.
  • the condition is calculated and acquired (S11).
  • the process of step S11 may be executed before the self-driving car 6 travels.
  • the running task acquisition unit 51 acquires the running task output by the running task generation unit 31 (S12).
  • the determination unit 56 acquires the first sensing data from the first sensing unit 21, the second sensing data from the second sensing unit 41, the execution conditions from the condition acquisition unit 55, and the travel task from the travel task acquisition unit 51. To do.
  • the determination unit 56 determines whether or not the autonomous driving vehicle 6 can normally determine the execution of the traveling task based on the acquired information (S13). That is, the determination unit 56 determines whether or not to restrict the execution of the traveling task based on the acquired information.
  • the determination unit 56 determines that the execution of the travel task is not restricted (YES in S13)
  • the determination unit 56 outputs the travel task permission to the travel determination unit 22 (S17).
  • the travel determination unit 22 obtains the travel task permission
  • the travel determination unit 22 executes the travel task indicated by the travel task permission.
  • the autonomous driving vehicle 6 is controlled to travel according to the traveling task.
  • the travel determination unit 22 determines whether or not to end the travel (S18). That is, the travel determination unit 22 determines whether or not the vehicle has arrived at the destination.
  • the travel determination unit 22 determines that the travel is completed (YES in S18), and terminates the travel of the autonomous driving vehicle 6. In addition, the information processing system 1 ends the process.
  • the travel task restriction unit 57 when the determination unit 56 determines that the execution of the travel task is restricted (NO in S13), the travel task restriction unit 57 generates a restriction item for the travel task determined to restrict the execution of the travel task.
  • the restriction items are output to the travel plan change unit 33 and the travel determination unit 22 (S14).
  • the travel plan change unit 33 changes the travel plan information of the travel task stored in the first storage unit 32 based on the restrictions (S15). That is, the travel plan change unit 33 changes the travel plan by deleting or changing the travel point regarding the restriction from the travel plan.
  • the travel determination unit 22 determines whether or not the travel can be continued based on the restrictions (S16). Specifically, the travel determination unit 22 cancels the execution of the travel task or changes the execution content based on the restrictions. The traveling determination unit 22 determines whether or not the traveling of the autonomous driving vehicle 6 can be continued after the execution of the traveling task is stopped or the execution content is changed.
  • the running determination unit 22 If the running determination unit 22 cannot continue running (NO in S16), the running determination unit 22 ends the running of the self-driving car 6. In addition, the information processing system 1 ends the process.
  • the process returns to step S13.
  • the traveling determination unit 22 causes the autonomous driving vehicle 6 to travel by acquiring a plurality of traveling tasks until the autonomous driving vehicle 6 arrives at the destination.
  • FIG. 4A is a flowchart showing detailed processing of the determination device 5 in the embodiment. In FIG. 4A, it is assumed that the process is executed after the start of traveling of the autonomous driving vehicle 6.
  • the condition acquisition unit 55 calculates and acquires the request sensing area. Specifically, the condition acquisition unit 55 calculates and acquires the required sensing area based on the vehicle spec information and the traveling task acquired via the determination unit 56. The details of the calculation process of the request sensing region will be described later.
  • the traveling task acquisition unit 51 acquires the traveling task from the operation control device 3, it outputs it to the determination unit 56.
  • the determination unit 56 acquires the traveling task (S21).
  • the determination unit 56 acquires the first sensing data from the automatic driving device 2 (S22).
  • the determination unit 56 acquires the second sensing data from the infrastructure device 4 (S23).
  • the determination unit 56 calculates and acquires the actual sensing area based on the first sensing data and the second sensing data (S24).
  • the actual sensing area includes the name of the sensing device and the actual sensing range for each target area.
  • the actual sensing range is indicated by the entire area or the actual sensing distance.
  • the actual sensing range of the target area A0 is the entire area
  • the actual sensing range of the target areas A1 to A8 is the numerical value of the actual sensing distance.
  • FIG. 4B is a diagram showing an example of an actual sensing region of the information processing system 1 according to the embodiment.
  • the actual sensing region is a region defined based on the first sensing region and the second sensing region, and is, for example, a region in which the first sensing region and the second sensing region are combined (in other words, a synthetic sensing region).
  • the actual sensing distance is the distance actually sensed by the first sensing unit 21 (that is, the autonomous driving vehicle 6) or the second sensing unit 41 (that is, the infrastructure device 4).
  • the determination unit 56 determines whether the synthetic sensing region is sufficient (S25). Specifically, the determination unit 56 determines whether or not to limit the execution of the traveling task based on the first sensing region or the second sensing region and the required sensing region.
  • the determination unit 56 determines that the synthetic sensing area is sufficient (YES in S25)
  • the determination unit 56 outputs the travel task permission to the travel determination unit 22 (S31).
  • the determination device 5 determines whether or not the running of the self-driving car 6 has been completed (S32). Specifically, the determination device 5 determines whether or not the travel determination unit 22 has completed the travel of the autonomous driving vehicle 6.
  • the determination device 5 determines that the running of the autonomous driving vehicle 6 has been completed (YES in S32). Further, when the determination device 5 determines that the traveling of the automatic driving vehicle 6 has not been completed (NO in S32), the determination device 5 returns the process to step S21.
  • the determination unit 56 determines whether or not it can be solved by adjusting the infrastructure device 4 (that is, the second sensing unit 41) (S26). Specifically, by adjusting the installation position of the infrastructure device 4, the sensing range of the second sensing unit 41, the accuracy, and the like, the determination unit 56 determines whether or not the synthetic sensing area is sufficient.
  • the solution may be the addition of a sensor, the change of infrastructure, or the like. In addition, the solution may be preset with adjustable items, and the selected solution may be notified to the administrator.
  • step S26 when the determination unit 56 determines that the problem can be solved by adjusting the infrastructure device 4 (YES in S26), the determination unit 56 adjusts the infrastructure device 4 (S33), and the process returns to step S23. Since the processes of steps S26 and S33 are not essential processes, they may be omitted.
  • the travel task restriction unit 57 restricts the travel task determined that the synthetic sensing area is not sufficient. By generating the matter, the execution of the traveling task is restricted (S27).
  • the traveling task limiting unit 57 outputs the generated restriction items to the traveling plan changing unit 33 to change the traveling plan information (including the acquired traveling task) to the traveling plan changing unit 33 (S28).
  • the travel plan change unit 33 changes the travel plan information stored in the first storage unit 32 based on the restrictions.
  • the traveling task limiting unit 57 determines whether or not the autonomous driving vehicle 6 can continue traveling based on the changed traveling plan information (S29).
  • the travel task restriction unit 57 acquires the determination result by the travel determination unit 22 as to whether or not the travel can be continued based on the changed travel task together with the travel plan information.
  • the traveling task limiting unit 57 determines that the traveling cannot be continued (NO in S29)
  • the traveling task limiting unit 57 outputs an instruction to end the traveling of the autonomous driving vehicle 6 to the traveling determination unit 22 (S30).
  • the self-driving car 6 ends traveling.
  • the determination device 5 ends the process.
  • the required sensing distance is, for example, a predetermined distance from the intersection region when the autonomous driving vehicle 6 enters the intersection.
  • the predetermined distance is a distance for sensing a moving body entering the intersection.
  • FIG. 5 is a flowchart showing a process of calculating the required sensing distance.
  • the condition acquisition unit 55 acquires safety requirement information from the fourth storage unit 54 (S41). For example, when the traveling environment requirement of the safety requirement information is set so that other moving objects do not enter the intersection, the autonomous driving vehicle 6 can safely enter the intersection. In addition, when the sensing requirement of the safety requirement information is set to be able to sense other moving objects in and around the intersection, the possibility that the autonomous driving vehicle 6 overlooks other moving objects is reduced, that is, in an accident or incident. Occurrence can be suppressed.
  • the condition acquisition unit 55 acquires travel point information from the third storage unit 53.
  • the condition acquisition unit 55 searches for a sensing target area from the acquired travel point information (S42). Specifically, the condition acquisition unit 55 determines a road lane and an area as a target area to be sensed for each traveling task from the traveling point information.
  • FIG. 6 is a diagram showing an example of the required sensing region R1 and the required sensing distance.
  • the condition acquisition unit 55 calculates the required sensing distance (S43). Specifically, the condition acquisition unit 55 uses the required sensing distance calculation input (maximum speed, speed limit, approach speed to intersection, maximum acceleration, vehicle response time, right turn route length, assumed maximum speed of other vehicles). Etc.), the required sensing distance is calculated for each driving task.
  • condition acquisition unit 55 substitutes the maximum speed v max of the self-driving car 6, the approach speed v min to the intersection, and the maximum acceleration a max into the equation (1), and the self-driving car 6 has the maximum speed.
  • v max the time required to accelerate to. For example, when the self-driving car 6 departs, v min is set to 0.
  • condition acquisition unit 55 substitutes the maximum speed v max of the self-driving car 6, the approach speed v min to the intersection, and the time t max velocity into the equation (2), so that the self-driving car 6 accelerates to the maximum speed. Calculate the distance l max required for.
  • condition acquisition unit 55 formulates the maximum speed v max , the maximum acceleration a max , the vehicle response time t response , the right turn route length l task , the time t max velocity, and the distance l max velocity of the autonomous driving vehicle 6 into the equation (3). Substituting, the time t task required for the autonomous driving vehicle 6 to complete the traveling task is calculated.
  • condition acquisition unit 55 substitutes the time t task and the assumed maximum speed v other of the other vehicle into the equation (4), and the maximum distance l move other that the other moving body moves by the time when the autonomous driving vehicle 6 completes the traveling task. Calculate the vehicle.
  • the condition acquisition unit 55 sets the calculated distance l move other vehicle as the required sensing distance.
  • the information processing system 1 can calculate the required sensing distance. For example, in FIG. 6, when the self-driving car 6 turns right at the intersection area A0, the required sensing distance from the intersection area A0 is calculated for each of the lanes A1, A3, and A7. As a result, it is possible to set the sensing requirement (in other words, the safety requirement) to detect that another moving body does not invade by the time the autonomous driving vehicle 6 completes the right turn.
  • the sensing requirement in other words, the safety requirement
  • FIG. 7 is a flowchart showing the process of searching the target area lane.
  • condition acquisition unit 55 includes the approach lanes A1, A3, A5, and A7 into the intersection area A0 where the autonomous driving vehicle 6 is about to enter, other than the autonomous driving vehicle 6. Lanes A1, A3, and A7 are determined as lanes for the moving body to enter (S51).
  • condition acquisition unit 55 determines whether or not a traffic light exists in the intersection region A0 (S52).
  • condition acquisition unit 55 determines all approach lanes A1, A3, and A7 other than the lane A5 in which the autonomous driving vehicle 6 exists as the target area lanes (NO). S53).
  • condition acquisition unit 55 determines the approach lane A1 of the oncoming vehicle for the autonomous driving vehicle 6 as the target area lane (S54).
  • FIG. 8A is a flowchart showing a process of calculating the actual sensing region.
  • the determination unit 56 calculates the actual sensing area for each sensor (first sensing unit 21 and second sensing unit 41) (S61).
  • the calculation of the actual sensing area for each sensor will be described with reference to FIG. 8B.
  • FIG. 8B is a flowchart showing a process of calculating the actual sensing area for each sensor.
  • the determination unit 56 acquires the maximum sensing distance of the first sensing unit 21 (S61a). For example, the determination unit 56 acquires the maximum sensing distance of the first sensing unit 21 from the vehicle spec information stored in the second storage unit 52.
  • the determination unit 56 calculates the distance from the first sensing unit 21 (that is, the autonomous driving vehicle 6) to the object in each direction based on the first sensing data (S61b).
  • the determination unit 56 sets a smaller value among the maximum sensing distance and the distance to the object in each direction as the actual sensing distance in each direction (S61c). For example, in FIG. 9, the distance from the autonomous vehicle 6 existing in the lane A5 to the obstacle 7 is shorter than the maximum sensing distance. Therefore, the determination unit 56 sets the distance from the autonomous driving vehicle 6 to the obstacle 7 as the actual sensing distance.
  • the side opposite to the self-driving car 6 side of the obstacle 7 is a blind spot of the self-driving car 6.
  • FIG. 9 is a diagram showing an example of the relationship between the first sensing region K1 and the second sensing region K2.
  • the determination unit 56 superimposes the first sensing region, which is the actual sensing region, and the second sensing region (S62).
  • the first sensing region K1 is shown by hatching of diagonal lines in a grid pattern
  • the second sensing region K2 is shown by hatching in a dot shape.
  • the determination unit 56 uses an actual sensing region, that is, a synthetic sensing region, for determining whether or not to limit the execution of the traveling task based on the result of superimposing the first sensing region K1 and the second sensing region K2. Is calculated (S63).
  • the determination unit 56 determines a region covered by either the first sensing region or the second sensing region as the synthetic sensing region.
  • the sum of the first sensing region and the second sensing region is determined as the synthetic sensing region.
  • the lattice-shaped diagonal hatching or the dot-shaped hatching in FIG. 9 is determined as the synthetic sensing region.
  • step S25 of FIG. 4A is performed.
  • An example of the determination process based on the required sensing region and the actual sensing region will be described with reference to FIG.
  • FIG. 10 is a diagram showing an example of the relationship between the required sensing region and the actual sensing region.
  • the sum of the first sensing region K1 and the second sensing region K2 is shown as the actual sensing region K3 of the hatching with diagonal lines. Further, among the required sensing regions, the region R2 that overlaps with the actual sensing region K3 is indicated by vertical line hatching, and the region R3 that does not overlap with the actual sensing region K3 is indicated by hatching with fine dot spacing.
  • the determination unit 56 determines that the execution of the traveling task, that is, the right turn is restricted because a part of the requested sensing region R3 does not overlap with the actual sensing region K3.
  • the execution of the traveling task can be restricted depending on the traveling specifications of the moving body. That is, when the driving specifications and the sensor specifications are not suitable for the driving scene, the execution of the driving task can be restricted. Therefore, it is possible to provide safety for executing a running task for a moving body having various running specifications.
  • the running spec and the sensor spec of the moving body are not suitable for the running scene and the execution of the running task cannot be completed or the running task cannot be executed, that is, when the moving body cannot run, the running task is concerned. Stops execution. As a result, it is possible to suppress the occurrence of an accident or an incident due to the execution of the traveling task. Further, for example, when the traveling spec and the sensor spec of the moving object are not suitable for the traveling scene and the traveling task cannot be safely executed, that is, when the moving object cannot safely travel, the content of the execution of the traveling task is changed. As a result, even if the moving body does not completely meet the driving safety conditions, the moving body continues to run safely by executing a running task with limited contents instead of the original running task. be able to.
  • Modification example 1 In the above embodiment, the information processing method and the information processing system 1 have been described as an example, but the present invention is not limited to this.
  • the terminal device 80 and the observer terminal 90 may be communicably connected to the information processing system 1.
  • this case will be described as a modification 1, focusing on the differences from the above-described embodiment.
  • FIG. 11 is a schematic diagram showing the information processing system 1 in the modified example 1.
  • the traveling task limiting unit 57 determines the monitoring mode of the autonomous driving vehicle 6 by the observer according to the determination result of whether or not to restrict the execution of the traveling task. Specifically, when the determination unit 56 determines that the execution of the traveling task is restricted, the traveling task limiting unit 57 adds the autonomous driving vehicle 6 to the monitoring target, or sets the monitoring priority of the autonomous driving vehicle 6. increase.
  • the travel task restriction unit 57 outputs to the terminal device 80 and the monitor terminal 90, which will be described later, that the execution of the travel task is restricted. As a result, the manager or passenger of the self-driving car 6 is notified that the execution of the traveling task is restricted.
  • the traveling task limiting unit 57 may output to the terminal device 80 and the observer terminal 90 that the autonomous driving vehicle 6 is added to the monitoring target or that the monitoring priority of the autonomous driving vehicle 6 is raised.
  • the terminal device 80 is a car navigation device, a personal computer, a smartphone, a tablet terminal, or the like that is communicably connected to the information processing system 1.
  • the terminal device 80 includes an autonomous driving vehicle 6 added to the monitoring target, an autonomous driving vehicle 6 having a higher monitoring priority, an autonomous driving vehicle 6 in which execution of a driving task is restricted, and execution of a driving task.
  • the notification may be realized by a display by a display device such as a display, an audio output by an audio device such as a speaker, or the like.
  • the owner is an example of an administrator.
  • the observer terminal 90 is a personal computer, a smartphone, a tablet terminal, or the like that is communicably connected to the information processing system 1.
  • the observer terminal 90 is an automatic driving vehicle 6 added to the monitoring target, an automatic driving vehicle 6 having a higher monitoring priority, an automatic driving vehicle 6 in which the execution of the traveling task is restricted, and the execution of the traveling task being restricted. At least one is acquired from the traveling task restriction unit 57 and notified to the observer.
  • the notification may be realized by a display by a display device such as a display, an audio output by an audio device such as a speaker, or the like.
  • the observer is an example of an administrator.
  • the occurrence of an accident or an incident can be suppressed.
  • the observer will be able to respond promptly.
  • the manager or the passenger can grasp that the execution of the traveling task of the moving body is restricted.
  • the burden of monitoring the moving body by the observer can be reduced.
  • the sensing requirement is the required sensing region
  • the sensing requirement may be another requirement.
  • the sensing requirement is a required sensing target that requires sensing
  • the first sensing result is the first sensing target calculated based on the first sensing data
  • the determination unit 56 It is determined whether or not to restrict the execution of the traveling task based on the request sensing target and the first sensing target.
  • the second sensing result is also the target of the second sensing, and may be used for the above determination.
  • the determination unit 56 limits the execution of the traveling task according to the sufficiency of the request sensing target and the first sensing target (that is, whether or not the request sensing target is included in the first sensing target).
  • the required sensing target is a type of geographical fixture such as a traffic light, a road sign, a curb, or a road marking, and a number thereof.
  • the required sensing target is a geographical scene such as an intersection, a curve, or a bridge. For items that may be subject to request sensing, information is added to the travel point information and safety requirement information.
  • the condition acquisition unit 55 calculates the request sensing target as the execution condition of the driving task based on the traveling task, the vehicle spec information, the traveling point information, and the safety requirement information. For example, the condition acquisition unit 55 acquires the arrangement or geographical scene of the geographically fixed object at the point C from the travel point information for the travel task of turning right at the point C, and acquires the speed and acceleration from the vehicle specifications. The condition acquisition unit 55 calculates from the acquired information a geographical fixed object or a geographical scene that requires sensing specified in the safety requirement information. For example, a traffic light and a signboard in the traveling direction of the autonomous driving vehicle 6 at the intersection before a predetermined distance or more are calculated as request sensing targets.
  • the determination unit 56 calculates the first sensing target from the first sensing data and the second sensing target from the second sensing data. For example, the determination unit 56 calculates an object (for example, a signboard) located in the traveling direction of the autonomous driving vehicle 6 as a first and second sensing target from the first and second sensing data such as image data or point cloud data, respectively. ..
  • an object for example, a signboard located in the traveling direction of the autonomous driving vehicle 6 as a first and second sensing target from the first and second sensing data such as image data or point cloud data, respectively. ..
  • the determination unit 56 determines whether or not to restrict the execution of the traveling task based on the request sensing target, the first sensing target, and the second sensing target. For example, the determination unit 56 determines whether or not the object calculated as the first and second sensing objects is the object calculated as the request sensing object, for example, the traffic light or the signboard. When it is determined that the object calculated as the first and second sensing targets does not include at least one of the above-mentioned traffic light and signboard calculated as the request sensing target, the determination unit 56 determines that the execution of the traveling task is restricted. .. Otherwise, it is determined that the execution of the traveling task is not restricted.
  • the determination unit 56 may determine whether or not to limit the execution of the traveling task according to the degree of coincidence between the request sensing target and the first sensing target. For example, when the request sensing target is a traffic light and a signboard, and the first sensing target is a traffic light and a pedestrian crossing, the request sensing target and the first sensing target do not match, so that the execution of the traveling task is restricted. .. Further, when the first sensing target is a traffic light, a signboard, and a pedestrian crossing, the execution of the traveling task is restricted because the required sensing target and the first sensing target do not match.
  • the determination unit 56 further determines whether or not the first sensing target includes the state of the request sensing target (that is, the degree of coincidence or sufficientness between the state of the request sensing target and the state of the first sensing target). You may decide whether to limit the execution. Even if the sensing targets match, the safety of executing the driving task changes according to the state of the targets. Therefore, by limiting the execution of the traveling task according to the degree of coincidence of the states of the sensing target, it is possible to make the moving body execute the traveling task more safely. For example, when the state of the request sensing target and the state of the target sensed by the moving object are different, the execution of the traveling task can be restricted.
  • the sensing requirement may be another requirement.
  • the sensing requirement is the required sensing performance that requires sensing
  • the first sensing result is the first sensing performance calculated based on the first sensing data
  • the determination unit 56 Determine whether to limit the execution of the driving task based on the required sensing performance and the first sensing performance.
  • the second sensing result is the second sensing performance and may be used for the above determination.
  • the determination unit 56 determines whether or not to limit the execution of the traveling task according to whether or not the first sensing performance exceeds the required sensing performance.
  • the required sensing performance is sensing accuracy, accuracy, resolution, processing cycle, or the like. Information is added to the safety requirement information for items that may have the required sensing performance.
  • the condition acquisition unit 55 calculates the required sensing performance as an execution condition of the driving task based on the traveling task, the vehicle spec information, the traveling point information, and the safety requirement information. For example, the condition acquisition unit 55 acquires the speed limit and the assumed maximum speed of another vehicle from the travel point information, and acquires the speed and acceleration from the vehicle specifications for the travel task of turning right at the point C. The condition acquisition unit 55 calculates the accuracy of sensing specified in the safety requirement information from the acquired information. For example, the required sensing performance is calculated as a processing cycle that can secure a time that can be avoided even if another vehicle tries to enter the intersection.
  • the determination unit 56 calculates the first sensing performance from the first sensing data and the second sensing performance from the second sensing data. For example, the determination unit 56 calculates the processing cycles of the first sensing unit 21 and the second sensing unit 41 as the first and second sensing performances from the first and second sensing data such as image data or point cloud data, respectively.
  • the determination unit 56 determines whether or not to limit the execution of the traveling task based on the required sensing performance, the first sensing performance, and the second sensing performance. For example, the determination unit 56 determines whether or not the processing cycle calculated as the first and second sensing performance is shorter than the processing cycle calculated as the required sensing performance. When it is determined that any of the processing cycles calculated as the first and second sensing targets is equal to or longer than the processing cycle calculated as the required sensing performance, the determination unit 56 determines that the execution of the traveling task is restricted. Otherwise, it is determined that the execution of the traveling task is not restricted.
  • the determination unit 56 calculates the first and second sensing results, but the present invention is not limited to this.
  • the first and second sensing results may be calculated by the first sensing unit 21 and the second sensing unit 41, respectively.
  • the first and second sensing results are output to the determination device 5, that is, the determination unit 56.
  • the moving body is an autonomous driving vehicle, but the present invention is not limited to this.
  • the moving body may be an autonomous mobile robot.
  • a robot that is used in a building and moves in a passage is assumed.
  • the moving body may be a robot that is used outside the building and runs on the road.
  • an example in which the moving body is the autonomous mobile robot 8 will be described. The description of the configuration or processing substantially the same as the configuration or processing of the above-described embodiment will be omitted.
  • the travel task generation unit 31 generates a travel task based on the travel plan information of the autonomous mobile robot 8 acquired from the first storage unit 32.
  • the travel task includes a travel task name, a travel task type, and a point name, as shown in FIG. 12A.
  • FIG. 12A is a diagram showing an example of a traveling task of the information processing system 1 in the modified example 5.
  • the travel plan information includes the route and the point where the travel task on the route is executed.
  • the points include the starting point, the destination, the right turn point, the left turn point, the stop point, and the like, as well as the points where equipment in the building such as an elevator is installed.
  • FIG. 12B is a diagram showing an example of travel plan information of the information processing system 1 in the modified example 5.
  • the first storage unit 32 stores a travel plan information database showing a travel plan of the autonomous mobile robot 8.
  • the second storage unit 52 stores a database of robot spec information (hereinafter, robot spec information database) indicating the specifications of the autonomous mobile robot 8.
  • the second storage unit 52 outputs the robot spec information in response to the request of the condition acquisition unit 55.
  • the robot specifications are specifications related to the running of the autonomous mobile robot 8.
  • the robot spec information includes a robot name, a movement method, a maximum acceleration, a maximum deceleration, a maximum speed, a response time, and the like.
  • FIG. 12C is a diagram showing an example of robot spec information of the information processing system 1 in the modified example 5.
  • the third storage unit 53 stores a travel point information database.
  • the travel point information includes map information such as a point name, a point number assigned to the point name, a passage type, and traffic environment information such as an approach lane.
  • the traffic environment information may include information such as the presence / absence of equipment in the building or the type of equipment.
  • FIG. 12D is a diagram showing an example of travel point information of the information processing system 1 in the modified example 5.
  • the fourth storage unit 54 stores the safety requirement information database.
  • the safety requirement information includes a traveling task name, a target area type, a passage type, a required sensing range within a point, a required sensing range of a connecting passage, a required sensing range calculation input, and the like.
  • the area type, the required sensing range within the point, and the required sensing range of the connecting passage are safety requirements related to the sensing requirements.
  • FIG. 12E is a diagram showing an example of safety requirement information of the information processing system 1 in the modified example 5.
  • the target area type indicates the type of area in which the autonomous mobile robot 8 may collide with another object. Specifically, in the example of FIG. 12E, the target area type shows the inside of the point and the passage connecting to the point as the type of the above area.
  • the required sensing range inside the point is the required sensing range of the type area inside the point.
  • the required sensing range inside the point is set to the entire area in the example of FIG. 12E.
  • the required sensing range of the connecting passage is the required sensing range of the area of the type called the connecting passage.
  • the required sensing range of the connecting passage is set to the region from the connecting portion to the required sensing distance because the region far from the connection portion with the point has a low possibility of collision.
  • the required sensing range calculation input is information input for calculating the required sensing distance.
  • the required sensing range calculation input is the maximum speed, maximum acceleration, response time, etc. of the autonomous mobile robot 8.
  • the condition acquisition unit 55 acquires robot spec information from the second storage unit 52 and travel point information from the third storage unit 53. Further, the condition acquisition unit 55 acquires a travel task from the travel task acquisition unit 51 via the determination unit 56. Further, the condition acquisition unit 55 further acquires safety requirement information from the fourth storage unit 54.
  • the condition acquisition unit 55 calculates the execution condition of the running task.
  • the execution condition of the travel task is an execution condition of the travel task according to at least one of the autonomous mobile robot 8 and the travel point.
  • condition acquisition unit 55 calculates the sensing requirement based on the robot spec information, the traveling task, and the safety requirement information. Specifically, the condition acquisition unit 55 calculates the requirement sensing area based on the robot spec information, the traveling task, and the safety requirement information.
  • the required sensing area includes the robot name, the traveling task name, the target area ID, and the required sensing range for each area type.
  • the required sensing range is, for example, the required sensing distance in the entire area or the target area.
  • the entire area is set for the target area B0, and the required sensing distance of 3 m is set for each of the target areas B1, B2, and B3.
  • FIG. 12F is a diagram showing an example of the required sensing region of the information processing system 1 in the modified example 5.
  • the condition acquisition unit 55 searches the target area for sensing based on the robot spec information, the traveling task, and the safety requirement information. Specifically, the condition acquisition unit 55 determines an area and a passage connected to the area as a target area to be sensed for each traveling task based on the traveling point information specified from the safety requirement information.
  • the passages connected to the intersection area B0 are the passages B1, B2, and B3 as shown by the hatching of vertical lines.
  • the condition acquisition unit 55 refers to the target area type specified in the safety requirement information and searches for the area corresponding to the type.
  • the intersection area B0 and the passages B1, B2, and B3 correspond to the target areas, they are determined as the target areas, respectively.
  • a part of the passage which is the target area becomes the request sensing area R1.
  • FIG. 13 is a diagram showing an example of the required sensing region R1 and the required sensing distance.
  • the determination unit 56 acquires the first sensing data from the first sensing unit 21, acquires the second sensing data from the second sensing unit 41, and acquires the execution condition including the sensing requirement from the condition acquisition unit 55. Further, the determination unit 56 acquires a travel task from the travel task acquisition unit 51. For the processing of the determination unit 56 and the traveling task restriction unit 57, refer to the description of the above embodiment.
  • the configuration according to the embodiment of the present disclosure can be applied.
  • the information processing method and the information processing system according to the above-described embodiment and modification are realized by a program using a computer, and such a program may be stored in a storage device.
  • each processing unit included in the information processing method and the information processing system according to the above-described embodiment and modification is typically realized as an LSI which is an integrated circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include a part or all of them.
  • the integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and settings of the circuit cells inside the LSI may be used.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the division of the functional block in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Further, the functions of a plurality of functional blocks having similar functions may be processed by a single hardware or software in parallel or in a time division manner.
  • each step in the flowchart is executed is for the purpose of exemplifying the present disclosure in detail, and may be an order other than the above. Further, a part of the above steps may be executed at the same time (parallel) as other steps.
  • the present disclosure can be applied to an autonomous vehicle, a device for remotely controlling an autonomous vehicle, an autonomous mobile robot, or a system including these.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

情報処理方法は、コンピュータにより実行される情報処理方法であって、移動体において実行される走行に関するタスクと、移動体に搭載され、移動体の外部をセンシングする第1センサが出力する第1センシングデータと、移動体の走行に関するスペックと、を取得し、タスクとスペックとに基づいてセンシング要件を算出し、第1センサが出力した第1センシングデータに基づいて第1センシング結果を算出し、センシング要件及び第1センシング結果に基づいてタスクの実行を制限するか否かを判定し、タスクの実行を制限すると判定された場合、タスクの実行を制限する指示を移動体へ出力する。

Description

情報処理方法及び情報処理システム
 本開示は、情報処理方法及び情報処理システムに関する。
 例えば特許文献1には、移動体の移動速度に応じた制動距離と停止までにかかる時間である制動時間と移動体の走行経路とから特定されるマップであって、移動体と衝突する可能性がある範囲の障害物を示す障害物マップを、外部マップとして、周辺体から受信する運転支援装置が開示されている。
特許第6312944号公報
 しかし、特許文献1の発明では、移動体が走行に関するタスク(以下、走行タスク)を安全に実行できるとは限らない。例えば、移動体の走行に関するスペック(以下、走行スペック又は車両スペック)によっては、移動体は外部マップに基づいて走行タスクを実行しても安全に走行できないことがある。
 そこで、本開示は、様々な走行スペックの移動体に対して走行タスクの実行の安全を提供することができる情報処理方法及び情報処理システムを提供することを目的とする。
 本開示の一態様に係る情報処理方法は、コンピュータにより実行される情報処理方法であって、移動体において実行される走行に関するタスクと、前記移動体に搭載され、前記移動体の外部をセンシングする第1センサが出力する第1センシングデータと、前記移動体の走行に関するスペックと、を取得し、前記タスクと前記スペックとに基づいてセンシング要件を算出し、前記第1センサが出力した前記第1センシングデータに基づいて第1センシング結果を算出し、前記センシング要件及び前記第1センシング結果に基づいて前記タスクの実行を制限するか否かを判定し、前記タスクの実行を制限すると判定された場合、前記タスクの実行を制限する指示を前記移動体へ出力する。
 なお、これらのうちの一部の具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータで読み取り可能なCD-ROM等の記録媒体を用いて実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせを用いて実現されてもよい。
 本開示の情報処理方法等によれば、様々な走行スペックの移動体に対して走行タスクの実行の安全を提供することができる。
図1は、実施の形態における情報処理システムを示すブロック図である。 図2Aは、実施の形態における情報処理システムの走行タスクの例を示す図である。 図2Bは、実施の形態における情報処理システムの走行計画情報の例を示す図である。 図2Cは、実施の形態における情報処理システムの車両スペック情報の例を示す図である。 図2Dは、実施の形態における情報処理システムの走行地点情報の例を示す図である。 図2Eは、実施の形態における情報処理システムの安全要件情報の例を示す図である。 図2Fは、実施の形態における情報処理システムの要求センシング領域の例を示す図である。 図3は、実施の形態における情報処理システムの動作を示すフローチャートである。 図4Aは、実施の形態における情報処理システムの詳細な動作を示すフローチャートである。 図4Bは、実施の形態における情報処理システムの実センシング領域の例を示す図である。 図5は、要求センシング距離を算出する処理を示すフローチャートである。 図6は、要求センシング領域、要求センシング距離の例を示す図である。 図7は、対象領域レーンの探索の処理を示すフローチャートである。 図8Aは、実センシング領域を算出する処理を示すフローチャートである。 図8Bは、センサ毎に実センシング距離を算出する処理を示すフローチャートである。 図9は、第1センシング領域と第2センシング領域との関係の例を示す図である。 図10は、要求センシング領域と実センシング領域との関係の例を示す図である。 図11は、変形例における情報処理システムを示す模式図である。 図12Aは、変形例5における情報処理システムの走行タスクの例を示す図である。 図12Bは、変形例5における情報処理システムの走行計画情報の例を示す図である。 図12Cは、変形例5における情報処理システムのロボットスペック情報の例を示す図である。 図12Dは、変形例5における情報処理システムの走行地点情報の例を示す図である。 図12Eは、変形例5における情報処理システムの安全要件情報の例を示す図である。 図12Fは、変形例5における情報処理システムの要求センシング領域の例を示す図である。 図13は、要求センシング領域、要求センシング距離の例を示す図である。
 近年では、自動運転技術の発展に伴い、自動運転車による移動サービスの普及が予想される。例えば、自動運転車は、特定の走行シーン(特定のエリア、環境、時間帯など)で走行できるように最適化された状態に設計される。また、特定の走行シーンに最適化された自動運転車を異なる走行シーンで使用するケースが生じることが考えられる。しかし、自動運転車は、自身が走行シーンに適しているか否かを判断できるとは限らない。そのため、最適化されていない走行シーンで自動運転車が走行する場合、走行スペック及びセンサスペックの組合せが走行シーンに適していない、言い換えると走行性能に対してセンシング性能が不足することによって安全性を担保できなくなる可能性がある。例えば、特許文献1では、外部マップを用いた運転支援が提供されるが、走行スペックが走行シーンに適していない場合、外部マップを用いても移動体の走行の安全性を保障できるとは限らない。
 これに対し、本開示の一態様に係る情報処理方法は、コンピュータにより実行される情報処理方法であって、移動体において実行される走行に関するタスクと、前記移動体に搭載され、前記移動体の外部をセンシングする第1センサが出力する第1センシングデータと、前記移動体の走行に関するスペックと、を取得し、前記タスクと前記スペックとに基づいてセンシング要件を算出し、前記第1センサが出力した前記第1センシングデータに基づいて第1センシング結果を算出し、前記センシング要件及び前記第1センシング結果に基づいて前記タスクの実行を制限するか否かを判定し、前記タスクの実行を制限すると判定された場合、前記タスクの実行を制限する指示を前記移動体へ出力する。
 これによれば、移動体が走行する際に、移動体の走行スペックから要されるセンシング要件及びセンシング結果に依存して走行タスクの実行を制限できる。すなわち、走行スペック及びセンサスペックが走行シーンに適していない場合、走行タスクの実行を制限できる。したがって、様々な走行スペックの移動体に対して走行タスクの実行の安全を提供することができる。
 例えば、後述するように、移動体の走行スペック及びセンサスペックが走行シーンに適しておらず走行タスクの実行を完了できない又は走行タスクを実行できない、つまり移動体が走行できない場合には、当該走行タスクの実行を停止させる。これにより、当該走行タスクの実行による事故又はインシデントの発生を抑制することができる。また例えば、移動体の走行スペック及びセンサスペックが走行シーンに適しておらず走行タスクを安全に実行できない、つまり移動体が安全に走行できない場合には、当該走行タスクの実行の内容を変更させる。これにより、移動体は、走行の安全条件を完全に満たしていない移動体であっても、元の走行タスクの代わりに内容が制限された走行タスクを実行することにより、安全に走行を継続することができる。
 本開示の他の態様に係る情報処理システムは、移動体において実行される走行に関するタスクを取得する第1取得部と、前記移動体に搭載され、前記移動体の外部をセンシングする第1センサが出力する第1センシングデータを取得する第2取得部と、前記移動体の走行に関するスペックを取得する第3取得部と、前記タスクと前記スペックとに基づいてセンシング要件を算出する第1算出部と、前記第1センサが出力した前記第1センシングデータに基づいて第1センシング結果を算出する第2算出部と、前記センシング要件及び前記第1センシング結果に基づいて前記タスクの実行を制限するか否かを判定する判定部と、前記タスクの実行を制限すると判定された場合、前記タスクの実行を制限する指示を前記移動体へ出力する出力部とを備える。
 この情報処理システムにおいても、上述と同様の作用効果を奏する。
 本開示の他の態様に係る情報処理方法において、前記センシング要件は、センシングが要される領域である要求センシング領域を含み、前記第1センシング結果は、前記第1センシングデータに基づいて算出される第1センシング領域を含み、前記判定では、前記要求センシング領域及び前記第1センシング領域に基づいて前記タスクの実行を制限するか否かを判定する。
 移動先で事故又はインシデントの発生を避けるためには、移動先及びその周辺を移動体がセンシングできなければならない。例えば、移動先となる領域及び移動先に移動する物体が存在し得る領域を移動体がセンシングできなければならない。これに対し、本構成によれば、要求センシング領域と移動体のセンシング領域との比較結果にしたがって走行タスクの実行を制限できる。例えば、要求センシング領域を移動体がセンシングできていない場合、走行タスクの実行を制限できる。したがって、走行タスクの実行の安全を提供することができる。
 本開示の他の態様に係る情報処理方法は、前記判定では、前記要求センシング領域と前記第1センシング領域との重なりにしたがって判定する。
 要求センシング領域と第1センシング領域との重なりは、走行タスクの実行の安全性に影響する。そのため、当該重なりにしたがって走行タスクの実行を制限することにより、移動体に走行タスクを安全に実行させることができる。すなわち、移動体は、より安全に走行することができる。
 本開示の他の態様に係る情報処理方法は、前記判定では、前記要求センシング領域と前記第1センシング領域との重なり度合いにしたがって判定する。
 要求センシング領域と第1センシング領域との重なり度合いは、走行タスクの実行の安全性の度合いに関係する。そのため、当該重なりの度合いにしたがって走行タスクの実行を制限することにより、移動体に走行タスクを安全に実行させることができる。すなわち、移動体は、より安全に走行することができる。
 本開示の他の態様に係る情報処理方法は、前記判定では、前記要求センシング領域と前記第1センシング領域とが重ならない領域にしたがって判定する。
 要求センシング領域と第1センシング領域とが重なっていない領域があっても走行タスクの実行の安全性があまり低下しない場合がある。例えば、移動体の後方の領域、又は移動体の走行方向と反対方向の領域、等のように走行の安全性に関わる重要度の低い領域は、センシングが不十分な場合でも、安全上のリスクは低い。また、反対に、要求センシング領域と第1センシング領域とが重なっていない領域が走行タスクの実行の安全性を低下させる場合もある。例えば、移動体の近傍の領域、又は移動体の走行方向の領域、等のように走行の安全性に関わる重要度の高い領域は、センシングが不十分な場合、安全上のリスクが高まる。そのため、重なっていない領域に応じて(例えば当該領域の重要度に応じて)走行タスクの実行が制限されることにより、移動体を安全に走行させながら走行の効率を高めることができる。
 本開示の他の態様に係る情報処理方法において、前記制限は、前記タスクの実行の禁止である。
 これによれば、走行タスクを安全に実行できない場合、走行タスクの実行を停止することで、移動体の走行による事故又はインシデントの発生をより確実に抑制することができる。
 本開示の他の態様に係る情報処理方法において、前記制限は、前記タスクの実行内容の変更である。
 これによれば、移動体の走行タスクを停止させることなく安全に実行を継続させることができる。したがって、移動体の安全を確保しながら走行の効率を維持又は走行の効率の低下を抑制することができる。例えば、速度を低下させたり、右折する交差点を変更したり、停車する位置を変更したり、発進するタイミングを遅らせたりすることにより、走行タスクを安全に実行することができる。
 本開示の他の態様に係る情報処理方法において、前記タスクの変更の内容は、前記要求センシング領域と前記第1センシング領域との重なりに基づいて決定される。
 上述したように、要求センシング領域と第1センシング領域との重なりは、走行タスクの実行の安全性に影響する。そのため、当該重なりにしたがって走行タスクの内容が変更されることにより、安全性が高い内容に走行タスクを変更することができる。
 本開示の他の態様に係る情報処理方法は、さらに、前記移動体の移動経路に設置される第2センサが出力する第2センシングデータを取得し、前記第2センシングデータに基づいて第2センシング結果を算出し、前記判定では、さらに前記第2センシング結果にも基づいて判定する。
 第1センシングデータに加えて第2センシングデータもセンシングに利用することにより、移動体の第1センサのセンシング性能が低くても、センシング領域を広げることができる。要求センシング領域と重なるセンシング領域が広がることにより、走行タスクが安全に実行されやすくなる。すなわち、移動体が安全に走行できやすくなる。
 本開示の他の態様に係る情報処理方法は、さらに、前記タスクの実行を制限すると判定された場合、前記移動体を監視対象に追加する、又は、前記移動体の監視優先度を上げる。
 走行タスクの実行が制限されるような移動体は、他の移動体よりも事故又はインシデントを発生させる可能性が高い。そのため、走行タスクの実行が制限される移動体を、例えば監視対象としたり、又は、監視優先度の高くしたりすることにより、事故又はインシデントの発生を抑制することができる。また、万が一、事故又はインシデントが発生したとしても、監視者による迅速な対応が可能となる。
 本開示の他の態様に係る情報処理方法は、さらに、前記タスクの実行を制限すると判定された場合、前記タスクの実行が制限されることを前記移動体の管理者又は乗客に通知する。
 これによれば、管理者又は乗客は、移動体の走行タスクの実行が制限されたことを把握することができる。例えば、管理者が監視者である場合は、事故又はインシデントが発生する可能性が他の移動体よりも高い移動体を監視者が見落とすことを抑制することができる。また、当該移動体を優先的に監視すればよいため、監視者による移動体の監視負担を軽減することができる。また、乗車している移動体の挙動に対する乗客の不安を軽減することができる。
 本開示の他の態様に係る情報処理方法は、前記センシング要件は、センシングが要される対象である要求センシング対象を含み、前記第1センシング結果は、前記第1センシングデータに基づいて算出される第1センシング対象を含み、前記判定では、前記要求センシング対象及び前記第1センシング対象に基づいて前記タスクの実行を制限するか否かを判定する。
 移動先で事故又はインシデントの発生を避けるためには、事故又はインシデントの原因となり得る対象を移動体がセンシングできなければならない。例えば、移動先にある障害物、又は移動先の路面の状態、等を移動体がセンシングできなければならない。これに対し、本構成によれば、要求センシング対象と移動体によりセンシングされた対象との比較結果にしたがって走行タスクの実行を制限できる。したがって、走行タスクの実行の安全を提供することができる。
 本開示の他の態様に係る情報処理方法は、前記判定では、前記要求センシング対象と前記第1センシング対象との十分度又は一致度にしたがって判定する。
 要求センシング対象と第1センシング対象との一致度、すなわちセンシングすべき対象がセンシングされているか否か及びそのセンシングの精度又は正確度は、走行タスクの実行の安全性に影響する。そのため、センシング対象の一致度にしたがって走行タスクの実行を制限することにより、移動体に走行タスクを安全に実行させることができる。例えば、要求センシング対象を移動体がセンシングできていない場合、走行タスクの実行を制限できる。
 本開示の他の態様に係る情報処理方法において、前記センシング要件は、センシングが要される対象である要求センシング性能を含み、前記第1センシング結果は、前記第1センシングデータに基づいて算出される第1センシング性能を含み、前記判定では、前記要求センシング性能及び前記第1センシング性能に基づいて前記タスクの実行を制限するか否かを判定する。
 移動先で事故又はインシデントの発生を避けるためには、移動体のセンシング性能が十分でなければならない。例えば、センシングの精度、正確度、解像度、又は処理周期、等が十分でなければならない。これに対し、本構成によれば、要求センシング性能と移動体のセンシング性能との比較結果にしたがって走行タスクの実行を制限できる。したがって、走行タスクの実行の安全を提供することができる。
 本開示の他の態様に係る情報処理方法において、前記判定では、前記要求センシング性能を前記第1センシング性能が上回るか否かにしたがって判定する。
 このように、センシング性能の優劣にしたがって走行タスクの実行を制限することにより、移動体に走行タスクを安全に実行させることができる。例えば、要求センシング性能を移動体のセンシング性能が下回る場合、走行タスクの実行を制限できる。
 以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
 以下、本開示の一態様に係る情報処理方法及び情報処理システムについて、図面を参照しながら具体的に説明する。
 (実施の形態)
 <構成:情報処理システム1>
 図1は、実施の形態における情報処理システム1を示すブロック図である。
 図1に示すように、情報処理システム1は、自動運転装置2と、運行管制装置3と、インフラストラクチャ装置4と、判定装置5とを備える。なお、自動運転装置2のみが移動体に備えられてもよく、自動運転装置2及び運行管制装置3が移動体に備えられてもよい。
 [自動運転装置2]
 自動運転装置2は、移動体に搭載され、移動体の周辺をセンシングし、センシング結果に基づいて移動体の走行を制御する。移動体は、車両、航空機、又は船舶等である。本実施の形態では、以下、移動体として自動運転車6を想定して説明する。
 自動運転装置2は、第1センシング部21と、走行判定部22とを有する。
 第1センシング部21は、第1センサとして、第1センシングデータを判定装置5に出力する。
 第1センシング部21は、例えば、Lidar(Laser Imaging Detection and Ranging)、又は撮像装置等のセンサ又はセンサモジュールであり、自動運転車6の外部をセンシングする。第1センシング部21は、センシングした結果である第1センシングデータを生成する。第1センシングデータは、例えば点群情報又は画像である。
 走行判定部22は、走行タスク生成部31が生成した自動運転車6において実行される走行に関するタスク(以下走行タスクということがある)と、走行タスク制限部57が出力した走行タスク許可とを取得する。走行判定部22は、取得した走行タスクと走行タスク許可とに基づいて、走行タスクを実行するか否かを判定したり、当該判定した走行タスクを実行したりする。走行判定部22は、走行タスクを実行する場合、走行タスクに応じた走行指示を自動運転車6に出力する。
 [運行管制装置3]
 運行管制装置3は、走行タスク生成部31と、第1記憶部32と、走行計画変更部33とを有する。
 走行タスク生成部31は、第1記憶部32から取得した走行計画情報に基づいて、走行タスクを生成する。ここで、走行タスクとは、アクチュエータを制御する下位の走行制御よりも抽象的な上位の走行制御である。具体的には、下位の走行制御は、速度、加速度、減速度、又は操舵角等の制御であり、上位の走行制御は、直進、右折、左折、障害物の回避、駐車、車線変更、合流、発進、又は停止等の自動運転車6の制御である。例えば、走行タスクは、図2Aに示すように、走行タスク名、走行タスク種類、及び地点名を含む。図2Aは、実施の形態における情報処理システム1の走行タスクの例を示す図である。
 走行計画情報は、図2Bに示すように、ルート及び当該ルート上の走行タスクが実行される地点を含む。地点は、出発地、目的地、右折地点、左折地点、停止地点等である。図2Bは、実施の形態における情報処理システム1の走行計画情報の例を示す図である。
 走行タスク生成部31は、生成した走行タスクを判定装置5に出力する。
 第1記憶部32は、自動運転車6の走行計画を示す走行計画情報データベースを格納する。第1記憶部32は、走行タスク生成部31の要求に応じて、走行計画情報を出力する。また、第1記憶部32は、走行計画変更部33が走行計画情報を変更した場合、変更後の走行計画情報に更新する。
 走行計画変更部33は、走行タスクの実行を制限する指示(以下、制限事項)に基づいて、走行計画情報を変更する必要が生じた場合に、第1記憶部32に格納される走行計画情報を変更して更新する。また、走行計画変更部33は、走行タスク制限部57が出力した走行タスク許可を取得した場合も、第1記憶部32に格納される走行計画情報が許可されたことを更新してもよい。なお、走行計画情報の変更は、ユーザが手動で所望の計画に変更してもよい。ここで、制限事項は、走行タスクの実行の禁止、又は、走行タスクの実行内容の変更である。例えば、走行タスクの実行の禁止は、走行の禁止、右折若しくは左折の禁止、又は停車の禁止等である。また例えば、走行タスクの実行内容の変更は、速度若しくは加速度の変更、又は走行レーンの変更等である。
 具体的には、走行計画変更部33は、走行タスクが右折であっても、取得した制限事項が右折禁止である場合、当該走行タスクを削除し新たな走行タスクを追加する等して走行計画を変更する。
 [インフラストラクチャ装置4]
 インフラストラクチャ装置4は、道路、又は信号機等のインフラストラクチャに設定される。インフラストラクチャ装置4は、第2センシング部41を有する。
 第2センシング部41は、自動運転車6の移動経路に設置されるセンサであり、自機の周辺をセンシングし、第2センシングデータを生成する。第2センシング部41は、生成した第2センシングデータを判定装置5に出力する。第2センシング部41は、第2センサの一例であってもよい。
 [判定装置5]
 判定装置5は、走行タスク取得部51と、第2記憶部52と、第3記憶部53と、第4記憶部54と、条件取得部55と、判定部56と、走行タスク制限部57とを有する。
 走行タスク取得部51は、運行管制装置3の走行タスク生成部31が出力した走行タスクを取得する。走行タスク取得部51は、取得した走行タスクを判定部56に出力する。走行タスク取得部51は、第1取得部の一例である。
 第2記憶部52は、自動運転車6の車両スペックを示す車両スペック情報のデータベース(以下、車両スペック情報データベース)を格納する。第2記憶部52は、条件取得部55の要求に応じて、車両スペック情報を出力する。車両スペックは、自動運転車6の走行に関するスペックである。具体的には、車両スペック情報は、図2Cに示すように、車両名、最大加速度、最大減速度、最大速度、車両応答時間等を含む。車両応答時間は、自動運転車6に指示を与えてから実際に指示に対応する動作を実行又は動作を完了するまでの時間である。例えば、車両応答時間は、自動運転車6に停止指示を与えた場合に、自動運転車6がブレーキをかけるまでにかかる時間である。また、車両スペックには、自動運転車6の大きさ、重量、最小旋回半径、車両応答速度、障害物検知性能、自己位置推定精度、経路追従精度、搭載されるセンサの種類、センサが検知可能な物体等が含まれていてもよい。図2Cは、実施の形態における情報処理システム1の車両スペック情報の例を示す図である。
 第3記憶部53は、地図で表現される走行地点の各種情報を示す走行地点情報のデータベース(以下、走行地点情報データベース)を格納する。第3記憶部53は、条件取得部55の要求に応じて、走行地点情報を出力する。走行地点情報は、走行路の地図情報及び交通環境情報である。具体的には、走行地点情報は、図2Dに示すように、地点名、地点名に割り当てられた地点番号、道路の種類といった地図情報、及び信号機の有無、左折経路長、右折経路長、直進経路長、制限速度、想定他車最大速度、進入レーンといった交通環境情報を含む。図2Dは、実施の形態における情報処理システム1の走行地点情報の例を示す図である。
 第4記憶部54は、走行タスクに対する安全要件を示す安全要件情報のデータベース(以下、安全要件情報データベース)を格納する。第4記憶部54は、条件取得部55の要求に応じて、安全要件情報を出力する。安全要件情報は、走行タスクに対して、自動運転車6が安全に走行するために、事業者等が予め設定した要件である。言い換えると、安全要件情報は、走行タスクの実行条件に関わる。具体的には、安全要件情報は、図2Eに示すように、走行タスク名、対象領域種別、道路の種類、交差点内部の要求センシング範囲、進入レーンの要求センシング範囲、要求センシング範囲算出インプット等を含み、このうち対象領域種別、交差点内部要求センシング範囲、進入レーン要求センシング範囲がセンシング要件に関わる安全要件である。図2Eは、実施の形態における情報処理システム1の安全要件情報の例を示す図である。なお、安全要件情報は、上記のセンシング要件に関わる情報以外の情報を含んでもよい。例えば、安全要件情報は、障害物、死角領域、天候、路面の状態、及び照度等の走行環境に関する安全要件を含む。走行環境に関する安全要件は、走行環境要件の算出に用いられる。
 対象領域種別は、自動運転車6が他の物体と衝突する可能性がある領域の種別を示す。具体的には、対象領域種別は、図2Eの例では、交差点内部と、自動運転車6が存在するレーン以外の進入レーンと、を上記領域の種別として示している。
 交差点内部の要求センシング範囲は、交差点内部という種別の領域の要求センシング範囲である。例えば、交差点内部はどの部分でも自動運転車6が他の移動体と衝突する可能性があるため、交差点内部の要求センシング範囲は、全域と設定されている。
 進入レーンの要求センシング範囲は、進入レーンという種別の領域の要求センシング範囲である。例えば、進入レーンから遠く離れた領域は衝突の可能性が低いため、進入レーンの要求センシング範囲は、交差点から要求センシング距離までの領域と設定されている。
 なお、要求センシング範囲算出インプットは、上記要求センシング距離を算出するために入力される情報である。そのため、対象領域の要求センシング範囲に付随する情報といってもよい。要求センシング範囲算出インプットは、例えば自動運転車6の最大速度、制限速度、最大加速度、車両応答時間、右折経路長、想定他車最大速度等である。
 条件取得部55は、第2記憶部52から車両スペック情報と、第3記憶部53から走行地点情報とを取得する。また、条件取得部55は、判定部56を介して走行タスク取得部51から走行タスクを取得する。条件取得部55は、第1算出部の一例であり、第3取得部の一例でもある。また、条件取得部55は、さらに第4記憶部54から安全要件情報を取得する。
 条件取得部55は、走行タスクの実行条件を算出する。走行タスクの実行条件は、言い換えると、走行タスクの正常な実行判断が可能か否か、すなわち走行タスクを実行するためのセンシングが十分であるか否か、を判定するための条件である。走行タスクの実行条件は、自動運転車6及び走行地点の少なくとも一方に応じた走行タスクの実行条件である。例えば、走行タスクの実行条件は、自動運転車6の直進、右折、左折、障害物の回避、駐車、車線変更、合流、発進、停止等の走行タスクが実行可能か否かを判定するための条件である。そのため、実行条件は、センシング要件を1つの要素として含む。また、実行条件は、走行環境要件を他の要素として含む。走行環境要件の要素としては、障害物、死角領域、天候、路面の状態、及び照度等がある。実行条件は、安全要件情報に基づいて算出される。
 条件取得部55は、車両スペック情報と判定部56を介して取得した走行タスクとに基づいて、センシング要件を算出して取得する。具体的には、条件取得部55は、車両スペック情報及び走行タスクに基づいてセンシングが要される領域である要求センシング領域を算出する。つまり、条件取得部55は、走行タスクに示される地点と一致する走行地点情報と車両スペック情報とに基づいて、その車両スペックの自動運転車6がその走行タスクの実行に必要な要求センシング領域を算出して取得する。より具体的には、条件取得部55は、車両スペック情報と走行タスクと安全要件情報とに基づいて要求センシング領域を算出する。例えば、条件取得部55は、走行タスクから、該当する走行地点の走行地点情報、及び安全要件情報を取得する。条件取得部55は、取得した安全要件情報から対象領域種別、対象領域種別毎の要求センシング範囲、及び要求センシング範囲算出インプットを取得する。条件取得部55は、取得した要求センシング範囲算出インプットに示される情報を、車両スペック情報及び走行地点情報から取得する。条件取得部55は、取得した情報を用いて地点内の対象領域毎に要求センシング範囲を算出する。このようにして算出された対象領域のセンシング範囲が要求センシング領域である。
 要求センシング領域は、図2Fに示すように、車両名、走行タスク名、対象領域ID、領域種別毎の要求センシング範囲を含む。要求センシング範囲は、例えば、全域、又は対象領域における要求センシング距離である。図2Fの例では、対象領域A0については全域、対象領域A1、A3、A7についてはそれぞれ要求センシング距離43mが設定されている。図2Fは、実施の形態における情報処理システム1の要求センシング領域の例を示す図である。
 条件取得部55は、主に自動運転車6が走行する前に、要求センシング領域を含めて実行条件を取得するが、自動運転車6の走行中に、実行条件を取得してもよい。
 条件取得部55は、取得した実行条件を判定部56に出力する。
 判定部56は、第1センシング部21から第1センシングデータを取得し、第2センシング部41から第2センシングデータを取得し、条件取得部55からセンシング要件を含む実行条件を取得する。また、判定部56は、走行タスク取得部51から走行タスクを取得する。
 判定部56は、第1センシングデータに基づいて第1センシング結果を算出する。第1センシング結果は、第1センシング部21がセンシングした領域を示す第1センシング領域である。また、判定部56は、第2センシングデータに基づいて第2センシング結果を算出する。第2センシング結果は、第2センシング部41がセンシングした領域を示す第2センシング領域である。なお、第1センシング結果及び第2センシング結果には、その他の情報が含まれてもよい。例えば、障害物の有無、障害物の種類、障害物の位置、障害物の大きさ、障害物による死角領域、天候、路面の状態、及び照度等が含まれてもよい。第1センシング領域及び第2センシング領域は実センシング領域である。
 判定部56は、第1センシング結果及びセンシング要件に基づいて走行タスクの実行を制限するか否かを判定する。具体的には、判定部56は、第1センシング領域と実行条件の要求センシング領域とに基づいて、自動運転車6による走行タスクの実行を制限するか否かを判定する。つまり、判定部56は、自動運転車6が走行タスクを実行してよいか否かを正常に判断できるか否かを判定する。走行タスクの実行を正常に判断ができることは、第1センシング結果が十分であること、すなわち第1センシング結果がセンシング要件を満たすこと、を意味する。例えば、判定部56は、要求センシング領域と第1センシング領域との重なりにしたがって走行タスクの実行を制限するか否かを判定する。具体的には、判定部56は、要求センシング領域と第1センシング領域との重なり度合いにしたがって判定する。例えば、要求センシング領域の全部又は所定の割合以上の部分が第1センシング領域と重なっている場合、判定部56は、走行タスクの実行を制限しない。反対に、第1センシング領域と重なっている要求センシング領域の部分がない又は所定の割合よりも少ない場合、判定部56は、走行タスクの実行を制限する。
 さらに、判定部56は、第2センシング領域にも基づいて、走行タスクの実行を制限するか否かを判定する。例えば、判定部56は、第1センシング領域と第2センシング領域とを合わせた合成センシング領域と要求センシング領域との重なりにしたがって走行タスクの実行を制限するか否かを判定する。
 なお、判定部56は、要求センシング領域と第1センシング領域とが重ならない領域にしたがって判定してもよい。具体的には、判定部56は、要求センシング領域のうち第1センシング領域と重なっていない部分が自動運転車6の走行安全に影響を及ぼす領域であるかを判定する。安全に影響を及ぼす領域は、例えば、自動運転車6に近い領域、自動運転車6の進行方向の領域、走行予定の経路上の領域、歩道、信号機が位置する領域等である。走行安全に影響を及ぼす領域が当該重なっていない部分である場合、判定部56は、走行タスクの実行を制限する。
 また、判定部56は、実行条件の他の要件に基づいて走行タスクの実行を制限するか否かを判定する。具体的には、判定部56は、走行環境要件と第1センシングデータとに基づいて走行タスクの実行を制限するか否かを判定する。例えば、ルート上に霧が発生した場合、又は当該ルート上の路面が凍結している場合に、判定部56は、走行タスクの実行を制限すると判定する。また、ルート上の所定地点において、歩行者数が閾値以上存在する場合、又は事故が発生した場合に、判定部56は、走行タスクの実行を制限すると判定する。また、動物がルート内に進入した場合に、判定部56は、走行タスクの実行を制限すると判定する。また、自動運転車6を監視するための監視者端末と自動運転車6との通信状態が悪い場合、判定部56は、走行タスクの実行を制限すると判定する。
 判定部56は、判定結果を走行タスク制限部57に出力する。
 走行タスク制限部57は、判定部56から判定結果を取得すると、判定結果に応じて走行タスクの実行を制限する。具体的には、判定部56によるセンシング要件についての判定結果にしたがって、走行タスク制限部57は、走行タスクの実行を制限する指示である制限事項を生成する。詳細には、走行タスク制限部57は、制限事項として、走行タスクの実行の禁止を、判定部56による要求センシング領域についての判定結果にしたがって生成する。例えば、走行タスクが右折である場合に、要求センシング領域のうちの右折方向に対応する部分が第1センシング領域と重なっていなければ、判定部56によって走行タスクの実行を制限すると判定される。このため、走行タスク制限部57は、右折禁止を示す制限事項を生成する。また、走行タスク制限部57は、制限事項として、走行タスクの変更の内容を、判定部56による要求センシング領域についての判定結果にしたがって決定する。詳細には、走行タスク制限部57は、第1センシング領域と要求センシング領域との重なり(例えば、重なりの有無、又は重なり度合い等)に基づいて走行タスクの変更内容を決定する。例えば、走行タスクが直進である場合に、要求センシング領域のうちの進行方向に対応する部分と第1センシング領域との重なりが所定の割合を下回るときは、判定部56によって走行タスクの実行を制限すると判定される。このため、走行タスク制限部57は、重なる領域が所定の割合以上となるような速度(言い換えると制限速度)を示す制限事項を生成する。
 また、走行タスク制限部57は、判定部56による他の要件についての判定結果にしたがって制限事項を生成する。具体的には、走行タスク制限部57は、走行環境要件についての判定結果にしたがって制限事項を生成する。例えば、ルート上に霧が発生した場合、又は当該ルート上の路面が凍結している場合に、走行タスク制限部57は、走行速度を低下させる制限事項として生成する。また、ルート上の所定地点において、歩行者数が閾値以上存在する場合、又は事故が発生した場合に、走行タスク制限部57は、当該所定地点への侵入を禁止する制限事項を生成する。また、動物がルート内に進入した場合に、走行タスク制限部57は、当該ルートを禁止及びルートを変更させる制限事項を生成する。また、自動運転車6を監視するための監視者端末と自動運転車6との通信状態が悪い場合、又は緊急車両が接近する場合に、走行タスク制限部57は、走行を停止させる制限事項を生成する。
 なお、走行タスクの制限事項は、管理者の操作に基づいて生成されてもよい。例えば、管理者が制限事項を選択し、走行タスク制限部57は、選択結果に基づいて制限事項を生成する。走行タスク制限部57は、出力部の一例である。管理者は、情報処理システム1又はその一部の装置の管理者、自動運転車6の所有者、自動運転車6の監視者等である。
 走行タスク制限部57は、生成した制限事項を走行判定部22及び走行計画変更部33に出力する。また、走行タスク制限部57は、制限すると判定されなかった走行タスクの実行の許可を示す走行タスク許可を走行判定部22に出力する。なお、走行タスク制限部57は、走行タスク許可を走行計画変更部33に出力してもよい。
 <動作>
 以上のように構成される情報処理システム1の処理について説明する。
 図3は、実施の形態における情報処理システム1の処理を示すフローチャートである。図3では、情報処理システム1の処理の全体の概要について説明する。
 図3に示すように、条件取得部55は、自動運転車6が走行する前に、車両スペック情報と走行地点情報とに基づいて、自動運転車6に応じた走行地点ごとの走行タスクの実行条件を算出して取得する(S11)。ステップS11の処理は、自動運転車6の走行前に実行されてもよい。
 次に、走行タスク取得部51は、走行タスク生成部31が出力した走行タスクを取得する(S12)。
 次に、判定部56は、第1センシング部21から第1センシングデータ、第2センシング部41から第2センシングデータ、条件取得部55から実行条件、及び、走行タスク取得部51から走行タスクを取得する。判定部56は、取得した情報に基づいて、自動運転車6が走行タスクの実行を正常に判断することができるか否かを判定する(S13)。すなわち、判定部56は、取得した情報に基づいて、走行タスクの実行を制限するか否かを判定する。
 次に、判定部56は、走行タスクの実行を制限しないと判定すると(S13でYES)、走行タスク許可を走行判定部22に出力する(S17)。走行判定部22は、走行タスク許可を取得すると、走行タスク許可が示す走行タスクを実行する。これにより、自動運転車6は、走行タスクに応じた走行制御がなされる。
 次に、走行判定部22は、走行を終了するか否かを判定する(S18)。つまり、走行判定部22は、目的地に到着したか否かを判定する。
 走行判定部22は、走行を終了すると判定した(S18でYES)、自動運転車6の走行を終了させる。また、情報処理システム1は、処理を終了する。
 また、走行判定部22は、走行を終了しないと判定した場合(S18でNO)、ステップS12に処理が戻る。
 また、判定部56は、走行タスクの実行を制限すると判定すると(S13でNO)、走行タスク制限部57は、走行タスクの実行を制限すると判定された走行タスクに対して制限事項を生成し、制限事項を走行計画変更部33と走行判定部22とに出力する(S14)。
 走行計画変更部33は、制限事項に基づいて、第1記憶部32に格納される走行タスクの走行計画情報を変更する(S15)。つまり、走行計画変更部33は、制限事項についての走行地点を走行計画から削除又は変更することで走行計画を変更する。
 次に、走行判定部22は、制限事項に基づいて、走行を継続可能であるか否かを判定する(S16)。具体的には、走行判定部22は、制限事項に基づいて走行タスクの実行を中止又は実行内容を変更する。走行判定部22は、走行タスクの実行の中止又は実行内容の変更後に、自動運転車6の走行が継続可能である否かを判定する。
 走行判定部22は、走行を継続不可能であれば(S16でNO)、自動運転車6の走行を終了させる。また、情報処理システム1は、処理を終了する。
 走行判定部22は、走行を継続可能であれば(S16でYES)、ステップS13に処理が戻る。このように、走行判定部22は、自動運転車6が目的地に到着するまで、複数の走行タスクを取得することで、自動運転車6を走行させる。
 次に、情報処理システム1の判定装置5の詳細な処理について説明する。
 図4Aは、実施の形態における判定装置5の詳細な処理を示すフローチャートである。図4Aでは、自動運転車6の走行開始後に処理が実行されることが想定される。
 処理の開始前に、条件取得部55は、要求センシング領域を算出して取得する。具体的には条件取得部55は、車両スペック情報と判定部56を介して取得した走行タスクとに基づいて、要求センシング領域を算出して取得する。要求センシング領域の算出処理の詳細については、後述する。
 図4Aに示すように、走行タスク取得部51は、運行管制装置3から走行タスクを取得すると、判定部56に出力する。これにより、判定部56は、走行タスクを取得する(S21)。
 次に、判定部56は、自動運転装置2から第1センシングデータを取得する(S22)。
 次に、判定部56は、インフラストラクチャ装置4から第2センシングデータを取得する(S23)。
 次に、判定部56は、第1センシングデータと第2センシングデータとに基づいて、実センシング領域を算出して取得する(S24)。実センシング領域は、図4Bに示すように、センシング装置名、及び対象領域毎の実センシング範囲を含む。実センシング範囲は、全域又は実センシング距離で示される。例えば、図4Bでは、対象領域A0の実センシング範囲は全域、対象領域A1~A8の実センシング範囲はそれぞれ実センシング距離の数値である。図4Bは、実施の形態における情報処理システム1の実センシング領域の例を示す図である。実センシング領域は、第1センシング領域及び第2センシング領域に基づいて規定される領域であり、例えば第1センシング領域及び第2センシング領域を合わせた領域(言い換えると、合成センシング領域)である。実センシング距離は、第1センシング部21(すなわち自動運転車6)又は第2センシング部41(すなわちインフラストラクチャ装置4)が実際にセンシングした距離である。
 図4Aに戻って、次に、判定部56は、合成センシング領域が十分であるかどうかを判定する(S25)。具体的には、判定部56は、第1センシング領域又は第2センシング領域と要求センシング領域とに基づいて、走行タスクの実行を制限するか否かを判定する。
 判定部56は、合成センシング領域が十分であると判定した場合(S25でYES)、走行タスク許可を走行判定部22に出力する(S31)。
 次に、判定装置5は、自動運転車6の走行が終了したかを判定する(S32)。具体的には、判定装置5は、走行判定部22が、自動運転車6の走行を終了させたか否かを判定する。
 判定装置5は、自動運転車6の走行が終了したと判定した場合(S32でYES)、処理を終了する。また、判定装置5は、自動運転車6の走行が終了していないと判定した場合(S32でNO)、ステップS21に処理を戻す。
 判定部56は、合成センシング領域が十分でないと判定した場合(S25でNO)、インフラストラクチャ装置4(すなわち第2センシング部41)を調整することで解決可能か否かを判定する(S26)。具体的には、インフラストラクチャ装置4の設置位置、第2センシング部41のセンシング範囲、又は精度等を調節することで、判定部56は、合成センシング領域が十分になるか否かを判定する。なお、解決手段は、センサの追加、又はインフラストラクチャの変更等であってもよい。また、解決手段は、調整可能な項目が予め設定されてもよく、選択された解決手段が管理者に通知されてもよい。
 次に、判定部56は、インフラストラクチャ装置4を調整することで解決可能であると判定した場合(S26でYES)、インフラストラクチャ装置4を調整し(S33)、ステップS23に処理が戻る。なお、ステップS26及びS33の処理は必須の処理ではないため省略してもよい。
 また、判定部56は、インフラストラクチャ装置4を調整しても解決可能でないと判定した場合(S25でNO)、走行タスク制限部57は、合成センシング領域が十分でないと判定された走行タスクについて制限事項を生成することで、走行タスクの実行を制限する(S27)。
 走行タスク制限部57は、生成した制限事項を、走行計画変更部33に出力することで、走行計画情報(取得した走行タスクを含む)を走行計画変更部33に変更させる(S28)。走行計画変更部33は、制限事項に基づいて、第1記憶部32に格納される走行計画情報を変更する。
 次に、走行タスク制限部57は、変更後の走行計画情報に基づいて自動運転車6が走行を継続可能であるか否かを判定する(S29)。走行タスク制限部57は、走行判定部22による、走行計画情報と共に変更された走行タスクに基づく走行を継続可能であるか否かの判定結果を取得する。
 走行タスク制限部57は、走行を継続不可能であると判定した場合(S29でNO)、走行判定部22に自動運転車6の走行を終了させる指示を出力する(S30)。自動運転車6は、走行を終了する。そして、判定装置5は処理を終了する。
 走行を継続可能であると判定された場合(S29でYES)、ステップS25に処理が戻る。
 以下、要求センシング領域の算出するための処理について説明する。
 要求センシング領域を算出するために、まずは要求センシング距離の算出について説明する。要求センシング距離は、例えば、自動運転車6が交差点に侵入する場合に、交差点領域からの所定距離である。当該所定距離は、当該交差点に進入する移動体をセンシングするための距離である。
 図5は、要求センシング距離を算出する処理を示すフローチャートである。
 図5で示すように、条件取得部55は、第4記憶部54から安全要件情報を取得する(S41)。例えば、安全要件情報の走行環境要件として交差点内に他の移動体が侵入しないことが設定されている場合、自動運転車6が交差点に安全に進入できるようになる。また、安全要件情報のセンシング要件として交差点内及び周辺の他の移動体をセンシングできることが設定されている場合、自動運転車6が他の移動体を見落とす可能性を低下させる、すなわち事故又はインシデントの発生を抑制することができる。
 次に、条件取得部55は、第3記憶部53から走行地点情報を取得する。条件取得部55は、取得した走行地点情報からセンシングの対象領域を探索する(S42)。具体的には、条件取得部55は、走行地点情報から、走行タスクごとにセンシングすべき対象領域として道路のレーン及び領域を決定する。
 例えば、図6で示すように、信号機の無い交差点領域A0に自動運転車6がレーンA5から侵入する場合、縦線のハッチングで示すように、他の移動体が交差点領域A0に進入するレーンは、レーンA1、A3、A7である。条件取得部55は、安全要件情報にて指定される対象領域種別を参照し、種別に該当する領域を探索する。図6では、交差点領域A0、レーンA1、A3、A7が対象領域として該当するため、それぞれ対象領域に決定される。対象領域レーンの一部が、要求センシング領域R1となる。詳細は後述する。図6は、要求センシング領域R1、要求センシング距離の例を示す図である。
 次に、条件取得部55は、要求センシング距離を算出する(S43)。具体的には、条件取得部55は、要求センシング距離算出インプット(自動運転車6の最大速度、制限速度、交差点への進入速度、最大加速度、車両応答時間、右折経路長、想定他車最大速度等)に基づいて、走行タスクごとに要求センシング距離を算出する。
 より具体的には、条件取得部55は、自動運転車6の最大速度vmax、交差点への進入速度vmin及び最大加速度amaxを式(1)に代入し、自動運転車6が最大速度まで加速するために必要な時間tmax velocityを算出する。例えば、自動運転車6が発車する場合、vminは0に設定される。
Figure JPOXMLDOC01-appb-M000001
 また、条件取得部55は、自動運転車6の最大速度vmax、交差点への進入速度vmin及び時間tmax velocityを式(2)に代入し、自動運転車6が最大速度まで加速するために必要な距離lmaxを算出する。
Figure JPOXMLDOC01-appb-M000002
 また、条件取得部55は、自動運転車6の最大速度vmax、最大加速度amax、車両応答時間tresponse、右折経路長ltask、時間tmax velocity及び距離lmax velocityを式(3)に代入し、自動運転車6が走行タスク完了までにかかる時間ttaskを算出する。
Figure JPOXMLDOC01-appb-M000003
 また、条件取得部55は、時間ttask及び想定他車最大速度votherを式(4)に代入し、自動運転車6が走行タスク完了までに他の移動体が移動する最大距離lmove other vehicleを算出する。
Figure JPOXMLDOC01-appb-M000004
 条件取得部55は、算出した距離lmove other vehicleを要求センシング距離として設定する。
 このように、情報処理システム1では、要求センシング距離を算出することができる。例えば、図6において、自動運転車6が交差点領域A0で右折する場合、レーンA1、A3、A7について、交差点領域A0からの要求センシング距離をそれぞれ算出する。これにより、自動運転車6が右折を完了するまでに他の移動体が侵入しないことを検知することをセンシング要件(言い換えると安全要件)に設定できる。
 ここで、図5のステップS42の対象領域の探索のうちの対象領域レーンの探索の処理について、図7を参照して説明する。
 図7は、対象領域レーンの探索の処理を示すフローチャートである。
 図6及び図7に示すように、条件取得部55は、自動運転車6が侵入しようとする交差点領域A0への進入レーンA1、A3、A5、A7のうち、自動運転車6以外の他の移動体が進入するレーンとしてレーンA1、A3、A7を決定する(S51)。
 次に、条件取得部55は、交差点領域A0に信号機が存在するかどうかを判定する(S52)。
 条件取得部55は、交差点領域A0に信号機が存在しない場合(S52でNO)、自動運転車6が存在しているレーンA5以外の全進入レーンA1、A3、A7を対象領域レーンとして決定する(S53)。
 条件取得部55は、交差点領域A0に信号機が存在する場合(S52でYES)、自動運転車6にとっての対向車の進入レーンA1を対象領域レーンとして決定する(S54)。
 続いて、情報処理システム1の実センシング領域の算出について説明する。
 図8Aは、実センシング領域を算出する処理を示すフローチャートである。
 まず、図8Aに示すように、判定部56は、センサ(第1センシング部21及び第2センシング部41)毎に、実センシング領域を算出する(S61)。センサ毎の実センシング領域の算出については、図8Bを用いて説明する。図8Bは、センサ毎に実センシング領域を算出する処理を示すフローチャートである。
 ここでは、センサが第1センシング部21の例を説明する。図8Bに示すように、判定部56は、第1センシング部21の最大センシング距離を取得する(S61a)。例えば、判定部56は、第2記憶部52に格納される車両スペック情報から第1センシング部21の最大センシング距離を取得する。
 次に、判定部56は、第1センシングデータに基づいて第1センシング部21(すなわち自動運転車6)から各方位の物体までの距離を算出する(S61b)。
 判定部56は、最大センシング距離と各方位の物体までの距離の内、小さい値を各方位の実センシング距離に設定する(S61c)。例えば、図9では、レーンA5に存在する自動運転車6から障害物7までの距離は、最大センシング距離よりも短い。このため、判定部56は、自動運転車6から障害物7までの距離を実センシング距離として設定する。障害物7の自動運転車6側と反対側は自動運転車6の死角となる。図9は、第1センシング領域K1と第2センシング領域K2との関係の例を示す図である。
 図8AのフローチャートのステップS62の説明に戻る。
 次に、判定部56は、実センシング領域である第1センシング領域と、第2センシング領域とを重ね合わせる(S62)。図9では、第1センシング領域K1を格子状の斜線のハッチングで示し、第2センシング領域K2をドット状のハッチングで示す。
 次に、判定部56は、第1センシング領域K1及び第2センシング領域K2の重ね合わせの結果に基づいて、走行タスクの実行を制限するか否かの判定処理に用いる実センシング領域すなわち合成センシング領域を算出する(S63)。
 具体的には、判定部56は、第1センシング領域及び第2センシング領域のいずれか一方がカバーする領域を合成センシング領域として決定する。言い換えると、第1センシング領域と第2センシング領域との和が合成センシング領域として決定される。例えば、図9の格子状の斜線のハッチング又はドット状のハッチングの箇所が合成センシング領域として決定される。
 このように、図5及び7の処理により算出される要求センシング領域と、図8A及び8Bの処理により算出される実センシング領域と、に基づいて、走行タスクの実行を制限するか否かの判定処理(図4AのステップS25)が行われる。図10を参照して、要求センシング領域と実センシング領域とに基づく上記判定処理の例を説明する。図10は、要求センシング領域と実センシング領域との関係の例を示す図である。
 図10では、第1センシング領域K1と第2センシング領域K2の和が斜線のハッチングの実センシング領域K3として示されている。また、要求センシング領域のうち、実センシング領域K3と重なる領域R2が縦線のハッチングで示されており、実センシング領域K3と重ならない領域R3がドット間隔の細かいハッチングで示されている。判定部56は、要求センシング領域の一部の領域R3が実センシング領域K3と重ならないため、走行タスクすなわち右折の実行を制限すると判定する。
 <作用効果>
 次に、本実施の形態における情報処理方法及び情報処理システム1の作用効果について説明する。
 以上のように、本実施の形態における情報処理方法及び情報処理システム1によれば、移動体が走行する際に、移動体の走行スペックに依存して走行タスクの実行を制限できる。すなわち、走行スペック及びセンサスペックが走行シーンに適していない場合、走行タスクの実行を制限できる。したがって、様々な走行スペックの移動体に対して走行タスクの実行の安全を提供することができる。
 例えば、後述するように、移動体の走行スペック及びセンサスペックが走行シーンに適しておらず走行タスクの実行を完了できない又は走行タスクを実行できない、つまり移動体が走行できない場合には、当該走行タスクの実行を停止させる。これにより、当該走行タスクの実行による事故又はインシデントの発生を抑制することができる。また例えば、移動体の走行スペック及びセンサスペックが走行シーンに適しておらず走行タスクを安全に実行できない、つまり移動体が安全に走行できない場合には、当該走行タスクの実行の内容を変更させる。これにより、移動体は、走行の安全条件を完全に満たしていない移動体であっても、元の走行タスクの代わりに内容が制限された走行タスクを実行することにより、安全に走行を継続することができる。
 (変形例1)
 上記の実施の形態では、一例として、情報処理方法及び情報処理システム1について説明したが、これに限らない。情報処理システム1に端末装置80と監視者端末90とが通信可能に接続されていてもよい。以下、この場合を変形例1として、上記の実施の形態と異なるところを中心に説明する。
 図11は、変形例1における情報処理システム1を示す模式図である。
 [走行タスク制限部57]
 図11に示すように、走行タスク制限部57は、走行タスクの実行を制限するか否かの判定結果にしたがって、監視者による自動運転車6の監視態様を決定する。具体的には、走行タスク制限部57は、判定部56によって走行タスクの実行を制限すると判定された場合、自動運転車6を監視対象に追加する、又は、自動運転車6の監視優先度を上げる。
 また、走行タスク制限部57は、走行タスクの実行が制限されることを後述する端末装置80及び監視者端末90に出力する。これにより、自動運転車6の管理者又は乗客に走行タスクの実行が制限されることが通知される。なお、走行タスク制限部57は、自動運転車6を監視対象に追加する、又は、自動運転車6の監視優先度を上げることを端末装置80及び監視者端末90に出力してもよい。
 [端末装置80]
 端末装置80は、情報処理システム1と通信可能に接続される、カーナビゲーション装置、パーソナルコンピュータ、スマートフォン、又はタブレット端末等である。端末装置80は、監視対象に追加した自動運転車6又は監視優先度を上げた自動運転車6、走行タスクの実行が制限される自動運転車6、及び走行タスクの実行が制限されることの少なくとも1つを自動運転車6の所有者又は乗客に通知する。通知は、ディスプレイ等の表示装置による表示、スピーカ等の音響装置による音声出力等で実現されてよい。所有者は、管理者の一例である。
 [監視者端末90]
 監視者端末90は、情報処理システム1と通信可能に接続されるパーソナルコンピュータ、スマートフォン、又はタブレット端末等である。監視者端末90は、監視対象に追加した自動運転車6又は監視優先度を上げた自動運転車6、走行タスクの実行が制限される自動運転車6、走行タスクの実行が制限されたことの少なくとも1つを、走行タスク制限部57から取得し、監視者に通知する。通知は、ディスプレイ等の表示装置による表示、スピーカ等の音響装置による音声出力等で実現されてもよい。監視者は、管理者の一例である。
 このような情報処理方法によれば、事故又はインシデントの発生を抑制することができる。万が一、事故又はインシデントが発生したとしても、監視者による迅速な対応が可能となる。また、管理者又は乗客は、移動体の走行タスクの実行が制限されたことを把握することができる。また、当該移動体を優先的に監視すればよいため、監視者による移動体の監視負担を軽減することができる。また、乗車している移動体の挙動に対する乗客の不安を軽減することができる。
 (変形例2)
 上記実施の形態では、センシング要件が要求センシング領域である例を説明したが、センシング要件は、他の要件であってもよい。具体的には、センシング要件は、センシングが要される対象である要求センシング対象であり、第1センシング結果は、第1センシングデータに基づいて算出される第1センシング対象であり、判定部56は、要求センシング対象及び第1センシング対象に基づいて走行タスクの実行を制限するか否かを判定する。第2センシング結果についても同様に第2センシング対象であり、上記判定に用いられてよい。
 より具体的には、判定部56は、要求センシング対象と第1センシング対象の十分度(すなわち要求センシング対象を第1センシング対象が含むか否か)にしたがって走行タスクの実行を制限するか否かを判定する。例えば、要求センシング対象は、信号機、道路標識、縁石、又は路面標識等の種類の地理的固定物及びこれらの数である。また、要求センシング対象は、交差点、カーブ、又は橋渡り等の地理的シーンである。要求センシング対象となる可能性がある項目については、走行地点情報、及び安全要件情報に情報が追加される。
 以下、処理の一例を説明する。
 まず、条件取得部55は、走行タスク、車両スペック情報、走行地点情報、及び安全要件情報に基づいて、走行タスクの実行条件として要求センシング対象を算出する。例えば、条件取得部55は、地点Cを右折するという走行タスクについて、走行地点情報から地点Cの地理的固定物の配置又は地理的シーンを取得し、車両スペックから速度及び加速度を取得する。条件取得部55は、取得した情報から安全要件情報で指定されるセンシングが要される地理的固定物又は地理的シーンを算出する。例えば、交差点から所定距離以上手前において当該交差点における自動運転車6の進行方向にある信号機及び看板が要求センシング対象として算出される。
 判定部56は、第1センシングデータから第1センシング対象を、第2センシングデータから第2センシング対象を算出する。例えば、判定部56は、画像データ又は点群データ等の第1及び第2センシングデータから自動運転車6の進行方向に位置する物体(例えば看板)をそれぞれ第1及び第2センシング対象として算出する。
 判定部56は、要求センシング対象と第1センシング対象及び第2センシング対象とに基づいて走行タスクの実行を制限するか否かを判定する。例えば、判定部56は、第1及び第2センシング対象として算出した物体が、要求センシング対象として算出された物体、例えば上記信号機又は看板であるか否かを判定する。第1及び第2センシング対象として算出した物体に、要求センシング対象として算出された上記信号機及び看板の少なくとも1つが含まれないと判定した場合、判定部56は、走行タスクの実行を制限すると判定する。そうでない場合、走行タスクの実行を制限しないと判定される。
 なお、判定部56は、要求センシング対象と第1センシング対象との一致度にしたがって走行タスクの実行を制限するか否かを判定してもよい。例えば、要求センシング対象が信号機及び看板である場合に、第1センシング対象が信号機及び横断歩道であるときは、要求センシング対象と第1センシング対象とが一致しないため、走行タスクの実行が制限される。また、第1センシング対象が信号機、看板、及び横断歩道であるときもまた、要求センシング対象と第1センシング対象とが一致しないため、走行タスクの実行が制限される。
 また、判定部56は、さらに要求センシング対象の状態を第1センシング対象が含むか否か(すなわち要求センシング対象の状態と第1センシング対象の状態との一致度又は十分度)にしたがって走行タスクの実行を制限するか否かを判定してもよい。センシング対象が一致していても対象の状態に応じて走行タスクの実行の安全性は変わる。そのため、センシング対象の状態の一致度にしたがって走行タスクの実行を制限することにより、移動体に走行タスクをより安全に実行させることができる。例えば、要求センシング対象の状態と移動体がセンシングした対象の状態とが異なる場合、走行タスクの実行を制限できる。
 (変形例3)
 また、上記変形例2と同様に、センシング要件は、他の要件であってもよい。具体的には、センシング要件は、センシングが要される対象である要求センシング性能であり、第1センシング結果は、第1センシングデータに基づいて算出される第1センシング性能であり、判定部56は、要求センシング性能及び第1センシング性能に基づいて走行タスクの実行を制限するか否かを判定する。第2センシング結果についても同様に第2センシング性能であり、上記判定に用いられてよい。
 より具体的には、判定部56は、要求センシング性能を第1センシング性能が上回るか否かにしたがって走行タスクの実行を制限するか否かを判定する。例えば、要求センシング性能は、センシングの精度、正確度、解像度、又は処理周期等である。要求センシング性能となる可能性がある項目については、安全要件情報に情報が追加される。
 以下、処理の一例を説明する。
 まず、条件取得部55は、走行タスク、車両スペック情報、走行地点情報、及び安全要件情報に基づいて、走行タスクの実行条件として要求センシング性能を算出する。例えば、条件取得部55は、地点Cを右折するという走行タスクについて、走行地点情報から制限速度及び想定他車最大速度を取得し、車両スペックから速度及び加速度を取得する。条件取得部55は、取得した情報から安全要件情報で指定されるセンシングの精度を算出する。例えば、他車が交差点に進入しようとしても回避できるだけの時間を確保できる処理周期が要求センシング性能として算出される。
 判定部56は、第1センシングデータから第1センシング性能を、第2センシングデータから第2センシング性能を算出する。例えば、判定部56は、画像データ又は点群データ等の第1及び第2センシングデータから第1センシング部21及び第2センシング部41の処理周期をそれぞれ第1及び第2センシング性能として算出する。
 判定部56は、要求センシング性能と第1センシング性能及び第2センシング性能とに基づいて走行タスクの実行を制限するか否かを判定する。例えば、判定部56は、第1及び第2センシング性能として算出した処理周期が、要求センシング性能として算出された処理周期よりも短いか否かを判定する。第1及び第2センシング対象として算出した処理周期のいずれかが、要求センシング性能として算出された処理周期以上であると判定した場合、判定部56は、走行タスクの実行を制限すると判定する。そうでない場合、走行タスクの実行を制限しないと判定される。
 (変形例4)
 また、上記実施の形態では、判定部56が第1及び第2センシング結果を算出するとしたがこれに限らない。第1及び第2センシング結果は、それぞれ第1センシング部21及び第2センシング部41が算出してもよい。この場合、第1及び第2センシング結果は、判定装置5すなわち判定部56に出力される。
 (変形例5)
 また、上記実施の形態では、移動体が自動運転車であるとしたがこれに限らない。移動体は、自律移動ロボットであってもよい。例えば、建物内で利用され通路を移動するロボットが想定される。当然ながら移動体は建物外で利用され道路を走るロボットであってもよい。以下、移動体が自律移動ロボット8である例について説明する。なお、上記実施の形態の構成又は処理と実質的に同一の構成又は処理については説明を省略する。
 [運行管制装置3]
 走行タスク生成部31は、第1記憶部32から取得した自律移動ロボット8の走行計画情報に基づいて、走行タスクを生成する。例えば、走行タスクは、図12Aに示すように、走行タスク名、走行タスク種類、及び地点名を含む。図12Aは、変形例5における情報処理システム1の走行タスクの例を示す図である。
 走行計画情報は、図12Bに示すように、ルート及び当該ルート上の走行タスクが実行される地点を含む。地点は、出発地、目的地、右折地点、左折地点、停止地点等に加えて、エレベータ等の建物内の設備が設置される地点を含む。図12Bは、変形例5における情報処理システム1の走行計画情報の例を示す図である。
 第1記憶部32は、自律移動ロボット8の走行計画を示す走行計画情報データベースを格納する。
 [判定装置5]
 第2記憶部52は、自律移動ロボット8のスペックを示すロボットスペック情報のデータベース(以下、ロボットスペック情報データベース)を格納する。第2記憶部52は、条件取得部55の要求に応じて、ロボットスペック情報を出力する。ロボットスペックは、自律移動ロボット8の走行に関するスペックである。具体的には、ロボットスペック情報は、図12Cに示すように、ロボット名、移動方式、最大加速度、最大減速度、最大速度、応答時間等を含む。図12Cは、変形例5における情報処理システム1のロボットスペック情報の例を示す図である。
 第3記憶部53は、走行地点情報データベースを格納する。走行地点情報は、図12Dに示すように、地点名、地点名に割り当てられた地点番号、通路の種類といった地図情報、及び進入レーンといった交通環境情報を含む。なお、交通環境情報として、建物内の設備の有無又は設備の種別などの情報が含まれてもよい。図12Dは、変形例5における情報処理システム1の走行地点情報の例を示す図である。
 第4記憶部54は、安全要件情報データベースを格納する。安全要件情報は、図12Eに示すように、走行タスク名、対象領域種別、通路の種類、地点内の要求センシング範囲、接続通路の要求センシング範囲、要求センシング範囲算出インプット等を含み、このうち対象領域種別、地点内の要求センシング範囲、接続通路の要求センシング範囲がセンシング要件に関わる安全要件である。図12Eは、変形例5における情報処理システム1の安全要件情報の例を示す図である。
 対象領域種別は、自律移動ロボット8が他の物体と衝突する可能性がある領域の種別を示す。具体的には、対象領域種別は、図12Eの例では、地点内部と、地点に接続する通路と、を上記領域の種別として示している。
 地点内部の要求センシング範囲は、地点内部という種別の領域の要求センシング範囲である。例えば、地点内部はどの部分でも自律移動ロボット8が他の移動体と衝突する可能性があるため、図12Eの例では、地点内部の要求センシング範囲は、全域と設定されている。
 接続通路の要求センシング範囲は、接続通路という種別の領域の要求センシング範囲である。例えば、地点との接続部分から遠く離れた領域は衝突の可能性が低いため、図12Eの例では、接続通路の要求センシング範囲は、接続部分から要求センシング距離までの領域と設定されている。
 要求センシング範囲算出インプットは、上記要求センシング距離を算出するために入力される情報である。要求センシング範囲算出インプットは、図12Eの例では、自律移動ロボット8の最大速度、最大加速度、応答時間等である。
 条件取得部55は、第2記憶部52からロボットスペック情報と、第3記憶部53から走行地点情報とを取得する。また、条件取得部55は、判定部56を介して走行タスク取得部51から走行タスクを取得する。また、条件取得部55は、さらに第4記憶部54から安全要件情報を取得する。
 条件取得部55は、走行タスクの実行条件を算出する。走行タスクの実行条件は、自律移動ロボット8及び走行地点の少なくとも一方に応じた走行タスクの実行条件である。
 具体的には、条件取得部55は、ロボットスペック情報、走行タスク、及び安全要件情報に基づいて、センシング要件を算出する。具体的には、条件取得部55は、ロボットスペック情報、走行タスク、及び安全要件情報に基づいて要求センシング領域を算出する。
 要求センシング領域は、ロボット名、走行タスク名、対象領域ID、領域種別毎の要求センシング範囲を含む。要求センシング範囲は、例えば、全域、又は対象領域における要求センシング距離である。図12Fの例では、対象領域B0については全域、対象領域B1、B2、B3についてはそれぞれ要求センシング距離3mが設定されている。図12Fは、変形例5における情報処理システム1の要求センシング領域の例を示す図である。
 続いて、図13を参照して、センシング要件の算出について説明する。条件取得部55は、ロボットスペック情報、走行タスク、及び安全要件情報に基づいてセンシングの対象領域を探索する。具体的には、条件取得部55は、安全要件情報から特定される走行地点情報に基づいて、走行タスクごとにセンシングすべき対象領域として領域および領域に接続する通路を決定する。
 例えば、図13で示すように、交差点領域B0に自律移動ロボット8が接続通路B4から侵入する場合、縦線のハッチングで示すように、交差点領域B0に接続する通路は、通路B1、B2、B3である。条件取得部55は、安全要件情報にて指定される対象領域種別を参照し、種別に該当する領域を探索する。図13の例では、交差点領域B0、通路B1、B2、B3が対象領域として該当するため、それぞれ対象領域に決定される。対象領域である通路の一部が、要求センシング領域R1となる。図13は、要求センシング領域R1、要求センシング距離の例を示す図である。
 判定部56は、第1センシング部21から第1センシングデータを取得し、第2センシング部41から第2センシングデータを取得し、条件取得部55からセンシング要件を含む実行条件を取得する。また、判定部56は、走行タスク取得部51から走行タスクを取得する。なお、判定部56及び走行タスク制限部57の処理については上記実施の形態の説明を参照されたい。
 このように移動体が自律移動ロボットであっても、本開示の実施の形態に係る構成を適用することができる。
 (その他)
 以上、本開示について、実施の形態及び変形例に基づいて説明したが、本開示は、これら実施の形態及び変形例に限定されるものではない。
 例えば、上記実施の形態及び変形例に係る情報処理方法及び情報処理システムは、コンピュータを用いたプログラムによって実現され、このようなプログラムは、記憶装置に記憶されてもよい。
 また、上記実施の形態及び変形例に係る情報処理方法及び情報処理システムに含まれる各処理部は、典型的に集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
 また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 なお、上記実施の形態及び変形例において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の実施の形態及び変形例は例示された数字に制限されない。
 また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
 また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 その他、実施の形態及び変形例に対して当業者が思いつく各種変形を施して得られる形態、本開示の趣旨を逸脱しない範囲で実施の形態及び変形例における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
 本開示は、自動運転車、自動運転車を遠隔操作する装置、自律移動ロボット、或いはこれらを含むシステムに適用できる。
1 情報処理システム
6 自動運転車(移動体)
8 自律移動ロボット(移動体)
21 第1センシング部(第1センサ)
41 第2センシング部(第2センサ)
51 走行タスク取得部(第1取得部)
55 条件取得部(第3取得部、第1算出部)
56 判定部(第2取得部、第2算出部、判定部)
57 走行タスク制限部(出力部)

Claims (16)

  1.  コンピュータにより実行される情報処理方法であって、
     移動体において実行される走行に関するタスクと、前記移動体に搭載され、前記移動体の外部をセンシングする第1センサが出力する第1センシングデータと、前記移動体の走行に関するスペックと、を取得し、
     前記タスクと前記スペックとに基づいてセンシング要件を算出し、
     前記第1センサが出力した前記第1センシングデータに基づいて第1センシング結果を算出し、
     前記センシング要件及び前記第1センシング結果に基づいて前記タスクの実行を制限するか否かを判定し、
     前記タスクの実行を制限すると判定された場合、前記タスクの実行を制限する指示を前記移動体へ出力する
     情報処理方法。
  2.  前記センシング要件は、センシングが要される領域である要求センシング領域を含み、
     前記第1センシング結果は、前記第1センシングデータに基づいて算出される第1センシング領域を含み、
     前記判定では、前記要求センシング領域及び前記第1センシング領域に基づいて前記タスクの実行を制限するか否かを判定する
     請求項1に記載の情報処理方法。
  3.  前記判定では、前記要求センシング領域と前記第1センシング領域との重なりにしたがって判定する
     請求項2に記載の情報処理方法。
  4.  前記判定では、前記要求センシング領域と前記第1センシング領域との重なり度合いにしたがって判定する
     請求項3に記載の情報処理方法。
  5.  前記判定では、前記要求センシング領域と前記第1センシング領域とが重ならない領域にしたがって判定する
     請求項3に記載の情報処理方法。
  6.  前記制限は、前記タスクの実行の禁止である
     請求項2~5のいずれか1項に記載の情報処理方法。
  7.  前記制限は、前記タスクの実行内容の変更である
     請求項2~5のいずれか1項に記載の情報処理方法。
  8.  前記タスクの変更の内容は、前記要求センシング領域と前記第1センシング領域との重なりに基づいて決定される
     請求項7に記載の情報処理方法。
  9.  さらに、前記移動体の移動経路に設置される第2センサが出力する第2センシングデータを取得し、
     前記第2センシングデータに基づいて第2センシング結果を算出し、
     前記判定では、さらに前記第2センシング結果にも基づいて判定する
     請求項1~8のいずれか1項に記載の情報処理方法。
  10.  さらに、前記タスクの実行を制限すると判定された場合、前記移動体を監視対象に追加する、又は、前記移動体の監視優先度を上げる
     請求項1~9のいずれか1項に記載の情報処理方法。
  11.  さらに、前記タスクの実行を制限すると判定された場合、前記タスクの実行が制限されることを前記移動体の管理者又は乗客に通知する
     請求項1~10のいずれか1項に記載の情報処理方法。
  12.  前記センシング要件は、センシングが要される対象である要求センシング対象を含み、
     前記第1センシング結果は、前記第1センシングデータに基づいて算出される第1センシング対象を含み、
     前記判定では、前記要求センシング対象及び前記第1センシング対象に基づいて前記タスクの実行を制限するか否かを判定する
     請求項1に記載の情報処理方法。
  13.  前記判定では、前記要求センシング対象と前記第1センシング対象との十分度又は一致度にしたがって判定する
     請求項12に記載の情報処理方法。
  14.  前記センシング要件は、センシングが要される対象である要求センシング性能を含み、
     前記第1センシング結果は、前記第1センシングデータに基づいて算出される第1センシング性能を含み、
     前記判定では、前記要求センシング性能及び前記第1センシング性能に基づいて前記タスクの実行を制限するか否かを判定する
     請求項1に記載の情報処理方法。
  15.  前記判定では、前記要求センシング性能を前記第1センシング性能が上回るか否かにしたがって判定する
     請求項14に記載の情報処理方法。
  16.  移動体において実行される走行に関するタスクを取得する第1取得部と、
     前記移動体に搭載され、前記移動体の外部をセンシングする第1センサが出力する第1センシングデータを取得する第2取得部と、
     前記移動体の走行に関するスペックを取得する第3取得部と、
     前記タスクと前記スペックとに基づいてセンシング要件を算出する第1算出部と、
     前記第1センサが出力した前記第1センシングデータに基づいて第1センシング結果を算出する第2算出部と、
     前記センシング要件及び前記第1センシング結果に基づいて前記タスクの実行を制限するか否かを判定する判定部と、
     前記タスクの実行を制限すると判定された場合、前記タスクの実行を制限する指示を前記移動体へ出力する出力部とを備える
     情報処理システム。
PCT/JP2020/046256 2019-12-26 2020-12-11 情報処理方法及び情報処理システム WO2021131785A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080065981.1A CN114423664A (zh) 2019-12-26 2020-12-11 信息处理方法以及信息处理***
JP2021567234A JPWO2021131785A1 (ja) 2019-12-26 2020-12-11
US17/691,711 US20220194408A1 (en) 2019-12-26 2022-03-10 Information processing method and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-236880 2019-12-26
JP2019236880 2019-12-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/691,711 Continuation US20220194408A1 (en) 2019-12-26 2022-03-10 Information processing method and information processing system

Publications (1)

Publication Number Publication Date
WO2021131785A1 true WO2021131785A1 (ja) 2021-07-01

Family

ID=76575237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/046256 WO2021131785A1 (ja) 2019-12-26 2020-12-11 情報処理方法及び情報処理システム

Country Status (4)

Country Link
US (1) US20220194408A1 (ja)
JP (1) JPWO2021131785A1 (ja)
CN (1) CN114423664A (ja)
WO (1) WO2021131785A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6312944B2 (ja) 1980-03-20 1988-03-23 Parupu Ando Peepaa Risaachi Inst Obu Kanada
JPH11345396A (ja) * 1998-06-02 1999-12-14 Pub Works Res Inst Ministry Of Constr 走行支援道路システムの合流制御システムにおける本線交通流予測方法
JP2000078566A (ja) * 1998-08-31 2000-03-14 Aisin Seiki Co Ltd 駐車補助装置
WO2016194134A1 (ja) * 2015-06-02 2016-12-08 日産自動車株式会社 車両制御装置及び車両制御方法
JP2019011055A (ja) * 2018-10-01 2019-01-24 株式会社デンソー 運転支援装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5053776B2 (ja) * 2007-09-14 2012-10-17 株式会社デンソー 車両用視界支援システム、車載装置、及び、情報配信装置
JP5494332B2 (ja) * 2010-07-27 2014-05-14 トヨタ自動車株式会社 車両制御システム
US9505413B2 (en) * 2015-03-20 2016-11-29 Harman International Industries, Incorporated Systems and methods for prioritized driver alerts
JP6550994B2 (ja) * 2015-07-15 2019-07-31 日産自動車株式会社 走行制御装置の制御方法および走行制御装置
US11945454B2 (en) * 2019-04-17 2024-04-02 Paccar Inc Vehicle maximum speed limiter bypass system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6312944B2 (ja) 1980-03-20 1988-03-23 Parupu Ando Peepaa Risaachi Inst Obu Kanada
JPH11345396A (ja) * 1998-06-02 1999-12-14 Pub Works Res Inst Ministry Of Constr 走行支援道路システムの合流制御システムにおける本線交通流予測方法
JP2000078566A (ja) * 1998-08-31 2000-03-14 Aisin Seiki Co Ltd 駐車補助装置
WO2016194134A1 (ja) * 2015-06-02 2016-12-08 日産自動車株式会社 車両制御装置及び車両制御方法
JP2019011055A (ja) * 2018-10-01 2019-01-24 株式会社デンソー 運転支援装置

Also Published As

Publication number Publication date
CN114423664A (zh) 2022-04-29
JPWO2021131785A1 (ja) 2021-07-01
US20220194408A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
US11231286B2 (en) Dynamic routing for self-driving vehicles
JP6831419B2 (ja) 自動運転車と警告サービスの操作方法、システム及び機械可読メディア
JP6380919B2 (ja) 車両制御装置
JP6308233B2 (ja) 車両制御装置及び車両制御方法
US9915951B2 (en) Detection of overhanging objects
US20180136653A1 (en) Emergency handling system for an autonomous driving vehicle (adv)
KR102137933B1 (ko) 차량 코너링 제어 방법 및 그 장치
JP4877364B2 (ja) 物体検出装置
JP7331939B2 (ja) 車載装置及び運転支援方法
WO2021070451A1 (ja) 車両制御装置、車両制御方法、自動運転装置及び自動運転方法
KR20190035159A (ko) 차량 움직임 예측 방법 및 장치
JP2015032028A (ja) 運転支援装置及び運転支援方法
US11753035B2 (en) Vehicle control system
JP2019200464A (ja) 運転支援方法及び運転支援装置
JPWO2019171100A1 (ja) 車両走行支援方法及び車両走行支援装置
JP2019073039A (ja) 車両制御装置
JP6809087B2 (ja) 運転支援方法及び運転支援装置
JP7435787B2 (ja) 経路確認装置および経路確認方法
JP6721054B2 (ja) 車両はみ出し判断方法及び車両はみ出し判断装置
WO2021131785A1 (ja) 情報処理方法及び情報処理システム
JP6867257B2 (ja) 車両制御装置、車両、車両制御方法およびプログラム
JP7220192B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021059275A (ja) 車両運転支援方法及び車両運転支援装置
JP2020123030A (ja) 交通違反判定装置
JP7419209B2 (ja) 交通管理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20908290

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021567234

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020908290

Country of ref document: EP

Effective date: 20220726

122 Ep: pct application non-entry in european phase

Ref document number: 20908290

Country of ref document: EP

Kind code of ref document: A1