WO2019106704A1 - 車両、情報処理装置およびそれらの制御方法、並びにシステム - Google Patents

車両、情報処理装置およびそれらの制御方法、並びにシステム Download PDF

Info

Publication number
WO2019106704A1
WO2019106704A1 PCT/JP2017/042504 JP2017042504W WO2019106704A1 WO 2019106704 A1 WO2019106704 A1 WO 2019106704A1 JP 2017042504 W JP2017042504 W JP 2017042504W WO 2019106704 A1 WO2019106704 A1 WO 2019106704A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
detected
area
peripheral
Prior art date
Application number
PCT/JP2017/042504
Other languages
English (en)
French (fr)
Inventor
瞬 岩▲崎▼
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2019556428A priority Critical patent/JP6908723B2/ja
Priority to PCT/JP2017/042504 priority patent/WO2019106704A1/ja
Priority to CN201780097008.6A priority patent/CN111373456B/zh
Publication of WO2019106704A1 publication Critical patent/WO2019106704A1/ja
Priority to US16/883,450 priority patent/US20200283024A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/22Platooning, i.e. convoy of communicating vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Definitions

  • the present invention relates to control technology of a vehicle.
  • a vehicle that provides driving assistance includes a plurality of detection units for collecting information on the surrounding environment. Then, based on the detection result of the detection unit, determination of the traveling position and traveling conditions of the vehicle is performed.
  • Patent Document 1 describes that the originating navigation system transmits a warning location to a receiving navigation system via a wireless network, and the receiving navigation system plans an alternative route for avoiding the warning location. . Also, it is described that the warning position is transmitted and received via the server.
  • the present invention has the following composition. That is, it is a vehicle, and an area that can not be detected around the vehicle based on the detection means for detecting the peripheral information of the periphery of the own vehicle, the communication means with the external device, and the peripheral information detected by the detection means Acquisition means for acquiring information of the area identified by the identification means from among the surrounding information detected by the target accumulated in the external device through the identification means, the communication means, and the detection means And generation means for generating information for travel control of the host vehicle using the peripheral information detected in the step and the information acquired by the acquisition means.
  • the present invention even when there is an area that can not be detected from the host vehicle, information of the area can be acquired, and the accuracy of the travel support can be improved.
  • FIG. 1 shows an example of a system configuration according to the present invention.
  • FIG. 2 is a view showing a processing sequence according to the first embodiment.
  • FIG. 1 is a block diagram of a control device for a vehicle according to an embodiment of the present invention, which controls a vehicle 1.
  • the vehicle 1 is schematically shown in a plan view and a side view.
  • the vehicle 1 is a sedan-type four-wheeled passenger car as an example.
  • the control device of FIG. 1 includes a control unit 2.
  • the control unit 2 includes a plurality of ECUs 20 to 29 communicably connected by an in-vehicle network.
  • Each ECU includes a processor represented by a CPU, a storage device such as a semiconductor memory, an interface with an external device, and the like.
  • the storage device stores programs executed by the processor, data used by the processor for processing, and the like.
  • Each ECU may include a plurality of processors, storage devices, interfaces, and the like.
  • each of the ECUs 20 to 29 takes charge of will be described below.
  • the number of ECUs and the functions to be in charge can be appropriately designed, and can be subdivided or integrated as compared with the present embodiment.
  • the ECU 20 executes control related to automatic driving of the vehicle 1.
  • automatic driving at least one of steering of the vehicle 1 and acceleration / deceleration is automatically controlled.
  • both steering and acceleration / deceleration are automatically controlled.
  • the ECU 21 controls the electric power steering device 3.
  • the electric power steering apparatus 3 includes a mechanism for steering the front wheels in response to a driver's driving operation (steering operation) on the steering wheel 31. Further, the electric power steering device 3 includes a motor for assisting a steering operation or a driving force for automatically steering the front wheels, a sensor for detecting a steering angle, and the like.
  • the ECU 21 automatically controls the electric power steering device 3 in response to an instruction from the ECU 20 to control the traveling direction of the vehicle 1.
  • the ECUs 22 and 23 perform control of detection units 41 to 43 for detecting the surrounding situation of the vehicle and perform information processing of detection results.
  • the detection unit 41 is a camera for capturing an image in front of the vehicle 1 (hereinafter, may be referred to as a camera 41), and in the case of the present embodiment, two are provided on the roof front of the vehicle 1. By analyzing the image captured by the camera 41, it is possible to extract the contour of the target and extract the lane line (white line etc.) on the road.
  • the detection unit 42 is a light detection and ranging (LIDAR: lidar) (hereinafter, may be referred to as a lidar 42), detects a target around the vehicle 1, and measures the distance to the target .
  • LIDAR light detection and ranging
  • five lidars 42 are provided, one at each of the front corners of the vehicle 1, one at the center of the rear, and one at each side of the rear.
  • the detection unit 43 is a millimeter wave radar (hereinafter, may be referred to as a radar 43), detects a target around the vehicle 1, and measures the distance to the target.
  • five radars 43 are provided, one at the center of the front of the vehicle 1 and one at each of the front corners, and one at each of the rear corners.
  • the detectable range and information shall differ according to the type of the detection unit, the installation position, the installation angle and the like.
  • the ECU 22 performs control of one camera 41 and each lidar 42 and information processing of detection results.
  • the ECU 23 controls the other camera 42 and each radar 43 and performs information processing of detection results.
  • the reliability of the detection results can be improved by providing two sets of devices for detecting the surrounding environment of the vehicle, and by providing different types of detection units such as cameras, lidars and radars, analysis of the environment around the vehicle Can be done in many ways.
  • detection result of any of the detection units can not be obtained or the accuracy is lowered, it is also possible to complement by using the detection results of other detection units.
  • the ECU 24 controls the gyro sensor 5, the GPS sensor 24b, and the communication device 24c, and performs information processing of a detection result or a communication result.
  • the gyro sensor 5 detects the rotational movement of the vehicle 1. The course of the vehicle 1 can be determined based on the detection result of the gyro sensor 5, the wheel contact, and the like.
  • the GPS sensor 24 b detects the current position of the vehicle 1.
  • the communication device 24 c performs wireless communication with a server that provides map information and traffic information, and acquires such information.
  • the ECU 24 can access a database 24a of map information built in a storage device, and the ECU 24 performs a route search from a current location to a destination.
  • the ECU 25 includes a communication device 25a for inter-vehicle communication.
  • the communication device 25a performs wireless communication with other vehicles in the vicinity to exchange information between the vehicles.
  • the ECU 26 controls the power plant 6.
  • the power plant 6 is a mechanism that outputs a driving force for rotating the drive wheels of the vehicle 1 and includes, for example, an engine and a transmission.
  • the ECU 26 controls, for example, the output of the engine in response to the driver's driving operation (acceleration operation or acceleration operation) detected by the operation detection sensor 7a provided on the accelerator pedal 7A, the vehicle speed detected by the vehicle speed sensor 7c, etc.
  • the gear position of the transmission is switched based on the information of.
  • the ECU 26 automatically controls the power plant 6 in response to an instruction from the ECU 20 to control acceleration / deceleration of the vehicle 1.
  • the ECU 27 controls a lamp (headlight, taillight, etc.) including the direction indicator 8 (turner).
  • the turn indicator 8 is provided at the front, the door mirror and the rear of the vehicle 1.
  • the ECU 28 controls the input / output device 9.
  • the input / output device 9 outputs information to the driver and accepts input of information from the driver.
  • the voice output device 91 reports information to the driver by voice.
  • the display device 92 notifies the driver of the information by displaying an image.
  • the display device 92 is disposed, for example, on the driver's seat surface and constitutes an instrument panel or the like.
  • voice and a display were illustrated here, you may alert
  • information may be notified by combining a plurality of voice, display, vibration, or light.
  • the combination may be different or the notification mode may be different.
  • the input device 93 is arranged at a position where the driver can operate, and is a group of switches for giving an instruction to the vehicle 1. However, a voice input device may also be included.
  • the ECU 29 controls the brake device 10 and a parking brake (not shown).
  • the brake device 10 is, for example, a disc brake device, and is provided on each wheel of the vehicle 1 and decelerates or stops the vehicle 1 by adding resistance to the rotation of the wheel.
  • the ECU 29 controls the operation of the brake device 10 in response to the driver's driving operation (brake operation) detected by the operation detection sensor 7b provided on the brake pedal 7B, for example.
  • the ECU 29 automatically controls the brake device 10 in response to an instruction from the ECU 20 to control the deceleration and stop of the vehicle 1.
  • the brake device 10 and the parking brake can also be operated to maintain the vehicle 1 in the stopped state.
  • the transmission of the power plant 6 is provided with a parking lock mechanism, it can be operated to maintain the vehicle 1 in the stopped state.
  • FIG. 2 is a diagram showing an example of a system configuration according to the present embodiment.
  • a plurality of vehicles 201 (201 A, 201 B, 201 C,...) And the server 203 are communicably connected via the network 202.
  • Each of the plurality of vehicles 201 has the configuration as described above with reference to FIG.
  • the vehicles 201 need not all have the same configuration.
  • the configuration of the network 202 is not particularly limited, and the method of connecting the vehicle 201 to the network 202 is not particularly limited.
  • the communication method may be dynamically switched according to the amount of data at the time of communication, the communication speed, and the like.
  • the server 203 collects and manages various information from each of the plurality of vehicles 201. Further, in response to requests from each of the plurality of vehicles 201, the managed information is provided.
  • the server 203 includes a CPU 210, a RAM 211, a ROM 212, an external storage device 213, and a communication unit 215, which are connected via a bus 214 so that they can communicate within the server 203.
  • the CPU 210 controls the overall operation of the server 203 by reading and executing a program stored in the ROM 212 or the like.
  • the RAM 211 is a volatile storage area, and is used as a work memory or the like.
  • the ROM 212 is a non-volatile storage area.
  • the external storage device 213 is a non-volatile storage area, and holds a program, a database for managing various data, and the like according to the present embodiment.
  • the communication unit 215 is a unit for communicating with each of the plurality of vehicles 201, and manages communication control.
  • each server 203 is shown in FIG. 2, the present invention is not limited to this configuration, and load distribution may be performed by a plurality of servers to collect, manage, and provide data.
  • the external storage device 213 used as a database may be configured separately from the server 203.
  • each part may be provided with two or more.
  • Examples of travel control performed by the vehicle include control of the travel position of the vehicle on the road, travel speed, inter-vehicle distance between the front and rear vehicles, and the like.
  • the vehicle acquires surrounding information in a predetermined range of the host vehicle.
  • Various predetermined ranges are defined in accordance with the characteristics and arrangement of the detection unit.
  • a range detectable by the vehicle is held in advance as a detection range.
  • a target object, an obstacle, etc. shall be able to recognize that it is undetectable about a field beyond that. That is, it is possible to recognize that the occlusion is occurring in the peripheral area of the vehicle.
  • the position of the area can be specified by the relative relationship with the position of the host vehicle.
  • FIG. 3 is a view for explaining the surrounding environment when the host vehicle according to the present embodiment is traveling.
  • the vehicle 301 will be described as a host vehicle and will be described using a plan view.
  • the detection is not limited to planar detection, and three-dimensional detection may be performed.
  • FIG. 3 it is assumed that four vehicles 302 to 305 and persons 309 and 310 exist around the vehicle 301.
  • the vehicle 301 is traveling straight, and there is a road that merges forward on the right side in the traveling direction. Further, it is assumed that targets 306 to 308 such as guard rails exist on the left and right of the vehicle 301.
  • the dotted lines in FIG. 3 are given for the sake of convenience to explain the detection range of the host vehicle.
  • the areas 311, 315, and 316 are blind spots (hereinafter referred to as blind spots) due to the presence of the targets 306 to 308, and information of the areas 311, 315, and 316 from the current position of the vehicle 301. Can not be acquired. Furthermore, areas 312, 313, 314 become blind spots due to the presence of vehicles 302-304, and the information of areas 312, 313, 314 can not be acquired from the current position of vehicle 301. Therefore, in the vehicle 301, the information of the undetectable area can not be used for travel control.
  • traveling control can be performed in consideration of this existence.
  • the vehicle 305 and the person 310 exist in the blind spot area, their existence can not be detected. Therefore, for example, when the vehicle 305 enters at the merging position, if the vehicle 305 can not detect the situation until just before that, the avoidance operation is delayed. Furthermore, travel control to a travel position where entry is predicted in advance can not be performed. On the other hand, if the presence of the vehicle 305 can be detected early, control can be made to move the traveling position to a position away from the position where the roads merge.
  • the surrounding information detected by the other vehicle and the surrounding information detected by the predetermined target are acquired, and the area not detected by the own vehicle Use as peripheral information of).
  • the predetermined target here corresponds to a camera or the like disposed at a certain position facing the road.
  • peripheral information detected by a vehicle will be described as an example.
  • FIG. 4 is a diagram for explaining the concept of the surrounding information acquired by another vehicle used in the present embodiment.
  • four vehicles 402 to 405 as other vehicles exist around the vehicle 401 as the own vehicle.
  • the range 406 is a range that can be detected by a detection unit provided in the vehicle 402.
  • the range 407 is a range in which a detection unit provided in the vehicle 403 can detect.
  • the range 408 is a range in which the vehicle 404 can be detected.
  • the range 409 is a range in which the vehicle 405 can be detected. That is, the vehicles 402 to 405 can detect different ranges. By using the detection results in these ranges, it is possible to complement the information of the area that the vehicle 401 could not detect.
  • the regions where each of the vehicles 402 to 405 can not be detected due to an obstacle or the like are omitted.
  • the information of the range detected from each vehicle is transmitted to the server 203 together with the position information of the vehicle and the like.
  • the server 203 manages the information transmitted from each vehicle in association with the information of each vehicle. At this time, the server 203 may also manage information on the reception time and the time detected by each vehicle.
  • the server 203 extracts and provides information on the periphery of the requested vehicle from the managed information in response to the request from each vehicle.
  • the information to be provided here may be information on the periphery of the current position of the requested vehicle, or may be information on the periphery of the planned travel route. Also, for example, information on a position close to the requested vehicle may be provided preferentially, or information on a specific target may be provided preferentially. Examples of the specific target here include a person and an object located on a road. Further, information to be transmitted may be scrutinized from the relationship between the communication speed and the amount of data. Also, the information collected on the server 203 side may be integrated and organized as other information and provided. For example, the configuration may be such that the collected information (event or the like) is mapped to map information held in advance. Then, this information may be provided to each vehicle.
  • This process shows the structure which the vehicle 201 and the server 203 perform.
  • the right side of FIG. 5 shows the process that the server 203 executes, and the left side shows the process that the vehicle 201 executes.
  • the dotted arrows in FIG. 5 indicate transmission and reception of data.
  • the vehicle 201 acquires information on the surrounding environment (hereinafter referred to as surrounding information) by a plurality of detection units provided in the own vehicle.
  • surrounding information information on the surrounding environment
  • the type and configuration of the information acquired here are not particularly limited, and may be changed according to the configuration of the vehicle.
  • the vehicle 201 transmits the surrounding information detected in S501 to the server 203.
  • the peripheral information transmitted here may transmit all of the information detected by the detection unit, or may transmit only the information detected by a specific detection unit.
  • data to be transmitted may be limited according to the communication speed and the amount of data, or a priority may be provided to the data, and the important information may be sequentially transmitted in order of priority.
  • the setting method of the priority is not particularly limited. At this time, information for identifying the vehicle, position information, and the like may be transmitted together. In addition, time information or the like at the time of detection may be included in the information to be transmitted.
  • the vehicle 201 specifies an area (a blind spot area) which can not be detected by the detection unit based on the surrounding information acquired in S501.
  • the dead area here corresponds to the area described with reference to FIG.
  • information in a range that can be detected by the host vehicle may be held in advance, and an area outside the range may be treated as a blind spot area.
  • the detection accuracy of the detection unit decreases as the distance from the installation position increases. Therefore, even when there is no obstacle, a position farther than a certain distance may be treated as a blind spot.
  • the periphery of the host vehicle may be divided into several areas and defined, and it may be determined whether a blind spot area is included for each area.
  • the granularity of the division may be divided into eight regions such as front front, front left, front right, side left, side right, rear front, rear left, and rear right.
  • the vehicle 201 determines whether a blind spot area is specified in S503. If the blind spot area is specified (YES at S504), the process proceeds to S505, and if the blind spot area is not specified (NO at S504), the process proceeds to S507.
  • the vehicle 201 requests the server 203 to acquire surrounding information.
  • the vehicle 201 may request only the information of the blind spot area in a predetermined range (distance) based on the current position of the host vehicle, the traveling speed, and the like. Or you may request
  • the type of peripheral information to be requested may be changed according to the distance from the current position based on the current position of the host vehicle. For example, image data may be requested for a blind area within a predetermined range, and more simplified information may be requested for a blind area outside the predetermined range.
  • the vehicle 201 acquires surrounding information as a response to the acquisition request transmitted in S505.
  • the peripheral information acquired here does not necessarily have to wait until all requested information is received. For example, if a predetermined time has passed since the acquisition request was sent, or if the own vehicle is separated from the position where the acquisition request was sent by a predetermined distance or more, even if not received, it corresponds to the acquisition request
  • the configuration may be such that the acquisition of data is discontinued. This takes into consideration that the situation with respect to the surrounding environment changes momentarily depending on the amount of data of transmission and reception, the communication state, the traveling speed and traveling position of the host vehicle, and the like.
  • the vehicle 201 In S507, the vehicle 201 generates information related to travel control using the surrounding information acquired in S501 and the acquired surrounding information acquired in S506. And the vehicle 201 performs traveling control of the own vehicle using the produced
  • the contents of travel control are not particularly limited, and examples thereof include speed control, change of travel position, and change of travel route.
  • data when data are not acquired in S506 (for example, there is no blind spot area), only the periphery information which the detection unit of the own vehicle detected is used. Then, it returns to S501. Note that this processing flow ends when an instruction to end the control of the automatic driving or the driving support is given.
  • the server 203 acquires surrounding information transmitted from each vehicle.
  • the server 203 extracts the peripheral information collected in S512 so as to correspond to the predetermined configuration, and stores the extracted peripheral information in the database (external storage device 213).
  • the storage method here is not particularly limited, and may be defined in accordance with the processing speed and the amount of data.
  • past peripheral information may be deleted.
  • the server 203 determines whether an acquisition request for the surrounding information has been received from any of the vehicles. If an acquisition request has been received (YES at S513), the process proceeds to S514, and if not received (NO at S513), the process returns to S511.
  • the server 203 in response to the acquisition request received from the vehicle, extracts surrounding information to be provided from among the managed surrounding information.
  • the information here may determine the content of the information to be transmitted or the order of transmission according to the communication speed, communication state, and data amount.
  • the server 203 transmits the information extracted in S514 to the vehicle as a response to the acquisition request.
  • transmission of information may be canceled on the way, and when the information of the corresponding field is updated, The transmission of the old information may be interrupted, and the updated information may be transmitted. Then, the process returns to step S511.
  • each vehicle may acquire the periphery information of the own vehicle timely, and may transmit it to the server 203 also when not performing automatic driving
  • the server 203 receives surrounding information transmitted from each of the plurality of vehicles each time and updates / manages it. That is, the process of S511 and S512 in FIG. 5 is always performed when the transmission from the vehicle is continued.
  • the vehicle may request the server only for information in the area on the left front side.
  • the area for acquiring data in more detail may be limited according to the relative speed, the traveling direction, and the like.
  • the information in the front dead area may be prioritized, and control may be performed to lower the priority of the left and right information.
  • information in a range from the host vehicle to a predetermined position may be acquired more preferentially. More specifically, an area closer to the position of the host vehicle may be requested more preferentially.
  • the surroundings of the vehicle may be divided into several areas in advance, and only the peripheral information of the divided areas may be requested. Further, the acquisition request may be transmitted without being limited to the traveling state of the vehicle, such as during traveling or temporarily stopping. Further, peripheral information related to a moving target or a person may be configured to be acquired more preferentially.
  • the data format to be transmitted and received may be switched based on the priority. For example, for peripheral information with high priority, image data acquired by the camera is transmitted and received, and information with a low priority or information at a position farther than a predetermined threshold is transmitted and received in another data format. May be
  • it may be configured to transmit and receive information of the other vehicle (the traveling route and the positional relationship with the host vehicle) for which the surrounding information has been acquired.
  • the peripheral information collected on the map may be mapped and managed on an area basis.
  • the particle size of the area is not particularly limited, and may be, for example, map information composed of a particle size of 0.1 m ⁇ 0.1 m. Further, map information corresponding to the vehicle and the server may be held, and information may be exchanged based on the map information.
  • the server when the server newly receives information on the same area with respect to the information collected from each vehicle, the information on the area may be updated, or may be maintained as a history for a certain period of time. It is also good. Further, the reliability may be set for the information collected from each vehicle, and the reliability for the information may be reduced according to the time elapsed since the reception of the information for a certain area. Alternatively, when the same detection result is obtained from a plurality of vehicles for a certain area, the reliability of the information may be improved. Further, when the same detection result is obtained from a predetermined number of vehicles, the content may be treated as information that can be provided to other vehicles.
  • the server selects data to be transmitted to the vehicle in response to the acquisition request from the vehicle.
  • the server is configured to provide information from the vehicle to a predetermined range to the vehicle and to select information to be used on the vehicle side. That is, in the present embodiment, a configuration will be described in which the vehicle complements the information for the blind spot area with the peripheral information acquired from the server while preferentially using the peripheral information detected by the detection unit of the host vehicle.
  • This process shows the structure which the vehicle 201 and the server 203 perform.
  • the right side of FIG. 6 shows the process that the server 203 executes, and the left side shows the process that the vehicle 201 executes.
  • the dotted arrows in FIG. 6 indicate transmission and reception of data.
  • the vehicle 201 acquires information on the surrounding environment (peripheral information) by a plurality of detection units included in the own vehicle.
  • the information acquired here is not particularly limited, and may be changed according to the configuration of the vehicle.
  • the vehicle 201 transmits the surrounding information detected in S601 to the server 203.
  • the peripheral information transmitted here may transmit all of the information detected by the detection unit, or may transmit only the information detected by a specific detection unit.
  • data to be transmitted may be limited according to the communication speed, communication state, and data amount, or priority may be provided to sequentially transmit important information in order of priority. .
  • the method of setting the priority is not particularly limited. At this time, information for identifying the vehicle, position information, and the like are also transmitted.
  • the vehicle 201 acquires, from the server 203, surrounding information detected by another vehicle.
  • acquisition of periphery information is not limited to the process here, For example, you may make it receive when it determines with there being a blind spot area
  • the data may be acquired at a necessary timing while suppressing the amount of data reception.
  • the vehicle 201 specifies a region (a blind spot region) that could not be detected by the detection unit based on the surrounding information acquired in S601.
  • the dead area here corresponds to the area described with reference to FIG.
  • information in a range that can be detected by the host vehicle may be held in advance, and an area outside the range may be treated as a blind spot area. For example, as the detection unit decreases in detection accuracy as the distance from the installation position increases, a position farther than a certain distance may be treated as a blind spot even when there is no obstacle.
  • the vehicle 201 determines whether a blind spot area is specified in S604. If a blind spot area is specified (YES at S605), the process proceeds to S606, and if a blind spot area is not specified (NO at S605), the process proceeds to S607.
  • the vehicle 201 determines whether the surrounding information acquired in S603 includes information corresponding to the blind spot area. If it is determined that there is information corresponding to the dead area (YES in S606), the process proceeds to S608, and if it is determined that the information is not (NO in S606), the process proceeds to S607.
  • the vehicle 201 In S607, the vehicle 201 generates information related to travel control using the surrounding information acquired in S601. And the vehicle 201 performs traveling control of the own vehicle using the produced
  • the vehicle 201 performs the complementing process on the peripheral information acquired in S601, using the peripheral information acquired from the server 203.
  • the area around the host vehicle may be divided into a plurality of areas, and the surrounding information on the area including the blind spot area among the areas may be extracted from the information acquired from the server and complemented. Further, the correction may be performed after correcting the surrounding information acquired from the server in consideration of the positional relationship between the own vehicle and the other vehicle.
  • the complementing method here is not particularly limited, and switching may be performed according to the processing speed or the range of the blind spot area. Further, peripheral information to be used may be switched according to the situation.
  • the vehicle 201 In S609, the vehicle 201 generates information on travel control using the surrounding information complemented in S608. And the vehicle 201 performs traveling control of the own vehicle using the produced
  • the server 203 acquires surrounding information transmitted from each vehicle.
  • the server 203 extracts the peripheral information collected in S612 so as to correspond to the predetermined configuration, and holds the information on the database (external storage device 213).
  • the holding method here is not particularly limited, and may be defined in accordance with the processing speed and the data amount.
  • past peripheral information may be deleted.
  • the server 203 transmits, to the vehicle, the surrounding information corresponding to the vicinity of the position information included in the surrounding information received from the vehicle.
  • the information here may determine the information to be transmitted or the order of transmission according to the communication speed and the amount of data. Note that transmission of information may be interrupted halfway according to the time (elapsed time) required for transmission.
  • the operation state of each roadway may be identified, and peripheral information may be transmitted when each vehicle is in a mode for performing automatic driving or driving support. In this case, when the vehicle is traveling manually, transmission of the surrounding information from the vehicle to the server is performed, but provision of the surrounding information from the server to the vehicle is not performed. Then, the process returns to step S611.
  • the peripheral information is acquired at the timing when the vehicle is required (S603), but the present invention is not limited to this.
  • the vehicle 201 may include map information, and may be configured to associate (map) it on the map information each time the peripheral information is received from the server 203. At this time, the information which has been received for a predetermined time may be discarded, or the reliability of the information may be lowered.
  • traveling control is performed using the peripheral information associated with the map information at that time.
  • the load of the complementing process at the time when it is determined that there is a blind spot area may be reduced.
  • the information is used for travel control for the area detected by the host vehicle.
  • the peripheral information is received from the server with respect to the area where the vehicle can be detected (area other than the blind area), if the urgency or priority of the peripheral information is set high, the vehicle Instead of the detected information, the peripheral information received from the server may be used for travel control.
  • the accuracy of the traveling control can be improved on the vehicle side. Further, as compared with the first embodiment, the response time can be shortened by omitting the extraction process on the server side.
  • the vehicle (for example, 1) of the above embodiment is Detection means (e.g., 41, 43) for detecting peripheral information around the host vehicle; Means of communication with an external device (e.g. 24, 24c); Specifying means (for example, 22 and 23) for specifying an area which can not be detected in the periphery of the host vehicle based on the surrounding information detected by the detection means; Acquisition means (for example, 24) for acquiring information of the area specified by the specifying means from among the peripheral information detected by the target accumulated in the external device through the communication means; Generation means (for example, 20) for generating information for travel control of the host vehicle using the peripheral information detected by the detection means and the information acquired by the acquisition means; Have.
  • Detection means e.g., 41, 43
  • Means of communication with an external device e.g. 24, 24c
  • Specifying means for example, 22 and 23
  • Acquisition means for example, 24
  • Generation means for example, 20
  • Generation means for example, 20 for generating information for travel
  • the specifying means is characterized in that an area hidden by the other vehicle is specified as an undetectable area based on a positional relationship between the own vehicle and the other vehicle.
  • the specifying means is characterized in that an area hidden from the target is specified as an undetectable area based on the positional relationship between the host vehicle and the target.
  • the acquisition means is characterized in that, among the surrounding information accumulated in the external device, the surrounding information within a predetermined range from the current position of the vehicle is acquired.
  • the peripheral information acquired from the server can be switched according to the current position of the host vehicle, and the communication load at the time of acquisition can be suppressed.
  • the acquiring means is characterized in acquiring, among the surrounding information accumulated in the external device, surrounding information on a traveling route of the own vehicle set in advance.
  • the peripheral information acquired from the server can be switched according to the traveling route of the host vehicle, and the communication load at the time of acquisition can be suppressed. Further, peripheral information along the route can be acquired using the traveling route during automatic driving in automatic driving control, and information can be acquired sufficiently and sufficiently.
  • the acquisition means is characterized in that peripheral information on a predetermined type of target is preferentially acquired.
  • peripheral information with high priority can be acquired earlier.
  • the acquisition means is characterized by switching the area of the peripheral information to be acquired according to the traveling state of the host vehicle.
  • the range of the peripheral information acquired from the server can be switched according to the traveling state of the own vehicle, and the peripheral information with high priority can be acquired earlier while suppressing the communication load. It becomes.
  • the acquiring unit is characterized by switching peripheral information to be acquired according to a communication state by the communication unit and a data amount of the peripheral information.
  • the acquisition means is characterized by switching the data format of the peripheral information to be acquired based on the communication state by the communication means and the positional relationship between the host vehicle and the area corresponding to the peripheral information.
  • the acquisition means is further characterized by acquiring information on a target whose peripheral information has been detected.
  • This embodiment makes possible travel control based on information of other vehicles.
  • the apparatus may further include transmission means for transmitting the peripheral information detected by the detection means to the external device.
  • the information processing apparatus may further include control means for performing travel control of the vehicle using the information generated by the generation means.
  • travel control of the own vehicle can be performed using information generated using the surrounding information detected by the own vehicle and the other vehicle.
  • the information processing apparatus is Collection means (e.g., 215) for collecting surrounding information from each of a plurality of vehicles and at least one of predetermined targets;
  • a holding unit for example, 213) for holding peripheral information collected by the collection unit;
  • Provision means for example, 210) for providing the surrounding information held by the holding means to any one of the plurality of vehicles;
  • the surrounding information provided by the providing means is information of an area which can not be detected by the detecting means provided in the vehicle.
  • the control method of the vehicle provided with the detection means for detecting the peripheral information of the surroundings of the own vehicle and the communication means with the external device is A specifying step of specifying an undetectable area around the vehicle based on the surrounding information detected by the detecting means;
  • control method of the information processing apparatus is A collecting step of collecting peripheral information from each of the plurality of vehicles and / or at least one of the predetermined targets; A holding step of holding the peripheral information collected in the collecting step in a storage unit (for example, 213); Providing the peripheral information held by the storage unit to any one of the plurality of vehicles;
  • the surrounding information provided in the providing step is information of an area that can not be detected by the detecting unit included in the vehicle.
  • the system is configured to include a plurality of vehicles (for example, 201A to 201C) and a server (for example, 203),
  • Each of the plurality of vehicles is Detection means for detecting peripheral information around the host vehicle; Means of communication with the server; Specifying means for specifying an area that can not be detected in the vicinity of the host vehicle based on the surrounding information detected by the detection means; Obtaining means for obtaining information of the area specified by the specifying means from among the peripheral information detected by the target accumulated in the server via the communication means; Generation means for generating information for travel control of the host vehicle using the peripheral information detected by the detection means and the information acquired by the acquisition means;
  • Have The server is Collection means for collecting surrounding information from each of the plurality of vehicles and at least one of predetermined targets; Holding means for holding the peripheral information collected by the collecting means; And providing means for providing the surrounding information held by the holding means to any one of the plurality of vehicles.
  • the surrounding information provided by the providing means is information of the area specified by the specifying
  • each vehicle can perform appropriate travel control by using information detected by other vehicles. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両であって、自車両の周辺の周辺情報を検知する検知手段と、外部装置との通信手段と、前記検知手段にて検知した周辺情報に基づき、自車両の周辺において検知できない領域を特定する特定手段と、前記通信手段を介して、前記外部装置に蓄積された物標が検知した周辺情報の中から前記特定手段にて特定した領域の情報を取得する取得手段と、前記検知手段にて検知した周辺情報と、前記取得手段にて取得した情報とを用いて、自車両の走行制御のための情報を生成する生成手段と、を有する。

Description

車両、情報処理装置およびそれらの制御方法、並びにシステム
 本発明は、車両の制御技術に関する。
 従来、走行支援を行う車両においては、周辺環境の情報を収集するための検知ユニットを複数備えている。そして、この検知ユニットの検知結果に基づき、自車両の走行位置や走行条件の決定などが行われる。
 例えば、特許文献1では、発信側ナビゲーションシステムが無線ネットワークを介して受信側ナビゲーションシステムに警告位置を送信し、受信側ナビゲーションシステムがその警告位置を回避する代替経路を計画することが記載されている。また、警告位置は、サーバを介して送受信することが記載されている。
特表2011-503625号公報
 車両が走行している際に、その走行位置の周辺に位置する他車両や物標、環境の変化などに応じて、自車両が備える検知ユニットでは検知ができない範囲が存在する。例えば、複数車線からなる道路において、隣の車線を走行中の他車両がある場合、そのさらに向こう側の領域については他車両により遮られることで(いわゆる、オクルージョン)、検知ユニットによる検知が困難となる。また、交差点などにおいても、建物などにより視界が遮られ、進入してくる他車両を早期に検知/認識することが困難な場合がある。
 自動運転を行わせる際に、より早く他車両等の存在を認識することで、より適切な走行制御を行うことができる。しかし、上記のような場合においては、直前まで他車両などを認識できないことから、走行支援の精度が低下し、また、周辺情報の取得の遅れにより走行に関するリスクも高くなる。
 そこで、本願発明では、自車両の位置から認識できない領域が存在する場合でも、その領域の情報を取得し、走行支援の精度を向上することを目的とする。
 上記課題を解決するために本願発明は以下の構成を有する。すなわち、車両であって、自車両の周辺の周辺情報を検知する検知手段と、外部装置との通信手段と、前記検知手段にて検知した周辺情報に基づき、自車両の周辺において検知できない領域を特定する特定手段と、前記通信手段を介して、前記外部装置に蓄積された物標が検知した周辺情報の中から前記特定手段にて特定した領域の情報を取得する取得手段と、前記検知手段にて検知した周辺情報と、前記取得手段にて取得した情報とを用いて、自車両の走行制御のための情報を生成する生成手段と、を有する。
 本願発明により、自車両からは検知できない領域が存在する場合でも、その領域の情報を取得でき、走行支援の精度を向上させることが可能となる。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本願発明の一実施形態に係る車両用制御システムのブロック図。 本願発明に係るシステム構成の一例を示す図。 本願発明に係る車両の周辺環境を説明するための図。 本願発明に係る各車両の検知領域および情報を説明するための図。 第1の実施形態に係る処理シーケンスを示す図。 第2の実施形態に係る処理シーケンスを示す図。
 以下、本願発明に係る一実施形態について、図面を用いて説明する。なお、以下に示す構成等は一例であり、これに限定するものではない。
 [車両の構成]
 まず、本願発明を適用可能な自動運転に関する車両の制御システムの構成例について説明する。
 図1は、本発明の一実施形態に係る車両用制御装置のブロック図であり、車両1を制御する。図1において、車両1はその概略が平面図と側面図とで示されている。車両1は一例としてセダンタイプの四輪の乗用車である。
 図1の制御装置は、制御ユニット2を含む。制御ユニット2は車内ネットワークにより通信可能に接続された複数のECU20~29を含む。各ECUは、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。各ECUはプロセッサ、記憶デバイスおよびインタフェース等を複数備えていてもよい。
 以下、各ECU20~29が担当する機能等について説明する。なお、ECUの数や、担当する機能については適宜設計可能であり、本実施形態よりも細分化したり、あるいは、統合することが可能である。
 ECU20は、車両1の自動運転に関わる制御を実行する。自動運転においては、車両1の操舵と、加減速の少なくともいずれか一方を自動制御する。後述する制御例では、操舵と加減速の双方を自動制御する。
 ECU21は、電動パワーステアリング装置3を制御する。電動パワーステアリング装置3は、ステアリングホイール31に対する運転者の運転操作(操舵操作)に応じて前輪を操舵する機構を含む。また、電動パワーステアリング装置3は操舵操作をアシストしたり、あるいは、前輪を自動操舵するための駆動力を発揮するモータや、操舵角を検知するセンサ等を含む。車両1の運転状態が自動運転の場合、ECU21は、ECU20からの指示に対応して電動パワーステアリング装置3を自動制御し、車両1の進行方向を制御する。
 ECU22および23は、車両の周囲状況を検知する検知ユニット41~43の制御および検知結果の情報処理を行う。検知ユニット41は、車両1の前方を撮影するカメラであり(以下、カメラ41と表記する場合がある。)、本実施形態の場合、車両1のルーフ前部に2つ設けられている。カメラ41が撮影した画像の解析により、物標の輪郭抽出や、道路上の車線の区画線(白線等)を抽出可能である。
 検知ユニット42は、Light Detection and Ranging(LIDAR:ライダ)であり(以下、ライダ42と表記する場合がある)、車両1の周囲の物標を検知したり、物標との距離を測距する。本実施形態の場合、ライダ42は5つ設けられており、車両1の前部の各隅部に1つずつ、後部中央に1つ、後部各側方に1つずつ設けられている。検知ユニット43は、ミリ波レーダであり(以下、レーダ43と表記する場合がある)、車両1の周囲の物標を検知したり、物標との距離を測距する。本実施形態の場合、レーダ43は5つ設けられており、車両1の前部中央に1つ、前部各隅部に1つずつ、後部各隅部に一つずつ設けられている。検知ユニットの種類、設置位置、設置角度などに応じて、検知可能な範囲や情報は異なるものとする。
 ECU22は、一方のカメラ41と、各ライダ42の制御および検知結果の情報処理を行う。ECU23は、他方のカメラ42と、各レーダ43の制御および検知結果の情報処理を行う。車両の周囲状況を検知する装置を二組備えたことで、検知結果の信頼性を向上でき、また、カメラ、ライダ、レーダといった種類の異なる検知ユニットを備えたことで、車両の周辺環境の解析を多面的に行うことができる。また、いずれかの検知ユニットの検知結果が得られない場合や精度が低下している場合にも、他の検知ユニットによる検知結果を利用することで補完することも可能である。
 ECU24は、ジャイロセンサ5、GPSセンサ24b、通信装置24cの制御および検知結果あるいは通信結果の情報処理を行う。ジャイロセンサ5は車両1の回転運動を検知する。ジャイロセンサ5の検知結果や、車輪即等により車両1の進路を判定することができる。GPSセンサ24bは、車両1の現在位置を検知する。通信装置24cは、地図情報や交通情報を提供するサーバと無線通信を行い、これらの情報を取得する。ECU24は、記憶デバイスに構築された地図情報のデータベース24aにアクセス可能であり、ECU24は現在地から目的地へのルート探索等を行う。
 ECU25は、車車間通信用の通信装置25aを備える。通信装置25aは、周辺の他車両と無線通信を行い、車両間での情報交換を行う。
 ECU26は、パワープラント6を制御する。パワープラント6は車両1の駆動輪を回転させる駆動力を出力する機構であり、例えば、エンジンと変速機とを含む。ECU26は、例えば、アクセルペダル7Aに設けた操作検知センサ7aにより検知した運転者の運転操作(アクセル操作あるいは加速操作)に対応してエンジンの出力を制御したり、車速センサ7cが検知した車速等の情報に基づいて変速機の変速段を切り替える。車両1の運転状態が自動運転の場合、ECU26は、ECU20からの指示に対応してパワープラント6を自動制御し、車両1の加減速を制御する。
 ECU27は、方向指示器8(ウィンカ)を含む灯火器(ヘッドライト、テールライト等)を制御する。図1の例の場合、方向指示器8は車両1の前部、ドアミラーおよび後部に設けられている。
 ECU28は、入出力装置9の制御を行う。入出力装置9は運転者に対する情報の出力と、運転者からの情報の入力の受け付けを行う。音声出力装置91は運転者に対して音声により情報を報知する。表示装置92は運転者に対して画像の表示により情報を報知する。表示装置92は例えば運転席表面に配置され、インストルメントパネル等を構成する。なお、ここでは、音声と表示を例示したが振動や光により情報を報知してもよい。また、音声、表示、振動または光のうちの複数を組み合わせて情報を報知してもよい。更に、報知すべき情報のレベル(例えば緊急度)に応じて、組み合わせを異ならせたり、報知態様を異ならせてもよい。
 入力装置93は運転者が操作可能な位置に配置され、車両1に対する指示を行うスイッチ群であるが、音声入力装置も含まれてもよい。
 ECU29は、ブレーキ装置10やパーキングブレーキ(不図示)を制御する。ブレーキ装置10は例えばディスクブレーキ装置であり、車両1の各車輪に設けられ、車輪の回転に抵抗を加えることで車両1を減速あるいは停止させる。ECU29は、例えば、ブレーキペダル7Bに設けた操作検知センサ7bにより検知した運転者の運転操作(ブレーキ操作)に対応してブレーキ装置10の作動を制御する。車両1の運転状態が自動運転の場合、ECU29は、ECU20からの指示に対応してブレーキ装置10を自動制御し、車両1の減速および停止を制御する。ブレーキ装置10やパーキングブレーキは車両1の停止状態を維持するために作動することもできる。また、パワープラント6の変速機がパーキングロック機構を備える場合、これを車両1の停止状態を維持するために作動することもできる。
 <第1の実施形態>
 以下、本願発明に係る制御について説明を行う。
 [システム構成]
 図2は、本実施形態に係るシステム構成の例を示す図である。本実施形態において、複数の車両201(201A、201B、201C、・・・)とサーバ203とがネットワーク202を介して通信可能に接続されている。複数の車両201それぞれは、図1を用いて上述したような構成を備える。なお、車両201は全て同じ構成である必要はない。ネットワーク202の構成は特に限定するものではなく、また、車両201がネットワーク202に接続する際の方式等についても特に限定するものではない。例えば、通信方式は、通信時のデータ量や通信速度などに応じて動的に切り替えるようにしてもよい。
 サーバ203は、複数の車両201それぞれから各種情報を収集し、管理する。また、複数の車両201それぞれからの要求に応じて、管理している情報を提供する。サーバ203は、CPU210、RAM211、ROM212、外部記憶装置213、及び通信部215を備え、これらはそれぞれサーバ203内にて通信可能な様にバス214を介して接続されている。CPU210は、ROM212等に格納されたプログラムを読み出して実行することにより、サーバ203の動作全体を制御する。RAM211は、揮発性の記憶領域であり、ワークメモリなどとして利用される。ROM212は、不揮発性の記憶領域である。外部記憶装置213は、不揮発性の記憶領域であり、本実施形態に係るプログラムや各種データを管理するためのデータベースなどが保持される。通信部215は、複数の車両201それぞれと通信するための部位であり、通信制御を司る。
 なお、図2では、1つのサーバ203のみを示したが、この構成に限定されるものではなく、複数のサーバにより負荷分散を行い、データの収集/管理/提供を行うようにしてもよい。また、データベースとして用いられる外部記憶装置213は、サーバ203とは分けて設けられるように構成されてもよい。また、各部位は複数備えられていてもよい。
 [走行時における周辺環境]
 車両が行う走行制御の例としては、道路上での車両の走行位置、走行速度、前後の車両との車間距離、などの制御が挙げられる。これらの走行制御を行う場合に、車両は、自車両の所定の範囲における周辺情報を取得する。この所定の範囲は、検知ユニットの特性や配置に応じて様々な範囲が規定される。ここで、車両が検知可能な範囲を検知範囲として予め保持する。そして、その範囲において、物標や障害物などが位置することで、その先の領域については、検知が不可であるとして認識できるものとする。つまり、車両の周辺領域において、オクルージョンが生じていることを認識可能であるとする。また、その領域の位置については、自車両の位置との相対関係により特定できるものとする。
 図3は、本実施形態に係る自車両の走行時における周辺環境を説明するための図である。ここでは説明を簡略化するために、車両301を自車両とし、平面図を用いて説明する。なお、平面的な検知に限定するものではなく、立体的な検知を行ってもよい。
 図3では、車両301の周囲に4台の車両302~305、および、人物309、310が存在しているものとして説明する。また、車両301が直進しており、進行方向右側前方に合流する道路がある状況を示している。また、車両301の左右にはガードレール等の物標306~308が存在しているものとする。図3中の点線は、自車両の検知範囲を説明するために便宜上付与しているものである。
 図3に示す例において、物標306~308の存在により領域311、315、316は死角(以下、死角領域)となっており、車両301の現在の位置からは領域311、315、316の情報は取得できない。更に、車両302~304の存在により領域312、313、314は死角領域となっており、車両301の現在の位置からは、領域312、313、314の情報は取得できない。したがって、車両301では、検知できない領域の情報は、走行制御には用いることができない。
 例えば、人物309については、車両301が検知できる範囲に存在しているため、この存在を考慮して走行制御を行うことができる。一方、車両305や人物310については、死角領域に存在するため、その存在を検知できていない。そのため、例えば、合流位置において車両305が進入してきた際に、そのことを直前まで検知できない場合には、回避動作に遅れが生じる。更には、予め進入を予測した走行位置への走行制御ができない。これに対し、早期に車両305の存在を検知できていれば、予め走行位置を道路が合流する位置から離れた位置に移動させるといった制御が可能となる。
 そこで、本実施形態では、自車両にて検出した周辺情報に加え、他車両が検出した周辺情報や所定の物標が検出した周辺情報を取得し、自車両では検出できなかった領域(死角領域)の周辺情報として利用する。これにより、より適切な走行制御を可能とする。ここでの所定の物標とは、道路に面したある位置に配置されたカメラなどが相当する。以下の説明では、車両が検出した周辺情報を例に挙げて説明する。
 [周辺情報の構成]
 図4は、本実施形態にて用いる他車両が取得する周辺情報の概念を説明するための図である。図4において、自車両としての車両401の周辺に、他車両として4台の車両402~405が存在している。範囲406は、車両402が備える検知ユニットが検知可能な範囲である。また、範囲407は、車両403が備える検知ユニットが検知可能な範囲である。また、範囲408は、車両404が検知可能な範囲である。また、範囲409は、車両405が検知可能な範囲である。つまり、車両402~405はそれぞれ異なる範囲の検知が可能である。これらの範囲における検知結果を用いることで、車両401が検知できなかった領域の情報を補完することができる。ここでは説明を簡略化するために、車両402~405それぞれが障害物等により検知できない領域については省略している。
 各車両から検知された範囲の情報は、その車両の位置情報などと共に、サーバ203へ送信される。サーバ203は、各車両から送信されてきた情報を各車両の情報に関連付けて管理する。このとき、サーバ203は、受信時刻や各車両が検知した時刻の情報も併せて管理してもよい。
 更に、サーバ203は、各車両からの要求に応じて、要求を行った車両の周辺に関する情報を、管理している情報の中から抽出し、提供する。ここでの提供する情報は、要求を行った車両の現在位置の周辺の情報であってもよいし、予定されている走行経路の周辺の情報であってもよい。また、例えば、要求を行った車両に近い位置の情報を優先的に提供してもよいし、特定の物標に関する情報を優先的に提供するようにしてもよい。ここでの特定の物標としては、例えば、人や、道路上に位置する物体などが挙げられる。また、通信速度とデータ量との関係から送信する情報を精査してもよい。また、サーバ203側で収集した情報を統合し、別の情報として整理したうえで提供するようにしてもよい。例えば、予め保持している地図情報に収集した情報(イベント等)をマッピングするような構成であってもよい。そして、この情報を各車両に提供するようにしてもよい。
 [処理フロー]
 以下、本実施形態に係る処理シーケンスについて説明する。本処理は、車両201及びサーバ203が実行する構成を示す。図5の右側はサーバ203が実行する処理を示し、左側は車両201が実行する処理を示す。図5中の点線矢印はデータの送受信を示す。
 まず、車両側の処理について説明する。なお、図2に示したように、複数の車両201とサーバ203との間でデータの送受信が行われており、ここでは、ある1台の車両201を例に挙げて説明する。車両201による処理は、ECUや通信装置など複数の装置が連携して行われるが、ここでは便宜上、処理の主体を車両201と記載して説明を行う。
 S501にて、車両201は、自車が備える複数の検知ユニットにより、周辺環境の情報(以下、周辺情報)を取得する。ここで取得される情報の種類や構成は、特に限定するものではなく、車両の構成に応じて変更されてもよい。
 S502にて、車両201は、S501にて検知した周辺情報をサーバ203へ送信する。ここで送信する周辺情報は、検知ユニットにて検知した情報の全てを送信してもよいし、特定の検知ユニットにて検知した情報のみを送信するようにしてもよい。また、通信速度やデータ量に応じて、送信するデータを制限してもよいし、データに対する優先度を設けておき、重要な情報から優先的に順次送信するような構成であってもよい。優先度の設定方法は特に限定するものでは無い。このとき、自車両を識別するための情報や位置情報なども併せて送信してよい。また、検知した際の時刻情報などを、送信する情報に含めてもよい。
 S503にて、車両201は、S501にて取得した周辺情報に基づき、検知ユニットにて検知できなかった領域(死角領域)を特定する。ここでの死角領域は、図3を用いて説明した領域が相当する。また、自車両が検知可能な範囲の情報を予め保持しておき、その範囲外の領域を死角領域として扱ってもよい。例えば、検知ユニットは、設置位置から距離が離れるほどその検知精度は低下するため、障害物が無い場合でも、ある距離よりも離れた位置は死角領域として扱ってもよい。もしくは、自車両の周辺をいくつかの領域に分割して定義しておき、その領域ごとに死角領域が含まれるかを判定してもよい。例えば、分割の粒度としては、前方正面、前方左、前方右、側面左、側面右、後方正面、後方左、及び、後方右といった8つの領域に分割してもよい。
 S504にて、車両201は、S503にて死角領域が特定されたか否かを判定する。死角領域が特定された場合は(S504にてYES)S505へ進み、死角領域が特定されなかった場合は(S504にてNO)S507へ進む。
 S505にて、車両201は、サーバ203に周辺情報の取得要求を行う。ここで、車両201は、自車両の現在の位置や走行速度など基づいて、所定の範囲(距離)における死角領域の情報のみを要求してもよい。もしくは、走行予定の経路上の周辺情報を取得するように要求してもよい。また、自車両の現在位置を基準として、その位置からの距離に応じて、要求する周辺情報の種類を変更してもよい。例えば、所定の範囲内における死角領域については画像データを要求し、所定の範囲外における死角領域についてはより簡略化された情報を要求してもよい。
 S506にて、車両201は、S505にて送信した取得要求の応答として周辺情報を取得する。ここで取得される周辺情報は、必ずしも要求した情報全てを受信するまで待機する必要はない。例えば、取得要求を送信してから所定の時間が経過した場合や、自車両が取得要求を送信した位置から所定の距離以上離れた場合には、未受信であってもこの取得要求に対応するデータの取得を打ち切るような構成であってもよい。これは、送受信のデータ量や通信状況、自車両の走行速度や走行位置などにより、周辺環境に対する状況は時々刻々と変化していることを考慮している。
 S507にて、車両201は、S501にて取得した周辺情報、及び、S506にて取得した周辺情報を用いて、走行制御に関する情報を生成する。そして、車両201は、生成した情報を用いて、自車両の走行制御を行う。走行制御の内容については、特に限定するものではなく、例えば、速度制御や走行位置の変更、走行経路の変更などが挙げられる。なお、S506にてデータを取得しなかった場合には(例えば、死角領域が無かった場合)、自車両の検知ユニットが検知した周辺情報のみを用いる。その後、S501へ戻る。なお、自動運転や走行支援の制御の終了を指示された場合などに、本処理フローは終了する。
 次に、サーバ203側の処理について説明する。
 S511にて、サーバ203は、各車両から送信されてくる周辺情報を取得する。
 S512にて、サーバ203は、S512にて収集された周辺情報を予め定められた構成に対応するように抽出し、データベース(外部記憶装置213)上に蓄積する。ここでの蓄積方法は、特に限定するものではなく、処理速度やデータ量に応じて規定されてよい。また、収集してから所定の時間が経過した場合には、過去の周辺情報を削除するようにしてもよい。
 S513にて、サーバ203はいずれかの車両から周辺情報の取得要求を受け付けたか否かを判定する。取得要求を受け付けた場合は(S513にてYES)S514へ進み、受け付けていない場合は(S513にてNO)S511へ戻る。
 S514にて、サーバ203は、車両から受け付けた取得要求に応じて、管理している周辺情報の中から提供するための周辺情報を抽出する。ここでの情報は、通信速度や通信状態、データ量に応じて、送信する情報の内容を決定してもよいし、送信する順序を決定してもよい。
 S515にて、サーバ203は、S514にて抽出した情報を取得要求への応答として車両に送信する。なお、送信に要する時間(例えば、送信を開始してからの経過時間)に応じて、情報の送信を途中で打ち切るような構成でもよいし、対応する領域の情報が更新された場合には、古い情報の送信を中断し、更新後の情報を送信するように構成してもよい。そして、S511へ戻る。
 なお、各車両は、自動運転や走行支援を行っていない場合(つまり、手動による運転を行っている場合)にも、自車の周辺情報を適時取得し、サーバ203に送信してよい。つまり、図5のS501及びS502の処理については、自動運転や走行支援の実施の有無に関わらず、常に実行するようにしてよい。
 また、サーバ203は、複数の車両それぞれから送信されてくる周辺情報を都度受信し、更新/管理しているものとする。つまり、図5のS511及びS512の処理については、車両からの送信が継続されている場合には、常時行われるものとする。
 また、車両からの取得要求(S503)において、例えば、自車両の左側前方に他車両が走行していた場合、その先の領域は検知できないものとして扱う。従って、車両は、サーバに対し、左側前方の領域の情報のみを要求するようにしてもよい。このとき、自車両および他車両は走行中であるため、相対速度や進行方向などに応じて、更に詳細にデータを取得する領域を限定するようにしてもよい。
 例えば、自車両が直進している場合には、前方の死角領域の情報を優先し、左右の情報については優先度を下げるように制御してもよい。また、データ量や通信負荷の制限がある場合には、自車両から予め規定された位置までの範囲の情報をより優先的に取得するようにしてもよい。より具体的には、自車両の位置から近い領域をより優先的に要求するようにしてもよい。また、自車両の周囲をいくつかの領域に予め分割しておき、その分割した領域の周辺情報のみを要求してもよい。また、走行中や一旦停止中など車両の走行状態に限らず、取得要求を送信するように構成してよい。また、動いている物標や人物に関する周辺情報は、より優先的に取得するように構成してもよい。
 また、送受信するデータ形式を優先度に基づいて切り替えてもよい。例えば、優先度の高い周辺情報については、カメラにて取得した画像データを送受信し、優先度が低い場合や所定の閾値よりも遠い位置の情報については他のデータ形式にて送受信を行うようにしてもよい。
 また、周辺情報を取得した他車両の情報(走行経路や自車両との位置関係)を併せて送受信するような構成であってもよい。
 また、サーバが各車両の周辺情報を管理する場合において、地図上に収集した周辺情報マッピングし、エリアごとに管理するようにしてもよい。エリアの粒度は特に限定するものではなく、例えば、0.1m×0.1mの単位の粒度から構成される地図情報であってもよい。また、車両とサーバとが対応する地図情報を保持し、その地図情報に基づいて情報のやり取りを行ってもよい。
 また、サーバが各車両から収集した情報に関し、同じ領域に対する情報を新たに受信した場合には、その領域に関する情報を更新するように構成してもよいし、履歴として一定期間にわたって保持し続けてもよい。また、各車両から収集した情報に対し信頼度を設定しておき、ある領域に対する情報を受信してから経過した時間に応じて、その情報に対する信頼度を低下させるように構成してもよい。もしくは、ある領域に対して複数の車両から同じ検知結果を得られた場合には、その情報の信頼度を向上させるようにしてもよい。また、所定数の車両から同じ検知結果を得られた場合に、その内容を、他の車両へ提供できる情報として扱うようにしてもよい。
 以上、本実施形態により、自車両が備える検知ユニットにて検知できない領域が周辺に存在する場合でも、他車両が検知した情報を利用することで、適切な走行制御を行うことが可能となる。
 <第2の実施形態>
 第1の実施形態では、図5に示したように、サーバが、車両からの取得要求に応じて車両に送信するデータを選定していた。これに対し本実施形態では、サーバが、車両から所定の範囲までの情報を車両に提供し、車両側で利用する情報を取捨選択するような構成とする。つまり、本実施形態では、車両が、自車両の検知ユニットで検知した周辺情報を優先的に利用しつつ、サーバから取得した周辺情報にて死角領域に対する情報を補完する構成について説明する。
 [処理フロー]
 以下、本実施形態に係る処理シーケンスについて説明する。本処理は、車両201及びサーバ203が実行する構成を示す。図6の右側はサーバ203が実行する処理を示し、左側は車両201が実行する処理を示す。図6中の点線矢印はデータの送受信を示す。
 まず、車両側の処理について説明する。なお、図2に示したように、複数の車両201とサーバ203との間でデータの送受信が行われており、ここでは、ある1台の車両201を例に挙げて説明する。車両201による処理は、ECUや通信装置など複数の装置が連携して行われるが、ここでは便宜上、処理の主体を車両201と記載して説明を行う。
 S601にて、車両201は、自車が備える複数の検知ユニットにより、周辺環境の情報(周辺情報)を取得する。ここで取得される情報は、特に限定するものではなく、車両の構成に応じて変更されてもよい。
 S602にて、車両201は、S601にて検知した周辺情報をサーバ203へ送信する。ここで送信する周辺情報は、検知ユニットにて検知した情報の全てを送信してもよいし、特定の検知ユニットにて検知した情報のみを送信するようにしてもよい。また、通信速度や通信状態、データ量に応じて、送信するデータを制限してもよいし、優先度を設けておき、重要な情報から優先的に順次送信するような構成であってもよい。ここでの優先度の設定方法については、特に限定するものではない。このとき、自車両を識別するための情報や位置情報なども併せて送信する。
 S603にて、車両201は、他車両が検知した周辺情報をサーバ203から取得する。なお、周辺情報の取得は、ここでの処理に限定するものではなく、例えば、後述するS604にて死角領域があると判定された場合に、受信するようにしてもよい。これにより、データの受信量を抑えつつ、必要なタイミングにてデータを取得するようにしてもよい。
 S604にて、車両201は、S601にて取得した周辺情報に基づき、検知ユニットにて検知できなかった領域(死角領域)を特定する。ここでの死角領域は、図3を用いて説明した領域が相当する。また、自車両が検知可能な範囲の情報を予め保持しておき、その範囲外の領域を死角領域として扱ってもよい。例えば、検知ユニットは、設置位置から距離が離れるほどその検知精度は低下するため、障害物が無い場合でも、ある距離よりも離れた位置は死角領域として扱ってよい。
 S605にて、車両201は、S604にて死角領域が特定されたか否かを判定する。死角領域が特定された場合は(S605にてYES)S606へ進み、死角領域が特定されなかった場合は(S605にてNO)S607へ進む。
 S606にて、車両201は、S603にて取得した周辺情報に、死角領域に対応する情報があるか否かを判定する。死角領域に対応する情報があると判定された場合は(S606にてYES)S608へ進み、ないと判定された場合は(S606にてNO)S607へ進む。
 S607にて、車両201は、S601にて取得した周辺情報を用いて、走行制御に関する情報を生成する。そして、車両201は、生成した情報を用いて、自車両の走行制御を行う。その後、S601へ戻る。なお、自動運転や走行支援の制御の終了を指示された場合などに、本処理フローは終了する。
 S608にて、車両201は、S601にて取得した周辺情報に対し、サーバ203から取得した周辺情報を用いて、補完処理を行う。例えば、自車両の周辺の領域を複数に分け、その領域のうち死角領域が含まれる領域に関する周辺情報を、サーバから取得した情報の中から抽出して補完を行うようにしてもよい。また、自車両と他車両との位置関係を考慮して、サーバから取得した周辺情報を補正した上で、補完を行うようにしてもよい。なお、ここでの補完方法は特に限定するものではなく、処理速度や死角領域の範囲に応じて切り替えるようにしてもよい。また、利用する周辺情報についても、状況に応じて切り替えるようにしてもよい。
 S609にて、車両201は、S608にて補完された周辺情報を用いて、走行制御に関する情報を生成する。そして、車両201は、生成した情報を用いて、自車両の走行制御を行う。その後、S601へ戻る。なお、自動運転や走行支援の制御の終了を指示された場合などに、本処理フローは終了する。
 次に、サーバ203側の処理について説明する。
 S611にて、サーバ203は、各車両から送信されてくる周辺情報を取得する。
 S612にて、サーバ203は、S612にて収集された周辺情報を予め定められた構成に対応するように抽出し、データベース(外部記憶装置213)上に保持する。ここでの保持方法は、特に限定するものではなく、処理速度やデータ量に応じて規定されてよい。また、収集してから所定の時間が経過した場合には、過去の周辺情報を削除するようにしてもよい。
 S613にて、サーバ203は、車両から受け付けた周辺情報に含まれる位置情報の近傍に対応する周辺情報を車両へ送信する。ここでの情報は、通信速度やデータ量に応じて、送信する情報を決定してもよいし、送信する順序を決定してもよい。なお、送信に要する時間(経過時間)に応じて、情報の送信を途中で打ち切ってもよい。また、各車道の動作状態を識別し、各車両が自動運転や走行支援を行うモードになっている場合に周辺情報を送信するように構成されてもよい。この場合、車両が手動にて走行している際には、車両側からサーバへの周辺情報の送信は行われるが、サーバ側から車両への周辺情報の提供は行われない構成となる。そして、S611へ戻る。
 上記の処理では、車両が必要なタイミングで周辺情報を取得していたが(S603)、これに限定するものではない。例えば、車両201は地図情報を備え、サーバ203から周辺情報を受信するごとに、地図情報上に関連付けて(マッピングして)保持するように構成してもよい。このとき、受信してから所定の時間が経過した情報については破棄するように構成してもよいし、情報の信頼度を低下させるように構成してもよい。この構成の場合は、S606にて自車両の周辺領域に死角領域があると判定された際には、その時点で地図情報に関連付けられた周辺情報を用いて走行制御を行うこととなる。このように予め地図情報とサーバから提供された情報とを関連づけておくことで、死角領域があると判定された時点での補完処理の負荷を低減するような構成であってもよい。
 上記の処理では、通常、自車両が検知できた領域については、その情報を走行制御に用いることを想定している。しかし、車両が検知できた領域(死角領域以外の領域)に対し、サーバから周辺情報を受け付けた際に、その周辺情報の緊急度や優先度が高く設定されていた場合には、自車両が検知した情報に代えて、サーバから受け付けた周辺情報を走行制御に用いるようにしてもよい。
 以上の構成により、車両が検知できなかった領域の情報を各車両に提供することで、車両側では走行制御の精度を向上することができる。また、第1の実施形態に比べ、サーバ側での抽出処理を省略することで、応答時間を短縮化することができる。
 <実施形態のまとめ>
 1.上記実施形態の車両(例えば、1)は、
 自車両の周辺の周辺情報を検知する検知手段(例えば、41、43)と、
 外部装置との通信手段(例えば、24、24c)と、
 前記検知手段にて検知した周辺情報に基づき、自車両の周辺において検知できない領域を特定する特定手段(例えば、22、23)と、
 前記通信手段を介して、前記外部装置に蓄積された物標が検知した周辺情報の中から前記特定手段にて特定した領域の情報を取得する取得手段(例えば、24)と、
 前記検知手段にて検知した周辺情報と、前記取得手段にて取得した情報とを用いて、自車両の走行制御のための情報を生成する生成手段(例えば、20)と、
を有する。
 この実施形態により、自車両が備える検知ユニットにて検知できない領域が周辺に存在する場合でも、他車両が検知した情報を利用することで、適切な走行制御を行うことが可能となる。
 2.上記実施形態の車両では、
 前記特定手段は、自車両と他車両との位置関係に基づき、当該他車両より隠れている領域を検知できない領域として特定することを特徴とする。
 この実施形態により、自車両の周辺に位置する他車両が原因として検知できない領域を、周辺情報をサーバから取得する領域として特定することができる。
 3.上記実施形態では、
 前記特定手段は、自車両と物標との位置関係に基づき、当該物標より隠れている領域を検知できない領域として特定することを特徴とする。
 この実施形態により、物標が原因として検知できない領域を、周辺情報をサーバから取得する領域として特定することができる。
 4.上記実施形態では、
 前記取得手段は、前記外部装置に蓄積された周辺情報のうち、自車両の現在位置から所定の範囲内の周辺情報を取得することを特徴とする。
 この実施形態により、自車両の現在位置に応じてサーバから取得する周辺情報を切り替えることができ、取得の際の通信負荷を抑止することができる。
 5.上記実施形態では、
  前記取得手段は、前記外部装置に蓄積された周辺情報のうち、予め設定された自車両の走行経路上の周辺情報を取得することを特徴とする。
 この実施形態により、自車両の走行経路に応じてサーバから取得する周辺情報を切り替えることができ、取得の際の通信負荷を抑止することができる。また、自動運転制御における自動運転中の走行経路を用いてその経路に沿った周辺情報を取得でき、必要十分に情報を取得することが可能となる。
 6.上記実施形態では、
 前記取得手段は、所定の種類の物標に関する周辺情報を優先的に取得することを特徴とする。
 この実施形態により、優先度の高い周辺情報をより早期に取得することが可能となる。
 7.上記実施形態では、
 前記取得手段は、自車両の走行状態に応じて、取得する周辺情報の領域を切り替えることを特徴とする。
 この実施形態により、自車両の走行状態に応じて、サーバから取得する周辺情報の範囲を切り替え、優先度の高い周辺情報はより早期に取得することができつつ、通信負荷を抑制することが可能となる。
 8.上記実施形態では、
 前記取得手段は、前記通信手段による通信状態、及び、周辺情報のデータ量に応じて、取得する周辺情報を切り替えることを特徴とする。
 この実施形態により、周辺情報をサーバから取得する際の通信負荷を抑制することが可能となる。
 9.上記実施形態では、
 前記取得手段は、前記通信手段による通信状態、及び、自車両と周辺情報に対応する領域との位置関係に基づいて、取得する周辺情報のデータ形式を切り替えることを特徴とする。
 この実施形態により、周辺情報をサーバから取得する際の通信負荷を抑制することが可能となる。
 10.上記実施形態では、
 前記取得手段は更に、周辺情報を検知した物標の情報を取得することを特徴とする。
 この実施形態により、他車両の情報に基づく、走行制御が可能となる。
 11.上記実施形態では、
 前記検知手段にて検知した周辺情報を前記外部装置に送信する送信手段を更に有することを特徴とする。
 この実施形態により、自車両が検知した周辺情報を、サーバを介して他車両が利用可能な構成を実現することができる。
 12.上記実施形態では、
 前記生成手段にて生成された情報を用いて、車両の走行制御を行う制御手段を更に有することを特徴とする。
 この実施形態により、自車両及び他車両が検知した周辺情報を用いて生成された情報を用いて、自車両の走行制御が可能となる。
 13.上記実施形態では、情報処理装置(例えば、203)は、
 複数の車両それぞれ、および、所定の物標の少なくともいずれかから周辺情報を収集する収集手段(例えば、215)と、
 前記収集手段にて収集した周辺情報を保持する保持手段(例えば、213)と、
 前記保持手段にて保持した周辺情報を前記複数の車両のうちのいずれかの車両に提供する提供手段(例えば、210)と
を有し、
 前記提供手段にて提供される周辺情報は、前記車両が備える検知手段にて検知ができない領域の情報であることを特徴とする。
 この実施形態により、複数の車両が検知した周辺情報を収集し、各車両が検知できなかった領域に関する周辺情報を提供することが可能となる。
 14.上記実施形態では、自車両の周辺の周辺情報を検知する検知手段と、外部装置との通信手段とを備える車両の制御方法は、
 前記検知手段にて検知した周辺情報に基づき、自車両の周辺において検知できない領域を特定する特定工程と、
 前記通信手段を介して、前記外部装置に蓄積された物標が検知した周辺情報の中から前記特定工程にて特定した領域の情報を取得する取得工程と、
 前記検知手段にて検知した周辺情報と、前記取得工程にて取得した情報とを用いて、自車両の走行制御のための情報を生成する生成工程と、
を有することを特徴とする。
 この実施形態により、自車両が備える検知ユニットにて検知できない領域が周辺に存在する場合でも、他車両が検知した情報を利用することで、適切な走行制御を行うことが可能となる。
 15.上記実施形態では、情報処理装置(例えば、203)の制御方法は、
 複数の車両それぞれ、および、所定の物標の少なくともいずれかから周辺情報を収集する収集工程と、
 前記収集工程にて収集した周辺情報を記憶部(例えば、213)に保持する保持工程と、
 前記記憶部にて保持されている周辺情報を前記複数の車両のうちのいずれかの車両に提供する提供工程と
を有し、
 前記提供工程にて提供される周辺情報は、前記車両が備える検知手段にて検知ができない領域の情報であることを特徴とする。
 この実施形態により、複数の車両が検知した周辺情報を収集し、各車両が検知できなかった領域に関する周辺情報を提供することが可能となる。
 16.上記実施形態では、複数の車両(例えば、201A~201C)と、サーバ(例えば、203)とを含んで構成されるシステムであって、
 前記複数の車両のそれぞれは、
 自車両の周辺の周辺情報を検知する検知手段と、
 前記サーバとの通信手段と、
 前記検知手段にて検知した周辺情報に基づき、自車両の周辺において検知できない領域を特定する特定手段と、
 前記通信手段を介して、前記サーバに蓄積された物標が検知した周辺情報の中から前記特定手段にて特定した領域の情報を取得する取得手段と、
 前記検知手段にて検知した周辺情報と、前記取得手段にて取得した情報とを用いて、自車両の走行制御のための情報を生成する生成手段と、
を有し、
 前記サーバは、
 前記複数の車両それぞれ、および、所定の物標の少なくともいずれかから周辺情報を収集する収集手段と、
 前記収集手段にて収集した周辺情報を保持する保持手段と、
 前記保持手段にて保持した周辺情報を前記複数の車両のうちのいずれかの車両に提供する提供手段と
を有し、
 前記提供手段にて提供される周辺情報は、前記車両の特定手段にて特定された領域の情報であることを特徴とする。
 この実施形態により、各車両が備える検知ユニットにて検知できない領域が周辺に存在する場合でも、その他車両が検知した情報を利用することで、各車両は適切な走行制御を行うことが可能となる。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。

Claims (16)

  1.  自車両の周辺の周辺情報を検知する検知手段と、
     外部装置との通信手段と、
     前記検知手段にて検知した周辺情報に基づき、自車両の周辺において検知できない領域を特定する特定手段と、
     前記通信手段を介して、前記外部装置に蓄積された物標が検知した周辺情報の中から前記特定手段にて特定した領域の情報を取得する取得手段と、
     前記検知手段にて検知した周辺情報と、前記取得手段にて取得した情報とを用いて、自車両の走行制御のための情報を生成する生成手段と、
    を有することを特徴とする車両。
  2.  前記特定手段は、自車両と他車両との位置関係に基づき、当該他車両より隠れている領域を検知できない領域として特定することを特徴とする請求項1に記載の車両。
  3.  前記特定手段は、自車両と物標との位置関係に基づき、当該物標より隠れている領域を検知できない領域として特定することを特徴とする請求項1または2に記載の車両。
  4.  前記取得手段は、前記外部装置に蓄積された周辺情報のうち、自車両の現在位置から所定の範囲内の周辺情報を取得することを特徴とする請求項1乃至3のいずれか一項に記載の車両。
  5.  前記取得手段は、前記外部装置に蓄積された周辺情報のうち、予め設定された自車両の走行経路上の周辺情報を取得することを特徴とする請求項1乃至4のいずれか一項に記載の車両。
  6.  前記取得手段は、所定の種類の物標に関する周辺情報を優先的に取得することを特徴とする請求項1乃至5のいずれか一項に記載の車両。
  7.  前記取得手段は、自車両の走行状態に応じて、取得する周辺情報の領域を切り替えることを特徴とする請求項1乃至6のいずれか一項に記載の車両。
  8.  前記取得手段は、前記通信手段による通信状態、及び、周辺情報のデータ量に応じて、取得する周辺情報を切り替えることを特徴とする請求項1乃至7のいずれか一項に記載の車両。
  9.  前記取得手段は、前記通信手段による通信状態、及び、自車両と周辺情報に対応する領域との位置関係に基づいて、取得する周辺情報のデータ形式を切り替えることを特徴とする請求項1乃至8のいずれか一項に記載の車両。
  10.  前記取得手段は更に、周辺情報を検知した物標の情報を取得することを特徴とする請求項1乃至9のいずれか一項に記載の車両。
  11.  前記検知手段にて検知した周辺情報を前記外部装置に送信する送信手段を更に有することを特徴とする請求項1乃至10のいずれか一項に記載の車両。
  12.  前記生成手段にて生成された情報を用いて、車両の走行制御を行う制御手段を更に有することを特徴とする請求項1乃至11のいずれか一項に記載の車両。
  13.  複数の車両それぞれ、および、所定の物標の少なくともいずれかから周辺情報を収集する収集手段と、
     前記収集手段にて収集した周辺情報を保持する保持手段と、
     前記保持手段にて保持した周辺情報を前記複数の車両のうちのいずれかの車両に提供する提供手段と
    を有し、
     前記提供手段にて提供される周辺情報は、前記車両が備える検知手段にて検知ができない領域の情報であることを特徴とする情報処理装置。
  14.  自車両の周辺の周辺情報を検知する検知手段と、外部装置との通信手段とを備える車両の制御方法であって、
     前記検知手段にて検知した周辺情報に基づき、自車両の周辺において検知できない領域を特定する特定工程と、
     前記通信手段を介して、前記外部装置に蓄積された物標が検知した周辺情報の中から前記特定工程にて特定した領域の情報を取得する取得工程と、
     前記検知手段にて検知した周辺情報と、前記取得工程にて取得した情報とを用いて、自車両の走行制御のための情報を生成する生成工程と、
    を有することを特徴とする車両の制御方法。
  15.  複数の車両それぞれ、および、所定の物標の少なくともいずれかから車両の周辺情報を収集する収集工程と、
     前記収集工程にて収集した周辺情報を記憶部に保持する保持工程と、
     前記記憶部にて保持されている周辺情報を前記複数の車両のうちのいずれかの車両に提供する提供工程と
    を有し、
     前記提供工程にて提供される周辺情報は、前記車両が備える検知手段にて検知ができない領域の情報であることを特徴とする情報処理装置の制御方法。
  16.  複数の車両と、サーバとを含んで構成されるシステムであって、
     前記複数の車両のそれぞれは、
     自車両の周辺の周辺情報を検知する検知手段と、
     前記サーバとの通信手段と、
     前記検知手段にて検知した周辺情報に基づき、自車両の周辺において検知できない領域を特定する特定手段と、
     前記通信手段を介して、前記サーバに蓄積された物標が検知した周辺情報の中から前記特定手段にて特定した領域の情報を取得する取得手段と、
     前記検知手段にて検知した周辺情報と、前記取得手段にて取得した情報とを用いて、自車両の走行制御のための情報を生成する生成手段と、
    を有し、
     前記サーバは、
     前記複数の車両それぞれ、および、所定の物標の少なくともいずれかから周辺情報を収集する収集手段と、
     前記収集手段にて収集した周辺情報を保持する保持手段と、
     前記保持手段にて保持した周辺情報を前記複数の車両のうちのいずれかの車両に提供する提供手段と
    を有し、
     前記提供手段にて提供される周辺情報は、前記車両の特定手段にて特定された領域の情報であることを特徴とするシステム。
PCT/JP2017/042504 2017-11-28 2017-11-28 車両、情報処理装置およびそれらの制御方法、並びにシステム WO2019106704A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019556428A JP6908723B2 (ja) 2017-11-28 2017-11-28 車両、および情報処理装置
PCT/JP2017/042504 WO2019106704A1 (ja) 2017-11-28 2017-11-28 車両、情報処理装置およびそれらの制御方法、並びにシステム
CN201780097008.6A CN111373456B (zh) 2017-11-28 2017-11-28 车辆、信息处理装置
US16/883,450 US20200283024A1 (en) 2017-11-28 2020-05-26 Vehicle, information processing apparatus, control methods thereof, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/042504 WO2019106704A1 (ja) 2017-11-28 2017-11-28 車両、情報処理装置およびそれらの制御方法、並びにシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/883,450 Continuation US20200283024A1 (en) 2017-11-28 2020-05-26 Vehicle, information processing apparatus, control methods thereof, and system

Publications (1)

Publication Number Publication Date
WO2019106704A1 true WO2019106704A1 (ja) 2019-06-06

Family

ID=66664394

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/042504 WO2019106704A1 (ja) 2017-11-28 2017-11-28 車両、情報処理装置およびそれらの制御方法、並びにシステム

Country Status (4)

Country Link
US (1) US20200283024A1 (ja)
JP (1) JP6908723B2 (ja)
CN (1) CN111373456B (ja)
WO (1) WO2019106704A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112238867A (zh) * 2019-07-16 2021-01-19 丰田自动车株式会社 车辆控制装置以及车辆控制***
WO2023026920A1 (ja) * 2021-08-26 2023-03-02 パナソニックIpマネジメント株式会社 センシング装置、処理装置、およびデータを処理する方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11787407B2 (en) * 2019-07-24 2023-10-17 Pony Ai Inc. System and method for sensing vehicles and street
JP7505443B2 (ja) * 2021-05-07 2024-06-25 トヨタ自動車株式会社 遠隔監視装置、遠隔監視システム、遠隔監視方法、及び遠隔監視プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351992A (ja) * 2003-05-27 2004-12-16 Denso Corp 車両の障害物検知装置及び車両制御装置
JP2005191639A (ja) * 2003-12-24 2005-07-14 Denso Corp 歩行者検知装置
JP2005234921A (ja) * 2004-02-20 2005-09-02 Honda Motor Co Ltd 車車間通信装置
JP2011108084A (ja) * 2009-11-19 2011-06-02 Mitsubishi Heavy Ind Ltd 自律走行車および自律走行方法
JP2012178184A (ja) * 2012-06-06 2012-09-13 Sumitomo Electric Ind Ltd 通信システム、無線通信方法及び通信装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4961330B2 (ja) * 2007-03-20 2012-06-27 本田技研工業株式会社 車両用通信端末装置および通信システム
WO2011065007A1 (ja) * 2009-11-30 2011-06-03 パナソニック株式会社 携帯型通信装置、通信方法、集積回路、プログラム
KR20150070801A (ko) * 2013-12-17 2015-06-25 현대자동차주식회사 차량간 통신을 이용한 교통정보 전달방법
CA2887443A1 (en) * 2014-03-31 2015-09-30 AWARE 360 Ltd. Systems and methods for communication across multiple communications networks
JP6310565B2 (ja) * 2014-09-11 2018-04-11 本田技研工業株式会社 運転支援装置
JP6352841B2 (ja) * 2015-03-12 2018-07-04 日立建機株式会社 車載端末装置及び交通管制システム
WO2017063122A1 (zh) * 2015-10-12 2017-04-20 华为技术有限公司 用于传输消息的方法和用户设备
KR101796985B1 (ko) * 2015-12-28 2017-11-13 현대자동차주식회사 자동차 및 자동차의 와이파이 통신 제어 방법
CN105513391A (zh) * 2016-01-19 2016-04-20 吉林大学 一种基于车路协同技术的车载虚拟道路状态显示***
CN105872084B (zh) * 2016-05-19 2020-02-11 常州市中电通讯技术有限公司 车载客户端通信方法及其***
US10088676B2 (en) * 2016-06-30 2018-10-02 Paypal, Inc. Enhanced safety through augmented reality and shared data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351992A (ja) * 2003-05-27 2004-12-16 Denso Corp 車両の障害物検知装置及び車両制御装置
JP2005191639A (ja) * 2003-12-24 2005-07-14 Denso Corp 歩行者検知装置
JP2005234921A (ja) * 2004-02-20 2005-09-02 Honda Motor Co Ltd 車車間通信装置
JP2011108084A (ja) * 2009-11-19 2011-06-02 Mitsubishi Heavy Ind Ltd 自律走行車および自律走行方法
JP2012178184A (ja) * 2012-06-06 2012-09-13 Sumitomo Electric Ind Ltd 通信システム、無線通信方法及び通信装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112238867A (zh) * 2019-07-16 2021-01-19 丰田自动车株式会社 车辆控制装置以及车辆控制***
JP2021015567A (ja) * 2019-07-16 2021-02-12 トヨタ自動車株式会社 車両制御装置及び車両制御システム
JP7099412B2 (ja) 2019-07-16 2022-07-12 トヨタ自動車株式会社 車両制御装置及び車両制御システム
CN112238867B (zh) * 2019-07-16 2024-07-19 丰田自动车株式会社 车辆控制装置以及车辆控制***
WO2023026920A1 (ja) * 2021-08-26 2023-03-02 パナソニックIpマネジメント株式会社 センシング装置、処理装置、およびデータを処理する方法

Also Published As

Publication number Publication date
US20200283024A1 (en) 2020-09-10
JP6908723B2 (ja) 2021-07-28
CN111373456B (zh) 2022-05-31
JPWO2019106704A1 (ja) 2020-11-19
CN111373456A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN110730739B (zh) 通知***及其控制方法、车辆以及程序
US20190143972A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6919056B2 (ja) 走行制御装置、走行制御方法およびプログラム
JP6932209B2 (ja) 車両制御装置、車両、および車両制御方法
WO2019106704A1 (ja) 車両、情報処理装置およびそれらの制御方法、並びにシステム
JP2019160032A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019152896A (ja) 走行制御装置、走行制御方法およびプログラム
JP7156988B2 (ja) 走行制御装置、走行制御方法、およびプログラム
US11479246B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7152339B2 (ja) 走行制御装置、走行制御方法、およびプログラム
CN111830859A (zh) 车辆远程指示***
CN112298181A (zh) 车辆控制装置、车辆控制方法及存储介质
US20200339194A1 (en) Vehicle control apparatus, vehicle, and control method
US20190065838A1 (en) Vehicle control apparatus, vehicle, vehicle control method, and storage medium
JP2021184296A (ja) 車両制御装置、車両および車両制御方法
WO2019106788A1 (ja) 車両制御装置、車両、及び車両制御方法
CN111434551A (zh) 行驶控制装置、行驶控制方法以及存储程序的存储介质
JP2020050109A (ja) 車両制御装置、車両制御方法、及びプログラム
JP6632581B2 (ja) 走行制御装置、走行制御方法およびプログラム
JP6898388B2 (ja) 車両の制御システム、車両の制御方法、およびプログラム
CN114365208A (zh) 驾驶辅助装置、驾驶辅助方法以及程序
US20200385023A1 (en) Vehicle control apparatus, vehicle, operation method of vehicle control apparatus, and non-transitory computer-readable storage medium
CN112046476A (zh) 车辆控制装置及其动作方法、车辆以及存储介质
JP7463146B2 (ja) 移動体監視システム、及び移動体監視方法
JP7405657B2 (ja) 移動体監視システム、及び移動体監視方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17933474

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019556428

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17933474

Country of ref document: EP

Kind code of ref document: A1