WO2019098081A1 - 情報処理装置、情報処理方法、プログラム、及び、車両 - Google Patents

情報処理装置、情報処理方法、プログラム、及び、車両 Download PDF

Info

Publication number
WO2019098081A1
WO2019098081A1 PCT/JP2018/041094 JP2018041094W WO2019098081A1 WO 2019098081 A1 WO2019098081 A1 WO 2019098081A1 JP 2018041094 W JP2018041094 W JP 2018041094W WO 2019098081 A1 WO2019098081 A1 WO 2019098081A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lane
unit
vehicles
lane change
Prior art date
Application number
PCT/JP2018/041094
Other languages
English (en)
French (fr)
Inventor
田中 信行
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/763,213 priority Critical patent/US11377101B2/en
Publication of WO2019098081A1 publication Critical patent/WO2019098081A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters

Definitions

  • the present technology relates to an information processing apparatus, an information processing method, a program, and a vehicle, and more particularly to an information processing apparatus, an information processing method, a program, and a vehicle suitable for use in detecting the flow of a vehicle in an adjacent lane. .
  • Patent Document 1 does not consider a method for determining which one of the road lane where the host vehicle is traveling and the adjacent road lane is congested.
  • the present technology has been made in view of such a situation, and makes it possible to compare the flow of the vehicle in which the host vehicle is traveling and the flow of vehicles in the adjacent lane.
  • the information processing apparatus is a vehicle recognition that is adjacent to a first lane in which the host vehicle is traveling, and performs recognition of a vehicle in a second lane having the same traveling direction as the first lane. And the number of vehicles in the second lane that the host vehicle has caught up on the basis of the recognition result of the vehicles in the second lane, and the number of vehicles in the second lane that the host vehicle has caught up, and Or a flow for detecting a second difference between the number of vehicles in the second lane from which the host vehicle has been overrun and the number of vehicles in the second lane from which the host vehicle has overtaken And a detection unit.
  • the information processing apparatus is adjacent to a first lane in which the host vehicle is traveling, and is a vehicle of a second lane having the same traveling direction as the first lane. Based on the recognition result of the vehicle in the second lane, the number of vehicles in the second lane that the vehicle has caught up and the number of vehicles in the second lane that the vehicle caught up are recognized. Or a second difference between the number of vehicles in the second lane from which the host vehicle has been overtaken and the number of vehicles in the second lane from which the host vehicle has overtaken. .
  • a program recognizes a vehicle in a second lane adjacent to a first lane in which the host vehicle is traveling and having the same traveling direction as the first lane, and the second A first difference between the number of vehicles in the second lane that the host vehicle has caught up and the number of vehicles in the second lane that the host vehicle has caught, based on the recognition result of the vehicles in the lanes;
  • the control unit causes the computer to execute a process of detecting a second difference between the number of vehicles in the second lane from which the host vehicle is overtaken and the number of vehicles in the second lane from which the host vehicle overtakes.
  • the vehicle according to the second aspect of the present technology is adjacent to a traveling first lane, and includes a vehicle recognition unit that recognizes a vehicle in a second lane having the same traveling direction as the first lane; A first difference between the number of vehicles in the second lane caught up and the number of vehicles in the second lane caught up based on the recognition result of the vehicles in the second lane, or the first number overtaken A flow detection unit that detects a second difference between the number of vehicles in the second lane and the number of vehicles in the second lane that has been overtaken, and changing the lane according to the first difference or the second difference And an operation control unit for performing control.
  • recognition of a vehicle in a second lane adjacent to a first lane in which the host vehicle is traveling and in the same traveling direction as the first lane is performed.
  • a second difference between the number of vehicles in the second lane in which the host vehicle has been overtaken and the number of vehicles in the second lane in which the host vehicle has passed is detected.
  • recognition of a vehicle in a second lane adjacent to a traveling first lane and traveling in the same direction as the first lane is performed, and the second lane of the second lane is A first difference between the number of vehicles in the second lane caught up and the number of vehicles in the second lane caught up based on the recognition result of the vehicle, or the first one in which the host vehicle is overtaken
  • a second difference between the number of vehicles in the second lane and the number of vehicles in the second lane that the host vehicle has overtaken is detected, and the lane change is made according to the first difference or the second difference. It is controlled to do.
  • the first aspect or the second aspect of the present technology it is possible to compare the flow of the vehicle in which the host vehicle is traveling with the flow of the vehicle in the adjacent lane. As a result, it is possible to appropriately propose or implement a lane change to the next lane.
  • FIG. 1 is a block diagram illustrating an embodiment of a lane change control system to which the present technology is applied. It is a flow chart for explaining lane change control processing. It is a flow chart for explaining lane change control processing. It is a flowchart for demonstrating the detail of a lane change control function automatic setting process. It is a figure for demonstrating the specific example of the count method of a flow comparison counter. It is a figure which shows the example of the judgment method of implementation of a lane change. It is a figure which shows the example of the judgment method of implementation of a lane change. It is a figure showing an example of composition of a computer.
  • FIG. 1 is a block diagram showing a configuration example of a schematic function of a vehicle control system 100 which is an example of a mobile control system to which the present technology can be applied.
  • the vehicle control system 100 is a system that is provided in the vehicle 10 and performs various controls of the vehicle 10.
  • the vehicle 10 is distinguished from other vehicles, it is referred to as the own vehicle or the own vehicle.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system 108, a body system control unit 109, and a body.
  • the system system 110, the storage unit 111, and the automatic driving control unit 112 are provided.
  • the input unit 101, the data acquisition unit 102, the communication unit 103, the output control unit 105, the drive system control unit 107, the body system control unit 109, the storage unit 111, and the automatic operation control unit 112 are connected via the communication network 121. Connected to each other.
  • the communication network 121 may be, for example, an on-vehicle communication network or bus conforming to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without passing through the communication network 121.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • each unit of the vehicle control system 100 performs communication via the communication network 121
  • the description of the communication network 121 is omitted.
  • the input unit 101 and the automatic driving control unit 112 communicate via the communication network 121, it is described that the input unit 101 and the automatic driving control unit 112 merely communicate.
  • the input unit 101 includes an apparatus used by a passenger for inputting various data and instructions.
  • the input unit 101 includes operation devices such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device and the like that can be input by a method other than manual operation by voice or gesture.
  • the input unit 101 may be a remote control device using infrared rays or other radio waves, or an external connection device such as a mobile device or wearable device corresponding to the operation of the vehicle control system 100.
  • the input unit 101 generates an input signal based on data, an instruction, and the like input by the passenger, and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for acquiring data used for processing of the vehicle control system 100 and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the vehicle 10 and the like.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertia measurement device (IMU), an operation amount of an accelerator pedal, an operation amount of a brake pedal, a steering angle of a steering wheel, and an engine speed.
  • IMU inertia measurement device
  • a sensor or the like for detecting a motor rotation speed or a rotation speed of a wheel is provided.
  • the data acquisition unit 102 includes various sensors for detecting information outside the vehicle 10.
  • the data acquisition unit 102 includes an imaging device such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting weather, weather, etc., and an ambient information detection sensor for detecting an object around the vehicle 10.
  • the environment sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the ambient information detection sensor is made of, for example, an ultrasonic sensor, a radar, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), sonar or the like.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the vehicle 10.
  • the data acquisition unit 102 includes a GNSS receiver or the like which receives a GNSS signal from a Global Navigation Satellite System (GNSS) satellite.
  • GNSS Global Navigation Satellite System
  • the data acquisition unit 102 includes various sensors for detecting information in the vehicle.
  • the data acquisition unit 102 includes an imaging device for imaging a driver, a biological sensor for detecting biological information of the driver, a microphone for collecting sound in a vehicle interior, and the like.
  • the biological sensor is provided, for example, on a seat or a steering wheel, and detects biological information of an occupant sitting on a seat or a driver holding the steering wheel.
  • the communication unit 103 communicates with the in-vehicle device 104 and various devices outside the vehicle, a server, a base station, etc., and transmits data supplied from each portion of the vehicle control system 100, and receives the received data. Supply to each part of 100.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can also support a plurality of types of communication protocols.
  • the communication unit 103 performs wireless communication with the in-vehicle device 104 by wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like. Also, for example, the communication unit 103 may use a Universal Serial Bus (USB), a High-Definition Multimedia Interface (HDMI (registered trademark)), or an MHL (Universal Serial Bus) via a connection terminal (and a cable, if necessary) not shown. Wired communication is performed with the in-vehicle device 104 by Mobile High-definition Link) or the like.
  • USB Universal Serial Bus
  • HDMI High-Definition Multimedia Interface
  • MHL Universal Serial Bus
  • the communication unit 103 may communicate with an apparatus (for example, an application server or control server) existing on an external network (for example, the Internet, a cloud network, or a network unique to an operator) via a base station or an access point. Communicate. Also, for example, the communication unit 103 may use a P2P (Peer To Peer) technology to connect with a terminal (for example, a pedestrian or a shop terminal, or a MTC (Machine Type Communication) terminal) existing in the vicinity of the vehicle 10. Communicate. Further, for example, the communication unit 103 may perform vehicle to vehicle communication, vehicle to infrastructure communication, communication between the vehicle 10 and a house, and communication between the vehicle 10 and the pedestrian. ) V2X communication such as communication is performed. Also, for example, the communication unit 103 includes a beacon receiving unit, receives radio waves or electromagnetic waves transmitted from radio stations installed on roads, and acquires information such as current position, traffic jam, traffic restriction, or required time. Do.
  • an apparatus for example, an application server or control server
  • the in-vehicle device 104 includes, for example, a mobile device or wearable device of a passenger, an information device carried in or attached to the vehicle 10, a navigation device for searching for a route to an arbitrary destination, and the like.
  • the output control unit 105 controls the output of various information to the occupant of the vehicle 10 or the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data), and supplies the generated output signal to the output unit 106.
  • the output control unit 105 combines image data captured by different imaging devices of the data acquisition unit 102 to generate an overhead image or a panoramic image, and an output signal including the generated image is generated.
  • the output unit 106 is supplied.
  • the output control unit 105 generates voice data including a warning sound or a warning message for danger such as collision, contact, entering a danger zone, and the like, and outputs an output signal including the generated voice data to the output unit 106.
  • Supply for example, the output control unit 105 generates voice data including a warning sound or a warning message for danger such as collision, contact, entering a danger zone, and the like, and outputs an
  • the output unit 106 includes a device capable of outputting visual information or auditory information to an occupant of the vehicle 10 or the outside of the vehicle.
  • the output unit 106 includes a display device, an instrument panel, an audio speaker, headphones, wearable devices such as a glasses-type display worn by a passenger, a projector, a lamp, and the like.
  • the display device included in the output unit 106 has visual information in the driver's field of vision, such as a head-up display, a transmissive display, and a device having an AR (Augmented Reality) display function, in addition to a device having a normal display. It may be an apparatus for displaying.
  • the drive system control unit 107 controls the drive system 108 by generating various control signals and supplying them to the drive system 108. In addition, the drive system control unit 107 supplies a control signal to each unit other than the drive system 108 as necessary, and notifies a control state of the drive system 108, and the like.
  • the driveline system 108 includes various devices related to the driveline of the vehicle 10.
  • the drive system 108 includes a driving force generating device for generating a driving force of an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering mechanism for adjusting a steering angle.
  • a braking system that generates a braking force an antilock brake system (ABS), an electronic stability control (ESC), an electric power steering apparatus, and the like are provided.
  • the body control unit 109 controls the body system 110 by generating various control signals and supplying the control signals to the body system 110.
  • the body system control unit 109 supplies a control signal to each unit other than the body system 110, as required, to notify the control state of the body system 110, and the like.
  • the body system 110 includes various devices of the body system mounted on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, headlamps, back lamps, brake lamps, blinkers, fog lamps, etc.) Etc.
  • the storage unit 111 includes, for example, a read only memory (ROM), a random access memory (RAM), a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, and a magneto-optical storage device. .
  • the storage unit 111 stores various programs, data, and the like used by each unit of the vehicle control system 100.
  • the storage unit 111 is map data such as a three-dimensional high-accuracy map such as a dynamic map, a global map that has a lower accuracy than a high-accuracy map and covers a wide area, and information around the vehicle 10 Remember.
  • the autonomous driving control unit 112 performs control regarding autonomous driving such as autonomous traveling or driving assistance. Specifically, for example, the automatic driving control unit 112 can avoid collision or reduce the impact of the vehicle 10, follow-up traveling based on the inter-vehicle distance, vehicle speed maintenance traveling, collision warning of the vehicle 10, lane departure warning of the vehicle 10, etc. Coordinated control is carried out to realize the functions of the Advanced Driver Assistance System (ADAS), including: Further, for example, the automatic driving control unit 112 performs cooperative control for the purpose of automatic driving or the like that travels autonomously without depending on the driver's operation.
  • the automatic driving control unit 112 includes a detection unit 131, a self position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various types of information necessary for control of automatic driving.
  • the detection unit 131 includes an out-of-vehicle information detection unit 141, an in-vehicle information detection unit 142, and a vehicle state detection unit 143.
  • the outside-of-vehicle information detection unit 141 performs detection processing of information outside the vehicle 10 based on data or signals from each unit of the vehicle control system 100. For example, the outside information detection unit 141 performs detection processing of an object around the vehicle 10, recognition processing, tracking processing, and detection processing of the distance to the object.
  • the objects to be detected include, for example, vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings and the like. Further, for example, the outside-of-vehicle information detection unit 141 performs a process of detecting the environment around the vehicle 10.
  • the surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, road surface condition and the like.
  • the information outside the vehicle detection unit 141 indicates data indicating the result of the detection process as the self position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. Supply to the emergency situation avoidance unit 171 and the like.
  • the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the vehicle control system 100.
  • the in-vehicle information detection unit 142 performs a driver authentication process and recognition process, a driver state detection process, a passenger detection process, an in-vehicle environment detection process, and the like.
  • the state of the driver to be detected includes, for example, physical condition, awakening degree, concentration degree, fatigue degree, gaze direction and the like.
  • the in-vehicle environment to be detected includes, for example, temperature, humidity, brightness, smell and the like.
  • the in-vehicle information detection unit 142 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the vehicle state detection unit 143 detects the state of the vehicle 10 based on data or signals from each unit of the vehicle control system 100.
  • the state of the vehicle 10 to be detected includes, for example, speed, acceleration, steering angle, presence / absence of abnormality and contents, state of driving operation, position and inclination of power seat, state of door lock, and other on-vehicle devices. Status etc. are included.
  • the vehicle state detection unit 143 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • Self position estimation unit 132 estimates the position and orientation of vehicle 10 based on data or signals from each part of vehicle control system 100 such as external information detection unit 141 and situation recognition unit 153 of situation analysis unit 133. Do the processing. In addition, the self position estimation unit 132 generates a local map (hereinafter, referred to as a self position estimation map) used to estimate the self position, as necessary.
  • the self-location estimation map is, for example, a high-accuracy map using a technique such as SLAM (Simultaneous Localization and Mapping).
  • the self position estimation unit 132 supplies data indicating the result of the estimation process to the map analysis unit 151, the traffic rule recognition unit 152, the situation recognition unit 153, and the like of the situation analysis unit 133.
  • the self position estimation unit 132 stores the self position estimation map in the storage unit 111.
  • the situation analysis unit 133 analyzes the situation of the vehicle 10 and the surroundings.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses various data or signals stored in the storage unit 111 while using data or signals from each part of the vehicle control system 100 such as the self position estimation unit 132 and the external information detection unit 141 as necessary. Perform analysis processing and construct a map that contains information necessary for automatic driving processing.
  • the map analysis unit 151 is configured of the traffic rule recognition unit 152, the situation recognition unit 153, the situation prediction unit 154, the route planning unit 161 of the planning unit 134, the action planning unit 162, the operation planning unit 163, and the like. Supply to
  • the traffic rule recognition unit 152 uses traffic rules around the vehicle 10 based on data or signals from each unit of the vehicle control system 100 such as the self position estimation unit 132, the outside information detection unit 141, and the map analysis unit 151. Perform recognition processing. By this recognition process, for example, the position and state of signals around the vehicle 10, the contents of traffic restrictions around the vehicle 10, and the travelable lanes and the like are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 uses data or signals from each unit of the vehicle control system 100 such as the self position estimation unit 132, the outside information detection unit 141, the in-vehicle information detection unit 142, the vehicle state detection unit 143, and the map analysis unit 151. Based on the recognition processing of the situation regarding the vehicle 10 is performed. For example, the situation recognition unit 153 performs recognition processing of the situation of the vehicle 10, the situation around the vehicle 10, the situation of the driver of the vehicle 10, and the like. In addition, the situation recognition unit 153 generates a local map (hereinafter referred to as a situation recognition map) used to recognize the situation around the vehicle 10 as needed.
  • the situation recognition map is, for example, an Occupancy Grid Map.
  • the situation of the vehicle 10 to be recognized includes, for example, the position, attitude, movement (for example, speed, acceleration, moving direction, etc.) of the vehicle 10, and the presence or absence and contents of abnormality.
  • the circumstances around the vehicle 10 to be recognized include, for example, the type and position of surrounding stationary objects, the type, position and movement of surrounding animals (eg, speed, acceleration, movement direction, etc.) Configuration and road surface conditions, as well as ambient weather, temperature, humidity, brightness, etc. are included.
  • the state of the driver to be recognized includes, for example, physical condition, alertness level, concentration level, fatigue level, movement of eyes, driving operation and the like.
  • the situation recognition unit 153 supplies data (including a situation recognition map, if necessary) indicating the result of the recognition process to the self position estimation unit 132, the situation prediction unit 154, and the like. In addition, the situation recognition unit 153 stores the situation recognition map in the storage unit 111.
  • the situation prediction unit 154 performs a prediction process of the situation regarding the vehicle 10 based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153. For example, the situation prediction unit 154 performs prediction processing of the situation of the vehicle 10, the situation around the vehicle 10, the situation of the driver, and the like.
  • the situation of the vehicle 10 to be predicted includes, for example, the behavior of the vehicle 10, the occurrence of an abnormality, the travelable distance, and the like.
  • the situation around the vehicle 10 to be predicted includes, for example, the behavior of the moving object around the vehicle 10, the change of the signal state, and the change of the environment such as the weather.
  • the driver's condition to be predicted includes, for example, the driver's behavior and physical condition.
  • the situation prediction unit 154 together with data from the traffic rule recognition unit 152 and the situation recognition unit 153, indicates data indicating the result of the prediction process, the route planning unit 161 of the planning unit 134, the action planning unit 162, and the operation planning unit 163. Supply to etc.
  • the route planning unit 161 plans a route to a destination based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the specified destination based on the global map. In addition, for example, the route planning unit 161 changes the route as appropriate based on traffic jams, accidents, traffic restrictions, conditions such as construction, the physical condition of the driver, and the like. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning part 162 Based on data or signals from each part of the vehicle control system 100 such as the map analyzing part 151 and the situation predicting part 154, the action planning part 162 safely makes the route planned by the route planning part 161 within the planned time. Plan the action of the vehicle 10 to travel.
  • the action planning unit 162 performs planning of start, stop, traveling direction (for example, forward, backward, left turn, right turn, change of direction, etc.), traveling lane, traveling speed, overtaking, and the like.
  • the action plan unit 162 supplies data indicating the planned action of the vehicle 10 to the operation plan unit 163 and the like.
  • the operation planning unit 163 is an operation of the vehicle 10 for realizing the action planned by the action planning unit 162 based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan.
  • the operation plan unit 163 plans acceleration, deceleration, a traveling track, and the like.
  • the operation planning unit 163 supplies data indicating the planned operation of the vehicle 10 to the acceleration / deceleration control unit 172, the direction control unit 173, and the like of the operation control unit 135.
  • the operation control unit 135 controls the operation of the vehicle 10.
  • the operation control unit 135 includes an emergency situation avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency situation avoidance unit 171 is based on the detection results of the external information detection unit 141, the in-vehicle information detection unit 142, and the vehicle state detection unit 143, collision, contact, entry into a danger zone, driver abnormality, vehicle 10 Perform detection processing of an emergency such as When the emergency situation avoidance unit 171 detects the occurrence of an emergency situation, it plans the operation of the vehicle 10 for avoiding an emergency situation such as a sudden stop or a sharp turn.
  • the emergency situation avoidance unit 171 supplies data indicating the planned operation of the vehicle 10 to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • the acceleration / deceleration control unit 172 performs acceleration / deceleration control for realizing the operation of the vehicle 10 planned by the operation planning unit 163 or the emergency situation avoidance unit 171.
  • the acceleration / deceleration control unit 172 calculates a control target value of a driving force generator or a braking device for achieving planned acceleration, deceleration, or sudden stop, and drives a control command indicating the calculated control target value. It is supplied to the system control unit 107.
  • the direction control unit 173 performs direction control for realizing the operation of the vehicle 10 planned by the operation planning unit 163 or the emergency situation avoidance unit 171. For example, the direction control unit 173 calculates the control target value of the steering mechanism for realizing the traveling track or the sharp turn planned by the operation plan unit 163 or the emergency situation avoidance unit 171, and performs control indicating the calculated control target value. The command is supplied to the drive system control unit 107.
  • the data acquisition unit 102, the output control unit 105, the output unit 106, the self position estimation unit 132, the situation analysis unit 133, and the operation control unit 135 are mainly included in the vehicle control system 100 of FIG. It relates to the processing of the action plan unit 162 and the operation plan unit 163.
  • FIG. 2 is a block diagram showing a configuration example of a lane change control system 200 according to an embodiment of the present technology.
  • Lane change control system 200 is adjacent to a lane on which vehicle 10 on which lane change control system 200 is provided is traveling (hereinafter referred to as a traveling lane) and a traveling lane, and the traveling lane and traveling direction are This is a system that detects a difference in vehicle flow with the same lane (hereinafter referred to as an adjacent lane), and proposes lane control or controls based on the result.
  • the lane change control system 200 includes an input unit 201, a data acquisition unit 202, an information processing unit 203, a presentation unit 204, and a storage unit 205.
  • the input unit 201 includes, for example, operation devices such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device or the like that can be input by a method other than a manual operation by voice or gesture.
  • the input unit 201 generates an input signal based on data, an instruction, and the like input by a passenger of the vehicle 10, and supplies the input signal to the information processing unit 203.
  • the data acquisition unit 202 includes an imaging unit 211, a sensor unit 212, and a GNSS receiver 213.
  • the imaging unit 211 includes one or more cameras, and, for example, performs imaging of the surroundings such as the front, the side, and the rear of the vehicle 10.
  • the imaging unit 211 supplies the image obtained as a result of imaging to the information processing unit 203.
  • the sensor unit 212 includes various sensors for detecting the state of the vehicle 10 and the like.
  • the sensor unit 212 may be a gyro sensor, an acceleration sensor, an inertia measurement device (IMU), an operation amount of an accelerator pedal, an operation amount of a brake pedal, a steering angle of a steering wheel, an engine rotation number, a motor rotation number, or A sensor or the like for detecting a rotational speed or the like of a wheel is provided.
  • the sensor unit 212 also includes various sensors for detecting information outside the vehicle 10.
  • the sensor unit 212 includes an ambient information detection sensor for detecting an object around the vehicle 10.
  • the ambient information detection sensor is, for example, an ultrasonic sensor, a radar, a LiDAR, a sonar or the like.
  • the sensor unit 212 supplies sensor data indicating the detection result of each sensor to the information processing unit 203.
  • the GNSS receiver 213 receives a GNSS signal transmitted from a positioning satellite (not shown) of the GNSS, and supplies the received GNSS signal to the information processing unit 203.
  • the information processing unit 203 includes a self position estimation unit 221, a vehicle state detection unit 222, a vehicle recognition unit 223, a situation analysis unit 224, a threshold setting unit 225, a flow detection unit 226, and a lane change processing unit 227.
  • the self position estimation unit 221 performs self position estimation of the vehicle 10 based on the GNSS signal received by the GNSS receiver 213, and estimates the current position and attitude of the vehicle.
  • the self position estimation unit 221 supplies data indicating the estimation result to the situation analysis unit 224 and the threshold setting unit 225.
  • the vehicle state detection unit 222 detects the state of the vehicle 10 based on the sensor data from the sensor unit 212.
  • the state of the vehicle 10 to be detected includes, for example, the speed, the acceleration, the steering angle, the presence or absence of abnormality, the content, the state of the driving operation, and the like.
  • the vehicle state detection unit 222 supplies data indicating the detection result to the situation analysis unit 224, the flow detection unit 226, and the lane change determination unit 231 of the lane change processing unit 227.
  • the vehicle recognition unit 223 performs recognition processing of a vehicle in an adjacent lane based on an image captured by the imaging unit 211, sensor data from the sensor unit 212, and the like.
  • the vehicle recognition unit 223 supplies data indicating the recognition result to the flow detection unit 226.
  • the vehicle recognition unit 223 generates and updates the adjacent vehicle information indicating the characteristic of the vehicle in the recognized adjacent lane, and stores the adjacent vehicle information in the storage unit 205.
  • the adjacent vehicle information is used to distinguish vehicles in adjacent lanes traveling next to the vehicle 10, and includes, for example, vehicle type, color, shape, vehicle number, number of passengers, characteristics of passengers, and the like.
  • the situation analysis unit 224 is an image around the vehicle 10, sensor data from the sensor unit 212, a GNSS signal, an estimation result of the vehicle's 10 own position, a state of the vehicle 10, and map data stored in the storage unit 205.
  • the analysis processing of the situation around the vehicle 10 and the vehicle is performed based on the like.
  • the situation analysis unit 224 analyzes the characteristics, changes, and speed limit of the road while traveling, the distance between vehicles, the situation of the traveling direction of the vehicle 10, the presence or absence of lane change, and the like.
  • the situation analysis unit 224 supplies data indicating the analysis result to the threshold value setting unit 225, the flow detection unit 226, and the lane change determination unit 231 of the lane change processing unit 227.
  • the threshold setting unit 225 sets a lane change threshold used to determine a lane change. For example, when automatic setting of the lane change threshold is enabled, the threshold setting unit 225 determines the lane change threshold based on the road on which the vehicle 10 is traveling and the lane change history stored in the storage unit 205. Set On the other hand, when the automatic setting of the lane change threshold is invalidated, the threshold setting unit 225 sets, for example, the lane change threshold to a prescribed value. The threshold setting unit 225 supplies data indicating the set lane change threshold to the lane change determination unit 231.
  • the automatic setting of the lane change threshold is set, for example, to be valid or invalid by the operation of the passenger via the input unit 201.
  • the lane change history is a record of a history of lane changes made by the driver's operation in the past.
  • the lane change history includes, for example, the date and time of the lane change, the road on which the lane was changed, and the value of the flow comparison counter at the time of the lane change.
  • the division of the road for specifying the road which performed the lane change can be set arbitrarily.
  • the flow comparison counter is a counter that indicates the result of comparing the flow of the vehicle in the traveling lane and the vehicle in the adjacent lane.
  • the flow comparison counter is represented by a difference value between the number of vehicles in the adjacent lane which the vehicle 10 has caught up and the number of vehicles in the adjacent lane which the vehicle 10 has caught up on the basis of a predetermined timing.
  • the flow comparison counter is incremented by one when the vehicle 10 is overtaken by the vehicle in the adjacent lane, and is decremented by one when the vehicle 10 catches by the vehicle in the adjacent lane.
  • the flow comparison counter has a positive value.
  • the number of vehicles in the adjacent lane that the vehicle 10 has caught up is greater than the number of vehicles in the adjacent lane that the vehicle 10 has caught up, that is, if the flow of vehicles is better in the running lane than in the adjacent lane
  • the comparison counter has a negative value.
  • the predetermined timing is, for example, when the vehicle 10 enters or joins a new road, or changes lanes.
  • the flow detection unit 226 detects the difference between the flow of vehicles in the traveling lane and the adjacent lane by updating the flow comparison counter based on the speed of the vehicle 10 and the recognition result of the vehicle in the adjacent lane.
  • the flow detection unit 226 supplies data indicating the value of the flow comparison counter to the lane change determination unit 231.
  • the lane change processing unit 227 performs lane change processing related to the lane change of the vehicle 10.
  • the lane change processing unit 227 includes a lane change determination unit 231, a presentation control unit 232, and an operation control unit 233.
  • the lane change determination unit 231 determines whether it is better to change the adjacent lane based on the situation in the traveling direction of the vehicle 10, the lane change threshold, and the flow comparison counter.
  • the lane change determination unit 231 instructs the presentation control unit 232 to propose a lane change or instructs the operation control unit 233 to perform a lane change when it is determined that the lane change to the adjacent lane is preferable. .
  • the lane change determination unit 231 generates and updates a lane change history.
  • the lane change determination unit 231 is based on the distance between the vehicle to the previous vehicle, the speed limit of the running road, and the speed of the vehicle 10. Setting of the lane change control function.
  • the automatic setting of the lane change control function is set to be valid or invalid, for example, by the operation of the passenger via the input unit 201.
  • the presentation control unit 232 controls the presentation unit 204 to propose the driver to change lanes to an adjacent lane.
  • the operation control unit 233 controls, for example, the drive system control unit 107 of the vehicle 10 in FIG. 1 to change the lane of the vehicle 10.
  • the presentation unit 204 includes a device that presents information by an image such as a display, a speaker, a lighting device, and a vibrator, sound, light, vibration, and the like.
  • the storage unit 205 stores map data, a lane change history, and the like.
  • lane change control processing executed by the lane change control system 200 will be described with reference to the flowcharts of FIGS. 3 and 4.
  • This process is started, for example, when an operation for starting the vehicle 10 and starting driving is performed, for example, when an ignition switch, a power switch, or a start switch of the vehicle 10 is turned on. Ru. Further, this process ends, for example, when an operation for ending the driving is performed, for example, when an ignition switch, a power switch, a start switch or the like of the vehicle 10 is turned off.
  • step S1 the lane change determination unit 231 determines whether or not the automatic setting of the lane change control function is enabled. When it is determined that the automatic setting of the lane change control function is enabled, the process proceeds to step S2.
  • step S2 the information processing unit 203 executes lane change control function automatic setting processing, and the processing proceeds to step S3.
  • step S51 the situation analysis unit 224 detects an inter-vehicle distance. For example, based on at least one of the image in front of the vehicle 10 taken by the imaging unit 211 and the sensor data from the sensor unit 212, the situation analysis unit 224 selects one of the traveling lanes by a predetermined method. Perform detection processing of the last vehicle. Then, the situation analysis unit 224 detects the inter-vehicle distance between the detected vehicle and the vehicle 10. The situation analysis unit 224 supplies data indicating the detected inter-vehicle distance to the lane change determination unit 231.
  • the method of detecting the vehicle ahead and the distance between vehicles is not particularly limited.
  • step S52 the lane change determination unit 231 determines whether the inter-vehicle distance is sufficient. For example, when the inter-vehicle distance is less than the predetermined threshold value, the lane change determination unit 231 determines that the inter-vehicle distance is not sufficient, and the process proceeds to step S53.
  • step S53 the situation analysis unit 224 acquires speed limit information. Specifically, the self-position estimation unit 221 estimates the current position of the vehicle 10 based on the GNSS signal received by the GNSS receiver 213. The self position estimation unit 221 supplies data indicating the current position of the vehicle 10 to the situation analysis unit 224. The situation analysis unit 224 acquires speed limit information of the road on which the vehicle 10 is traveling, based on the current position of the vehicle 10 and the map data stored in the storage unit 205. The situation analysis unit 224 supplies the acquired speed limit information to the lane change determination unit 231.
  • step S54 the vehicle state detection unit 222 detects the vehicle speed based on the sensor data from the sensor unit 212.
  • the vehicle state detection unit 222 supplies data indicating the detected vehicle speed to the lane change determination unit 231.
  • step S55 the lane change determination unit 231 determines whether the vehicle is traveling at a low speed. For example, the lane change determination unit 231 determines that the vehicle 10 is traveling at a low speed when (speed limit-vehicle speed) ⁇ predetermined threshold value, that is, when the vehicle speed is considerably slower than the speed limit. The process proceeds to step S56.
  • step S56 the lane change determination unit 231 determines whether the lane change control function is disabled. If it is determined that the lane change control function is disabled, the process proceeds to step S57.
  • step S57 the lane change determination unit 231 enables the lane change control function.
  • the lane change control function is automatically enabled. Then, updating of the flow comparison counter by the flow detection unit 226 described later, lane change processing by the lane change processing unit 227, and the like are started.
  • step S56 when it is determined in step S56 that the lane change control function is enabled, the process of step S57 is skipped, and the lane change control function automatic setting process ends.
  • step S55 the lane change determination unit 231 determines that the vehicle is traveling at or near the speed limit if (speed limit-vehicle speed) ⁇ predetermined threshold value, that is, if the vehicle 10 is traveling at or near the speed limit. It is determined that the vehicle 10 is not traveling at a low speed, and the process proceeds to step S58.
  • step S52 when it is determined that the inter-vehicle distance is sufficient, the process proceeds to step S58.
  • step S58 the lane change determination unit 231 determines whether the lane change control function is enabled. If it is determined that the lane change control function is enabled, the process proceeds to step S59.
  • step S59 the lane change determination unit 231 invalidates the lane change control function.
  • the lane change control function is automatically invalidated. Then, updating of the flow comparison counter by the flow detection unit 226 described later, lane change processing by the lane change processing unit 227, and the like are stopped.
  • step S58 determines that the lane change control function has been invalidated. If it is determined in step S58 that the lane change control function has been invalidated, the process of step S59 is skipped, and the lane change control function automatic setting process ends.
  • step S1 when it is determined in step S1 that the automatic setting of the lane change control function is invalidated, the process of step S2 is skipped, and the process proceeds to step S3.
  • step S3 the lane change determination unit 231 determines whether the lane change control function is enabled. If it is determined that the lane change control function is disabled, the process returns to step S1.
  • step S3 the processes of steps S1 to S3 are repeatedly executed until it is determined that the lane change control function is enabled.
  • step S3 when it is determined in step S3 that the lane change control function is enabled, the process proceeds to step S4.
  • step S4 This is, for example, when the lane change control function is activated in advance, when the lane change control function is automatically activated, or when the lane change control function is activated by the operation of the driver or the like. is there.
  • step S4 the situation analysis unit 224 determines whether the number of lanes in the traveling direction of the host vehicle (vehicle 10) is plural.
  • the self-position estimation unit 221 estimates the current position of the vehicle 10 based on the GNSS signal received by the GNSS receiver 213.
  • the self position estimation unit 221 supplies data indicating the current position of the vehicle 10 to the situation analysis unit 224.
  • the situation analysis unit 224 recognizes the road on which the vehicle 10 is traveling, based on the current position of the vehicle 10 and the map data stored in the storage unit 205. Then, when the situation analysis unit 224 determines that there is only one lane in the traveling direction of the vehicle 10 on the recognized road, the process returns to step S1.
  • steps S1 to S4 are repeatedly performed until it is determined in step S4 that there are a plurality of lanes in the traveling direction of the vehicle 10.
  • step S4 when it is determined in step S4 that there are a plurality of lanes in the traveling direction of the vehicle 10, the process proceeds to step S5.
  • the determination method of whether the lane of the advancing direction of the vehicle 10 is multiple is not limited to the method mentioned above.
  • the situation analysis unit 224 may perform the determination process based on the image captured by the imaging unit 211.
  • step S5 the threshold setting unit 225 determines whether or not automatic setting of the lane change threshold is enabled. If it is determined that the automatic setting of the lane change threshold is enabled, the process proceeds to step S6.
  • step S6 the threshold setting unit 225 determines whether the lane change history of the road on which the vehicle is traveling is recorded. Specifically, the situation analysis unit 224 supplies the threshold setting unit 225 with data indicating the recognition result of the road on which the vehicle 10 is traveling. When the lane change history stored in the storage unit 205 includes a history of the road in which the vehicle is traveling, the threshold setting unit 225 determines that the lane change history of the road in which the vehicle is traveling is recorded. The process proceeds to step S7.
  • the threshold setting unit 225 sets a lane change threshold based on the lane change history. For example, the threshold setting unit 225 calculates the average value of the flow comparison counters at the time of the lane change in the past recorded in the lane change history of the road on which the vehicle is traveling, and sets the calculated value as the lane change threshold. That is, the average value of the flow comparison counters when the driver changes the lane on the road in the past by the driver's operation is set as the lane change threshold. The threshold setting unit 225 supplies data indicating the set lane change threshold to the lane change determination unit 231.
  • lane change threshold another statistic value based on the flow comparison counter at the time of lane change in the past may be set as the lane change threshold.
  • the minimum value or the maximum value of the flow comparison counter at the time of the lane change in the past may be set as the lane change threshold.
  • step S5 if it is determined in step S5 that the automatic setting of the lane change threshold is invalidated, or if it is determined in step S6 that the lane change history of the road being traveled is not recorded, processing The process proceeds to step S8.
  • step S8 the threshold setting unit 225 sets the lane change threshold to a preset specified value.
  • the threshold setting unit 225 supplies data indicating the set lane change threshold to the lane change determination unit 231.
  • the driver or the like may be able to change the specified value of the lane change threshold.
  • step S9 the flow detection unit 226 sets the flow comparison counter to 0, and the vehicle recognition unit 223 resets the adjacent vehicle information.
  • step S10 the vehicle recognition unit 223 determines whether or not there is a vehicle in the adjacent lane next to the host vehicle (vehicle 10). For example, the vehicle recognition unit 223 performs recognition processing of a vehicle in an adjacent lane based on an image obtained by photographing the direction of the adjacent lane by the imaging unit 211. Then, when the vehicle recognition unit 223 determines that the vehicle in the adjacent lane is present next to the host vehicle based on the result of the recognition process, the process proceeds to step S11.
  • the vehicle recognition unit 223 records adjacent vehicle information. Specifically, the vehicle recognition unit 223 generates adjacent vehicle information indicating the feature of the vehicle in the adjacent lane existing next to the vehicle 10, and causes the storage unit 205 to store the adjacent vehicle information.
  • step S10 when it is determined in step S10 that a vehicle in the adjacent lane does not exist next to the host vehicle, the process of step S11 is skipped, the adjacent vehicle information is not recorded, and the process proceeds to step S12.
  • step S12 the vehicle recognition unit 223 determines whether or not the next vehicle has changed. For example, the vehicle recognition unit 223 performs recognition processing of a vehicle in an adjacent lane based on an image obtained by photographing the direction of the adjacent lane by the imaging unit 211. When the vehicle recognition unit 223 recognizes a vehicle in the adjacent lane next to the vehicle 10, the vehicle recognition unit 223 compares the feature of the vehicle with the feature of the vehicle indicated in the adjacent vehicle information stored in the storage unit 205. Then, when the features of the two do not match, the vehicle recognition unit 223 determines that the adjacent vehicle has changed, and the process proceeds to step S13.
  • step S10 the vehicle recognition unit 223 recognizes a vehicle in the adjacent lane next to the vehicle 10.
  • step S10 the vehicle recognition unit 223 is adjacent to the vehicle. Also when it is determined that there is no vehicle in the lane, and the vehicle in the adjacent lane is recognized next to the vehicle 10 for the first time, it is also determined that the adjacent vehicle has changed, and the process proceeds to step S13.
  • step S13 the vehicle recognition unit 223 updates the adjacent vehicle information. That is, the vehicle recognition unit 223 updates the adjacent vehicle information to information indicating the feature of the vehicle next to the newly recognized vehicle 10.
  • step S14 the flow detection unit 226 determines whether or not the own vehicle (vehicle 10) is faster.
  • the vehicle recognition unit 223 detects the speed of the newly recognized vehicle on the basis of an image obtained by photographing the direction of the adjacent lane by the imaging unit 211, sensor data from the sensor unit 212, and the like.
  • the vehicle recognition unit 223 supplies data indicating the speed of the adjacent vehicle to the flow detection unit 226.
  • the method of detecting the speed of the next vehicle is not particularly limited.
  • the vehicle state detection unit 222 detects the speed of the vehicle based on the sensor data from the sensor unit 212.
  • the vehicle state detection unit 222 supplies data indicating the detected vehicle speed to the flow detection unit 226.
  • the flow detection unit 226 compares the own vehicle speed with the speed of the next vehicle, and when it is determined that the own vehicle (vehicle 10) is faster, the process proceeds to step S15.
  • step S15 the flow detection unit 226 decrements the flow comparison counter by one. That is, since the vehicle 10 is faster than the next vehicle, the flow detection unit 226 determines that the vehicle 10 has caught up with the next vehicle, and reduces the flow comparison counter by one.
  • step S14 determines whether the vehicle 10 is later. If it is determined in step S14 that the vehicle 10 is later, the process proceeds to step S16.
  • step S16 the flow detection unit 226 increments the flow comparison counter by one. That is, since the next vehicle is faster than the vehicle 10, the flow detection unit 226 determines that the vehicle 10 has been overtaken by the next vehicle, and increases the flow comparison counter by one.
  • step S17 the flow detection unit 226 determines whether the flow comparison counter is greater than or equal to the lane change threshold. If it is determined that the flow comparison counter is greater than or equal to the lane change threshold, the process proceeds to step S18.
  • the vehicles 301A to 301F at the left end of FIG. 6 indicate a train of adjacent lanes.
  • the train is moving upward in the figure, and from the front, the vehicle 301A, the vehicle 301B, the vehicle 301C, the vehicle 301D, the vehicle 301E, and the vehicle 301F are arranged in this order.
  • the relative position of the vehicle 10 with respect to the vehicle row is shown in time series.
  • the horizontal axis indicates time, and the vertical axis indicates the relative position of the vehicle 10 to the vehicle row. Furthermore, at the upper end, the value of the flow comparison counter at each time is shown.
  • the lane change threshold is set to 3.
  • the flow comparison counter is set to 0.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301C to the vehicle 301B. That is, the vehicle 10 catches up with the vehicle 301B.
  • the flow comparison counter decreases from 0 to -1. That is, after time t0 (based on time t0), the flow comparison counter indicates that the number of vehicles in the adjacent lane which vehicle 10 has caught up is one less than the number of vehicles in the adjacent lane which vehicle 10 has caught up. Is shown.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301B to the vehicle 301C. That is, the vehicle 10 is overtaken by the vehicle 301C.
  • the flow comparison counter increases from -1 to 0. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane that the vehicle 10 has caught up with is equal to the number of vehicles in the adjacent lane that the vehicle 10 has caught up with.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301C to the vehicle 301D. That is, the vehicle 10 is overtaken by the vehicle 301C and is overtaken by the vehicle 301D.
  • the flow comparison counter increases from 0 to 1. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane which the vehicle 10 has caught up is one more than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301D to the vehicle 301E. That is, the vehicle 10 is overtaken by the vehicle 301D and is overtaken by the vehicle 301E.
  • the flow comparison counter increases from 1 to 2. That is, the flow comparison counter indicates that the number of vehicles in the adjacent lane which the vehicle 10 has caught up after the time t0 is two more than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301E to the vehicle 301D. That is, the vehicle 10 catches up with the vehicle 301D.
  • the flow comparison counter decreases from 2 to 1. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane which the vehicle 10 has caught up is one more than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301D to the vehicle 301C. That is, the vehicle 10 overtakes the vehicle 301D and catches up with the vehicle 301C.
  • the flow comparison counter decreases from 1 to 0. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane that the vehicle 10 has caught up with is equal to the number of vehicles in the adjacent lane that the vehicle 10 has caught up with.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301C to the vehicle 301B. That is, the vehicle 10 overtakes the vehicle 301C and catches up with the vehicle 301B.
  • the flow comparison counter decreases from 0 to -1. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane which the vehicle 10 has caught up is one less than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301B to the vehicle 301A. That is, the vehicle 10 overtakes the vehicle 301B and catches up with the vehicle 301A.
  • the flow comparison counter decreases from -1 to -2. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane which the vehicle 10 has caught up is smaller than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301A to the vehicle 301B. That is, the vehicle 10 is overtaken by the vehicle 301B.
  • the flow comparison counter increases from -2 to -1. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane which the vehicle 10 has caught up is one less than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301B to the vehicle 301C. That is, the vehicle 10 is overtaken by the vehicle 301B and is overtaken by the vehicle 301C.
  • the flow comparison counter increases from -1 to 0. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane that the vehicle 10 has caught up with is equal to the number of vehicles in the adjacent lane that the vehicle 10 has caught up with.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301C to the vehicle 301D. That is, the vehicle 10 is overtaken by the vehicle 301C and is overtaken by the vehicle 301D.
  • the flow comparison counter increases from 0 to 1. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane which the vehicle 10 has caught up is one more than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301D to the vehicle 301E. That is, the vehicle 10 is overtaken by the vehicle 301D and is overtaken by the vehicle 301E.
  • the flow comparison counter increases from 1 to 2. That is, the flow comparison counter indicates that the number of vehicles in the adjacent lane which the vehicle 10 has caught up after the time t0 is two more than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • the vehicle next to the vehicle 10 is changed from the vehicle 301E to the vehicle 301F. That is, the vehicle 10 is overtaken by the vehicle 301E and is overtaken by the vehicle 301F.
  • the flow comparison counter increases from 2 to 3. That is, the flow comparison counter indicates that after time t0, the number of vehicles in the adjacent lane which the vehicle 10 has caught up is three more than the number of vehicles in the adjacent lane which the vehicle 10 has caught up.
  • step S17 the flow comparison counter is determined to be equal to or greater than the lane change threshold, and the process proceeds to step S18.
  • step S18 the situation analysis unit 224 determines whether or not there is a factor in the adjacent lane that impedes the flow of the vehicle in the traveling direction of the vehicle (vehicle 10).
  • the situation analysis unit 224 includes an image of the surroundings of the vehicle 10 taken by the imaging unit 211, sensor data from the sensor unit 212, the current position of the vehicle 10 recognized by the self position estimation unit 221, and Based on the map data etc. which are memorize
  • the situation analysis unit 224 determines that there is no factor that impedes the flow of the vehicle in the traveling direction of the vehicle 10 in the adjacent lane, it notifies the lane change determination unit 231 of the determination result. Thereafter, the process proceeds to step S19.
  • the recognition method of the condition of the advancing direction of the vehicle 10 is not specifically limited.
  • step S19 the lane change determination unit 231 determines whether or not the automatic driving is in progress. If it is determined that automatic driving is in progress, the process proceeds to step S20.
  • step S20 the vehicle 10 changes lanes.
  • the lane change determination unit 231 instructs the operation control unit 233 to perform the lane change to the adjacent lane.
  • the operation control unit 233 controls, for example, the drive system control unit 107 of the vehicle 10 in FIG. 1 to change the lane of the vehicle 10 from the traveling lane to the adjacent lane.
  • step S19 if it is determined in step S19 that automatic driving is not in progress, the process proceeds to step S21.
  • step S21 the lane change control system 200 proposes a lane change.
  • the lane change determination unit 231 instructs the presentation control unit 232 to propose a lane change to the adjacent lane.
  • the presentation unit 204 proposes a lane change.
  • the proposal method of a lane change is not specifically limited.
  • the presentation unit 204 displays an image proposing a lane change to an adjacent lane, or outputs an audio proposing a lane change to an adjacent lane. This prompts the driver to change lanes to an adjacent lane.
  • step S22 the situation analysis unit 224 determines whether a lane change has been made. If it is determined that the lane change has been performed, the process proceeds to step S23.
  • the determination method of whether lane change was performed is not specifically limited.
  • the situation analysis unit 224 determines whether or not the lane change has been performed based on the current position of the vehicle 10 recognized by the self position estimation unit 221 and the map data stored in the storage unit 205.
  • the situation analysis unit 224 may be at least one of an image of the surroundings of the vehicle 10 taken by a camera, sensor data from the sensor unit 212, and a state of the vehicle 10 detected by the vehicle state detection unit 222. Based on the above, it is determined whether a lane change has been made.
  • the lane change determination unit 231 updates the lane change history. Specifically, the situation analysis unit 224 supplies the lane change determination unit 231 with data indicating that the lane change has been performed and the road on which the lane change has been performed.
  • the lane change determination unit 231 includes, in the lane change history stored in the storage unit 205, a date and time when the lane change was performed this time, a road on which the lane change was performed, and a value of the flow comparison counter at the time of lane change. Add a new one.
  • step S22 when it is determined in step S22 that no lane change has been performed, the process of step S23 is skipped, and the process proceeds to step S24.
  • step S18 When it is determined in step S18 that the adjacent lane has a factor that impedes the flow of the vehicle in the traveling direction of the vehicle, the processing in steps S19 to S23 is skipped, and the process proceeds to step S24. That is, in this case, although the flow comparison counter is equal to or greater than the lane change threshold, implementation and suggestion of the lane change are not performed.
  • a large facility 311 provided with a large number of parking spaces such as a large commercial facility and a service area is adjacent to the lane L1. Since many vehicles move in and out of the large facility 311, it is assumed that the flow of vehicles in the lane L1 becomes worse near the large facility 311. Therefore, for example, when the vehicle 10 travels in the lane L2 and the flow comparison counter becomes equal to or greater than the lane change threshold, when the distance D1 between the vehicle 10 and the large facility 311 is less than a predetermined threshold, the lane is an adjacent lane It is determined that there is a factor that impedes the flow of the vehicle in the traveling direction of the vehicle 10 in L1. On the other hand, when the distance D1 is equal to or more than the predetermined threshold, the large facility 311 is not considered to be a factor that impedes the flow of the vehicle.
  • the flow comparison counter is also updated in a period during which the lane change is not implemented or proposed. Thereafter, when it is determined that the adjacent lane has no factor that impedes the flow of the vehicle in the traveling direction of the vehicle 10, lane change is performed or suggested if the flow comparison counter is equal to or greater than the lane change threshold.
  • step S17 when it is determined in step S17 that the flow comparison counter is less than the lane change threshold, the processing in steps S18 to S23 is skipped, and the processing proceeds to step S24.
  • step S12 the vehicle recognition unit 223 matches the feature of the recognized next vehicle with the feature of the vehicle indicated in the adjacent vehicle information stored in the storage unit 205, or in the vicinity of the vehicle 10. If there is no vehicle, it is determined that the adjacent vehicle has not changed, the processing of steps S13 to S23 is skipped, and the process proceeds to step S24.
  • step S24 the situation analysis unit 224 determines whether the road or lane on which the vehicle is traveling has changed.
  • the situation analysis unit 224 may be an image of the surroundings of the vehicle 10 taken by the imaging unit 211, sensor data from the sensor unit 212, a current position of the vehicle 10 recognized by the self position estimation unit 221, and the storage unit 205. It is determined based on the map data etc. which are memorize
  • the situation analysis unit 224 is an image of the surroundings of the vehicle 10 photographed by the photographing unit 211, sensor data from the sensor unit 212, a current position of the vehicle 10 recognized by the self position estimation unit 221, a vehicle state detection unit 222 It is determined based on the state of the vehicle 10 detected by and the map data etc. which are memorize
  • working have changed is not specifically limited.
  • step S25 if it is determined that the road and lane in travel are not changed, the process proceeds to step S25.
  • step S25 as in the process of step S1, it is determined whether automatic setting of the lane change control function is enabled. If it is determined that the automatic setting of the lane change control function is enabled, the process proceeds to step S26.
  • step S26 a lane change control function automatic setting process is performed as in the process of step S2.
  • step S25 determines whether the automatic setting of the lane change control function is invalidated. If it is determined in step S25 that the automatic setting of the lane change control function is invalidated, the process of step S26 is skipped, and the process proceeds to step S27.
  • step S27 as in the process of step S3, it is determined whether the lane change control function is enabled. If it is determined that the lane change control function is enabled, the process returns to step S12, and the processes after step S12 are performed.
  • step S27 when it is determined in step S27 that the lane change control function is invalidated, the process returns to step S1, and the processes after step S1 are executed. This is when the lane change control function is automatically disabled or when the driver or the like operates the lane change control function.
  • step S24 When it is determined in step S24 that the road or lane in which the vehicle is traveling has changed, the process returns to step S1, and the processes in step S1 and subsequent steps are performed. That is, since the road or lane on which the vehicle 10 travels has changed, the process is repeated from the beginning.
  • the lane change may be suggested to the driver before automatically performing the lane change to the adjacent lane during automatic driving.
  • the presentation control unit 232 may cause the presentation unit 204 to present the flow status of the vehicle in the adjacent lane based on the flow comparison counter.
  • the presentation control unit 232 may present the value of the flow comparison counter as it is, or may present information indicating the comparison result of the flow of the vehicle in the traveling lane and the adjacent lane.
  • the adjacent lane is one lane
  • the same processing is performed when the adjacent lane is two lanes, that is, the adjacent lanes are both adjacent to the running lane.
  • the flow comparison counter is updated for each adjacent lane and the flow comparison counter of one adjacent lane becomes equal to or more than the threshold
  • lane change to the adjacent lane is proposed or implemented.
  • no lane change to the adjacent lane is suggested and implemented. It is possible.
  • the number of lane change record records may be limited.
  • the upper limit value of the number of lane change history may be set for each road.
  • an average value or the like of the flow comparison counters at the time of lane change may be recorded for each road.
  • the lane change history may be recorded also when the lane change is performed by the automatic driving.
  • the lane change threshold may be set using the history of the flow comparison counter when the lane is changed by automatic driving, in addition to the history of the flow comparison counter when the lane is changed by manual driving.
  • whether the specified value is used as the lane change threshold or an automatically set value may be presented to the presenting unit 204.
  • the lane change control function may be automatically set based on only one of the inter-vehicle distance and the difference between the host vehicle speed and the speed limit. Furthermore, for example, the lane change control function may be automatically set based on only the vehicle speed without comparing with the speed limit.
  • the lane change determination unit 231 performs the automatic setting of the lane change control function
  • it may be performed by another functional block such as the flow detection unit 226.
  • only a part of the lane change control function may be automatically set to be valid or invalid.
  • only lane change processing may be automatically set as valid or invalid, and the flow comparison counter may be constantly updated.
  • the flow comparison counter is represented by the difference value between the number of vehicles in the adjacent lane where the vehicle 10 has caught up and the number of vehicles in the adjacent lane where the vehicle 10 has caught up. It may be expressed as a difference value between the number of vehicles in the adjacent lane overtaken and the number of vehicles in the adjacent lane overtaken by the vehicle 10.
  • the present technology can of course be applied to the case where the vehicle is traveling on the right side.
  • the vehicle is passing on the right, for example, in the examples of FIGS. 7 and 8, the position of the large facility 311 and the lane in which the vehicle 10 travels are reversed in left and right.
  • the vehicle 10 travels in the lane L1, and the large facility 311 is adjacent to the right of the lane L2.
  • the present technology can be applied to other vehicles traveling on the road such as motorcycles and personal mobility.
  • the series of processes described above can be performed by hardware or software.
  • a program that configures the software is installed on a computer.
  • the computer includes, for example, a general-purpose personal computer that can execute various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 9 is a block diagram showing an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
  • a central processing unit (CPU) 501 a read only memory (ROM) 502, and a random access memory (RAM) 503 are mutually connected by a bus 504.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • an input / output interface 505 is connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes an input switch, a button, a microphone, an imaging device, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 509 is formed of a network interface or the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508, for example, to the RAM 503 via the input / output interface 505 and the bus 504, and executes the program. A series of processing is performed.
  • the program executed by the computer 500 can be provided by being recorded on, for example, a removable recording medium 511 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable recording medium 511 to the drive 510. Also, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in advance in the ROM 502 or the recording unit 508.
  • the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
  • a system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same case. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
  • the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
  • each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
  • the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
  • the present technology can also be configured as follows.
  • An information processing apparatus comprising: (2) The information processing apparatus according to (1), further including: a lane change processing unit that performs lane change processing related to lane change of the host vehicle based on a difference value indicating the first difference or the second difference. (3) The information processing apparatus according to (2), wherein the lane change processing unit performs the lane change process when the difference value is equal to or more than a predetermined threshold. (4) The system further includes a situation analysis unit that detects a factor that impedes the flow of the vehicle in the traveling direction of the host vehicle in the second lane. The information processing apparatus according to (3), wherein the lane change processing unit performs the lane change process when the difference value is equal to or more than a predetermined threshold and the factor is not detected.
  • the information processing apparatus according to (4).
  • the lane change processing unit is based on the difference value based on at least one of an inter-vehicle distance between a vehicle ahead of the host vehicle and the host vehicle in the first lane and a speed of the host vehicle.
  • the information processing apparatus according to any one of (2) to (5), wherein the presence or absence of execution of the lane change processing is set.
  • the lane change process includes at least one of a proposal of a lane change to the second lane and a control of a lane change of the host vehicle to the second lane.
  • the information processing apparatus according to any one of the above.
  • the flow detection unit compares the speed of the vehicle with the speed of the second vehicle when the vehicle in the second lane next to the vehicle changes from the first vehicle to the second vehicle. To determine whether the vehicle has been overtaken or overtaken the second vehicle, or overtake or overtake the second vehicle according to any one of (1) to (7).
  • Information processing device is included in the vehicle.
  • the display control unit according to any one of (1) to (8), further comprising: a presentation control unit configured to control presentation of a flow condition of the vehicle in the second lane based on the first difference or the second difference.
  • Information processing equipment (10) The information processing apparatus Adjacent to the first lane in which the host vehicle is traveling, the vehicle in the second lane having the same traveling direction as the first lane is recognized.
  • the first of the number of vehicles in the second lane that the host vehicle has caught up and the number of vehicles in the second lane that the host vehicle has caught up based on the recognition result of the vehicles in the second lane An information processing method for detecting a second difference between the number of vehicles in the second lane from which the host vehicle is overtaken and the number of vehicles in the second lane from which the host vehicle overtakes; (11) Adjacent to the first lane in which the host vehicle is traveling, the vehicle in the second lane having the same traveling direction as the first lane is recognized.
  • a vehicle recognition unit adjacent to a traveling first lane and performing recognition of a vehicle in a second lane having the same traveling direction as the first lane; A first difference between the number of vehicles in the second lane that have been caught and the number of vehicles in the second lane that has been caught, or has been overrun, based on the recognition results of the vehicles in the second lane.
  • a flow detection unit that detects a second difference between the number of vehicles in the second lane and the number of vehicles in the second lane that has been overtaken;
  • a motion control unit configured to control lane change according to the first difference or the second difference.
  • Reference Signs List 10 10 vehicle, 100 vehicle control system, 102 data acquisition unit, 105 output control unit, 106 output unit, 132 self position estimation unit, 133 situation analysis unit, 135 operation control unit, 141 external information detection unit, 162 action planning unit, 163 Motion planning unit, 200 lane change control system, 202 data acquisition unit, 203 information processing unit, 204 presentation unit, 211 imaging unit, 212 sensor unit, 213 GNSS receiver, 221 self position estimation unit, 222 vehicle condition detection unit, 223 Vehicle recognition unit, 224 situation analysis unit, 225 threshold setting unit, 226 flow detection unit, 231 lane change determination unit, 232 presentation control unit, 233 operation control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本技術は、自車両が走行している車線と隣の車線の車両の流れを比較することができるようにする情報処理装置、情報処理方法、プログラム、及び、車両に関する。 情報処理装置は、自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行う車両認識部と、前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する流れ検出部とを備える。本技術は、例えば、車線変更の制御や提案を行うシステムに適用することができる。

Description

情報処理装置、情報処理方法、プログラム、及び、車両
 本技術は、情報処理装置、情報処理方法、プログラム、及び、車両に関し、特に、隣接車線の車両の流れを検出する場合に用いて好適な情報処理装置、情報処理方法、プログラム、及び、車両に関する。
 従来、自車両が走行中の道なり車線が混雑していると判断した場合に、隣接する道なり車線が混雑していないと判断したとき、隣接する道なり車線へ車線変更することが提案されている(例えば、特許文献1参照)。
特開2011-162132号公報
 しかしながら、特許文献1では、自車両が走行中の道なり車線と隣接する道なり車線のどちらが混雑しているかを判断する方法は検討されていない。
 本技術は、このような状況に鑑みてなされたものであり、自車両が走行している車線と隣の車線の車両の流れを比較できるようにするものである。
 本技術の第1の側面の情報処理装置は、自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行う車両認識部と、前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する流れ検出部とを備える。
 本技術の第1の側面の情報処理方法は、情報処理装置が、自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行い、前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する。
 本技術の第1の側面のプログラムは、自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行い、前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する処理をコンピュータに実行させる。
 本技術の第2の側面の車両は、走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行う車両認識部と、前記第2の車線の車両の認識結果に基づいて、追いつかれた前記第2の車線の車両の数と追いついた前記第2の車線の車両の数との第1の差、又は、追い抜かれた前記第2の車線の車両の数と追い抜いた前記第2の車線の車両の数との第2の差を検出する流れ検出部と、前記第1の差又は前記第2の差に応じて車線変更を行うよう制御する動作制御部とを備える。
 本技術の第1の側面においては、自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識が行われ、前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差が検出される。
 本技術の第2の側面においては、走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識が行われ、前記第2の車線の車両の認識結果に基づいて、追いつかれた前記第2の車線の車両の数と追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差が検出され、前記第1の差又は前記第2の差に応じて車線変更を行うよう制御される。
 本技術の第1の側面又は第2の側面によれば、自車両が走行している車線と隣の車線の車両の流れを比較することができる。その結果、隣の車線への車線変更を適切に提案したり、実施したりすることが可能になる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術が適用され得る車両制御システムの概略的な機能の構成例を示すブロック図である。 本技術を適用した車線変更制御システムの一実施の形態を示すブロック図である。 車線変更制御処理を説明するためのフローチャートである。 車線変更制御処理を説明するためのフローチャートである。 車線変更制御機能自動設定処理の詳細を説明するためのフローチャートである。 流れ比較カウンタのカウント方法の具体例を説明するための図である。 車線変更の実施の判断方法の例を示す図である。 車線変更の実施の判断方法の例を示す図である。 コンピュータの構成例を示す図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.車両制御システムの構成例
 2.実施の形態
 3.変形例
 4.その他
 <<1.車両制御システムの構成例>>
 図1は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
 車両制御システム100は、車両10に設けられ、車両10の各種の制御を行うシステムである。なお、以下、車両10を他の車両と区別する場合、自車又は自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、車両10の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、車両10の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、車両10の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、車両10の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、車両10の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両10と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、車両10に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、車両10の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、車両10の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、車両10の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、車両10の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、車両10の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両10の衝突警告、又は、車両10のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、車両10の外部の情報の検出処理を行う。例えば、車外情報検出部141は、車両10の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、車両10の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、車両10の状態の検出処理を行う。検出対象となる車両10の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、車両10及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、車両10の周囲の信号の位置及び状態、車両10の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10に関する状況の認識処理を行う。例えば、状況認識部153は、車両10の状況、車両10の周囲の状況、及び、車両10の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、車両10の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる車両10の状況には、例えば、車両10の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる車両10の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10に関する状況の予測処理を行う。例えば、状況予測部154は、車両10の状況、車両10の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる車両10の状況には、例えば、車両10の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる車両10の周囲の状況には、例えば、車両10の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための車両10の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行中車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した車両10の行動を示すデータを動作計画部163等に供給する。
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための車両10の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した車両10の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、車両10の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両10の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための車両10の動作を計画する。緊急事態回避部171は、計画した車両10の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された車両10の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された車両10の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 <<2.実施の形態>>
 次に、図2乃至図8を参照して、本技術の実施の形態について説明する。
 なお、この実施の形態は、図1の車両制御システム100のうち、主にデータ取得部102、出力制御部105、出力部106、自己位置推定部132、状況分析部133、動作制御部135、行動計画部162、及び、動作計画部163の処理に関連するものである。
 <車線変更制御システムの構成例>
 図2は、本技術の一実施の形態である車線変更制御システム200の構成例を示すブロック図である。
 車線変更制御システム200は、車線変更制御システム200が設けられている車両10が走行している車線(以下、走行中車線と称する)と、走行中車線に隣接し、走行中車線と進行方向が同じ車線(以下、隣接車線と称する)との車両の流れの差を検出し、その結果に基づいて、車線変更の提案や制御等を行うシステムである。車線変更制御システム200は、入力部201、データ取得部202、情報処理部203、提示部204、及び、記憶部205を備える。
 入力部201は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。入力部201は、車両10の搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、情報処理部203に供給する。
 データ取得部202は、撮影部211、センサ部212、及び、GNSS受信機213を備える。
 撮影部211は、1以上のカメラを備え、例えば、車両10の前方、側方、後方等の周囲の撮影を行う。撮影部211は、撮影の結果得られた画像を情報処理部203に供給する。
 センサ部212は、車両10の状態等を検出するための各種のセンサを備える。例えば、センサ部212は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、センサ部212は、車両10の外部の情報を検出するための各種のセンサを備える。例えば、センサ部212は、車両10の周囲の物体を検出するための周囲情報検出センサを備える。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR、ソナー等からなる。
 センサ部212は、各センサの検出結果を示すセンサデータを情報処理部203に供給する。
 GNSS受信機213は、GNSSの測位用衛星(不図示)から送信されるGNSS信号を受信し、受信したGNSS信号を情報処理部203に供給する。
 情報処理部203は、自己位置推定部221、車両状態検出部222、車両認識部223、状況分析部224、閾値設定部225、流れ検出部226、及び、車線変更処理部227を備える。
 自己位置推定部221は、GNSS受信機213により受信されるGNSS信号に基づいて、車両10の自己位置推定を行い、車両の現在位置及び姿勢を推定する。自己位置推定部221は、推定結果を示すデータを状況分析部224及び閾値設定部225に供給する。
 車両状態検出部222は、センサ部212からのセンサデータに基づいて、車両10の状態の検出処理を行う。検出対象となる車両10の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態等が含まれる。車両状態検出部222は、検出結果を示すデータを状況分析部224、流れ検出部226、及び、車線変更処理部227の車線変更判定部231に供給する。
 車両認識部223は、撮影部211により撮影された画像、及び、センサ部212からのセンサデータ等に基づいて、隣接車線の車両の認識処理を行う。車両認識部223は、認識結果を示すデータを流れ検出部226に供給する。
 また、車両認識部223は、認識した隣接車線の車両の特徴を示す隣車情報の生成及び更新を行い、隣車情報を記憶部205に記憶させる。隣車情報は、車両10の隣を走行する隣接車線の車両を区別するために用いられ、例えば、車種、色、形状、車両番号、搭乗者の人数や特徴等を含む。
 状況分析部224は、車両10の周囲の画像、センサ部212からのセンサデータ、GNSS信号、車両10の自己位置の推定結果、車両10の状態、並びに、記憶部205に記憶されている地図データ等に基づいて、車両10及び車両の周囲の状況の分析処理を行う。例えば、状況分析部224は、走行中の道路の特徴、変化、及び、制限速度、車間距離、車両10の進行方向の状況、車線変更の有無等の分析を行う。状況分析部224は、分析結果を示すデータを閾値設定部225、流れ検出部226、及び、車線変更処理部227の車線変更判定部231に供給する。
 閾値設定部225は、車線変更の判定に用いる車線変更閾値の設定を行う。例えば、閾値設定部225は、車線変更閾値の自動設定が有効にされている場合、車両10が走行中の道路、及び、記憶部205に記憶されている車線変更履歴に基づいて、車線変更閾値を設定する。一方、閾値設定部225は、車線変更閾値の自動設定が無効にされている場合、例えば、車線変更閾値を規定値に設定する。閾値設定部225は、設定した車線変更閾値を示すデータを車線変更判定部231に供給する。
 なお、車線変更閾値の自動設定は、例えば、入力部201を介した搭乗者の操作により有効又は無効に設定される。
 また、車線変更履歴は、過去に運転者の操作により車線変更した履歴を記録したものである。車線変更履歴は、例えば、車線変更を行った日時、車線変更を行った道路、及び、車線変更時の流れ比較カウンタの値等を含む。なお、車線変更を行った道路を特定するための道路の区分は任意に設定することができる。
 また、流れ比較カウンタは、走行中車線と隣接車線の車両の流れを比較した結果を示すカウンタである。例えば、流れ比較カウンタは、所定のタイミングを基準にして、車両10が追いつかれた隣接車線の車両の数と車両10が追いついた隣接車線の車両の数との差分値で表される。例えば、流れ比較カウンタは、車両10が隣接車線の車両に追いつかれると1つ増やされ、車両10が隣接車線の車両に追いつくと1つ減らされる。この場合、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より多い場合、すなわち、走行中車線の方が隣接車線より車両の流れが悪い場合、流れ比較カウンタは正の値になる。一方、車両10が追いついた隣接車線の車両の数が、車両10が追いつかれた隣接車線の車両の数より多い場合、すなわち、走行中車線の方が隣接車線より車両の流れが良い場合、流れ比較カウンタは負の値になる。
 なお、所定のタイミングとは、例えば、車両10が新たな道路に進入又は合流したり、車線変更をしたりしたとき等である。
 流れ検出部226は、車両10の速度、及び、隣接車線の車両の認識結果に基づいて、流れ比較カウンタを更新することにより、走行中車線と隣接車線の車両の流れの差を検出する。流れ検出部226は、流れ比較カウンタの値を示すデータを車線変更判定部231に供給する。
 車線変更処理部227は、車両10の車線変更に関する車線変更処理を行う。車線変更処理部227は、車線変更判定部231、提示制御部232、及び、動作制御部233を備える。
 車線変更判定部231は、車両10の進行方向の状況、車線変更閾値、及び、流れ比較カウンタに基づいて、隣接車線に車線変更をした方が良いか否かを判定する。車線変更判定部231は、隣接車線に車線変更をした方が良いと判定した場合、車線変更の提案を提示制御部232に指示したり、車線変更の実施を動作制御部233に指示したりする。
 また、車線変更判定部231は、車線変更履歴の生成及び更新を行う。
 さらに、車線変更判定部231は、車線変更制御機能の自動設定が有効にされている場合、1つ前の車両との車間距離、走行中の道路の制限速度、及び、車両10の速度に基づいて、車線変更制御機能の有効又は無効の設定を行う。
 なお、車線変更制御機能の自動設定は、例えば、入力部201を介した搭乗者の操作により有効又は無効に設定される。
 提示制御部232は、提示部204を制御して、運転者に隣接車線への車線変更を提案する。
 動作制御部233は、例えば、図1の車両10の駆動系制御部107を制御して、車両10の車線変更を実施する。
 提示部204は、ディスプレイ、スピーカ、照明装置、バイブレータ等の画像、音声、光、振動等により情報の提示を行う装置を備える。
 記憶部205は、地図データ、車線変更履歴等を記憶する。
 <車線変更制御処理>
 次に、図3及び図4のフローチャートを参照して、車線変更制御システム200により実行される車線変更制御処理について説明する。なお、この処理は、例えば、車両10を起動し、運転を開始するための操作が行われたとき、例えば、車両10のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオンされたとき開始される。また、この処理は、例えば、運転を終了するための操作が行われたとき、例えば、車両10のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオフされたとき終了する。
 なお、以下、説明を簡単にするために、主に車両10の走行中車線の隣接車線が1車線のみの場合について説明する。
 ステップS1において、車線変更判定部231は、車線変更制御機能の自動設定が有効にされているか否かを判定する。そして、車線変更制御機能の自動設定が有効にされていると判定された場合、処理はステップS2に進む。
 ステップS2において、情報処理部203は、車線変更制御機能自動設定処理を実行し、処理はステップS3に進む。
 ここで、図5のフローチャートを参照して、車線変更制御機能自動設定処理の詳細について説明する。
 ステップS51において、状況分析部224は、車間距離を検出する。例えば、状況分析部224は、撮影部211により撮影された車両10の前方の画像、及び、センサ部212からのセンサデータのうち少なくとも1つに基づいて、所定の方法により、走行中車線の1つ前の車両の検出処理を行う。そして、状況分析部224は、検出した車両と車両10との間の車間距離を検出する。状況分析部224は、検出した車間距離を示すデータを車線変更判定部231に供給する。
 なお、前方の車両及び車間距離の検出方法は、特に限定されない。
 ステップS52において、車線変更判定部231は、車間距離が十分であるか否かを判定する。例えば、車線変更判定部231は、車間距離が所定の閾値未満である場合、車間距離が十分でないと判定し、処理はステップS53に進む。
 ステップS53において、状況分析部224は、制限速度情報を取得する。具体的には、自己位置推定部221は、GNSS受信機213により受信されるGNSS信号に基づいて、車両10の現在位置を推定する。自己位置推定部221は、車両10の現在位置を示すデータを状況分析部224に供給する。状況分析部224は、車両10の現在位置、及び、記憶部205に記憶されている地図データに基づいて、車両10が走行中の道路の制限速度情報を取得する。状況分析部224は、取得した制限速度情報を車線変更判定部231に供給する。
 ステップS54において、車両状態検出部222は、センサ部212からのセンサデータに基づいて、自車速度を検出する。車両状態検出部222は、検出した自車速度を示すデータを車線変更判定部231に供給する。
 ステップS55において、車線変更判定部231は、低速走行しているか否かを判定する。例えば、車線変更判定部231は、(制限速度-自車速度)≧所定の閾値である場合、すなわち、自車速度が制限速度よりかなり遅い場合、車両10が低速走行していると判定し、処理はステップS56に進む。
 ステップS56において、車線変更判定部231は、車線変更制御機能が無効にされているか否かを判定する。車線変更制御機能が無効にされていると判定された場合、処理はステップS57に進む。
 ステップS57において、車線変更判定部231は、車線変更制御機能を有効にする。これにより、車間距離が所定の閾値未満、かつ、車両10が低速走行している場合、例えば、車両10が渋滞に巻き込まれている場合、車線変更制御機能が自動的に有効にされる。そして、後述する流れ検出部226による流れ比較カウンタの更新、車線変更処理部227による車線変更処理等が開始される。
 その後、車線変更制御機能自動設定処理は終了する。
 一方、ステップS56において、車線変更制御機能が有効にされていると判定された場合、ステップS57の処理はスキップされ、車線変更制御機能自動設定処理は終了する。
 また、ステップS55において、車線変更判定部231は、(制限速度-自車速度)<所定の閾値である場合、すなわち、車両10が制限速度付近又はそれ以上の速度で走行している場合、車両10が低速走行していないと判定し、処理はステップS58に進む。
 さらに、ステップS52において、車間距離が十分であると判定された場合、処理はステップS58に進む。
 ステップS58において、車線変更判定部231は、車線変更制御機能が有効にされているか否かを判定する。車線変更制御機能が有効にされていると判定された場合、処理はステップS59に進む。
 ステップS59において、車線変更判定部231は、車線変更制御機能を無効にする。これにより、車間距離が所定の閾値以上、又は、車両10が低速走行していない場合、例えば、車両10が渋滞に巻き込まれていない場合、車線変更制御機能が自動的に無効にされる。そして、後述する流れ検出部226による流れ比較カウンタの更新、車線変更処理部227による車線変更処理等が停止される。
 その後、車線変更制御機能自動設定処理は終了する。
 一方、ステップS58において、車線変更制御機能が無効にされていると判定された場合、ステップS59の処理はスキップされ、車線変更制御機能自動設定処理は終了する。
 図3に戻り、一方、ステップS1において、車線変更制御機能の自動設定が無効にされていると判定された場合、ステップS2の処理はスキップされ、処理はステップS3に進む。
 ステップS3において、車線変更判定部231は、車線変更制御機能が有効にされているか否かを判定する。車線変更制御機能が無効にされていると判定された場合、処理はステップS1に戻る。
 その後、ステップS3において、車線変更制御機能が有効にされていると判定されるまで、ステップS1乃至ステップS3の処理が繰り返し実行される。
 一方、ステップS3において、車線変更制御機能が有効にされていると判定された場合、処理はステップS4に進む。これは、車線変更制御機能が予め有効にされている場合、車線変更制御機能が自動的に有効にされた場合、又は、運転者等の操作により車線変更制御機能が有効にされた場合等である。
 ステップS4において、状況分析部224は、自車両(車両10)の進行方向の車線が複数であるか否かを判定する。例えば、自己位置推定部221は、GNSS受信機213により受信されるGNSS信号に基づいて、車両10の現在位置を推定する。自己位置推定部221は、車両10の現在位置を示すデータを状況分析部224に供給する。
 状況分析部224は、車両10の現在位置、及び、記憶部205に記憶されている地図データに基づいて、車両10が走行中の道路を認識する。そして、状況分析部224は、認識した道路の車両10の進行方向の車線が1つであると判定した場合、処理はステップS1に戻る。
 その後、ステップS4において、車両10の進行方向の車線が複数であると判定されるまで、ステップS1乃至ステップS4の処理が繰り返し実行される。
 一方、ステップS4において、車両10の進行方向の車線が複数であると判定された場合、処理はステップS5に進む。
 なお、車両10の進行方向の車線が複数であるか否かの判定方法は、上述した方法に限定されない。例えば、状況分析部224は、撮影部211により撮影された画像に基づいて判定処理を行うようにしてもよい。
 ステップS5において、閾値設定部225は、車線変更閾値の自動設定が有効にされているか否かを判定する。車線変更閾値の自動設定が有効にされていると判定された場合、処理はステップS6に進む。
 ステップS6において、閾値設定部225は、走行中の道路の車線変更履歴が記録されているか否かを判定する。具体的には、状況分析部224は、車両10が走行中の道路の認識結果を示すデータを閾値設定部225に供給する。閾値設定部225は、記憶部205に記憶されている車線変更履歴の中に、走行中の道路に対する履歴が含まれている場合、走行中の道路の車線変更履歴が記録されていると判定し、処理はステップS7に進む。
 ステップS7において、閾値設定部225は、車線変更履歴に基づいて、車線変更閾値を設定する。例えば、閾値設定部225は、走行中の道路の車線変更履歴に記録されている過去の車線変更時の流れ比較カウンタの平均値を算出し、算出した値を車線変更閾値に設定する。すなわち、走行中の道路において過去に運転者の操作により車線変更したときの流れ比較カウンタの平均値が、車線変更閾値に設定される。閾値設定部225は、設定した車線変更閾値を示すデータを車線変更判定部231に供給する。
 なお、過去の車線変更時の流れ比較カウンタに基づく他の統計値を車線変更閾値に設定するようにしてもよい。例えば、過去の車線変更時の流れ比較カウンタの最小値又は最大値を車線変更閾値に設定するようにしてもよい。
 その後、処理はステップS9に進む。
 一方、ステップS5において、車線変更閾値の自動設定が無効にされていると判定された場合、又は、ステップS6において、走行中の道路の車線変更履歴が記録されていないと判定された場合、処理はステップS8に進む。
 ステップS8において、閾値設定部225は、車線変更閾値を予め設定されている規定値に設定する。閾値設定部225は、設定した車線変更閾値を示すデータを車線変更判定部231に供給する。
 なお、例えば、車線変更閾値の規定値を運転者等が変更できるようにしてもよい。
 その後、処理はステップS9に進む。
 ステップS9において、流れ検出部226は、流れ比較カウンタを0に設定し、車両認識部223は、隣車情報をリセットする。
 ステップS10において、車両認識部223は、自車両(車両10)の隣に隣接車線の車両が存在するか否かを判定する。例えば、車両認識部223は、撮影部211により隣接車線の方向を撮影した画像に基づいて、隣接車線の車両の認識処理を行う。そして、車両認識部223は、認識処理の結果に基づいて、自車両の隣に隣接車線の車両が存在すると判定した場合、処理はステップS11に進む。
 ステップS11において、車両認識部223は、隣車情報を記録する。具体的には、車両認識部223は、車両10の隣に存在する隣接車線の車両の特徴を示す隣車情報を生成し、記憶部205に記憶させる。
 その後、処理はステップS12に進む。
 一方、ステップS10において、自車両の隣に隣接車線の車両が存在しないと判定された場合、ステップS11の処理はスキップされ、隣車情報は記録されずに、処理はステップS12に進む。
 ステップS12において、車両認識部223は、隣の車両が変わったか否かを判定する。例えば、車両認識部223は、撮影部211により隣接車線の方向を撮影した画像に基づいて、隣接車線の車両の認識処理を行う。車両認識部223は、車両10の隣に隣接車線の車両を認識した場合、その車両の特徴と、記憶部205に記憶されている隣車情報に示される車両の特徴とを比較する。そして、車両認識部223は、両者の特徴が一致しない場合、隣の車両が変わったと判定し、処理はステップS13に進む。
 なお、車両認識部223は、車両10の隣に隣接車線の車両を認識した場合に、まだ隣車情報が記憶部205に記憶されていないとき、すなわち、ステップS10において、自車両の隣に隣接車線の車両が存在しないと判定された後、初めて車両10の隣に隣接車線の車両を認識したときも、隣の車両が変わったと判定し、処理はステップS13に進む。
 ステップS13において、車両認識部223は、隣車情報を更新する。すなわち、車両認識部223は、新たに認識した車両10の隣の車両の特徴を示す情報に隣車情報を更新する。
 ステップS14において、流れ検出部226は、自車両(車両10)の方が速いか否かを判定する。
 例えば、車両認識部223は、撮影部211により隣接車線の方向を撮影した画像や、センサ部212からのセンサデータ等に基づいて、新たに認識した隣の車両の速度を検出する。車両認識部223は、隣の車両の速度を示すデータを流れ検出部226に供給する。
 なお、隣の車両の速度の検出方法は、特に限定されない。
 また、車両状態検出部222は、センサ部212からのセンサデータに基づいて、自車速度を検出する。車両状態検出部222は、検出した自車速度を示すデータを流れ検出部226に供給する。
 流れ検出部226は、自車速度と隣の車両の速度とを比較し、自車両(車両10)の方が速いと判定した場合、処理はステップS15に進む。
 ステップS15において、流れ検出部226は、流れ比較カウンタを1つ減らす。すなわち、流れ検出部226は、車両10の方が隣の車両より速いため、車両10が隣の車両に追いついたと判定し、流れ比較カウンタを1つ減らす。
 その後、処理はステップS17に進む。
 一方、ステップS14において、車両10の方が遅いと判定された場合、処理はステップS16に進む。
 ステップS16において、流れ検出部226は、流れ比較カウンタを1つ増やす。すなわち、流れ検出部226は、車両10より隣の車両の方が速いため、車両10が隣の車両に追いつかれたと判定し、流れ比較カウンタを1つ増やす。
 その後、処理はステップS17に進む。
 ステップS17において、流れ検出部226は、流れ比較カウンタが車線変更閾値以上であるか否かを判定する。流れ比較カウンタが車線変更閾値以上であると判定された場合、処理はステップS18に進む。
 ここで、図6を参照して、ステップS9乃至ステップS17の処理の具体例、特に、流れ比較カウンタのカウント方法の具体例について説明する。
 図6の左端の車両301A乃至車両301Fは、隣接車線の車列を示している。車列は図内の上方向に進んでおり、前方から車両301A、車両301B、車両301C、車両301D、車両301E、車両301Fの順に並んでいる。
 また、図6には、車列に対する車両10の相対位置が時系列で示されている。横軸は時刻を示し、縦軸は車列に対する車両10の相対位置を示している。さらに、上端に各時刻における流れ比較カウンタの値が示されている。
 なお、以下、車線変更閾値が3に設定されているものとする。
 また、以下、時刻t0において、車両10が、車両301A乃至車両301Fが走行する隣接車線の隣の車線に合流し、合流時の車両10の隣の車両が車両301Cであるものとする。このとき、流れ比較カウンタは0に設定される。
 時刻t1において、車両10の隣の車両が車両301Cから車両301Bに変わっている。すなわち、車両10が車両301Bに追いついている。このとき、流れ比較カウンタは、0から-1に減少する。すなわち、流れ比較カウンタは、時刻t0以降において(時刻t0を基準にして)、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より1台少ないことを示している。
 時刻t2において、車両10の隣の車両が車両301Bから車両301Cに変わっている。すなわち、車両10が車両301Cに追いつかれている。このとき、流れ比較カウンタは、-1から0に増加する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数と、車両10が追いついた隣接車線の車両の数が等しいことを示している。
 時刻t3において、車両10の隣の車両が車両301Cから車両301Dに変わっている。すなわち、車両10が車両301Cに追い抜かれ、車両301Dに追いつかれている。このとき、流れ比較カウンタは、0から1に増加する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より1台多いことを示している。
 時刻t4において、車両10の隣の車両が車両301Dから車両301Eに変わっている。すなわち、車両10が車両301Dに追い抜かれ、車両301Eに追いつかれている。このとき、流れ比較カウンタは、1から2に増加する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より2台多いことを示している。
 時刻t5において、車両10の隣の車両が車両301Eから車両301Dに変わっている。すなわち、車両10が車両301Dに追いついている。このとき、流れ比較カウンタは、2から1に減少する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より1台多いことを示している。
 時刻t6において、車両10の隣の車両が車両301Dから車両301Cに変わっている。すなわち、車両10が車両301Dを追い抜き、車両301Cに追いついている。このとき、流れ比較カウンタは、1から0に減少する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数と、車両10が追いついた隣接車線の車両の数が等しいことを示している。
 時刻t7において、車両10の隣の車両が車両301Cから車両301Bに変わっている。すなわち、車両10が車両301Cを追い抜き、車両301Bに追いついている。このとき、流れ比較カウンタは、0から-1に減少する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より1台少ないことを示している。
 時刻t8において、車両10の隣の車両が車両301Bから車両301Aに変わっている。すなわち、車両10が車両301Bを追い抜き、車両301Aに追いついている。このとき、流れ比較カウンタは、-1から-2に減少する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より2台少ないことを示している。
 時刻t9において、車両10の隣の車両が車両301Aから車両301Bに変わっている。すなわち、車両10が車両301Bに追いつかれている。このとき、流れ比較カウンタは、-2から-1に増加する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より1台少ないことを示している。
 時刻t10において、車両10の隣の車両が車両301Bから車両301Cに変わっている。すなわち、車両10が車両301Bに追い抜かれ、車両301Cに追いつかれている。このとき、流れ比較カウンタは、-1から0に増加する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数と、車両10が追いついた隣接車線の車両の数が等しいことを示している。
 時刻t11において、車両10の隣の車両が車両301Cから車両301Dに変わっている。すなわち、車両10が車両301Cに追い抜かれ、車両301Dに追いつかれている。このとき、流れ比較カウンタは、0から1に増加する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より1台多いことを示している。
 時刻t12において、車両10の隣の車両が車両301Dから車両301Eに変わっている。すなわち、車両10が車両301Dに追い抜かれ、車両301Eに追いつかれている。このとき、流れ比較カウンタは、1から2に増加する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より2台多いことを示している。
 時刻t13において、車両10の隣の車両が車両301Eから車両301Fに変わっている。すなわち、車両10が車両301Eに追い抜かれ、車両301Fに追いつかれている。このとき、流れ比較カウンタは、2から3に増加する。すなわち、流れ比較カウンタは、時刻t0以降において、車両10が追いつかれた隣接車線の車両の数が、車両10が追いついた隣接車線の車両の数より3台多いことを示している。
 この時刻t13において、流れ比較カウンタと車線変更閾値が等しくなるため、ステップS17において、流れ比較カウンタが車線変更閾値以上であると判定され、処理はステップS18に進む。
 ステップS18において、状況分析部224は、隣接車線に自車両(車両10)の進行方向への車両の流れを妨げる要因があるか否かを判定する。
 具体的には、状況分析部224は、撮影部211により撮影された車両10の周囲の画像、センサ部212からのセンサデータ、自己位置推定部221により認識された車両10の現在位置、及び、記憶部205に記憶されている地図データ等に基づいて、車両10の進行方向の状況の認識処理を行う。また、状況分析部224は、車両10の進行方向の状況の認識結果に基づいて、隣接車線に車両10の進行方向への車両の流れを妨げる要因があるか否かを判定する。状況分析部224は、隣接車線に車両10の進行方向への車両の流れを妨げる要因がないと判定した場合、その判定結果を車線変更判定部231に通知する。その後、処理はステップS19に進む。
 なお、車両10の進行方向の状況の認識方法は、特に限定されない。
 ステップS19において、車線変更判定部231は、自動運転中であるか否かを判定する。自動運転中であると判定された場合、処理はステップS20に進む。
 ステップS20において、車両10は、車線変更を行う。具体的には、車線変更判定部231は、隣接車線への車線変更の実施を動作制御部233に指示する。動作制御部233は、例えば、図1の車両10の駆動系制御部107を制御して、車両10を走行中車線から隣接車線へ車線変更させる。
 その後、処理はステップS24に進む。
 一方、ステップS19において、自動運転中でないと判定された場合、処理はステップS21に進む。
 ステップS21において、車線変更制御システム200は、車線変更を提案する。具体的には、車線変更判定部231は、隣接車線への車線変更の提案を提示制御部232に指示する。提示部204は、提示制御部232の制御の下に、車線変更を提案する。
 なお、車線変更の提案方法は、特に限定されない。例えば、提示部204は、隣接車線への車線変更を提案する画像を表示したり、隣接車線への車線変更を提案する音声を出力したりする。これにより、運転者は隣接車線への車線変更を促される。
 ステップS22において、状況分析部224は、車線変更が行われたか否かを判定する。車線変更が行われたと判定された場合、処理はステップS23に進む。
 なお、車線変更が行われたか否かの判定方法は、特に限定されない。例えば、状況分析部224は、自己位置推定部221により認識された車両10の現在位置、及び、記憶部205に記憶されている地図データに基づいて、車線変更が行われたか否かを判定する。また、例えば、状況分析部224は、カメラにより撮影された車両10の周囲の画像、センサ部212からのセンサデータ、及び、車両状態検出部222により検出された車両10の状態のうち少なくとも1つ以上に基づいて、車線変更が行われたか否かを判定する。
 ステップS23において、車線変更判定部231は、車線変更履歴を更新する。具体的には、状況分析部224は、車線変更が行われたこと、及び、車線変更が行われた道路を示すデータを車線変更判定部231に供給する。車線変更判定部231は、記憶部205に記憶されている車線変更履歴に、今回の車線変更を行った日時、車線変更を行った道路、及び、車線変更時の流れ比較カウンタの値を含む履歴を新たに追加する。
 その後、処理はステップS24に進む。
 一方、ステップS22において、車線変更が行われなかったと判定された場合、ステップS23の処理はスキップされ、処理はステップS24に進む。
 また、ステップS18において、隣接車線に自車両の進行方向への車両の流れを妨げる要因があると判定された場合、ステップS19乃至ステップS23の処理はスキップされ、処理はステップS24に進む。すなわち、この場合、流れ比較カウンタが車線変更閾値以上ではあるが、車線変更の実施及び提案が行われない。
 例えば、図7の例では、大型商業施設、サービスエリア等の駐車スペースを多く備える大型施設311が車線L1に隣接している。大型施設311には多くの車両が出入りするため、大型施設311付近において車線L1の車両の流れが悪くなると想定される。従って、例えば、車両10が車線L2を走行中に流れ比較カウンタが車線変更閾値以上になった場合、車両10と大型施設311の間の距離D1が所定の閾値未満のとき、隣接車線である車線L1に車両10の進行方向への車両の流れを妨げる要因があると判定される。一方、距離D1が所定の閾値以上の場合、大型施設311は、車両の流れを妨げる要因とはみなされない。
 また、例えば、車両10の進行方向において、隣接車線の車両10から所定の距離の範囲内にバス停、工事現場、事故現場、故障車両等がある場合、隣接車線に車両10の進行方向への車両の流れを妨げる要因があると判定される。
 さらに、例えば、車両10が直進する場合に、車両10から所定の距離の範囲内において隣接車線が左折専用レーン又は右折専用レーンになるとき、隣接車線に車両10の進行方向への車両の流れを妨げる要因があると判定される。
 なお、隣接車線に車両10の進行方向への車両の流れを妨げる要因があると判定され、車線変更の実施及び提案が行われない期間も、流れ比較カウンタの更新は行われる。その後、隣接車線に車両10の進行方向への車両の流れを妨げる要因がないと判定されたときに、流れ比較カウンタが車線変更閾値以上であれば、車線変更が実施又は提案される。
 例えば、図7に示される状態の後、図8に示されるように、車両10が大型施設311の横を通り過ぎた時点で、流れ比較カウンタが車線変更閾値以上である場合、車線L1への車線変更が実施又は提案される。
 図4に戻り、さらに、ステップS17において、流れ比較カウンタが車線変更閾値未満であると判定された場合、ステップS18乃至ステップS23の処理はスキップされ、処理はステップS24に進む。
 また、ステップS12において、車両認識部223は、認識した隣の車両の特徴と、記憶部205に記憶されている隣車情報に示される車両の特徴とが一致する場合、又は、車両10の隣に車両が存在しない場合、隣の車両が変わっていないと判定し、ステップS13乃至ステップS23の処理はスキップされ、処理はステップS24に進む。
 ステップS24において、状況分析部224は、走行中の道路又は車線が変わったか否かを判定する。
 例えば、状況分析部224は、撮影部211により撮影された車両10の周囲の画像、センサ部212からのセンサデータ、自己位置推定部221により認識された車両10の現在位置、及び、記憶部205に記憶されている地図データ等に基づいて、走行中の道路が変わったか否かを判定する。例えば、左折、右折、Uターン等により車両10が別の道路に進入したり、進行方向を変えたりした場合、又は、走行中の道路の車両10の進行方向の車線の数が変わった場合に、走行中の道路が変わったと判定される。
 また、状況分析部224は、撮影部211により撮影された車両10の周囲の画像、センサ部212からのセンサデータ、自己位置推定部221により認識された車両10の現在位置、車両状態検出部222により検出された車両10の状態、及び、記憶部205に記憶されている地図データ等に基づいて、走行中の車線が変わったか否かを判定する。
 なお、走行中の道路及び車線が変わったか否の判定方法は、特に限定されない。
 そして、走行中の道路及び車線が変わっていないと判定された場合、処理はステップS25に進む。
 ステップS25において、ステップS1の処理と同様に、車線変更制御機能の自動設定が有効にされているか否かが判定される。車線変更制御機能の自動設定が有効にされていると判定された場合、処理はステップS26に進む。
 ステップS26において、ステップS2の処理と同様に、車線変更制御機能自動設定処理が実行される。
 その後、処理はステップS27に進む。
 一方、ステップS25において、車線変更制御機能の自動設定が無効にされていると判定された場合、ステップS26の処理はスキップされ、処理はステップS27に進む。
 ステップS27において、ステップS3の処理と同様に、車線変更制御機能が有効にされているか否かが判定される。車線変更制御機能が有効にされていると判定された場合、処理はステップS12に戻り、ステップS12以降の処理が実行される。
 一方、ステップS27において、車線変更制御機能が無効にされていると判定された場合、処理はステップS1に戻り、ステップS1以降の処理が実行される。これは、車線変更制御機能が自動的に無効にされた場合、又は、運転者等の操作により車線変更制御機能が無効にされた場合である。
 また、ステップS24において、走行中の道路又は車線が変わったと判定された場合、処理はステップS1に戻り、ステップS1以降の処理が実行される。すなわち、車両10が走行する道路又は車線が変わったため、最初から処理がやり直される。
 以上のようにして、走行中車線と隣接車線の車両の流れを正確に比較することができる。また、自動運転及び手動運転の両方において、隣接車線への車線変更を適切に提案したり、実施したりすることが可能になる。
 <<3.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
 例えば、自動運転中に隣接車線への車線変更を自動的に行う前に、運転者に対して車線変更を提案するようにしてもよい。
 また、例えば、提示制御部232は、流れ比較カウンタに基づいて、隣接車線の車両の流れの状況を提示部204に提示させるようにしてもよい。例えば、提示制御部232は、流れ比較カウンタの値をそのまま提示させてもよいし、走行中車線と隣接車線の車両の流れの比較結果を示す情報を提示させてもよい。
 さらに、以上の説明では、主に隣接車線が1車線の場合について説明したが、隣接車線が2車線の場合、すなわち、走行中車線の両隣に隣接車線がある場合にも同様の処理により、車線変更の提案及び実施が可能である。例えば、隣接車線毎に流れ比較カウンタが更新され、一方の隣接車線の流れ比較カウンタが閾値以上になった場合、その隣接車線への車線変更が提案又は実施される。もちろん、この場合も、流れ比較カウンタが閾値以上になった隣接車線に車両10の進行方向への車両の流れを妨げる要因がある場合、その隣接車線への車線変更が提案及び実施されないようにすることが可能である。また、両方の隣接車線の流れ比較カウンタが閾値以上になった場合、例えば、流れ比較カウンタが大きい方の車線、又は、車両10の進行方向の車両への流れを妨げる要因がない方の車線への車線変更が提案又は実施される。
 また、例えば、車線変更履歴を記録する件数を制限するようにしてもよい。例えば、車線変更履歴の件数の上限値を道路毎に設けるようにしてもよい。
 さらに、例えば、車線変更履歴を記録する代わりに、道路毎に車線変更時の流れ比較カウンタの平均値等を記録するようにしてもよい。
 また、例えば、自動運転により車線変更を行った場合にも車線変更履歴を記録するようにしてもよい。この場合、手動運転により車線変更した場合の流れ比較カウンタの履歴に加えて、自動運転により車線変更した場合の流れ比較カウンタの履歴も用いて、車線変更閾値を設定するようにしてもよい。
 さらに、例えば、車線変更閾値に規定値を使用しているか、又は、自動設定された値を使用しているかを、提示部204に提示させるようにしてもよい。
 また、例えば、車間距離、及び、自車速度と制限速度との差のうち一方のみに基づいて、車線変更制御機能の自動設定を行うようにしてもよい。さらに、例えば、制限速度と比較せずに、自車速度のみに基づいて、車線変更制御機能の自動設定を行うようにしてもよい。
 さらに、以上の説明では、車線変更制御機能の自動設定を車線変更判定部231が実施する例を示したが、例えば、流れ検出部226等の他の機能ブロックで行うようにしてもよい。
 また、車線変更制御機能の一部の機能のみ有効又は無効の自動設定を行うようにしてもよい。例えば、車線変更処理のみ有効又は無効の自動設定を行い、流れ比較カウンタの更新は常に行うようにしてもよい。
 さらに、以上の説明では、流れ比較カウンタを、車両10が追いつかれた隣接車線の車両の数と車両10が追いついた隣接車線の車両の数との差分値で表したが、例えば、車両10が追い抜かれた隣接車線の車両の数と車両10が追い抜いた隣接車線の車両の数との差分値で表すようにしてもよい。
 この場合、例えば、図6の例において、時刻t3において、車両10の隣の車両が車両301Cから車両301Dに変わったとき、車両10が車両301Cに追い抜かれたと判定され、流れ比較カウンタが1つ増やされる。また、例えば、時刻t7において、車両10の隣の車両が車両301Cから車両301Bに変わったとき、車両10が車両301Cを追い抜いたと判定され、流れ比較カウンタが1つ減らされる。
 さらに、以上の説明では、車両が左側通行の場合について説明したが、本技術は、もちろん車両が右側通行の場合にも適用することが可能である。なお、車両が右側通行の場合、例えば、図7及び図8の例において、大型施設311の位置、及び、車両10が走行する車線が左右逆になる。例えば、車両10が車線L1を走行し、大型施設311が車線L2の右側に隣接するようになる。
 また、本技術は、先に例示した車両以外にも、自動二輪車、パーソナルモビリティ等の道路を走行する他の車両にも適用することができる。
 <<4.その他>>
 <コンピュータの構成例>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図9は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータ500では、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ500(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ500では、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行う車両認識部と、
 前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する流れ検出部と
 を備える情報処理装置。
(2)
 前記第1の差又は前記第2の差を示す差分値に基づいて、前記自車両の車線変更に関する車線変更処理を行う車線変更処理部を
 さらに備える前記(1)に記載の情報処理装置。
(3)
 前記車線変更処理部は、前記差分値が所定の閾値以上になった場合、前記車線変更処理を行う
 前記(2)に記載の情報処理装置。
(4)
 前記第2の車線の前記自車両の進行方向への車両の流れを妨げる要因を検出する状況分析部を
 さらに備え、
 前記車線変更処理部は、前記差分値が所定の閾値以上になり、かつ、前記要因が検出されていない場合、前記車線変更処理を行う
 前記(3)に記載の情報処理装置。
(5)
 前記第1の車線及び前記第2の車線を含む道路において運転者の操作により車線変更したときの前記差分値の履歴に基づいて、前記閾値を設定する閾値設定部を
 さらに備える前記(3)又は(4)に記載の情報処理装置。
(6)
 前記車線変更処理部は、前記第1の車線の前記自車両の前方の車両と前記自車両との車間間隔、及び、前記自車両の速度のうち少なくとも1つに基づいて、前記差分値に基づく前記車線変更処理の実施の有無を設定する
 前記(2)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記車線変更処理は、前記第2の車線への車線変更の提案、及び、前記自車両の前記第2の車線への車線変更の制御のうち少なくとも1つを含む
 前記(2)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記流れ検出部は、前記自車両の隣の前記第2の車線の車両が第1の車両から第2の車両に変わった場合、前記自車両の速度と前記第2の車両の速度を比較することにより、前記自車両が前記第2の車両に追いつかれたか若しくは追い抜かれたか、又は前記第2の車両に追いついたか若しくは追い抜いたかを判定する
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記第1の差又は前記第2の差に基づいて、前記第2の車線の車両の流れの状況の提示を制御する提示制御部を
 さらに備える前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
 情報処理装置が、
 自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行い、
 前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する
 情報処理方法。
(11)
 自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行い、
 前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する
 処理をコンピュータに実行させるためのプログラム。
(12)
 走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行う車両認識部と、
 前記第2の車線の車両の認識結果に基づいて、追いつかれた前記第2の車線の車両の数と追いついた前記第2の車線の車両の数との第1の差、又は、追い抜かれた前記第2の車線の車両の数と追い抜いた前記第2の車線の車両の数との第2の差を検出する流れ検出部と、
 前記第1の差又は前記第2の差に応じて車線変更を行うよう制御する動作制御部と
 を備える車両。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 10 車両, 100 車両制御システム, 102 データ取得部, 105 出力制御部, 106 出力部, 132 自己位置推定部, 133 状況分析部, 135 動作制御部, 141 車外情報検出部, 162 行動計画部, 163 動作計画部, 200 車線変更制御システム, 202 データ取得部, 203 情報処理部, 204 提示部, 211 撮影部, 212 センサ部, 213 GNSS受信機, 221 自己位置推定部, 222 車両状態検出部, 223 車両認識部, 224 状況分析部, 225 閾値設定部, 226 流れ検出部, 231 車線変更判定部, 232 提示制御部, 233 動作制御部

Claims (12)

  1.  自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行う車両認識部と、
     前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する流れ検出部と
     を備える情報処理装置。
  2.  前記第1の差又は前記第2の差を示す差分値に基づいて、前記自車両の車線変更に関する車線変更処理を行う車線変更処理部を
     さらに備える請求項1に記載の情報処理装置。
  3.  前記車線変更処理部は、前記差分値が所定の閾値以上になった場合、前記車線変更処理を行う
     請求項2に記載の情報処理装置。
  4.  前記第2の車線の前記自車両の進行方向への車両の流れを妨げる要因を検出する状況分析部を
     さらに備え、
     前記車線変更処理部は、前記差分値が所定の閾値以上になり、かつ、前記要因が検出されていない場合、前記車線変更処理を行う
     請求項3に記載の情報処理装置。
  5.  前記第1の車線及び前記第2の車線を含む道路において運転者の操作により車線変更したときの前記差分値の履歴に基づいて、前記閾値を設定する閾値設定部を
     さらに備える請求項3に記載の情報処理装置。
  6.  前記車線変更処理部は、前記第1の車線の前記自車両の前方の車両と前記自車両との車間間隔、及び、前記自車両の速度のうち少なくとも1つに基づいて、前記差分値に基づく前記車線変更処理の実施の有無を設定する
     請求項2に記載の情報処理装置。
  7.  前記車線変更処理は、前記第2の車線への車線変更の提案、及び、前記自車両の前記第2の車線への車線変更の制御のうち少なくとも1つを含む
     請求項2に記載の情報処理装置。
  8.  前記流れ検出部は、前記自車両の隣の前記第2の車線の車両が第1の車両から第2の車両に変わった場合、前記自車両の速度と前記第2の車両の速度を比較することにより、前記自車両が前記第2の車両に追いつかれたか若しくは追い抜かれたか、又は、前記第2の車両に追いついたか若しくは追い抜いたかを判定する
     請求項1に記載の情報処理装置。
  9.  前記第1の差又は前記第2の差に基づいて、前記第2の車線の車両の流れの状況の提示を制御する提示制御部を
     さらに備える請求項1に記載の情報処理装置。
  10.  情報処理装置が、
     自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行い、
     前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する
     情報処理方法。
  11.  自車両が走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行い、
     前記第2の車線の車両の認識結果に基づいて、前記自車両が追いつかれた前記第2の車線の車両の数と前記自車両が追いついた前記第2の車線の車両の数との第1の差、又は、前記自車両が追い抜かれた前記第2の車線の車両の数と前記自車両が追い抜いた前記第2の車線の車両の数との第2の差を検出する
     処理をコンピュータに実行させるためのプログラム。
  12.  走行している第1の車線に隣接し、前記第1の車線と進行方向が同じ第2の車線の車両の認識を行う車両認識部と、
     前記第2の車線の車両の認識結果に基づいて、追いつかれた前記第2の車線の車両の数と追いついた前記第2の車線の車両の数との第1の差、又は、追い抜かれた前記第2の車線の車両の数と追い抜いた前記第2の車線の車両の数との第2の差を検出する流れ検出部と、
     前記第1の差又は前記第2の差に応じて車線変更を行うよう制御する動作制御部と
     を備える車両。
PCT/JP2018/041094 2017-11-20 2018-11-06 情報処理装置、情報処理方法、プログラム、及び、車両 WO2019098081A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/763,213 US11377101B2 (en) 2017-11-20 2018-11-06 Information processing apparatus, information processing method, and vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-222456 2017-11-20
JP2017222456 2017-11-20

Publications (1)

Publication Number Publication Date
WO2019098081A1 true WO2019098081A1 (ja) 2019-05-23

Family

ID=66538654

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/041094 WO2019098081A1 (ja) 2017-11-20 2018-11-06 情報処理装置、情報処理方法、プログラム、及び、車両

Country Status (2)

Country Link
US (1) US11377101B2 (ja)
WO (1) WO2019098081A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11440549B2 (en) * 2018-02-20 2022-09-13 Nissan Motor Co., Ltd. Automated lane change control method and automated lane change control device
JP6676697B2 (ja) * 2018-05-24 2020-04-08 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP6710722B2 (ja) * 2018-06-15 2020-06-17 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7143946B2 (ja) * 2019-05-15 2022-09-29 日産自動車株式会社 車両の走行制御方法及び走行制御装置
US11880201B2 (en) * 2019-12-30 2024-01-23 Baidu Usa Llc Fastest lane determination algorithm under traffic jam
US11151874B2 (en) * 2020-01-23 2021-10-19 Frogparking Limited Vehicle flow monitoring system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211304A (ja) * 2009-03-06 2010-09-24 Nissan Motor Co Ltd 運転支援装置および運転支援方法
JP2017174345A (ja) * 2016-03-25 2017-09-28 パイオニア株式会社 混雑度算出装置、混雑度算出方法並びに混雑度算出用プログラム及び記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011162132A (ja) 2010-02-12 2011-08-25 Toyota Motor Corp 自動運転装置
DE102012214979A1 (de) * 2012-08-23 2014-02-27 Robert Bosch Gmbh Spurwahlassistent zur Optimierung des Verkehrsflusses (Verkehrsflussassistent)
CN104118380B (zh) * 2013-04-26 2017-11-24 富泰华工业(深圳)有限公司 行车侦测***及方法
JP6470039B2 (ja) * 2014-12-26 2019-02-13 日立オートモティブシステムズ株式会社 車両制御システム
DE102015014139A1 (de) * 2015-10-31 2017-05-04 Daimler Ag Verfahren zum Betreiben einer Abstands- und Geschwindigkeitsregelfunktion eines Fahrzeugs und Fahrerassistenzsystem zur Durchführung des Verfahrens
WO2018235159A1 (ja) * 2017-06-20 2018-12-27 三菱電機株式会社 経路予測装置および経路予測方法
JP6666883B2 (ja) * 2017-09-01 2020-03-18 株式会社Subaru 走行支援装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211304A (ja) * 2009-03-06 2010-09-24 Nissan Motor Co Ltd 運転支援装置および運転支援方法
JP2017174345A (ja) * 2016-03-25 2017-09-28 パイオニア株式会社 混雑度算出装置、混雑度算出方法並びに混雑度算出用プログラム及び記録媒体

Also Published As

Publication number Publication date
US11377101B2 (en) 2022-07-05
US20200298849A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
WO2019111702A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019098081A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
JPWO2019035300A1 (ja) 車両走行制御装置、および車両走行制御方法、並びにプログラム
US11501461B2 (en) Controller, control method, and program
WO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
US11014494B2 (en) Information processing apparatus, information processing method, and mobile body
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
US11257374B2 (en) Information processing apparatus, information processing method, and moving object
WO2019082670A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
WO2020129687A1 (ja) 車両制御装置、車両制御方法、プログラム、及び、車両
US20210300401A1 (en) Information processing device, moving body, information processing method, and program
WO2020129688A1 (ja) 車両制御装置、車両制御方法、車両、情報処理装置、情報処理方法、及び、プログラム
JP2019045364A (ja) 情報処理装置、自己位置推定方法、及び、プログラム
WO2019073795A1 (ja) 情報処理装置、自己位置推定方法、プログラム、及び、移動体
US20240069564A1 (en) Information processing device, information processing method, program, and mobile apparatus
JP7192771B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
US12017681B2 (en) Obstacle prediction system for autonomous driving vehicles
WO2019097884A1 (ja) 情報処理装置と管理装置および方法とプログラム
WO2019117104A1 (ja) 情報処理装置および情報処理方法
JP2020101960A (ja) 情報処理装置、情報処理方法及びプログラム
WO2020129689A1 (ja) 移動体制御装置、移動体制御方法、移動体、情報処理装置、情報処理方法、及び、プログラム
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体
WO2022024569A1 (ja) 情報処理装置と情報処理方法およびプログラム
WO2020261703A1 (ja) 情報処理装置と情報処理方法およびプログラム
CN117999587A (zh) 识别处理设备、识别处理方法和识别处理***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18877351

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18877351

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP