WO2018037900A1 - 運転支援装置および方法、移動体、並びにプログラム - Google Patents

運転支援装置および方法、移動体、並びにプログラム Download PDF

Info

Publication number
WO2018037900A1
WO2018037900A1 PCT/JP2017/028672 JP2017028672W WO2018037900A1 WO 2018037900 A1 WO2018037900 A1 WO 2018037900A1 JP 2017028672 W JP2017028672 W JP 2017028672W WO 2018037900 A1 WO2018037900 A1 WO 2018037900A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
driving support
surrounding
surrounding vehicle
Prior art date
Application number
PCT/JP2017/028672
Other languages
English (en)
French (fr)
Inventor
法子 田中
至 清水
和幸 丸川
麻子 金子
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/325,521 priority Critical patent/US11167752B2/en
Priority to JP2018535584A priority patent/JP6922919B2/ja
Priority to MX2019001893A priority patent/MX2019001893A/es
Priority to CA3033738A priority patent/CA3033738A1/en
Priority to EP17843385.0A priority patent/EP3501929A4/en
Priority to CN201780049991.4A priority patent/CN109562757B/zh
Publication of WO2018037900A1 publication Critical patent/WO2018037900A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/4034Antenna boresight in elevation, i.e. in the vertical plane
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/10Buses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2530/00Input parameters relating to vehicle conditions or values, not covered by groups B60W2510/00 or B60W2520/00
    • B60W2530/10Weight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/049Number of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/227Position in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present technology relates to a driving support apparatus and method, a moving body, and a program, and more particularly, to a driving support apparatus and method, a moving body, and a program that can perform appropriate driving support.
  • driving assistance that avoids a collision between the host vehicle and other vehicles traveling around it, such as control of the inter-vehicle distance, is performed as driving assistance, the occurrence of a collision accident or the like can be prevented.
  • a vehicle-to-vehicle communication technique has been proposed in which information about a surrounding vehicle is acquired from a surrounding vehicle around which the host vehicle travels by performing communication between the vehicles (see, for example, Patent Document 1).
  • information on surrounding vehicles is also necessary, and therefore it is useful to obtain information on surrounding vehicles through such inter-vehicle communication.
  • This technology has been made in view of such a situation, and makes it possible to perform appropriate driving support.
  • the driving support device includes a control unit that performs driving support processing of the host vehicle based on surrounding vehicle information related to the surrounding vehicle existing in an area corresponding to the number of passengers of the host vehicle.
  • the area can be determined so as to increase as the number of passengers in the host vehicle increases.
  • the driving support process may be a process for avoiding a collision between the host vehicle and the surrounding vehicle.
  • the surrounding vehicle information includes information indicating a running state of the surrounding vehicle, information indicating the number of occupants of the surrounding vehicle, information indicating the type of the surrounding vehicle, information indicating a driving mode of the surrounding vehicle, and information on the surrounding vehicle Information including at least one of information indicating the attribute of the driver may be included.
  • the control unit can determine the area based on the number of passengers of the host vehicle.
  • the control unit can determine the region based on the number of passengers of the host vehicle and the boarding position of the passengers in the host vehicle or the attributes of the passengers.
  • the control unit includes the peripheral vehicle in the area determined based on the number of occupants of the own vehicle among the peripheral vehicle information received from the peripheral vehicle in a predetermined area wider than the area.
  • the driving support process can be performed based on the surrounding vehicle information.
  • the controller determines that the area determined based on the number of occupants of the host vehicle is wider than the predetermined area after acquiring the surrounding vehicle information of the surrounding vehicles in the predetermined area.
  • the peripheral vehicle information of the peripheral vehicles in the determined area can be further acquired.
  • the control unit Based on the number of occupants of the host vehicle, the control unit includes information included in the surrounding vehicle information of the surrounding vehicle for each distance to the surrounding vehicle or for each lane in which the surrounding vehicle travels.
  • the type of information used for the driving support process can be selected.
  • the control unit can be further controlled to present information related to the area.
  • the driving support method or program according to the first aspect of the present technology includes a step of performing driving support processing of the host vehicle based on surrounding vehicle information regarding the surrounding vehicle existing in an area corresponding to the number of passengers of the host vehicle.
  • the driving support process for the host vehicle is performed based on the surrounding vehicle information related to the surrounding vehicle existing in the area corresponding to the number of passengers of the host vehicle.
  • the moving body includes a control unit that performs driving support processing for the host vehicle based on the surrounding vehicle information related to the surrounding vehicle existing in a region corresponding to the number of passengers of the host vehicle.
  • the driving support process for the host vehicle is performed based on the surrounding vehicle information related to the surrounding vehicle existing in the area corresponding to the number of passengers of the host vehicle.
  • This technique receives surrounding vehicle information from surrounding vehicles in an area (range) according to the number of passengers of the own vehicle, and performs driving for avoiding a collision between the own vehicle and the surrounding vehicles based on the received surrounding vehicle information By performing the support process, it is possible to realize appropriate driving support.
  • Driving support here refers to travel control that is performed when driving a vehicle in any driving mode, such as support driving or autonomous driving.
  • a vehicle to which the present technology is applied is performing driving support.
  • the description will be continued by taking the case where the driving support process is executed as appropriate as an example.
  • a case where the present technology is applied to a passenger car (automobile) will be described as an example.
  • the present technology is not only a motor vehicle such as an electric vehicle or a hybrid electric vehicle, but also a motorcycle, a bicycle, an electric wheelchair, a personal mobility, It can be applied to mobile objects such as airplanes, ships, and robots.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of a vehicle to which the present technology is applied.
  • a front sensing camera 21 includes a front sensing camera 21, a front camera ECU (Electronic Control Unit) 22, a position information acquisition unit 23, a display unit 24, a communication unit 25, a steering mechanism 26, a radar 27, a lidar 28, and a side view camera.
  • side view camera ECU 30 integrated ECU 31, front view camera 32, front view camera ECU 33, braking device 34, engine 35, generator 36, drive motor 37, battery 38, rear view camera 39, rear view camera ECU 40, vehicle speed detection unit 41 and a headlight 42.
  • Each unit provided in the vehicle 11 is connected to each other via a bus for CAN (Controller Area Network) communication or other connection lines.
  • CAN Controller Area Network
  • these buses and connection lines are connected to each other. It is drawn without distinction.
  • the front sensing camera 21 is composed of, for example, a camera dedicated to sensing disposed in the vicinity of a rearview mirror in a vehicle interior, and images the front of the vehicle 11 as a subject, and outputs a sensing image obtained as a result to the front camera ECU 22.
  • the front camera ECU 22 appropriately performs processing for improving the image quality, etc., on the sensing image supplied from the front sensing camera 21, and then performs image recognition on the sensing image. Detect any object.
  • the front camera ECU 22 outputs the image recognition result to a bus for CAN communication.
  • the position information acquisition unit 23 includes a position information measurement system such as GPS (Global Positioning System), for example, detects the position of the vehicle 11, and outputs position information indicating the detection result to a bus for CAN communication.
  • GPS Global Positioning System
  • the display unit 24 includes, for example, a liquid crystal display panel, and is disposed at a predetermined position in the vehicle interior such as the center portion of the instrument panel and the interior of the room mirror.
  • the display unit 24 may be a transmissive display provided so as to overlap with a windshield (front glass) part, or may be a display of a car navigation system.
  • the display unit 24 displays various images according to the control of the integrated ECU 31.
  • the communication unit 25 communicates information with surrounding vehicles, portable terminal devices possessed by pedestrians, roadside devices, and external servers through various types of wireless communication such as vehicle-to-vehicle communication, vehicle-to-vehicle communication, and road-to-vehicle communication. Send and receive.
  • the communication unit 25 performs vehicle-to-vehicle communication with the surrounding vehicle, receives surrounding vehicle information including information indicating the number of passengers and the running state from the surrounding vehicle, and supplies the information to the integrated ECU 31.
  • the steering mechanism 26 performs control of the traveling direction of the vehicle 11, that is, steering angle control, according to a steering operation by the driver or a control signal supplied from the integrated ECU 31.
  • the radar 27 is a distance measuring sensor that measures the distance to an object such as a vehicle or a pedestrian in each direction such as front and rear using electromagnetic waves such as millimeter waves, and integrates the measurement results of the distance to the object. Output to ECU31 etc.
  • the lidar 28 is a distance measuring sensor that measures the distance to an object such as a vehicle or a pedestrian in each direction such as front and rear using light waves, and outputs the measurement result of the distance to the object to the integrated ECU 31 or the like. To do.
  • the side view camera 29 is, for example, a camera disposed in the case of the side mirror or in the vicinity of the side mirror.
  • the side view camera 29 is an image of a side of the vehicle 11 including an area that is a driver's blind spot (hereinafter also referred to as a side image). An image is taken and supplied to the side view camera ECU 30.
  • the side view camera ECU 30 performs image processing for improving the image quality such as white balance adjustment on the side image supplied from the side view camera 29, and the obtained side image is a CAN communication bus.
  • the integrated ECU 31 is supplied via a different cable.
  • the integrated ECU 31 includes a plurality of ECUs arranged at the center of the vehicle 11 such as the operation control ECU 51 and the battery ECU 52, and controls the operation of the entire vehicle 11.
  • the driving control ECU 51 is an ECU that realizes an ADAS (Advanced Driving Assistant System) function or an autonomous driving function, and recognizes an image recognition result from the front camera ECU 22, position information from the position information acquisition unit 23, and a communication unit.
  • the driving (running) of the vehicle 11 is controlled based on various information such as surrounding vehicle information supplied from 25, measurement results from the radar 27 and lidar 28, vehicle speed detection results from the vehicle speed detection unit 41, and the like. That is, the driving control ECU 51 controls the driving of the vehicle 11 by controlling the steering mechanism 26, the braking device 34, the engine 35, the driving motor 37, and the like.
  • the operation control ECU 51 controls the headlight 42 based on the presence or absence of the headlight of the oncoming vehicle supplied as an image recognition result from the front camera ECU 22, and performs beam irradiation by the headlight 42 such as switching between a high beam and a low beam. Control.
  • a dedicated ECU may be provided for each function such as the ADAS function, the autonomous driving function, and the beam control.
  • the battery ECU 52 controls the supply of power by the battery 38 and the like.
  • the front view camera 32 is composed of, for example, a camera disposed in the vicinity of the front grille.
  • the front view camera 32 captures a front image (hereinafter also referred to as a front image) of the vehicle 11 including an area that is a driver's blind spot. Supply.
  • the front view camera ECU 33 performs image processing for improving the image quality such as white balance adjustment on the front image supplied from the front view camera 32, and the obtained front image is a cable different from the CAN communication bus. To the integrated ECU 31.
  • the braking device 34 operates according to a brake operation by the driver or a control signal supplied from the integrated ECU 31, and stops or decelerates the vehicle 11.
  • the engine 35 is a power source of the vehicle 11 and is driven according to a control signal supplied from the integrated ECU 31.
  • the generator 36 is controlled by the integrated ECU 31 and generates electricity in accordance with the driving of the engine 35.
  • the drive motor 37 is a power source of the vehicle 11, receives power supplied from the generator 36 and the battery 38, and drives according to a control signal supplied from the integrated ECU 31. Whether the engine 35 is driven or the drive motor 37 is driven when the vehicle 11 is traveling is appropriately switched by the integrated ECU 31.
  • the battery 38 has, for example, a 12V battery, a 200V battery, and the like, and supplies power to each part of the vehicle 11 according to the control of the battery ECU 52.
  • the rear view camera 39 is composed of, for example, a camera arranged in the vicinity of the license plate of the tailgate.
  • the rear view camera 39 captures a rear image of the vehicle 11 (hereinafter also referred to as a rear image) including an area that is a driver's blind spot, and the rear view camera ECU 40 To supply.
  • the rear view camera 39 is activated when a shift lever (not shown) is moved to the reverse (R) position.
  • the rear view camera ECU 40 performs image processing for improving the image quality such as white balance adjustment on the rear image supplied from the rear view camera 39, and the obtained rear image via a cable different from the CAN communication bus. To the integrated ECU 31.
  • the vehicle speed detection unit 41 is a sensor that detects the vehicle speed of the vehicle 11 and supplies the detection result of the vehicle speed to the integrated ECU 31. Note that the vehicle speed detection unit 41 may calculate the acceleration or the acceleration differential from the detection result of the vehicle speed. For example, the calculated acceleration is used for estimating the time until the vehicle 11 collides with an object.
  • the headlight 42 operates according to a control signal supplied from the integrated ECU 31 and illuminates the front of the vehicle 11 by outputting a beam.
  • a plurality of units including a front camera module 71, a communication unit 25, an operation control ECU 51, a steering mechanism 26, a braking device 34, an engine 35, a drive motor 37, and a headlight 42.
  • a bus 72 for CAN communication is connected to each other by a bus 72 for CAN communication.
  • the same reference numerals are given to the portions corresponding to those in FIG. 1, and the description thereof will be omitted as appropriate.
  • the front camera module 71 includes a lens 81, an image sensor 82, a front camera ECU 22, and an MCU (Module Control Unit) 83.
  • the front sensing camera 21 is configured by the lens 81 and the image sensor 82, and the image sensor 82 includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • the front camera module 71 In the front camera module 71, light from the subject is collected on the imaging surface of the image sensor 82 by the lens 81.
  • the image sensor 82 captures a sensing image by photoelectrically converting light incident from the lens 81 and supplies the sensing image to the front camera ECU 22.
  • the front camera ECU 22 performs, for example, gain adjustment, white balance adjustment, HDR (High Dynamic Range) processing, etc. on the sensing image supplied from the image sensor 82, and then performs image recognition on the sensing image.
  • gain adjustment for example, gain adjustment, white balance adjustment, HDR (High Dynamic Range) processing, etc.
  • HDR High Dynamic Range
  • image recognition for example, recognition (detection) of white lines, curbs, pedestrians, vehicles, headlights, brake lights, road signs, time until a collision with a preceding vehicle, and the like is performed.
  • the recognition results of these image recognitions are converted into signals in a CAN communication format by the MCU 83 and output to the bus 72.
  • the information supplied from the bus 72 is converted into a signal in a format defined for the front camera module 71 by the MCU 83 and supplied to the front camera ECU 22.
  • the operation control ECU 51 appropriately controls the steering mechanism 26, the braking device 34, the engine based on the image recognition result output from the MCU 83 to the bus 72 and information supplied from other units such as the radar 27 and the lidar 28. 35, the drive motor 37, the headlight 42, and the like are controlled. As a result, operation control such as change of traveling direction, braking, acceleration, and starting, warning notification control, beam switching control, and the like are realized.
  • the driving control ECU 51 realizes an autonomous driving function or the like, for example, from the image recognition result at each time obtained by the front camera ECU 22, the driving control ECU 51 further recognizes the locus of the position of the target object.
  • the recognition result may be transmitted to an external server via the communication unit 25.
  • the server learns a deep neural network or the like, generates a necessary dictionary or the like, and transmits it to the vehicle 11.
  • the dictionary or the like obtained in this way is received by the communication unit 25, and the received dictionary or the like is used for various predictions in the operation control ECU 51.
  • control performed by the operation control ECU 51 control that can be realized only from the result of image recognition on the sensing image may be performed by the front camera ECU 22 instead of the operation control ECU 51.
  • the front camera ECU 22 may control the headlight 42 based on the presence or absence of the headlight of the oncoming vehicle obtained by image recognition on the sensing image.
  • the front camera ECU 22 generates a control signal instructing switching between a low beam and a high beam, and supplies the control signal to the headlight 42 via the MCU 83 and the bus 72, thereby switching the beam by the headlight 42. Control.
  • the front camera ECU 22 is notified of a collision with a target object or a warning of deviation from the driving lane (lane) based on the recognition result of white lines, curbs, pedestrians, and the like obtained by image recognition on the sensing image.
  • a warning notification may be controlled by generating a notification or the like and outputting it to the bus 72 via the MCU 83.
  • the warning notification output from the front camera ECU 22 is supplied to, for example, the display unit 24 or a speaker (not shown). As a result, a warning message can be displayed on the display unit 24, or a warning message can be output from the speaker.
  • an around view monitor function is realized by displaying a composite image on the display unit 24, for example, during parking.
  • the front image, the rear image, and the side image obtained in each unit are supplied to the image synthesis ECU 101 provided in the integrated ECU 31 via a cable different from the CAN communication bus.
  • a composite image is generated from these images.
  • the same reference numerals are given to the portions corresponding to those in FIG. 1, and the description thereof will be omitted as appropriate.
  • a side view camera 29 ⁇ / b> L disposed on the left side of the vehicle 11 and a side view camera 29 ⁇ / b> R disposed on the right side of the vehicle 11 are provided.
  • a side view camera ECU 30 ⁇ / b> L disposed on the left side of the vehicle 11 and a side view camera ECU 30 ⁇ / b> R disposed on the right side of the vehicle 11 are provided.
  • the front image obtained by the front view camera 32 is supplied from the front view camera ECU 33 to the image composition ECU 101, and the rear image obtained by the rear view camera 39 is supplied from the rear view camera ECU 40.
  • a side image obtained by the side view camera 29L (hereinafter, also referred to as a left side image in particular) is supplied from the side view camera ECU 30L to the image synthesis ECU 101, and a side image obtained by the side view camera 29R ( Hereinafter, the right side image in particular is also supplied from the side view camera ECU 30R.
  • the image synthesis ECU 101 generates a composite image in which the front image, the rear image, the left side image, and the right side image are arranged in the corresponding regions based on these supplied images, and displays the obtained composite image on the display unit. 24 for display.
  • the driver can park safely and easily by driving the vehicle 11 while confirming the composite image displayed in this way.
  • the integrated ECU 31 may control the driving of the vehicle 11 based on the composite image and perform parking.
  • a control unit may be provided for each control content, that is, for each function.
  • portions corresponding to those in FIG. 2 are denoted with the same reference numerals, and description thereof will be omitted as appropriate.
  • the CAN communication bus 72 includes a front camera module 71, a communication unit 25, a steering mechanism 26, a braking device 34, an engine 35, a drive motor 37, a headlight 42, a beam control unit 111, a warning.
  • a plurality of units including a notification control unit 112, a steering control unit 113, a brake control unit 114, and an accelerator control unit 115 are connected.
  • control performed by the operation control ECU 51 in the example of FIG. 2 is shared by the beam control unit 111, the warning notification control unit 112, the steering control unit 113, the brake control unit 114, and the accelerator control unit 115. Done.
  • the beam control unit 111 performs switching control between the low beam and the high beam by controlling the headlight 42 based on the result of image recognition obtained by the front camera ECU 22 or the like.
  • the warning notification control unit 112 controls warning notifications such as various warning displays on the display unit 24 and output of warning messages from a speaker (not shown) based on the result of image recognition obtained by the front camera ECU 22. I do.
  • the steering control unit 113 controls the traveling direction of the vehicle 11 by controlling the steering mechanism 26 based on the measurement result from the radar 27 and the lidar 28 as a result of the image recognition obtained by the front camera ECU 22.
  • the brake control unit 114 controls the stopping and deceleration of the vehicle 11 by controlling the braking device 34 based on the measurement results from the radar 27 and the lidar 28 as a result of the image recognition obtained by the front camera ECU 22. Do.
  • the accelerator control unit 115 controls the engine 35 and the driving motor 37 based on the image recognition results obtained by the front camera ECU 22 and the measurement results from the radar 27 and the lidar 28, thereby starting the vehicle 11. And control acceleration.
  • FIG. 5 is a diagram illustrating a functional configuration example of the vehicle 11 in such a case.
  • parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the 5 includes a communication unit 25, a vehicle occupant information acquisition unit 141, a control unit 142, and a display unit 24, and functions as a driving support device that performs driving support.
  • the own vehicle occupant information acquisition unit 141 acquires own vehicle occupant information including information indicating the number of occupants on the vehicle 11, information indicating the occupant's boarding position in the vehicle 11, and information indicating attributes of each occupant. Then, the data is supplied to the control unit 142.
  • the attribute of the occupant is, for example, whether the occupant is an adult or a child.
  • the own vehicle occupant information acquisition unit 141 has an indoor camera, detects a person from an indoor image obtained by imaging the interior of the vehicle 11, and obtains the own vehicle occupant information from the detection result.
  • the own vehicle occupant information acquisition unit 141 may detect the wearing state of the seat belt in the vehicle 11 and obtain the own vehicle occupant information from the detection result. The vehicle occupant information may be obtained based on the operation input.
  • the control unit 142 is realized by, for example, the integrated ECU 31 illustrated in FIG. 1, in particular, the operation control ECU 51, and executes a driving support process performed in the vehicle 11.
  • the control unit 142 includes an information acquisition unit 151, a region determination unit 152, a driving support processing unit 153, and a display control unit 154.
  • the information acquisition unit 151 appropriately controls the communication unit 25 to receive the surrounding vehicle information through the inter-vehicle communication with the surrounding vehicles existing around the vehicle 11, and acquires the received surrounding vehicle information from the communication unit 25. To do.
  • the surrounding vehicle information may be acquired at regular time intervals, that is, periodically, or may be acquired irregularly.
  • the region determination unit 152 determines a reception region that is a range in which surrounding vehicle information is received by inter-vehicle communication based on the own vehicle occupant information. In other words, the area determination unit 152 changes the reception area for receiving the surrounding vehicle information according to the number of passengers indicated by the own vehicle occupant information.
  • the reception area is a predetermined area centered on the vehicle 11.
  • the driving support processing unit 153 performs a driving support process that is a process of controlling the travel of the vehicle 11 based on the surrounding vehicle information acquired by the information acquisition unit 151.
  • This driving support process is a process for avoiding a collision between the vehicle 11 and a surrounding vehicle, for example. Specifically, for example, a process for controlling the inter-vehicle distance with surrounding vehicles traveling in front of and behind the vehicle 11, a process for controlling a lane change of the vehicle 11, a sudden brake of the vehicle 11, that is, a sudden stop or a sudden deceleration is controlled. Processing is performed as driving support processing.
  • the display control unit 154 controls the display unit 24 to display various images.
  • the surrounding vehicle information includes one or more types of information related to the surrounding vehicle.
  • the surrounding vehicle information includes information indicating the number of passengers in the surrounding vehicle, information indicating the running state of the surrounding vehicle, and the like as shown in FIG.
  • the peripheral vehicle information includes terminal ID, time information, position information, moving body type information, driving mode information, occupant number information, traveling information, and driver. Attribute information is included.
  • the terminal ID is a vehicle ID that identifies the surrounding vehicle that is the transmission source of the surrounding vehicle information, and the time information is information that indicates the transmission time of the surrounding vehicle information.
  • the position information is information indicating the position of the surrounding vehicle such as latitude and longitude when the surrounding vehicle information is transmitted
  • the moving body type information is information indicating the type of the surrounding vehicle such as a general vehicle, a large vehicle, or a two-wheeled vehicle. It is.
  • the driving mode information is information indicating in which driving mode the surrounding vehicle is driven, such as manual driving, support driving, autonomous driving, etc.
  • the occupant number information is information indicating the number of occupants in the surrounding vehicle. is there.
  • the traveling information is information indicating the traveling state of the surrounding vehicle, such as when the surrounding vehicle suddenly brakes, that is, suddenly stops or decelerates, is normally traveling, is stopped, or makes a right turn.
  • the travel information may include information such as travel speeds of surrounding vehicles.
  • Driver attribute information is information indicating attributes of drivers of surrounding vehicles such as healthy persons, elderly persons, and other weak persons.
  • the information may be any information as long as it is information related to surrounding vehicles.
  • the surrounding vehicle information may include at least one of the pieces of information shown in FIG.
  • the driving of the vehicle 11 is controlled based on such surrounding vehicle information.
  • the vehicle 11 by determining the reception area according to the number of passengers of the vehicle 11, it is possible to selectively obtain surrounding vehicle information necessary for avoiding a collision. As a result, appropriate driving support can be realized.
  • the vehicle 11 is faster.
  • Appropriate driving assistance such as sudden braking and deceleration can be performed at the timing.
  • a receiving area corresponding to the number of occupants of the vehicle 11 is determined, and by receiving neighboring vehicle information from neighboring vehicles in the receiving area, more appropriate driving assistance can be performed. .
  • the reception area For example, as an example, when the number of passengers of the vehicle 11 is two, the range of 4 meters ahead of the vehicle 11 is set as the reception area. Then, the surrounding vehicle information is received from the surrounding vehicles existing in the reception area by inter-vehicle communication, and driving assistance for collision avoidance is performed based on the received surrounding vehicle information.
  • the reception area For example, when the number of passengers of the vehicle 11 is four, the range of 10 meters ahead of the vehicle 11 is set as the reception area. Then, the surrounding vehicle information is received from the surrounding vehicles existing in the reception area by inter-vehicle communication, and driving assistance for collision avoidance is performed based on the received surrounding vehicle information.
  • driving mode information of surrounding vehicles included in the surrounding vehicle information for example, traveling information, driver attribute information, occupant number information, moving body type information, etc. are constantly monitored, and the vehicle 11 Operation is controlled.
  • a vehicle traveling in front of the vehicle 11 is at a position 4 meters in front of the vehicle 11 and a vehicle traveling in front of the vehicle 11 is at a position 10 meters in front of the vehicle 11.
  • a vehicle traveling two vehicles before the vehicle 11 stops suddenly during autonomous driving, and accordingly, a vehicle traveling one vehicle before the vehicles 11 also stops suddenly.
  • the vehicle 11 detects the sudden stop of the previous vehicle, and stops itself.
  • the vehicle 11 when the number of occupants of the vehicle 11 is small, the vehicle 11 can stop immediately, so that it is possible to sufficiently avoid the occurrence of a collision. However, when the number of occupants of the vehicle 11 is large, the vehicle 11 and its There is a possibility of collision with the previous vehicle.
  • the vehicle 11 when the reception area is set to a range of 10 meters ahead of the vehicle 11, the vehicle 11 can obtain the surrounding vehicle information of the vehicle traveling two ahead, so that the sudden stop of the vehicle is detected. It is possible. Therefore, in this case, when the vehicle 11 detects the sudden stop of the previous vehicle, that is, before the sudden stop of the previous vehicle, the vehicle 11 decelerates its traveling speed or the like. You can stop without colliding.
  • the vehicle 11 that performs the driving support process is also referred to as the own vehicle 11 or the own vehicle as appropriate.
  • step S ⁇ b> 11 the own vehicle occupant information acquisition unit 141 acquires the own vehicle occupant information indicating the number of occupants of the own vehicle 11, the occupant's boarding position, and the occupant attributes, and supplies the acquired information to the control unit 142.
  • the acquisition of the vehicle occupant information is performed by detecting a person from an indoor image, detecting the wearing state of a seat belt, operating input on the number of passengers, and the like.
  • step S12 the region determination unit 152 determines a reception region in which inter-vehicle communication is performed based on the vehicle occupant information acquired in step S11.
  • the area determination unit 152 determines the reception area so that the larger the number of passengers indicated by the own vehicle occupant information, the wider the reception area. Specifically, for example, when the number of occupants of the host vehicle 11 is four, a region within a range of 10 meters before and after the host vehicle 11 is set as a reception region, and the number of occupants of the host vehicle 11 is two. The area in the range of 4 meters before and after the host vehicle 11 is set as the reception area.
  • step S13 the information acquisition unit 151 acquires the surrounding vehicle information of the surrounding vehicles in the reception area determined in the process of step S12.
  • the information acquisition unit 151 controls the communication unit 25 to cause the communication unit 25 to perform vehicle-to-vehicle communication with a surrounding vehicle in the reception area, and to receive surrounding vehicle information from the surrounding vehicle. Then, the information acquisition unit 151 acquires the received surrounding vehicle information from the communication unit 25.
  • step S14 the display control unit 154 controls the display unit 24 to display the reception area of the reception area determined in step S12. In other words, the control unit 142 controls the presentation of information regarding the reception area.
  • the display control unit 154 causes the display unit 24 to display reception area information R11 indicating a reception area as shown in FIG.
  • reception area information R11 a frame that surrounds an area of a predetermined range in the same lane as the host vehicle 11 is displayed as the reception area information R11.
  • reception area information R11 for example, a text message explaining “receiving 4 meters V2V ahead” or the like may be displayed on the display unit 24, or a voice message explaining the reception area may be output.
  • the display control unit 154 controls the display unit 24 so that the surrounding vehicles in the receiving area are surrounded by a frame so that the surrounding vehicles in the receiving area can be visually grasped. Also good.
  • the range (size) of the reception area is determined according to the number of occupants of the host vehicle 11, but the lane adjacent to the lane in which the host vehicle travels also depends on the number of occupants of the host vehicle. Whether it is included in the reception area may be determined.
  • the display control unit 154 displays a reception area indicating the reception area as shown in FIG.
  • the information R21 is displayed on the display unit 24.
  • reception area information R21 not only the same lane as the own vehicle 11 but also a frame surrounding a predetermined range including the lane adjacent to the lane is displayed as the reception area information R21.
  • the reception area instead of displaying a frame indicating the reception area, it is possible to identify a surrounding vehicle in the reception area, that is, from which surrounding vehicle information is received. You may make it perform the display which can identify
  • the display control unit 154 causes the display unit 24 to display a character message as shown in FIG.
  • the display unit 24 is also used as a display of a car navigation system, and the display unit 24 displays a message MS11 that describes a reception area superimposed on a display screen for car navigation. ing.
  • the message “Receiving 2 V2V ahead” is displayed as the message MS11 in the guidance route portion of the host vehicle 11 in the display screen of the car navigation.
  • V2V inter-vehicle communication
  • step S15 the driving support processing unit 153 performs the driving support process based on the surrounding vehicle information acquired in the process of step S13, and the driving control process ends.
  • the driving support processing unit 153 avoids a collision with the surrounding vehicle based on the moving body type information, the driving mode information, the occupant number information, the traveling information, the driver attribute information, and the like included in the surrounding vehicle information. To perform driving support processing.
  • the driving support processing unit 153 generates a control signal instructing sudden braking, supplies the control signal to the braking device 34, and causes the braking device 34 to perform rapid braking, thereby driving driving processing for collision avoidance.
  • the process for controlling the sudden braking is performed.
  • driving support processing for collision avoidance processing for controlling the inter-vehicle distance between the host vehicle 11 and the preceding vehicle and the rear vehicle based on the surrounding vehicle information, and processing for controlling the lane change of the host vehicle 11 Etc. may be performed.
  • the driving support processing unit 153 appropriately generates a control signal for controlling driving and supplies the control signal to necessary blocks of the braking device 34, the engine 35, the driving motor 37, and the steering mechanism 26. Then, driving support processing for collision avoidance is performed by controlling the driving of these blocks.
  • the vehicle 11 determines the reception area according to the number of occupants of the host vehicle 11, receives the surrounding vehicle information from the surrounding vehicles in the determined reception area, and performs the driving support process. By doing in this way, appropriate driving assistance can be performed in consideration of the states of both the own vehicle 11 and the surrounding vehicles that have a large influence on the occurrence of a collision. In particular, by determining the reception area according to the number of passengers, necessary information can be selectively acquired and appropriate driving assistance can be performed.
  • the reception area is determined based only on the number of passengers of the own vehicle 11 has been described. You may make it determine a reception area
  • the own vehicle occupant information obtained by the own vehicle occupant information acquisition unit 141 includes information indicating the number of occupants, the attributes of the occupants, and the boarding positions for the own vehicle 11. Therefore, the area determination unit 152 understands not only how many passengers are in the own vehicle 11 from the own vehicle occupant information but also what kind of occupants are in which seat of the own vehicle 11. Can do.
  • the area determination unit 152 determines the reception area as shown in FIGS. 11 to 13 based on the own vehicle occupant information, that is, based on the number of passengers of the own vehicle 11, the boarding position, and the attributes of the occupants. May be.
  • each square represents a seat of the vehicle 11.
  • the seat drawn on the upper side is a seat on the front side of the vehicle 11, that is, a seat on the windshield side including the driver's seat. It has become.
  • the upper left seat is also referred to as the front left seat
  • the upper right seat is also referred to as the front right seat
  • the lower left seat is referred to as the rear left seat in the drawings.
  • the lower right seat is also referred to as the rear right seat.
  • the area determination unit 152 basically determines the size (size) of the reception area according to the following rules (1) to (4).
  • the size of the reception area on the occupant's boarding position side is determined according to the occupant's attributes.
  • the area determining unit 152 sets the width of the reception area in the forward direction to 4 meters, and sets the width of the reception area in the backward, right, and left directions to 2 meters, respectively.
  • the area determination unit 152 sets the front area of the reception area to 5 meters, the left area of the reception area to 4 meters, and the rear area and the right area of the reception area, respectively. 2 meters.
  • the width of the left side where the child is in the reception area is wider than in the example indicated by the arrow Q11.
  • the width of the front direction on the side where the child in the reception area is on is also increased.
  • the area determination unit 152 sets the front area and the rear area of the reception area to 4 meters, the left area of the reception area to 4 meters, and the right area of the reception area to 2 meters. Meter.
  • the left side and the rear side where the child is in the reception area are wider than in the example indicated by the arrow Q11.
  • the area determination unit 152 sets the front area of the reception area to 8 meters, the rear area of the reception area to 4 meters, the left area of the reception area to 3 meters, The area in the right direction of the reception area is 2 meters.
  • the front and rear areas of the reception area are widened by the total number of passengers.
  • the left side of the reception area is wider.
  • the area determination unit 152 sets the front area of the reception area to 8 meters, the rear area of the reception area to 6 meters, the left area of the reception area to 4 meters, The area in the right direction of the reception area is 2 meters.
  • the example shown by the arrow Q22 is an example in which the occupant of the rear left seat in the example shown by the arrow Q21 has changed from an adult to a child. Therefore, in this example, compared with the example shown by arrow Q21, the width of the rear side and the left side, which are the side on which the child is riding, in the reception area is made wider.
  • the area determination unit 152 sets the front area of the reception area to 10 meters, sets the rear area of the reception area to 7 meters, and sets the left and right areas of the reception area to 3 meters. Meter.
  • the front and rear areas of the reception area are widened by the total number of passengers. Further, since more occupants are in the left and right seats of the vehicle 11, the left and right sides of the receiving area are wider.
  • the area determination unit 152 sets the front area of the reception area to 10 meters, sets the rear area of the reception area to 8 meters, and sets the left and right areas of the reception area to 4 meters. Meter.
  • the example shown by the arrow Q32 is an example in which the occupant of the rear left seat and the rear right seat in the example shown by the arrow Q31 is changed from an adult to a child. Therefore, in this example, the rear side, the left side, and the right side, which are the side on which the child is riding, in the reception area are made wider than in the example indicated by the arrow Q31.
  • the area determination unit 152 sets the front area of the reception area to 10 meters, the rear area of the reception area to 8 meters, and the left area of the reception area to 3 meters, The area in the right direction of the reception area is 4 meters.
  • the example indicated by the arrow Q33 is an example in which the occupant of the rear right seat in the example indicated by the arrow Q31 is changed from an adult to a child. Therefore, in this example, compared with the example shown by the arrow Q31, the width of the rear side and the right side, which are the side on which the child is riding, in the reception area is made wider.
  • a more appropriate reception area can be determined by determining the reception area based on the number of passengers of the own vehicle 11, the attributes of the passengers, and the boarding position. Note that at the time of determining the reception area, at least the number of occupants only needs to be used, and either one of the occupant attributes and the boarding position may be used, or both of them may be used.
  • step S41 the information acquisition unit 151 acquires the surrounding vehicle information of the surrounding vehicles in the predetermined area.
  • the information acquisition unit 151 controls the communication unit 25 to cause the communication unit 25 to perform inter-vehicle communication with a surrounding vehicle in a predetermined area, and to receive surrounding vehicle information from the surrounding vehicle. Then, the information acquisition unit 151 acquires the received surrounding vehicle information from the communication unit 25.
  • the predetermined area (hereinafter also referred to as a fixed reception area) is, for example, an area having the maximum area in which the vehicle 11 can perform inter-vehicle communication. In such a case, all the surrounding vehicle information that can be acquired by the vehicle 11 is acquired for the time being.
  • step S42 When the surrounding vehicle information is acquired in this way, the host vehicle occupant information is then acquired in step S42.
  • the processing in step S42 is the same as the processing in step S11 in FIG. To do.
  • step S43 the area determination unit 152 determines a use area using the surrounding vehicle information based on the own vehicle occupant information acquired in the process of step S42.
  • the use area is an area from which the surrounding vehicle information used for the driving support process is acquired, and corresponds to the reception area described above.
  • the surrounding vehicle information received from the surrounding vehicles in the use area is used for the driving support process.
  • the use area is an area in the fixed reception area, that is, a partial area of the fixed reception area.
  • the area determination unit 152 determines the use area according to the number of passengers so that the use area becomes wider as the number of passengers of the own vehicle indicated by the own vehicle occupant information increases. To do.
  • the use area may be determined by the same method as the reception area determination method described with reference to FIGS.
  • step S44 the driving support processing unit 153 selects the surrounding vehicle information received from the surrounding vehicles in the use area determined in step S43, from the surrounding vehicle information acquired in step S41.
  • step S45 the display control unit 154 controls the display unit 24 to display the use region for the use region determined in the process of step S43.
  • step S45 processing similar to that in step S14 in FIG. 7 is performed. That is, for example, the same display as that shown in FIGS. 8, 9, and 10 is performed.
  • step S46 the driving support processing unit 153 performs the driving support processing based on the surrounding vehicle information of the surrounding vehicles in the use region selected in the processing of step S44, and the driving control processing is ended.
  • step S46 the process similar to step S15 of FIG. 7 is performed using the surrounding vehicle information selected in the process of step S44.
  • the vehicle 11 receives surrounding vehicle information from surrounding vehicles in a predetermined fixed reception area, and is determined according to the number of passengers of the own vehicle 11 among the surrounding vehicle information.
  • the driving support processing is performed using only the surrounding vehicle information received from the surrounding vehicles in the used area.
  • the reception area and the use area are determined according to the number of passengers of the host vehicle 11 .
  • it is received in consideration of the number of occupants and driving modes of the surrounding vehicles traveling immediately before and after the host vehicle 11, the type of the vehicle, the traveling speed, and the inter-vehicle distance with the surrounding vehicle traveling immediately before and after the host vehicle 11 The area and the use area may be determined.
  • peripheral vehicle information as possible is acquired once, and thereafter, based on the acquired partial peripheral vehicle information and own vehicle occupant information. If the use area is determined, the necessary surrounding vehicle information can be appropriately selected.
  • ⁇ Third Embodiment> ⁇ Description of operation control processing> Furthermore, in the second embodiment, a case has been described in which peripheral vehicle information is received for the fixed reception area for the time being. However, the surrounding vehicle information may be acquired for the reception area, and the surrounding vehicle information may be additionally acquired as necessary when the reception area is changed.
  • step S71 the information acquisition unit 151 acquires the surrounding vehicle information of the surrounding vehicles in the reception area.
  • step S71 the same processing as the processing in step S13 in FIG. 7 is performed and the surrounding vehicle information is acquired.
  • the reception area here is, for example, a predetermined area.
  • the reception area used in step S71 may be, for example, a reception area that is determined immediately before the process of step S71 is performed, that is, the reception area that is determined when the surrounding vehicle information is finally acquired.
  • step S72 When the process of step S71 is performed and the surrounding vehicle information is acquired, the process of step S72 is performed and the vehicle occupant information is acquired.
  • the process of step S72 is the same as the process of step S11 of FIG. Since there is, explanation is omitted.
  • step S73 the area determination unit 152 changes the reception area based on the vehicle occupant information acquired in the process of step S72. That is, in step S73, the reception area is determined again.
  • the area determination unit 152 may determine the reception area according to the number of passengers of the host vehicle 11 as in step S12 of FIG. 7, for example, or refer to FIGS.
  • the reception area may be determined by the method described above.
  • step S74 the area determination unit 152 determines whether or not to widen the reception area.
  • step S73 For example, if the reception area determined (changed) in step S73 is wider than the reception area used in step S71, it is determined in step S74 that the reception area is expanded. If the reception area determined in step S73 is an area included in the reception area used in step S71, it is determined in step S74 that the reception area is not expanded.
  • step S75 the driving support processing unit 153 determines from the surrounding vehicle information acquired in step S71 that the surrounding vehicles in the reception area after the change in step S73.
  • the surrounding vehicle information received from is selected.
  • step S73 when the reception area redetermined in step S73 is the same as the reception area in step S71, all the surrounding vehicle information acquired in step S71 is selected.
  • the reception area redetermined in step S73 is a part of the reception area in step S71, that is, the redetermined reception area is more than the original reception area before redetermination. If it is a narrow area, the surrounding vehicle information received from the surrounding vehicles in the re-determined receiving area is selected.
  • step S74 if it is determined in step S74 that the reception area is to be expanded, that is, if the reception area after the change is wider than the original reception area before the change, in step S76, the information acquisition unit 151 performs reception after the change. Acquire surrounding vehicle information of surrounding vehicles in the area.
  • step S76 processing similar to the processing in step S71 is performed, the surrounding vehicle information is received from the surrounding vehicles in the reception area determined in the processing in step S73, and the surrounding vehicle information is acquired by the information acquisition unit 151.
  • the surrounding vehicle information may be newly acquired from all the surrounding vehicles in the determined reception area, that is, the changed reception area, but in the changed reception area.
  • the surrounding vehicle information may be received only from the surrounding vehicles that are not the transmission source of the surrounding vehicle information in step S71. That is, in step S76, only surrounding vehicle information that has not been received in step S71 may be received.
  • step S77 If the surrounding vehicle information is acquired in this way for the changed reception area, the process proceeds to step S77.
  • step S75 When the process of step S75 is performed or the process of step S76 is performed, the process of step S77 and step S78 is performed thereafter, and the operation control process is terminated.
  • step S78 only the surrounding vehicle information received from the surrounding vehicles in the receiving area determined in step S73, that is, the surrounding vehicle information selected in step S75, or the surrounding vehicle information acquired in step S76 is used. And driving support processing is performed.
  • the vehicle 11 acquires the surrounding vehicle information from the surrounding vehicles in the receiving area, and then changes the receiving area based on the own vehicle occupant information, and the receiving area after the change is more than the receiving area before the change. If it is wide, the surrounding vehicle information is acquired from the surrounding vehicles in the changed reception area. And the vehicle 11 performs a driving assistance process using the surrounding vehicle information of the surrounding vehicles in the receiving area after a change. By doing in this way, peripheral vehicle information can be additionally acquired as needed, and appropriate driving assistance can be performed.
  • step S71 the operation control process described with reference to FIG. 15 is also particularly useful when the number of passengers, the boarding position, and the like change as in the second embodiment. Further, in the driving control process described with reference to FIG. 15, not only the vehicle occupant information but also the surrounding vehicle information received in step S71 may be used to determine the changed reception area. .
  • the front vehicle A1 is traveling 6 meters ahead of the own vehicle
  • the front vehicle A2 is traveling 8 meters ahead of the own vehicle.
  • the forward vehicle A3 is traveling 10 meters ahead.
  • traveling information indicating the traveling state such as whether the preceding vehicle A3 is traveling at a normal speed or suddenly stopped as peripheral vehicle information. It is enough to provide adequate driving assistance for.
  • the type of information acquired for each distance from the own vehicle 11 may be determined based on the own vehicle occupant information of the own vehicle 11.
  • step S101 and step S102 are the same as the process of step S11 of FIG. 7, and step S12, the description is abbreviate
  • step S103 the area determination unit 152 determines the type of information to be acquired as surrounding vehicle information for each distance from the host vehicle 11 based on the host vehicle occupant information. That is, for each distance from the host vehicle 11 to the surrounding vehicle, information used for driving support processing among information included in the surrounding vehicle information is determined (selected).
  • the area determination unit 152 sets the moving body type information, the driving mode information, the occupants within the range of the distance from the host vehicle 11 up to 6 meters.
  • the number information, the traveling information, and the driver attribute information are information of types acquired as surrounding vehicle information.
  • the region determination unit 152 uses the type of information for acquiring the driving information and the driver attribute information as the surrounding vehicle information when the distance from the own vehicle 11 is 6 meters to 8 meters, and the distance from the own vehicle 11 is 8 meters. In the range from 10 meters to 10 meters, it is assumed that the traveling information is information of a type that is acquired as surrounding vehicle information.
  • the example which determines the classification of the information acquired for every distance from the own vehicle 11 here is demonstrated, as surrounding vehicle information for every distance from the own vehicle 11 about each lane based on own vehicle crew information, for example
  • the type of information to be acquired may be determined.
  • the type of information acquired as the peripheral vehicle information may be determined for each lane in which the peripheral vehicle is traveling.
  • the surrounding vehicle that travels in the lane greatly affects the occurrence of a collision of the host vehicle 11, so that the surrounding vehicle that is relatively far from the host vehicle 11 is The surrounding vehicle information is acquired.
  • the surrounding vehicles that are not in the vicinity of the host vehicle 11 do not greatly affect the occurrence of the collision of the host vehicle 11, so The surrounding vehicle information is acquired from At this time, since not much information is required for the surrounding vehicles traveling in the adjacent lane, for example, only the traveling information may be acquired.
  • the reception area has a predetermined fixed area. It may be a region.
  • the reception area is substantially determined by the determination result, so that the process of step S102 is not particularly performed. Good. In such a case, the reception area is substantially determined in step S103.
  • the information acquisition unit 151 determines the surrounding vehicle information based on the determination result by the area determination unit 152. get.
  • step S104 the information acquisition unit 151 acquires the information of the type determined in step S103 of the surrounding vehicle in the reception area determined in the process of step S102 as the surrounding vehicle information.
  • the information acquisition unit 151 controls the communication unit 25 to cause the communication unit 25 to perform vehicle-to-vehicle communication with the surrounding vehicle in the reception area, and the type information determined in step S103 from the surrounding vehicle.
  • the surrounding vehicle information consisting of is received.
  • the information acquisition unit 151 acquires the received surrounding vehicle information from the communication unit 25.
  • step S105 and step S106 are performed thereafter, and the driving control process ends.
  • these processes are the same as the processes of step S14 and step S15 in FIG. The description is omitted.
  • the vehicle 11 determines the type of information to be acquired for each distance from the host vehicle 11, and acquires the surrounding vehicle information according to the determination, and performs the driving support process. In this way, only necessary information can be acquired and appropriate driving assistance can be performed.
  • the vehicle 11 may be configured to perform processing that combines the second embodiment and the fourth embodiment described above.
  • step S131 to step S133 is the same as the processing from step S41 to step S43 in FIG.
  • step S134 the region determination unit 152 determines the type of information to be used in the surrounding vehicle information for each distance from the host vehicle 11 based on the host vehicle occupant information.
  • step S134 the type of information used for driving support processing is determined for each distance from the host vehicle 11 in the same manner as in step S103 of FIG.
  • the type of information to be used may be determined in consideration of not only the distance from the host vehicle 11 but also the lanes of surrounding vehicles. Also in step S134, as in the case of step S103 in FIG. 16, if the type of information to be used for each distance is determined, the use area is substantially determined, and therefore the process in step S133 does not necessarily have to be performed. .
  • step S135 the driving support processing unit 153 determines the type determined in step S134 of the surrounding vehicle information received from the surrounding vehicles in the use area determined in step S133 among the surrounding vehicle information acquired in step S131. Select the information.
  • step S135 When the process of step S135 is performed, the processes of step S136 and step S137 are performed thereafter, and the operation control process ends. However, these processes are the same as the processes of step S45 and step S46 of FIG. The description is omitted. However, in step S137, the driving support process is performed using the information selected in the process of step S135.
  • the vehicle 11 receives surrounding vehicle information from surrounding vehicles in a predetermined fixed reception area, and from the surrounding vehicle information, from the number of passengers of the own vehicle 11 and the own vehicle 11. Necessary information is selected according to the distance and driving support processing is performed. In this way, appropriate driving support can be performed using only necessary information.
  • the above-described series of processing can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 18 is a block diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processes by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes an input switch, a button, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface or the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded in a removable recording medium 511 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable recording medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in the ROM 502 or the recording unit 508 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology can be configured as follows.
  • a driving support apparatus comprising a control unit that performs driving support processing for the host vehicle based on the surrounding vehicle information relating to the surrounding vehicle existing in a region corresponding to the number of passengers of the host vehicle.
  • the driving support process is a process for avoiding a collision between the host vehicle and the surrounding vehicle.
  • the surrounding vehicle information includes information indicating a traveling state of the surrounding vehicle, information indicating the number of passengers of the surrounding vehicle, information indicating a type of the surrounding vehicle, information indicating a driving mode of the surrounding vehicle, and information on the surrounding vehicle
  • the driving support device according to any one of (1) to (3), which is information including at least one of information indicating an attribute of the driver.
  • the said control part determines the said area
  • the driving assistance apparatus as described in any one of (1) thru
  • the said control part determines the said area
  • the control unit includes the peripheral vehicle information in the area determined based on the number of occupants of the own vehicle out of the peripheral vehicle information received from the peripheral vehicle in a predetermined area wider than the area.
  • the driving support device according to (5) or (6), wherein the driving support process is performed based on the surrounding vehicle information.
  • the control unit after obtaining the surrounding vehicle information of the surrounding vehicle in a predetermined region, after the region determined based on the number of passengers of the host vehicle is wider than the predetermined region, The driving support device according to (5) or (6), further acquiring the surrounding vehicle information of the surrounding vehicle in the determined area.
  • the control unit based on the number of passengers of the host vehicle, for each distance to the surrounding vehicle or for each lane in which the surrounding vehicle travels, of the information included in the surrounding vehicle information of the surrounding vehicle
  • the driving support apparatus according to any one of (1) to (8), wherein a type of information used for the driving support process is selected.
  • the driving support device according to any one of (1) to (9), wherein the control unit further controls presentation of information related to the region.
  • a driving support method including a step of performing driving support processing of the own vehicle based on surrounding vehicle information relating to a surrounding vehicle existing in a region corresponding to the number of passengers of the own vehicle.
  • a program for causing a computer to execute a process including a step of performing a driving support process for the host vehicle based on the surrounding vehicle information relating to a surrounding vehicle existing in an area corresponding to the number of passengers of the host vehicle.
  • a moving body comprising a control unit that performs driving support processing of the host vehicle based on the surrounding vehicle information related to the surrounding vehicle existing in an area corresponding to the number of passengers of the host vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Stored Programmes (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本技術は、適切な運転支援を行うことができるようにする運転支援装置および方法、移動体、並びにプログラムに関する。 運転支援装置は、自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、自車両の運転支援処理を行う制御部を備える。本技術は自動車等の移動体に適用することができる。

Description

運転支援装置および方法、移動体、並びにプログラム
 本技術は運転支援装置および方法、移動体、並びにプログラムに関し、特に、適切な運転支援を行うことができるようにした運転支援装置および方法、移動体、並びにプログラムに関する。
 従来、乗用車等の車両の運転を支援する運転支援機能が知られている。
 例えば運転支援として、車間距離の制御など、自車両とその周囲を走行する他車両との衝突を回避するような運転支援を行なえば、衝突事故等の発生を防止することができる。
 また、車両間で通信を行うことにより、自車両が周囲を走行する周辺車両からその周辺車両に関する情報を取得する車車間通信技術も提案されている(例えば、特許文献1参照)。適切な運転支援を行うには周辺車両に関する情報も必要となることから、このような車車間通信により周辺車両に関する情報を得ることは有用である。
特開2007-62475号公報
 ところで、衝突事故等の発生には自車両や周辺車両の状態が大きく影響するが、状況によって運転支援に必要となる情報は異なる。しかしながら、上述した技術では必要となる情報を選択的に取得して適切に運転支援を行うことが困難であった。
 本技術は、このような状況に鑑みてなされたものであり、適切な運転支援を行うことができるようにするものである。
 本技術の第1の側面の運転支援装置は、自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う制御部を備える。
 前記領域を、前記自車両の乗員数が多いほど広くなるように定められるようにすることができる。
 前記運転支援処理を、前記自車両と前記周辺車両との衝突を回避するための処理とすることができる。
 前記周辺車両情報を、前記周辺車両の走行状態を示す情報、前記周辺車両の乗員数を示す情報、前記周辺車両の種別を示す情報、前記周辺車両の運転モードを示す情報、および前記周辺車両の運転者の属性を示す情報の少なくとも何れか1つが含まれる情報とすることができる。
 前記制御部には、前記自車両の乗員数に基づいて前記領域を決定させることができる。
 前記制御部には、前記自車両の乗員数と、前記自車両における乗員の乗車位置または前記乗員の属性とに基づいて前記領域を決定させることができる。
 前記制御部には、前記領域よりも広い予め定められた領域内の前記周辺車両から受信した前記周辺車両情報のうち、前記自車両の乗員数に基づいて決定された前記領域内の前記周辺車両の前記周辺車両情報に基づいて前記運転支援処理を行わせることができる。
 前記制御部には、予め定められた領域内の前記周辺車両の前記周辺車両情報を取得した後、前記自車両の乗員数に基づいて決定された前記領域が前記予め定められた領域より広い場合、決定された前記領域内の前記周辺車両の前記周辺車両情報をさらに取得させることができる。
 前記制御部には、前記自車両の乗員数に基づいて、前記周辺車両までの距離ごとに、または前記周辺車両が走行する車線ごとに、前記周辺車両の前記周辺車両情報に含まれる情報のうちの前記運転支援処理に用いる情報の種別を選択させることができる。
 前記制御部には、前記領域に関する情報の提示をさらに制御させることができる。
 本技術の第1の側面の運転支援方法またはプログラムは、自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行うステップを含む。
 本技術の第1の側面においては、自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理が行われる。
 本技術の第2の側面の移動体は、自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う制御部を備える。
 本技術の第2の側面においては、自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理が行われる。
 本技術の第1の側面および第2の側面によれば、適切な運転支援を行うことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
車両の構成例を示す図である。 CAN通信用のバスに接続されるブロックについて説明する図である。 アラウンドビューモニタ機能について説明する図である。 CAN通信用のバスに接続されるブロックの他の例について説明する図である。 車両の機能的な構成例を示す図である。 周辺車両情報について説明する図である。 運転制御処理を説明するフローチャートである。 受信領域の表示例について説明する図である。 受信領域の表示例について説明する図である。 受信領域の表示例について説明する図である。 受信領域の決定方法について説明する図である。 受信領域の決定方法について説明する図である。 受信領域の決定方法について説明する図である。 運転制御処理を説明するフローチャートである。 運転制御処理を説明するフローチャートである。 運転制御処理を説明するフローチャートである。 運転制御処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈車両の構成例〉
 本技術は、自車両の乗員数に応じた領域(範囲)内の周辺車両から周辺車両情報を受信し、受信した周辺車両情報に基づいて自車両と周辺車両との衝突を回避するための運転支援処理を行うことで、適切な運転支援を実現することができるようにするものである。
 なお、ここでいう運転支援とは支援運転や自律運転など任意の運転モードでの車両の運転時に行われる走行制御をいうが、以下では本技術が適用された車両が支援運転を行っているときに、適宜、運転支援処理が実行される場合を例として説明を続ける。また、以下では、本技術が乗用車(自動車)に適用される場合を例として説明するが、本技術は電気自動車やハイブリッド電気自動車等の自動車の他、自動二輪車、自転車、電動車椅子、パーソナルモビリティ、飛行機、船舶、ロボット等の移動体に適用可能である。
 それでは以下、より具体的な実施の形態について説明する。
 図1は、本技術を適用した車両の一実施の形態の構成例を示す図である。
 図1に示す車両11は、フロントセンシングカメラ21、フロントカメラECU(Electronic Control Unit)22、位置情報取得部23、表示部24、通信部25、ステアリング機構26、レーダ27、ライダ28、サイドビューカメラ29、サイドビューカメラECU30、統合ECU31、フロントビューカメラ32、フロントビューカメラECU33、制動装置34、エンジン35、発電機36、駆動用モータ37、バッテリ38、リアビューカメラ39、リアビューカメラECU40、車速検出部41、およびヘッドライト42を有している。
 車両11に設けられた各ユニットは、CAN(Controller Area Network)通信用のバスや他の接続線などにより相互に接続されているが、ここでは図を見やすくするため、それらのバスや接続線が特に区別されずに描かれている。
 フロントセンシングカメラ21は、例えば車室内のルームミラー近傍に配置されたセンシング専用のカメラからなり、車両11の前方を被写体として撮像し、その結果得られたセンシング画像をフロントカメラECU22に出力する。
 フロントカメラECU22は、フロントセンシングカメラ21から供給されたセンシング画像に対して適宜、画質を向上させる処理等を施した後、センシング画像に対して画像認識を行って、センシング画像から白線や歩行者などの任意の物体を検出する。フロントカメラECU22は、画像認識の結果をCAN通信用のバスに出力する。
 位置情報取得部23は、例えばGPS(Global Positioning System)などの位置情報計測システムからなり、車両11の位置を検出して、その検出結果を示す位置情報をCAN通信用のバスに出力する。
 表示部24は、例えば液晶表示パネルなどからなり、インストルメントパネルの中央部分、ルームミラー内部などの車室内の所定位置に配置されている。また、表示部24はウィンドシールド(フロントガラス)部分に重畳して設けられた透過型ディスプレイであってもよいし、カーナビゲーションシステムのディスプレイであってもよい。表示部24は、統合ECU31の制御に従って各種の画像を表示する。
 通信部25は、車車間通信や車歩間通信、路車間通信等の各種の無線通信により、周辺車両や、歩行者が所持する携帯型端末装置、路側機、外部のサーバとの間で情報の送受信を行う。例えば通信部25は周辺車両と車車間通信を行って、周辺車両から乗員数や走行状態を示す情報を含む周辺車両情報を受信し、統合ECU31に供給する。
 ステアリング機構26は、運転者によるハンドル操作、または統合ECU31から供給された制御信号に応じて車両11の走行方向の制御、すなわち舵角制御を行う。レーダ27は、ミリ波等の電磁波を用いて前方や後方などの各方向にある車両や歩行者といった対象物までの距離を測定する測距センサであり、対象物までの距離の測定結果を統合ECU31等に出力する。ライダ28は、光波を用いて前方や後方などの各方向にある車両や歩行者といった対象物までの距離を測定する測距センサであり、対象物までの距離の測定結果を統合ECU31等に出力する。
 サイドビューカメラ29は、例えばサイドミラーの筐体内やサイドミラー近傍に配置されたカメラであり、運転者の死角となる領域を含む車両11の側方の画像(以下、側方画像とも称する)を撮像し、サイドビューカメラECU30に供給する。
 サイドビューカメラECU30は、サイドビューカメラ29から供給された側方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた側方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
 統合ECU31は、運転制御ECU51やバッテリECU52などの車両11の中央に配置された複数のECUからなり、車両11全体の動作を制御する。
 例えば運転制御ECU51は、ADAS(Advanced Driving Assistant System)機能や自律運転(Self driving)機能を実現するECUであり、フロントカメラECU22からの画像認識結果、位置情報取得部23からの位置情報、通信部25から供給された周辺車両情報等の各種の情報、レーダ27やライダ28からの測定結果、車速検出部41からの車速の検出結果などに基づいて、車両11の運転(走行)を制御する。すなわち、運転制御ECU51は、ステアリング機構26や、制動装置34、エンジン35、駆動用モータ37等を制御して車両11の運転を制御する。また、運転制御ECU51は、フロントカメラECU22から画像認識結果として供給された、対向車のヘッドライトの有無等に基づいてヘッドライト42を制御してハイビームとロービームの切り替えなどヘッドライト42によるビーム照射を制御する。
 なお、統合ECU31では、ADAS機能や自律運転機能、ビーム制御などの機能ごとに専用のECUを設けるようにしてもよい。
 また、バッテリECU52は、バッテリ38による電力の供給等を制御する。
 フロントビューカメラ32は、例えばフロントグリル近傍に配置されたカメラからなり、運転者の死角となる領域を含む車両11の前方の画像(以下、前方画像とも称する)を撮像し、フロントビューカメラECU33に供給する。
 フロントビューカメラECU33は、フロントビューカメラ32から供給された前方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた前方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
 制動装置34は、運転者によるブレーキ操作、または統合ECU31から供給された制御信号に応じて動作し、車両11を停車させたり減速させたりする。エンジン35は、車両11の動力源であり、統合ECU31から供給された制御信号に応じて駆動する。
 発電機36は、統合ECU31により制御され、エンジン35の駆動に応じて発電する。駆動用モータ37は、車両11の動力源であり、発電機36やバッテリ38から電力の供給を受け、統合ECU31から供給された制御信号に応じて駆動する。なお、車両11の走行時にエンジン35を駆動させるか、または駆動用モータ37を駆動させるかは、適宜、統合ECU31により切り替えられる。
 バッテリ38は、例えば12Vのバッテリや200Vのバッテリなどを有しており、バッテリECU52の制御に従って車両11の各部に電力を供給する。
 リアビューカメラ39は、例えばテールゲートのナンバープレート近傍に配置されるカメラからなり、運転者の死角となる領域を含む車両11の後方の画像(以下、後方画像とも称する)を撮像し、リアビューカメラECU40に供給する。例えばリアビューカメラ39は、図示せぬシフトレバーがリバース(R)の位置に移動されると起動される。
 リアビューカメラECU40は、リアビューカメラ39から供給された後方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた後方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
 車速検出部41は、車両11の車速を検出するセンサであり、車速の検出結果を統合ECU31に供給する。なお、車速検出部41において、車速の検出結果から加速度や加速度の微分が算出されるようにしてもよい。例えば算出された加速度は、車両11の物体との衝突までの時間の推定などに用いられる。
 ヘッドライト42は、統合ECU31から供給された制御信号に応じて動作し、ビームを出力することで車両11の前方を照明する。
 また、車両11では、図2に示すようにフロントカメラモジュール71、通信部25、運転制御ECU51、ステアリング機構26、制動装置34、エンジン35、駆動用モータ37、およびヘッドライト42を含む複数のユニットがCAN通信用のバス72により相互に接続されている。なお、図2において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、フロントカメラモジュール71はレンズ81、イメージセンサ82、フロントカメラECU22、およびMCU(Module Control Unit)83を有している。
 また、レンズ81およびイメージセンサ82によってフロントセンシングカメラ21が構成されており、イメージセンサ82は例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる。
 フロントカメラモジュール71では、被写体からの光がレンズ81によってイメージセンサ82の撮像面上に集光される。イメージセンサ82は、レンズ81から入射した光を光電変換することでセンシング画像を撮像し、フロントカメラECU22に供給する。
 フロントカメラECU22は、イメージセンサ82から供給されたセンシング画像に対して、例えばゲイン調整やホワイトバランス調整、HDR(High Dynamic Range)処理などを施した後、センシング画像に対して画像認識を行う。
 画像認識では、例えば白線や縁石、歩行者、車両、ヘッドライト、ブレーキライト、道路標識、前方車両との衝突までの時間などの認識(検出)が行われる。これらの画像認識の認識結果は、MCU83でCAN通信用の形式の信号に変換され、バス72へと出力される。
 また、バス72から供給された情報は、MCU83でフロントカメラモジュール71用に定められた形式の信号に変換され、フロントカメラECU22へと供給される。
 運転制御ECU51は、MCU83からバス72に出力された画像認識の結果と、レーダ27やライダ28等の他のユニットから供給された情報とに基づいて、適宜、ステアリング機構26や制動装置34、エンジン35、駆動用モータ37、ヘッドライト42などを制御する。これにより走行方向の変更、ブレーキ、加速、発進等の運転制御や、警告通知制御、ビームの切り替え制御などが実現される。
 また、運転制御ECU51が自律運転機能等を実現する場合には、例えばフロントカメラECU22で得られた各時刻の画像認識結果から、運転制御ECU51において、さらに対象物体の位置の軌跡が認識され、その認識結果が通信部25を介して外部のサーバに送信されるようにしてもよい。そのような場合、例えばサーバではディープニューラルネット等の学習が行われて必要な辞書等が生成され、車両11へと送信される。車両11では、このようにして得られた辞書等が通信部25により受信され、受信された辞書等が運転制御ECU51での各種の予測などに用いられる。
 なお、運転制御ECU51により行われる制御のうち、センシング画像に対する画像認識の結果のみから実現できる制御については、運転制御ECU51ではなくフロントカメラECU22により行われるようにしてもよい。
 具体的には、例えばフロントカメラECU22は、センシング画像に対する画像認識により得られた対向車のヘッドライトの有無に基づいて、ヘッドライト42を制御してもよい。この場合、例えばフロントカメラECU22は、ロービームとハイビームの切り替え等を指示する制御信号を生成し、MCU83およびバス72を介してヘッドライト42に制御信号を供給することで、ヘッドライト42によるビーム切り替えを制御する。
 その他、例えばフロントカメラECU22が、センシング画像に対する画像認識により得られた白線や縁石、歩行者などの認識結果に基づいて、対象物への衝突の警告通知や走行車線(レーン)からの逸脱の警告通知等を生成し、MCU83を介してバス72に出力することで、警告通知の制御を行うようにしてもよい。この場合、フロントカメラECU22から出力された警告通知は、例えば表示部24や図示せぬスピーカ等に供給される。これにより、表示部24において警告表示を行ったり、スピーカにより警告メッセージを出力したりすることができる。
 さらに、車両11では、例えば駐車時などにおいて表示部24に合成画像を表示することでアラウンドビューモニタ機能が実現される。
 すなわち、例えば図3に示すように各部で得られた前方画像、後方画像、および側方画像がCAN通信用のバスとは異なるケーブルを介して、統合ECU31に設けられた画像合成ECU101に供給され、それらの画像から合成画像が生成される。なお、図3において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図3では、図1に示したサイドビューカメラ29として、車両11の左側に配置されたサイドビューカメラ29Lと、車両11の右側に配置されたサイドビューカメラ29Rとが設けられている。また、サイドビューカメラECU30として、車両11の左側に配置されたサイドビューカメラECU30Lと、車両11の右側に配置されたサイドビューカメラECU30Rとが設けられている。
 画像合成ECU101には、フロントビューカメラ32で得られた前方画像がフロントビューカメラECU33から供給され、リアビューカメラ39で得られた後方画像がリアビューカメラECU40から供給される。また、画像合成ECU101には、サイドビューカメラ29Lで得られた側方画像(以下、特に左側方画像とも称する)がサイドビューカメラECU30Lから供給され、サイドビューカメラ29Rで得られた側方画像(以下、特に右側方画像とも称する)がサイドビューカメラECU30Rから供給される。
 画像合成ECU101は、供給されたこれらの画像に基づいて前方画像、後方画像、左側方画像、および右側方画像を対応する領域に配置した合成画像を生成するとともに、得られた合成画像を表示部24に供給し、表示させる。運転者は、このようにして表示された合成画像を確認しながら車両11を運転することで、安全かつ容易に駐車を行うことができる。なお、統合ECU31が合成画像に基づいて車両11の駆動を制御し、駐車を行うようにしてもよい。
 また、運転制御ECU51により複数の異なる機能の制御を行うのではなく、例えば図4に示すように制御内容ごとに、すなわち機能ごとに制御部を設けるようにしてもよい。なお、図4において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図4に示す例では、CAN通信用のバス72にはフロントカメラモジュール71、通信部25、ステアリング機構26、制動装置34、エンジン35、駆動用モータ37、ヘッドライト42、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、およびアクセル制御部115を含む複数のユニットが接続されている。
 この例では、図2の例において運転制御ECU51により行われていた制御が、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、およびアクセル制御部115により分担されて行われる。
 具体的には、例えばビーム制御部111は、フロントカメラECU22で得られた画像認識の結果等に基づいてヘッドライト42を制御することでロービームとハイビームの切り替え制御を行う。また、警告通知制御部112は、フロントカメラECU22で得られた画像認識の結果等に基づいて表示部24への各種の警告表示や図示せぬスピーカでの警告メッセージの出力など、警告通知の制御を行う。
 ステアリング制御部113は、フロントカメラECU22で得られた画像認識の結果、レーダ27やライダ28からの測定結果等に基づいてステアリング機構26を制御することで、車両11の走行方向の制御を行う。ブレーキ制御部114は、フロントカメラECU22で得られた画像認識の結果、レーダ27やライダ28からの測定結果等に基づいて制動装置34を制御することで、車両11の走行停止や減速の制御を行う。
 さらに、アクセル制御部115は、フロントカメラECU22で得られた画像認識の結果、レーダ27やライダ28からの測定結果等に基づいてエンジン35や駆動用モータ37を制御することで、車両11の発進や加速の制御を行う。
〈車両の機能的な構成例〉
 次に、図1に示した車両11が周辺車両との衝突を回避するための運転支援を行うための機能的な構成例について説明する。図5は、そのような場合における車両11の機能的な構成例を示す図である。なお、図5において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図5に示す車両11は通信部25、自車乗員情報取得部141、制御部142、および表示部24を有しており、運転支援を行う運転支援装置として機能する。
 自車乗員情報取得部141は、車両11に乗車している乗員の数を示す情報、車両11における乗員の乗車位置を示す情報、および各乗員の属性を示す情報を含む自車乗員情報を取得して、制御部142に供給する。ここで、乗員の属性とは、例えば乗員が大人であるか、または子供であるかなどである。
 例えば自車乗員情報取得部141は室内カメラを有しており、車両11の室内を撮像して得られた室内画像から人を検出し、その検出結果から自車乗員情報を得る。その他、自車乗員情報取得部141は車両11の室内のシートベルトの着用状況を検出し、その検出結果から自車乗員情報を得るようにしてもよいし、乗員等による乗員数や乗車位置についての操作入力に基づいて自車乗員情報を得るようにしてもよい。
 制御部142は、例えば図1に示した統合ECU31、特に運転制御ECU51により実現され、車両11で行われる運転支援処理を実行する。制御部142は、情報取得部151、領域決定部152、運転支援処理部153、および表示制御部154を有している。
 情報取得部151は、適宜、通信部25を制御して、車両11の周囲に存在する周辺車両との車車間通信により周辺車両情報を受信させ、受信された周辺車両情報を通信部25から取得する。周辺車両情報は、一定時間間隔で、つまり定期的に取得されるようにしてもよいし、不定期に取得されるようにしてもよい。
 領域決定部152は、自車乗員情報に基づいて、車車間通信により周辺車両情報を受信する範囲である受信領域を決定する。換言すれば、領域決定部152は、自車乗員情報により示される乗員数等に応じて、周辺車両情報を受信する受信領域を変更する。ここで、受信領域は車両11を中心とする所定範囲の領域とされる。
 運転支援処理部153は、情報取得部151により取得された周辺車両情報に基づいて、車両11の走行を制御する処理である運転支援処理を行う。
 この運転支援処理は、例えば車両11と周辺車両との衝突を回避するための処理である。具体的には、例えば車両11の前後を走行する周辺車両との車間距離を制御する処理や、車両11の車線変更を制御する処理、車両11の急ブレーキ、つまり急停車や急激な減速を制御する処理などが運転支援処理として行われる。
 表示制御部154は、表示部24を制御して各種の画像を表示させる。
〈周辺車両情報の例〉
 ところで、車両11が運転支援処理を行うときには、車車間通信により周辺車両から受信された周辺車両情報が用いられる。
 この周辺車両情報には、周辺車両に関する1または複数の種別の情報が含まれている。例えば、周辺車両情報には図6に示すように周辺車両の乗員数を示す情報や、周辺車両の走行状態を示す情報などが含まれている。
 すなわち、図6に示す例では図中、上側の欄に示すように周辺車両情報には端末ID、時刻情報、位置情報、移動体種別情報、運転モード情報、乗員数情報、走行情報、およびドライバ属性情報が含まれている。
 端末IDは、周辺車両情報の送信元である周辺車両を識別する車両IDであり、時刻情報は周辺車両情報の送信時刻を示す情報である。
 また、位置情報は、周辺車両情報の送信時における周辺車両の緯度と経度などの位置を示す情報であり、移動体種別情報は、一般車両や大型車両、二輪車などの周辺車両の種別を示す情報である。
 運転モード情報は、周辺車両が手動運転、支援運転、自律運転等、どの運転モードで運転されているかを示す情報であり、乗員数情報は周辺車両に乗車している乗員の数を示す情報である。
 さらに走行情報は、周辺車両が急ブレーキを行った、つまり急停車または急激な減速をした、通常走行中である、停車中である、右折を行うなどの周辺車両の走行状態を示す情報である。なお、走行情報に周辺車両の走行速度等の情報が含まれるようにしてもよい。
 ドライバ属性情報は、例えば健常者、高齢者、その他弱者などの周辺車両の運転者の属性を示す情報である。
 また、ここでは周辺車両情報の例として端末ID、時刻情報、位置情報、移動体種別情報、運転モード情報、乗員数情報、走行情報、およびドライバ属性情報が含まれる例について説明するが、周辺車両情報は周辺車両に関する情報であればどのようなものであってもよい。例えば周辺車両情報は、図6に示した各情報のうちの少なくとも何れか1つが含まれるようなものであってもよい。
 車両11では、このような周辺車両情報に基づいて、車両11の運転が制御される。
 特に、車両11では、車両11の乗員数に応じて受信領域を決定することで、衝突回避のために必要な周辺車両情報を選択的に得ることができるようにした。これにより、適切な運転支援を実現することができるようになる。
 具体的には、例えば車両11の乗員数が多い場合、車両11がブレーキを行って停車しようとしても、完全に停車するまでに時間がかかるだけでなく、その間、車両11は進行方向へと進むことになる。
 そのため、例えば車両11が前方車両の急停車に応じて自身も急停車する場合に、前方車両との衝突を回避するためには、車両11の乗員数が多いときほど、より早いタイミングで急ブレーキを行う必要がある。
 このような場合に、例えば車両11の1つ前を走行する車両の走行状態だけでなく、車両11の2つ前を走行する車両の走行状態も把握することができれば、車両11は、より早いタイミングで急ブレーキや減速などの適切な運転支援を行うことができる。
 そこで、車両11では、車両11の乗員数に応じた受信領域を決定し、その受信領域内の周辺車両から周辺車両情報を受信することで、より適切な運転支援を行うことができるようにした。
 例えば、一例として車両11の乗員数が2名であるときには、車両11の前方4メートルの範囲が受信領域とされる。そして、その受信領域内に存在する周辺車両から車車間通信により周辺車両情報が受信され、受信された周辺車両情報に基づいて衝突回避のための運転支援が行われる。
 これに対して、例えば車両11の乗員数が4名であるときには、車両11の前方10メートルの範囲が受信領域とされる。そして、その受信領域内に存在する周辺車両から車車間通信により周辺車両情報が受信され、受信された周辺車両情報に基づいて衝突回避のための運転支援が行われる。
 運転支援時には、例えば周辺車両情報に含まれる周辺車両の運転モード情報や、走行情報、ドライバ属性情報、乗員数情報、移動体種別情報などが常時監視され、それらの監視結果に基づいて車両11の運転が制御される。
 例えば車両11の1つ前を走行する車両が、車両11の前方4メートルの位置にあり、車両11の2つ前を走行する車両が、車両11の前方10メートルの位置にあるとする。また、車両11の2つ前を走行する車両が自律運転中に急停車し、それに伴い、車両11の1つ前を走行する車両も急停車したとする。
 このとき、受信領域を車両11の前方4メートルの範囲としていた場合には、車両11は2つ前を走行する車両の周辺車両情報を得ることができないので、その車両の急停車を検知することはできない。そのため、車両11は1つ前の車両の急停車を検知し、自身も急停車することになる。
 この場合、車両11の乗員数が少ないときには、車両11は直ちに停車することができるので衝突の発生を十分に回避することが可能であるが、車両11の乗員数が多いと、車両11とその1つ前の車両とが衝突してしまう可能性がある。
 これに対して、受信領域を車両11の前方10メートルの範囲としていた場合には、車両11は2つ前を走行する車両の周辺車両情報を得ることができるので、その車両の急停車を検知することが可能である。したがって、この場合には車両11は、2つ前の車両の急停車を検知した時点で、つまり1つ前の車両の急停車前に、自身の走行速度を減速させるなどして、1つ前の車両と衝突することなく停車することができる。
 このように、車両11の乗員数が多いほど受信領域をより広くすることで、衝突回避のための適切な運転支援を実現することができる。
 なお、以下では、車両11と周辺車両との区別を分かり易くするため、運転支援処理を行う車両11を、適宜、自車両11または自車両とも記すこととする。
〈運転制御処理の説明〉
 次に、以上において説明したように自車両の乗員数に応じて受信領域を変更し、運転支援を行う場合の処理の流れについて説明する。すなわち、以下、図7のフローチャートを参照して、車両11により行われる運転制御処理について説明する。
 ステップS11において、自車乗員情報取得部141は、自車両11の乗員数や、乗員の乗車位置、乗員の属性を示す自車乗員情報を取得して、制御部142に供給する。例えば自車乗員情報の取得は、室内画像からの人の検出や、シートベルトの着用状況の検出、乗員数等についての操作入力などにより行われる。
 ステップS12において、領域決定部152は、ステップS11で取得された自車乗員情報に基づいて、車車間通信を行う受信領域を決定する。
 例えば、領域決定部152は自車乗員情報により示される乗員数が多いほど、受信領域がより広くなるように受信領域を決定する。具体的には、例えば自車両11の乗員数が4名である場合には、自車両11の前後10メートルの範囲の領域が受信領域とされ、自車両11の乗員数が2名である場合には、自車両11の前後4メートルの範囲の領域が受信領域とされる。
 ステップS13において、情報取得部151は、ステップS12の処理で決定された受信領域内にいる周辺車両の周辺車両情報を取得する。
 すなわち、情報取得部151は通信部25を制御して、通信部25に受信領域内にいる周辺車両と車車間通信を行わせ、その周辺車両から周辺車両情報を受信させる。そして、情報取得部151は、受信された周辺車両情報を通信部25から取得する。
 ステップS14において、表示制御部154は表示部24を制御して、ステップS12の処理で決定された受信領域について、その受信領域の表示を行わせる。換言すれば、制御部142により、受信領域に関する情報の提示が制御される。
 例えば表示部24がウィンドシールド(フロントガラス)部分に設けられた透過型ディスプレイである場合、表示制御部154は図8に示すような受信領域を示す受信領域情報R11を表示部24に表示させる。
 図8に示す例では、自車両11と同じ車線の所定範囲の領域を囲う枠が受信領域情報R11として表示されている。このように受信領域情報R11を表示することで、運転者は視覚的に受信領域を把握することができる。
 なお、受信領域情報R11とともに、例えば受信領域について説明する文字メッセージ「前方4メートルV2V受信中」なども表示部24に表示させたり、受信領域について説明する音声メッセージを出力したりするようにしてもよい。また、表示制御部154が表示部24を制御して、受信領域内に存在する周辺車両が枠で囲まれるなど、受信領域内の周辺車両を視覚的に把握できるような表示を行うようにしてもよい。
 さらに、ここでは受信領域とする領域の範囲(大きさ)は、自車両11の乗員数に応じて決定されるが、自車両の乗員数に応じて自車両が走行する車線の隣の車線も受信領域に含めるかなども定められるようにしてもよい。
 例えば自車両11の隣の車線も受信領域とする場合、表示部24がウィンドシールド部分に設けられた透過型ディスプレイであるときには、表示制御部154は図9に示すような受信領域を示す受信領域情報R21を表示部24に表示させる。
 この例では自車両11と同じ車線だけでなく、その車線に隣接する車線も含む所定範囲の領域を囲う枠が受信領域情報R21として表示されている。
 さらに、受信領域の表示にあたっては、受信領域を示す枠を表示するのではなく、受信領域内にいる周辺車両を特定することができるような、つまりどの周辺車両から周辺車両情報を受信しているかを特定できるような表示を行うようにしてもよい。
 そのような場合、例えば表示制御部154は、図10に示すような文字メッセージを表示部24に表示させる。
 図10に示す例では、表示部24はカーナビゲーションシステムのディスプレイとしても用いられており、表示部24では、カーナビゲーションのための表示画面に重畳されて、受信領域について説明するメッセージMS11が表示されている。
 特に、この例では、カーナビゲーションの表示画面のうちの自車両11の案内ルートの部分にメッセージMS11としての文字「前方2台V2V受信中」が表示されている。このメッセージMS11を見ることで、運転者は前方を走行する2台の車両から車車間通信(V2V)により周辺車両情報を受信していることを瞬時に把握することができる。すなわち、運転者は前方の2台の車両が受信領域内にあることを把握することができる。
 図7のフローチャートの説明に戻り、ステップS15において、運転支援処理部153は、ステップS13の処理で取得された周辺車両情報に基づいて運転支援処理を行い、運転制御処理は終了する。
 具体的には、例えば運転支援処理部153は、周辺車両情報に含まれる移動体種別情報や運転モード情報、乗員数情報、走行情報、ドライバ属性情報などに基づいて、周辺車両との衝突を回避するための運転支援処理を行う。
 一例として、例えば前方車両の走行情報により、その前方車両の急停車(急ブレーキ)が検知されたとする。そのような場合、運転支援処理部153は、急ブレーキを指示する制御信号を生成して制動装置34に供給し、制動装置34に急ブレーキを行わせることで、衝突回避のための運転支援処理として急ブレーキを制御する処理を行う。
 なお、その他、衝突回避のための運転支援処理として、周辺車両情報に基づいて、自車両11と前方車両や後方車両との車間距離を制御する処理や、自車両11の車線変更を制御する処理などが行われるようにしてもよい。そのような場合、運転支援処理部153は、適宜、駆動を制御するための制御信号を生成して制動装置34やエンジン35、駆動用モータ37、ステアリング機構26のうちの必要なブロックに供給し、それらのブロックの駆動を制御することで、衝突回避のための運転支援処理を行う。
 以上のようにして車両11は、自車両11の乗員数に応じて受信領域を決定し、決定した受信領域内の周辺車両から周辺車両情報を受信して運転支援処理を行う。このようにすることで、衝突の発生に対する影響の大きい自車両11と周辺車両の両方の状態を考慮し、適切な運転支援を行うことができる。特に、乗員数に応じて受信領域を決定することで、必要な情報を選択的に取得し、適切な運転支援を行うことができる。
〈第1の実施の形態の変形例1〉
〈受信領域の決定について〉
 なお、図7を参照して説明した運転制御処理では、自車両11の乗員数のみに基づいて受信領域を決定する場合について説明したが、自車両11の乗員数だけでなく、自車両11の乗員の属性や乗車位置も用いて受信領域を決定するようにしてもよい。
 例えば自車乗員情報取得部141で得られる自車乗員情報には、自車両11についての乗員数、乗員の属性、および乗車位置を示す情報が含まれている。そのため、領域決定部152は、自車乗員情報から自車両11に何人の乗員が乗車しているかだけでなく、自車両11のどこの座席にどのような乗員が乗車しているかも把握することができる。
 そこで、例えば領域決定部152が自車乗員情報に基づいて、すなわち自車両11の乗員数、乗車位置、および乗員の属性に基づいて図11乃至図13に示すように受信領域を決定するようにしてもよい。
 なお、図11乃至図13においては、各四角形は車両11の座席を表しており、図中、上側に描かれた座席が車両11の前方側の座席、つまり運転席を含むウィンドシールド側の座席となっている。以下では、図11乃至図13において、図中、左上側の座席を前方左側座席とも称し、図中、右上側の座席を前方右側座席とも称し、図中、左下側の座席を後方左側座席とも称し、図中、右下側の座席を後方右側座席とも称することとする。
 図11乃至図13に示す例では、領域決定部152は、基本的には以下の規則(1)乃至(4)に従って受信領域の広さ(大きさ)を決定する。
 (1)受信領域の前後方については、その方向側の座席に乗車している乗員数が多いほど、受信領域のその方向の広さが広くなるようにされる
 (2)乗員の総数が多いほど、受信領域の前後方向の広さが広くなるようにされる
 (3)受信領域の左右方については、その方向側の座席に乗車している乗員数が多いほど、受信領域のその方向の広さが広くなるようにされる
 (4)乗員の属性に応じて、その乗員の乗車位置側の受信領域の広さが決定される
 具体的には、例えば図11の矢印Q11に示すように、車両11の前方左側座席と前方右側座席に、それぞれ大人が乗員として乗車していたとする。
 そのような場合、領域決定部152は、受信領域の前方向の広さを4メートルとし、受信領域の後方向、右方向、および左方向の広さをそれぞれ2メートルとする。
 これに対して、例えば矢印Q12に示すように前方左側座席に子供が乗車しており、前方右側座席に大人が乗車していたとする。
 そのような場合、領域決定部152は、受信領域の前方向の広さを5メートルとし、受信領域の左方向の広さを4メートルとし、受信領域の後方向および右方向の広さをそれぞれ2メートルとする。矢印Q12に示す例では、矢印Q11に示した例と比較して、受信領域における子供が乗車している左側の広さがより広くなるようになされている。同様に、受信領域の子供が乗車している側である前方向の広さもより広くなるようになされている。
 このように受信領域における子供や高齢者などの弱者側の広さをより広くすることで、その弱者側で、より多くの周辺車両情報を得ることができるようになり、弱者が乗車している側での衝突回避の可能性を向上させることができる。
 また、例えば矢印Q13に示すように後方左側座席に子供が乗車しており、前方右側座席に大人が乗車していたとする。
 そのような場合、領域決定部152は、受信領域の前方向および後方向の広さを4メートルとし、受信領域の左方向の広さを4メートルとし、受信領域の右方向の広さを2メートルとする。矢印Q13に示す例では、矢印Q11に示した例と比較して、受信領域における子供が乗車している左側と後側の広さがより広くなるようになされている。
 また、例えば図12の矢印Q21に示すように車両11の前方左側座席、前方右側座席、および後方左側座席に、それぞれ大人が乗車していたとする。
 そのような場合、領域決定部152は、受信領域の前方向の広さを8メートルとし、受信領域の後方向の広さを4メートルとし、受信領域の左方向の広さを3メートルとし、受信領域の右方向の広さを2メートルとする。
 この例では、図11の矢印Q11に示した例と比較して、乗員の総数が3人となった分だけ受信領域の前方向と後方向の広さが広くなるようになされている。また、車両11の左側の座席に2人の乗員が乗車しているため、受信領域の左側の広さがより広くなるようになされている。
 さらに、矢印Q22に示すように車両11の前方左側座席および前方右側座席にそれぞれ大人が乗車しており、後方左側座席に子供が乗車していたとする。
 そのような場合、領域決定部152は、受信領域の前方向の広さを8メートルとし、受信領域の後方向の広さを6メートルとし、受信領域の左方向の広さを4メートルとし、受信領域の右方向の広さを2メートルとする。
 矢印Q22に示す例は、矢印Q21に示した例における後方左側座席の乗員が大人から子供に変わった例となっている。そのため、この例では、矢印Q21に示した例と比較して、受信領域における子供が乗車している側である後側と左側の広さがより広くなるようになされている。
 さらに、例えば図13の矢印Q31に示すように車両11の前方左側座席、前方右側座席、後方左側座席、および後方右側座席に、それぞれ大人が乗車していたとする。
 そのような場合、領域決定部152は、受信領域の前方向の広さを10メートルとし、受信領域の後方向の広さを7メートルとし、受信領域の左方向および右方向の広さを3メートルとする。
 この例では、図11の矢印Q11に示した例と比較して、乗員の総数が4人となった分だけ受信領域の前方向と後方向の広さが広くなるようになされている。また、車両11の左右の各側の座席にもより多くの乗員が乗車しているため、受信領域の左側および右側の広さがより広くなるようになされている。
 さらに、矢印Q32に示すように車両11の前方左側座席および前方右側座席にそれぞれ大人が乗車しており、後方左側座席および後方右側座席にそれぞれ子供が乗車していたとする。
 そのような場合、領域決定部152は、受信領域の前方向の広さを10メートルとし、受信領域の後方向の広さを8メートルとし、受信領域の左方向および右方向の広さを4メートルとする。
 矢印Q32に示す例は、矢印Q31に示した例における後方左側座席および後方右側座席の乗員が大人から子供に変わった例となっている。そのため、この例では、矢印Q31に示した例と比較して、受信領域における子供が乗車している側である後側と左側および右側の広さがより広くなるようになされている。
 また、矢印Q33に示すように車両11の前方左側座席、前方右側座席、および後方左側座席にそれぞれ大人が乗車しており、後方右側座席に子供が乗車していたとする。
 そのような場合、領域決定部152は、受信領域の前方向の広さを10メートルとし、受信領域の後方向の広さを8メートルとし、受信領域の左方向の広さを3メートルとし、受信領域の右方向の広さを4メートルとする。
 矢印Q33に示す例は、矢印Q31に示した例における後方右側座席の乗員が大人から子供に変わった例となっている。そのため、この例では、矢印Q31に示した例と比較して、受信領域における子供が乗車している側である後側と右側の広さがより広くなるようになされている。
 以上のように、自車両11の乗員数、乗員の属性、および乗車位置に基づいて受信領域を決定することで、より適切な受信領域を定めることができる。なお、受信領域の決定時には、少なくとも乗員数が用いられればよく、乗員の属性と乗車位置については何れか一方のみを用いるようにしてもよいし、それらの両方が用いられるようにしてもよい。
〈第2の実施の形態〉
〈運転制御処理の説明〉
 また、以上においては車両11が自車両の乗員数等に基づいて受信領域を決定し、その決定した受信領域内の周辺車両から周辺車両情報を受信する場合について説明した。しかし、予め定められた領域内の周辺車両から周辺車両情報を受信しておき、それらの周辺車両情報のなかから、乗員数に応じた広さの領域内の周辺車両の周辺車両情報を選択的に抽出して運転支援に用いるようにしてもよい。
 以下、図14のフローチャートを参照して、そのような場合に車両11により行われる運転制御処理について説明する。
 ステップS41において、情報取得部151は、予め定められた領域内にいる周辺車両の周辺車両情報を取得する。
 すなわち、情報取得部151は通信部25を制御して、通信部25に、予め定められた領域内にいる周辺車両と車車間通信を行わせ、その周辺車両から周辺車両情報を受信させる。そして、情報取得部151は、受信された周辺車両情報を通信部25から取得する。
 ここで、予め定められた領域(以下、固定受信領域とも称する)は、例えば車両11が車車間通信を行うことが可能な最大の広さの領域などとされる。そのような場合、とりあえず車両11が取得可能な周辺車両情報を全て取得しておくことになる。
 このようにして周辺車両情報が取得されると、その後、ステップS42において自車乗員情報が取得されるが、ステップS42の処理は図7のステップS11の処理と同様であるので、その説明は省略する。
 ステップS43において、領域決定部152は、ステップS42の処理で取得された自車乗員情報に基づいて、周辺車両情報を用いる使用領域を決定する。
 ここで、使用領域は、運転支援処理に用いる周辺車両情報を取得する対象となる領域であり、上述した受信領域に相当する。換言すれば、使用領域内の周辺車両から受信された周辺車両情報が運転支援処理に用いられる。但し、使用領域は固定受信領域内の領域、つまり固定受信領域の一部の領域とされる。
 領域決定部152は、例えば上述した受信領域における場合と同様に、自車乗員情報により示される自車両の乗員数が多いほど使用領域がより広くなるように、乗員数に応じて使用領域を決定する。その他、例えば図11乃至図13を参照して説明した受信領域の決定方法と同様の方法で使用領域を決定するようにしてもよい。
 ステップS44において、運転支援処理部153は、ステップS41で取得された周辺車両情報のなかから、ステップS43で決定された使用領域内の周辺車両から受信した周辺車両情報を選択する。
 ステップS45において、表示制御部154は表示部24を制御して、ステップS43の処理で決定された使用領域について、その使用領域の表示を行わせる。このステップS45では、図7のステップS14の処理と同様の処理が行われる。すなわち、例えば図8や図9、図10に示した表示と同様の表示が行われる。
 ステップS46において、運転支援処理部153は、ステップS44の処理で選択した、使用領域内の周辺車両の周辺車両情報に基づいて運転支援処理を行い、運転制御処理は終了する。ステップS46では、ステップS44の処理で選択された周辺車両情報が用いられて、図7のステップS15と同様の処理が行われる。
 以上のようにして車両11は、予め定められた固定受信領域内の周辺車両から周辺車両情報を受信しておき、それらの周辺車両情報のうちの、自車両11の乗員数等に応じて決定された使用領域内の周辺車両から受信した周辺車両情報のみを用いて運転支援処理を行う。このように使用領域よりも広い固定受信領域内の周辺車両から周辺車両情報を受信しておくことで、その後、必要な周辺車両情報のみを選択し、適切な運転支援を行うことができる。このような方法は、乗員数や乗車位置等が頻繁に変化するバスなどに本技術を適用する場合などに特に有用である。
 また、以上においては、自車両11の乗員数に応じて受信領域や使用領域を決定する例について説明した。しかし、自車両11の直前や直後を走行する周辺車両の乗員数や運転モード、車両の種別、走行速度、自車両11の直前や直後を走行する周辺車両との車間距離なども考慮して受信領域や使用領域を決定するようにしてもよい。
 そのような場合には、第2の実施の形態では、例えば一旦、可能な限り多くの周辺車両情報を取得しておき、その後、取得した一部の周辺車両情報や自車乗員情報に基づいて使用領域を決定すれば、必要となる周辺車両情報を適切に選択することができる。
〈第3の実施の形態〉
〈運転制御処理の説明〉
 さらに第2の実施の形態では、とりあえず固定受信領域を対象として周辺車両情報を受信しておく場合について説明した。しかし、受信領域を対象として周辺車両情報を取得しておき、受信領域の変更があったときに、必要に応じてさらに周辺車両情報を追加で取得するようにしてもよい。
 以下、図15のフローチャートを参照して、そのような場合に車両11により行われる運転制御処理について説明する。
 ステップS71において、情報取得部151は、受信領域内にいる周辺車両の周辺車両情報を取得する。
 ステップS71では図7のステップS13の処理と同様の処理が行われて周辺車両情報が取得されるが、ここでの受信領域は例えば予め定められた領域とされる。また、ステップS71で用いられる受信領域は、例えばこのステップS71の処理が行われる直前に定められた、つまり最後に周辺車両情報が取得されたときに定められた受信領域とされてもよい。
 ステップS71の処理が行われて周辺車両情報が取得されると、ステップS72の処理が行われて自車乗員情報が取得されるが、ステップS72の処理は図7のステップS11の処理と同様であるので、その説明は省略する。
 ステップS73において、領域決定部152は、ステップS72の処理で取得された自車乗員情報に基づいて受信領域を変更する。すなわち、ステップS73では受信領域が再決定される。
 具体的には、領域決定部152は、例えば図7のステップS12における場合と同様に自車両11の乗員数に応じて受信領域を決定してもよいし、図11乃至図13を参照して説明した方法により受信領域を決定するようにしてもよい。
 ステップS74において、領域決定部152は、受信領域を広げるか否かを判定する。
 例えばステップS71で用いられた受信領域よりもステップS73で決定(変更)された受信領域が広い場合、ステップS74において受信領域を広げると判定される。また、ステップS73で決定された受信領域が、ステップS71で用いられた受信領域内に含まれる領域である場合には、ステップS74では受信領域を広げないと判定される。
 ステップS74において受信領域を広げないと判定された場合、ステップS75において、運転支援処理部153は、ステップS71で取得した周辺車両情報のなかから、ステップS73での変更後の受信領域内の周辺車両から受信した周辺車両情報を選択する。
 したがって、例えばステップS73で再決定された受信領域が、ステップS71における受信領域と同じである場合には、ステップS71で取得された全ての周辺車両情報が選択される。
 これに対して、ステップS73で再決定された受信領域が、ステップS71における受信領域の一部の領域である場合、つまり再決定された受信領域が、再決定前のもとの受信領域よりも狭い領域である場合には、再決定された受信領域内の周辺車両から受信された周辺車両情報が選択される。
 このようにして周辺車両情報が選択されると、その後、処理はステップS77へと進む。
 一方、ステップS74において受信領域を広げると判定された場合、すなわち変更後の受信領域が、変更前のもとの受信領域よりも広い場合、ステップS76において、情報取得部151は、変更後の受信領域内にいる周辺車両の周辺車両情報を取得する。
 ステップS76では、ステップS71の処理と同様の処理が行われて、ステップS73の処理で決定された受信領域内の周辺車両から周辺車両情報が受信され、情報取得部151により周辺車両情報が取得される。
 なお、ステップS76では、決定された受信領域、つまり変更後の受信領域内にいる全ての周辺車両から周辺車両情報が新たに取得されるようにしてもよいが、変更後の受信領域内にいる周辺車両のうち、ステップS71で周辺車両情報の送信元となっていない周辺車両のみから周辺車両情報を受信するようにしてもよい。つまり、ステップS76では、ステップS71で受信していなかった周辺車両情報のみを受信するようにしてもよい。
 このようにして変更後の受信領域を対象として周辺車両情報を取得すると、その後、処理はステップS77へと進む。
 ステップS75の処理が行われたか、またはステップS76の処理が行われると、その後、ステップS77およびステップS78の処理が行われて運転制御処理は終了するが、これらの処理は図7のステップS14およびステップS15の処理と同様であるので、その説明は省略する。但し、ステップS78では、ステップS73で決定された受信領域内の周辺車両から受信された周辺車両情報、つまりステップS75で選択された周辺車両情報、またはステップS76で取得された周辺車両情報のみが用いられて運転支援処理が行われる。
 以上のようにして車両11は、受信領域内の周辺車両から周辺車両情報を取得した後、自車乗員情報に基づいて受信領域を変更し、変更後の受信領域が変更前の受信領域よりも広い場合には、変更後の受信領域内にいる周辺車両から周辺車両情報を取得する。そして、車両11は、変更後の受信領域内の周辺車両の周辺車両情報を用いて運転支援処理を行う。このようにすることで、必要に応じて周辺車両情報を追加で取得し、適切な運転支援を行うことができる。
 なお、図15を参照して説明した運転制御処理も、第2の実施の形態と同様に乗員数や乗車位置などが変化する場合などに特に有用である。また、図15を参照して説明した運転制御処理においても、自車乗員情報だけでなく、ステップS71で受信した周辺車両情報も用いられて変更後の受信領域が決定されるようにしてもよい。
〈第4の実施の形態〉
〈運転制御処理の説明〉
 ところで、周辺車両情報を用いて運転支援処理を行う場合、自車両11に対する周辺車両の位置、つまり自車両11から周辺車両までの距離によって、その周辺車両の周辺車両情報に含まれる情報のうちの運転支援処理に必要となる情報が異なる。換言すれば、自車両11から周辺車両までの距離によって、必要となる情報の種別が異なる。
 例えば自車両11に4人の乗員が乗車しており、自車両の6メートル前方で前方車両A1が走行しており、自車両の8メートル前方で前方車両A2が走行しており、自車両の10メートル前方で前方車両A3が走行しているとする。
 このとき、これらの前方車両A1乃至前方車両A3から受信した周辺車両情報を用いて運転支援を行う場合には、自車両11に近い前方車両の情報がより多く必要となる。
 すなわち、例えば10メートル前方を走行する前方車両A3については、周辺車両情報として、その前方車両A3が通常速度で走行しているかや急停車したかなどの走行状態を示す走行情報があれば、衝突回避のための適切な運転支援を行うには十分である。
 また、前方車両A3よりも自車両11側を走行する前方車両A2については、例えば周辺車両情報に含まれる情報のうち、走行情報とドライバ属性情報があれば、衝突回避のための適切な運転支援を行うには十分である。
 これに対して、自車両11の直前を走行する前方車両A1については、衝突回避のための適切な運転支援を実現するには、走行情報やドライバ属性情報の他、運転モード情報や乗員数情報など、より多くの情報が必要となる。
 このように衝突回避のための適切な運転支援を行うには、自車両11に近い周辺車両ほど、より多くの種別の情報が必要となる。これは、自車両11に近い車両ほど衝突の発生への影響が大きいからである。
 そこで、周辺車両情報を取得するにあたっては、自車両11の自車乗員情報に基づいて、自車両11からの距離ごとに取得する情報の種別を定めるようにしてもよい。
 そのような場合、車両11では、例えば図16に示す運転制御処理が行われる。すなわち、以下、図16のフローチャートを参照して、車両11による運転制御処理について説明する。なお、ステップS101およびステップS102の処理は、図7のステップS11およびステップS12の処理と同様であるので、その説明は省略する。
 ステップS103において、領域決定部152は自車乗員情報に基づいて、自車両11からの距離ごとに周辺車両情報として取得する情報の種別を決定する。すなわち、自車両11から周辺車両までの距離ごとに、周辺車両情報に含まれる情報のうちの運転支援処理に用いる情報が決定(選択)される。
 具体的には、例えば領域決定部152は、自車両11の乗員数が4人である場合には、自車両11からの距離が6メートルまでの範囲では移動体種別情報、運転モード情報、乗員数情報、走行情報、およびドライバ属性情報を、周辺車両情報として取得する種別の情報とする。また、領域決定部152は、自車両11からの距離が6メートルから8メートルの範囲では走行情報とドライバ属性情報を周辺車両情報として取得する種別の情報とし、自車両11からの距離が8メートルから10メートルの範囲では走行情報を周辺車両情報として取得する種別の情報とする。
 なお、ここでは自車両11からの距離ごとに取得する情報の種別を決定する例について説明するが、例えば自車乗員情報に基づいて、各車線について自車両11からの距離ごとに周辺車両情報として取得する情報の種別を決定してもよい。また、例えば周辺車両が走行する車線ごとに周辺車両情報として取得する情報の種別を決定してもよい。
 例えば自車両11が走行する車線と同じ車線については、その車線を走行する周辺車両は自車両11の衝突発生に対して大きく影響するので、自車両11から比較的離れた位置の周辺車両についても周辺車両情報が取得されるようにする。これに対して、自車両11が走行する車線の隣の車線については、自車両11近傍にない周辺車両は自車両11の衝突発生に対して大きく影響しないので、自車両11近傍の周辺車両のみから周辺車両情報が取得されるようにする。このとき、隣の車線を走行する周辺車両については、それほど多くの情報を必要としないので、例えば走行情報のみが取得されるようにする等すればよい。
 さらに、ここではステップS102で受信領域を決定し、ステップS103で自車両11からの距離ごとに取得する情報の種別を決定する例について説明したが、受信領域は予め定められた固定の広さの領域とされてもよい。
 また、ステップS103において自車両11からの距離ごとに取得する情報の種別を決定すれば、その決定結果によって実質的に受信領域が定まることから、特にステップS102の処理は行われないようにしてもよい。そのような場合、実質的にステップS103において、受信領域が決定されることになる。
 以上のようにして受信領域と、その受信領域内における距離ごとの取得すべき情報の種別とが決定されると、情報取得部151は、領域決定部152による決定結果に基づいて周辺車両情報を取得する。
 すなわち、ステップS104において情報取得部151は、ステップS102の処理で決定された受信領域内にいる周辺車両のステップS103で決定された種別の情報を周辺車両情報として取得する。
 具体的には、情報取得部151は通信部25を制御して、通信部25に受信領域内にいる周辺車両と車車間通信を行わせ、その周辺車両からステップS103で決定された種別の情報からなる周辺車両情報を受信させる。そして、情報取得部151は、受信された周辺車両情報を通信部25から取得する。
 周辺車両情報が取得されると、その後、ステップS105およびステップS106の処理が行われて運転制御処理は終了するが、これらの処理は図7のステップS14およびステップS15の処理と同様であるので、その説明は省略する。
 以上のようにして車両11は、自車両11からの距離ごとに取得する情報の種別を決定し、その決定に従って周辺車両情報を取得して運転支援処理を行う。このようにすることで必要な情報のみを取得し、適切な運転支援を行うことができる。
〈第5の実施の形態〉
〈運転制御処理の説明〉
 さらに、車両11では、上述した第2の実施の形態と第4の実施の形態とを組み合わせた処理が行われるようにしてもよい。
 以下、図17のフローチャートを参照して、そのような場合に車両11により行われる運転制御処理について説明する。なお、ステップS131乃至ステップS133の処理は、図14のステップS41乃至ステップS43の処理と同様であるので、その説明は省略する。
 ステップS134において、領域決定部152は自車乗員情報に基づいて、自車両11からの距離ごとに周辺車両情報内の使用する情報の種別を決定する。
 ステップS134では、図16のステップS103と同様にして、自車両11からの距離ごとに運転支援処理に使用される情報の種別が決定される。なお、ステップS134においても自車両11からの距離だけでなく、周辺車両の車線も考慮されて使用される情報の種別が決定されるようにしてもよい。また、ステップS134でも図16のステップS103における場合と同様に、距離ごとに使用する情報の種別が定まれば、実質的に使用領域も定まるので、必ずしもステップS133の処理は行われなくてもよい。
 ステップS135において、運転支援処理部153は、ステップS131で取得された周辺車両情報のうちのステップS133で決定された使用領域内の周辺車両から受信した周辺車両情報の、ステップS134で決定された種別の情報を選択する。
 ステップS135の処理が行われると、その後、ステップS136およびステップS137の処理が行われて運転制御処理は終了するが、これらの処理は図14のステップS45およびステップS46の処理と同様であるので、その説明は省略する。但し、ステップS137では、ステップS135の処理で選択された情報が用いられて運転支援処理が行われる。
 以上のようにして車両11は、予め定められた固定受信領域内の周辺車両から周辺車両情報を受信しておき、それらの周辺車両情報のなかから、自車両11の乗員数や自車両11からの距離に応じて必要な情報を選択し、運転支援処理を行う。このようにすることで必要な情報のみを用いて適切な運転支援を行うことができる。
 なお、ここでは第2の実施の形態と第4の実施の形態とを組み合わせる例について説明したが、その他、第3の実施の形態と第4の実施の形態とを組み合わせるようにしてもよい。そのような場合、自車両11からの距離ごとや車線ごとに、追加で必要となった種別の情報がさらに取得される。
〈コンピュータの構成例〉
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、入力スイッチ、ボタン、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う制御部を備える
 運転支援装置。
(2)
 前記領域は、前記自車両の乗員数が多いほど広くなるように定められる
 (1)に記載の運転支援装置。
(3)
 前記運転支援処理は、前記自車両と前記周辺車両との衝突を回避するための処理である
 (1)または(2)に記載の運転支援装置。
(4)
 前記周辺車両情報は、前記周辺車両の走行状態を示す情報、前記周辺車両の乗員数を示す情報、前記周辺車両の種別を示す情報、前記周辺車両の運転モードを示す情報、および前記周辺車両の運転者の属性を示す情報の少なくとも何れか1つが含まれる情報である
 (1)乃至(3)の何れか一項に記載の運転支援装置。
(5)
 前記制御部は、前記自車両の乗員数に基づいて前記領域を決定する
 (1)乃至(4)の何れか一項に記載の運転支援装置。
(6)
 前記制御部は、前記自車両の乗員数と、前記自車両における乗員の乗車位置または前記乗員の属性とに基づいて前記領域を決定する
 (5)に記載の運転支援装置。
(7)
 前記制御部は、前記領域よりも広い予め定められた領域内の前記周辺車両から受信した前記周辺車両情報のうち、前記自車両の乗員数に基づいて決定された前記領域内の前記周辺車両の前記周辺車両情報に基づいて前記運転支援処理を行う
 (5)または(6)に記載の運転支援装置。
(8)
 前記制御部は、予め定められた領域内の前記周辺車両の前記周辺車両情報を取得した後、前記自車両の乗員数に基づいて決定された前記領域が前記予め定められた領域より広い場合、決定された前記領域内の前記周辺車両の前記周辺車両情報をさらに取得する
 (5)または(6)に記載の運転支援装置。
(9)
 前記制御部は、前記自車両の乗員数に基づいて、前記周辺車両までの距離ごとに、または前記周辺車両が走行する車線ごとに、前記周辺車両の前記周辺車両情報に含まれる情報のうちの前記運転支援処理に用いる情報の種別を選択する
 (1)乃至(8)の何れか一項に記載の運転支援装置。
(10)
 前記制御部は、前記領域に関する情報の提示をさらに制御する
 (1)乃至(9)の何れか一項に記載の運転支援装置。
(11)
 自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う
 ステップを含む運転支援方法。
(12)
 自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う
 ステップを含む処理をコンピュータに実行させるプログラム。
(13)
 自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う制御部を備える
 移動体。
 11 車両, 25 通信部, 34 制動装置, 35 エンジン, 37 駆動用モータ, 51 運転制御ECU, 141 自車乗員情報取得部, 151 情報取得部, 152 領域決定部, 153 運転支援処理部, 154 表示制御部

Claims (13)

  1.  自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う制御部を備える
     運転支援装置。
  2.  前記領域は、前記自車両の乗員数が多いほど広くなるように定められる
     請求項1に記載の運転支援装置。
  3.  前記運転支援処理は、前記自車両と前記周辺車両との衝突を回避するための処理である
     請求項1に記載の運転支援装置。
  4.  前記周辺車両情報は、前記周辺車両の走行状態を示す情報、前記周辺車両の乗員数を示す情報、前記周辺車両の種別を示す情報、前記周辺車両の運転モードを示す情報、および前記周辺車両の運転者の属性を示す情報の少なくとも何れか1つが含まれる情報である
     請求項1に記載の運転支援装置。
  5.  前記制御部は、前記自車両の乗員数に基づいて前記領域を決定する
     請求項1に記載の運転支援装置。
  6.  前記制御部は、前記自車両の乗員数と、前記自車両における乗員の乗車位置または前記乗員の属性とに基づいて前記領域を決定する
     請求項5に記載の運転支援装置。
  7.  前記制御部は、前記領域よりも広い予め定められた領域内の前記周辺車両から受信した前記周辺車両情報のうち、前記自車両の乗員数に基づいて決定された前記領域内の前記周辺車両の前記周辺車両情報に基づいて前記運転支援処理を行う
     請求項5に記載の運転支援装置。
  8.  前記制御部は、予め定められた領域内の前記周辺車両の前記周辺車両情報を取得した後、前記自車両の乗員数に基づいて決定された前記領域が前記予め定められた領域より広い場合、決定された前記領域内の前記周辺車両の前記周辺車両情報をさらに取得する
     請求項5に記載の運転支援装置。
  9.  前記制御部は、前記自車両の乗員数に基づいて、前記周辺車両までの距離ごとに、または前記周辺車両が走行する車線ごとに、前記周辺車両の前記周辺車両情報に含まれる情報のうちの前記運転支援処理に用いる情報の種別を選択する
     請求項1に記載の運転支援装置。
  10.  前記制御部は、前記領域に関する情報の提示をさらに制御する
     請求項1に記載の運転支援装置。
  11.  自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う
     ステップを含む運転支援方法。
  12.  自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う
     ステップを含む処理をコンピュータに実行させるプログラム。
  13.  自車両の乗員数に応じた領域に存在する周辺車両に関する周辺車両情報に基づいて、前記自車両の運転支援処理を行う制御部を備える
     移動体。
PCT/JP2017/028672 2016-08-22 2017-08-08 運転支援装置および方法、移動体、並びにプログラム WO2018037900A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US16/325,521 US11167752B2 (en) 2016-08-22 2017-08-08 Driving assistant apparatus, driving assistant method, moving object, and program
JP2018535584A JP6922919B2 (ja) 2016-08-22 2017-08-08 運転支援装置および方法、移動体、並びにプログラム
MX2019001893A MX2019001893A (es) 2016-08-22 2017-08-08 Aparato de asistente de conduccion, metodo de asistente de conduccion, objeto en movimiento, y programa.
CA3033738A CA3033738A1 (en) 2016-08-22 2017-08-08 Driving assistant apparatus, driving assistant method, moving object, and program
EP17843385.0A EP3501929A4 (en) 2016-08-22 2017-08-08 DRIVING ASSISTANCE DEVICE, METHOD, MOBILE BODY, AND PROGRAM
CN201780049991.4A CN109562757B (zh) 2016-08-22 2017-08-08 驾驶辅助装置、驾驶辅助方法、移动体和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016162056 2016-08-22
JP2016-162056 2016-08-22

Publications (1)

Publication Number Publication Date
WO2018037900A1 true WO2018037900A1 (ja) 2018-03-01

Family

ID=61245657

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/028672 WO2018037900A1 (ja) 2016-08-22 2017-08-08 運転支援装置および方法、移動体、並びにプログラム

Country Status (7)

Country Link
US (1) US11167752B2 (ja)
EP (1) EP3501929A4 (ja)
JP (1) JP6922919B2 (ja)
CN (1) CN109562757B (ja)
CA (1) CA3033738A1 (ja)
MX (1) MX2019001893A (ja)
WO (1) WO2018037900A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3598259A1 (en) * 2018-07-19 2020-01-22 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11423783B2 (en) * 2016-08-30 2022-08-23 Hyundai Motor Company Apparatus and method for implementing LCDAS
KR101976425B1 (ko) * 2016-09-22 2019-05-09 엘지전자 주식회사 차량 운전 보조 장치
US10748426B2 (en) * 2017-10-18 2020-08-18 Toyota Research Institute, Inc. Systems and methods for detection and presentation of occluded objects
US11091162B2 (en) * 2018-01-30 2021-08-17 Toyota Motor Engineering & Manufacturing North America, Inc. Fusion of front vehicle sensor data for detection and ranging of preceding objects
EP3699812A1 (en) * 2019-02-21 2020-08-26 Volvo Car Corporation Method and system supporting obtaining of body parameters of a person outside a vehicle
US11225194B2 (en) * 2019-05-16 2022-01-18 Stoneridge Electronics Ab Camera mirror system vehicle integration

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325987A (ja) * 1994-06-01 1995-12-12 Fujitsu Ten Ltd 車間距離警報装置
JPH11339192A (ja) * 1998-05-25 1999-12-10 Hitachi Ltd 車両用表示装置
WO2012102391A1 (ja) * 2011-01-27 2012-08-02 京セラ株式会社 車両の走行支援装置
JP2014078155A (ja) * 2012-10-11 2014-05-01 Mitsubishi Motors Corp 車両用警報装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10243516A1 (de) * 2002-09-19 2004-04-01 Robert Bosch Gmbh Vorrichtung zur Bestimmung einer Gesamtmasse eines Fahrzeugs
US7668633B2 (en) * 2003-03-26 2010-02-23 Continental Tevas Ag & Co. Ohg Electronic control system for a vehicle and method for determining at least one driver-independent intervention in a vehicle system
JP4501521B2 (ja) 2004-04-27 2010-07-14 トヨタ自動車株式会社 車両用衝突衝撃制御装置
JP4548279B2 (ja) 2005-08-30 2010-09-22 マツダ株式会社 自動車の追従走行装置
DE102007048810A1 (de) * 2007-10-10 2009-04-16 Continental Teves Ag & Co. Ohg Verfahren zur Umfelderfassung eines Fahrzeugs
JP2009166616A (ja) 2008-01-15 2009-07-30 Toyota Motor Corp 二輪車走行支援装置
JP5233816B2 (ja) * 2009-04-22 2013-07-10 アイシン・エィ・ダブリュ株式会社 運転支援装置、運転支援方法及び運転支援プログラム
DE102009057978A1 (de) 2009-12-11 2011-06-16 Continental Safety Engineering International Gmbh Vorrichtung und Verfahren zur Prädiktion der Position und/oder Bewegung eines Verkehrsteilnehmers relativ zu einem Fahrzeug, Vorrichtung zur Prädiktion einer bevorstehenden Kollision eines Verkehrsteilnehmers mit einem Fahrzeug
JP5953655B2 (ja) * 2011-05-02 2016-07-20 マツダ株式会社 車両用運転支援装置
WO2013023032A1 (en) 2011-08-11 2013-02-14 Ford Global Technologies, Llc System and method for establishing acoustic metrics to detect driver impairment
DE102011088134B4 (de) * 2011-12-09 2014-08-21 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung eines Abstandes zwischen einem Fahrzeug und einem Objekt
US20130278441A1 (en) 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
JP5888087B2 (ja) * 2012-04-25 2016-03-16 ソニー株式会社 走行支援画像生成装置、走行支援画像生成方法、車載用カメラおよび機器操縦支援画像生成装置
DE102012008659A1 (de) 2012-05-03 2012-11-29 Daimler Ag Verhahren zur Situationsanalyse von Einscher,-Ausscher-, Einfädel- und/oder Ausfädelvorgängen von Fahrzeugen
DE102012214979A1 (de) * 2012-08-23 2014-02-27 Robert Bosch Gmbh Spurwahlassistent zur Optimierung des Verkehrsflusses (Verkehrsflussassistent)
WO2014109016A1 (ja) * 2013-01-09 2014-07-17 三菱電機株式会社 車両周辺表示装置
US10347127B2 (en) 2013-02-21 2019-07-09 Waymo Llc Driving mode adjustment
US20140257868A1 (en) 2013-03-10 2014-09-11 State Farm Mutual Automobile Insurance Company Systems and methods for processing vehicle insurance based on acuity testing performance
US9702349B2 (en) * 2013-03-15 2017-07-11 ClearMotion, Inc. Active vehicle suspension system
GB2529340A (en) * 2013-06-06 2016-02-17 Honda Motor Co Ltd Contact avoidance assist device
DE102013010233B4 (de) * 2013-06-18 2018-08-30 Volkswagen Aktiengesellschaft Verfahren zum Anzeigen von Umgebungsinformationen in einem Fahrzeug und Anzeigesystem für ein Fahrzeug
DE102013018543A1 (de) * 2013-11-05 2015-05-07 Mekra Lang Gmbh & Co. Kg Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge
DE202013010566U1 (de) * 2013-11-22 2015-02-24 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrerassistenzsystem für ein Kraftfahrzeug
US9108582B1 (en) * 2014-02-25 2015-08-18 International Business Machines Corporation System and method for collaborative vehicle crash planning and sequence deployment
US20150294430A1 (en) * 2014-04-15 2015-10-15 Tomorrow's Transportation Today Dynamic dispatching and schedule management methods for an intelligent transit system with electronic guided buses
US9304515B2 (en) * 2014-04-24 2016-04-05 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Regional operation modes for autonomous vehicles
JP6510769B2 (ja) 2014-05-29 2019-05-08 株式会社小糸製作所 車々間通信システム
JP6198010B2 (ja) 2014-11-10 2017-09-20 マツダ株式会社 車両加減速制御装置
US9612123B1 (en) * 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
CN105679069B (zh) * 2016-03-23 2018-02-16 傅春 一种控制车辆行驶的智能公路交通***及方法
JP7047763B2 (ja) 2016-08-22 2022-04-05 ソニーグループ株式会社 運転支援装置および方法、移動体、並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325987A (ja) * 1994-06-01 1995-12-12 Fujitsu Ten Ltd 車間距離警報装置
JPH11339192A (ja) * 1998-05-25 1999-12-10 Hitachi Ltd 車両用表示装置
WO2012102391A1 (ja) * 2011-01-27 2012-08-02 京セラ株式会社 車両の走行支援装置
JP2014078155A (ja) * 2012-10-11 2014-05-01 Mitsubishi Motors Corp 車両用警報装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3598259A1 (en) * 2018-07-19 2020-01-22 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system
CN110738843A (zh) * 2018-07-19 2020-01-31 松下知识产权经营株式会社 信息处理方法以及信息处理装置
US11145145B2 (en) 2018-07-19 2021-10-12 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system
US11450153B2 (en) 2018-07-19 2022-09-20 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system

Also Published As

Publication number Publication date
JP6922919B2 (ja) 2021-08-18
CA3033738A1 (en) 2018-03-01
EP3501929A4 (en) 2019-07-24
US11167752B2 (en) 2021-11-09
CN109562757B (zh) 2022-07-12
US20190193728A1 (en) 2019-06-27
CN109562757A (zh) 2019-04-02
MX2019001893A (es) 2019-07-01
EP3501929A1 (en) 2019-06-26
JPWO2018037900A1 (ja) 2019-06-20

Similar Documents

Publication Publication Date Title
CN109564734B (zh) 驾驶辅助装置、驾驶辅助方法、移动体和程序
US11142192B2 (en) Imaging device, signal processing device, and vehicle control system
JP6922919B2 (ja) 運転支援装置および方法、移動体、並びにプログラム
JP6773046B2 (ja) 運転支援装置及び運転支援方法、並びに移動体
WO2018056103A1 (ja) 車両制御装置、車両制御方法、および移動体
CN109715467B (zh) 车辆控制装置、车辆控制方法以及可移动体
JP2006227811A (ja) 運転支援装置
US11148682B2 (en) Steering assistance systems and methods
CN112997229A (zh) 信息处理装置、信息处理方法和程序
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
US11151871B2 (en) Autonomous driving vehicle information presentation apparatus
CN112534487A (zh) 信息处理设备、移动体、信息处理方法和程序
US11443520B2 (en) Image processing apparatus, image processing method, and image processing system
US20210170942A1 (en) Autonomous driving vehicle information presentation apparatus
US20210197863A1 (en) Vehicle control device, method, and program
US20240054897A1 (en) Information processing device, information processing method, program, mobile device, and information processing system
US20230132456A1 (en) Image processing device, mobile object, image processing method, and storage medium
WO2023166982A1 (ja) 情報処理装置、情報処理方法、及び、移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17843385

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018535584

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3033738

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017843385

Country of ref document: EP