WO2018061613A1 - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
WO2018061613A1
WO2018061613A1 PCT/JP2017/031554 JP2017031554W WO2018061613A1 WO 2018061613 A1 WO2018061613 A1 WO 2018061613A1 JP 2017031554 W JP2017031554 W JP 2017031554W WO 2018061613 A1 WO2018061613 A1 WO 2018061613A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
objects
vehicle control
control device
integrated
Prior art date
Application number
PCT/JP2017/031554
Other languages
English (en)
French (fr)
Inventor
小黒宏史
加藤大智
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2018542030A priority Critical patent/JP6780006B2/ja
Priority to US16/337,622 priority patent/US11027728B2/en
Priority to CN201780060844.7A priority patent/CN109844840B/zh
Publication of WO2018061613A1 publication Critical patent/WO2018061613A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0017Planning or execution of driving tasks specially adapted for safety of other traffic participants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to a vehicle control device that recognizes an object in an external state of a vehicle and controls the behavior of the vehicle based on the recognition result.
  • a vehicle control device that recognizes an object in an external state of the vehicle and controls the behavior of the vehicle based on the recognition result is known.
  • various techniques for effectively treating a plurality of simultaneously recognized objects have been proposed.
  • TTC Time To Collision
  • the present invention has been made to solve the above-described problem, and provides a vehicle control device capable of performing fine interference prediction while utilizing the convenience of grouping objects. Objective.
  • the vehicle control device includes an external state detection unit that detects an external state of a vehicle, an object recognition unit that recognizes one or more objects based on a detection result by the external state detection unit, and the object recognition One or a plurality of the objects recognized by the unit is an apparatus including a coherence prediction unit that predicts the possibility of contacting or approaching the vehicle, and the plurality of the objects recognized by the object recognition unit
  • the coherence predicting unit further includes an integrated object forming unit that forms an integrated object as an integrated object in which a boundary line is determined from a positional relationship between two or more objects within a predetermined distance range among the objects. Predicts the possibility that the integrated object formed by the integrated object forming unit will contact or approach the vehicle instead of each of the objects constituting the integrated object.
  • the integrated object forming unit may set the predetermined distance range according to the shape of the vehicle to form the integrated object. Based on the tendency that the determination result of whether or not the vehicle can pass through the gap between the objects differs depending on the shape of the vehicle, it is possible to make a fine prediction.
  • the integrated object forming unit defines a plurality of circular regions having the same radius and centering on the position of each of the objects, and the integration by two or more objects having overlapping portions of the circular regions.
  • An object may be formed. Thereby, it is possible to group objects using a simple calculation method.
  • the integrated object forming unit may include all of two or more objects within the predetermined distance range and form the integrated object having a polygonal shape. Since the boundary line of the polygon is an aggregate of a plurality of linear components, the amount of calculation required for determining the coherence is reduced.
  • the integrated object forming unit extracts representative objects from the two or more objects constituting the integrated object at predetermined angular intervals with respect to an angular direction centered on the position of the vehicle, At least two vertices forming the polygon may be determined from the position of the representative object. Thereby, the vertex of a polygon can be arrange
  • the integrated object forming unit may set the predetermined angular interval according to the detection performance of the external state detection unit and determine at least two vertices forming the polygon. Based on the tendency that the detection resolution in the angular direction in which objects can be distinguished differ depending on the detection performance of the external state detection unit, the vertexes of the polygons can be arranged at appropriate positions.
  • the integrated object forming unit extracts, as a representative object, an object at a position relatively close to the vehicle from two or more objects constituting the integrated object, and the polygon is calculated from the position of the representative object. May be determined. Thereby, the presence of an object with a high degree of attention from the viewpoint of the positional relationship with the vehicle can be reflected in the shape of the boundary line of the polygon.
  • the integrated object forming unit may determine a point on the circle centered on the position of the representative object and closest to the position of the vehicle as the vertex of the polygon. As a result, a boundary line that can cover the entire distance range (front side of the vehicle) with two or more objects is provided, and the distance between the representative object and the boundary line is always greater than or equal to a predetermined value (circle radius). Can keep.
  • the integrated object forming unit is configured so that each of the points on a circle centered on the position of the representative object corresponding to the extreme end side in the angular direction and corresponding to the maximum angle or the minimum angle is the polygon. It may be determined as the vertex of.
  • a boundary line that can cover all angle ranges with two or more objects is provided, and the distance between the representative object and the boundary line can be always kept at a predetermined value (circle radius) or more.
  • the integrated object forming unit interpolates between adjacent vertices in an arc shape when a plurality of vertices of the polygon exist on a circle centered on the position of the representative object corresponding to the extreme end side in the angular direction.
  • One or more interpolation points obtained in this way may be determined as the vertices of the polygon.
  • the integrated object forming unit may determine at least one point on the back side of the positions of all the objects constituting the integrated object as a vertex of the polygon. Thereby, the boundary line which can cover all the distance ranges (the back side for vehicles) with two or more objects is provided.
  • the integrated object forming unit is on a straight line connecting two points of the position of the representative object corresponding to the extreme end side in the angular direction and the position of the vehicle, and is a predetermined length from the position of the representative object.
  • One point on the far side may be determined as the vertex of the polygon.
  • a boundary line here, the rear side for the vehicle that can cover all the angular ranges where there are two or more objects is provided.
  • the integrated object forming unit shortens the predetermined length when one point which is a predetermined length away from the position of the representative object exists on the lane on which the vehicle is to travel.
  • another point that does not exist on the lane may be determined as the vertex of the polygon.
  • the coherence predicting unit may predict a possibility of contacting or approaching the vehicle from a positional relationship between a portion of the boundary line of the integrated object facing the vehicle and the vehicle. .
  • the calculation time is shortened, and the determination can be made earlier by that much.
  • a vehicle control unit that controls the behavior of the vehicle according to a prediction result by the coherence prediction unit may be further provided.
  • the vehicle control device of the present invention it is possible to make a detailed prediction of coherence while taking advantage of the convenience of grouping objects.
  • FIG. 3 is a flowchart for explaining the operation of the functional block diagram shown in FIG. 2.
  • FIG. It is a figure which shows the result obtained by the detection process of step S1. It is a figure which shows the result obtained by the recognition process of step S2.
  • FIG. 6A is a diagram for explaining a method for determining overlap between objects.
  • FIG. 6B is a diagram for explaining a method of setting the radius of the circular region shown in FIG. 6A. It is a figure which shows the result of having classified a some object into two integrated groups.
  • FIG. 10A is a diagram illustrating a method of determining vertices on the near side and the side.
  • FIG. 10B is a diagram for explaining a method of setting the radius of the circle shown in FIG. 10A. It is a figure which shows the result of having determined a part of boundary line of a polygon. It is a figure which shows the result of having determined all the boundary lines of a polygon. It is a schematic diagram which shows the determination method of a short-term orbit. It is a figure which shows the 1st improvement example regarding the determination method of the vertex in the back
  • FIG. 15A and FIG. 15B are diagrams showing a second improved example regarding a method for determining a vertex on the near side.
  • FIG. 1 is a block diagram showing a configuration of a vehicle control device 10 according to an embodiment of the present invention.
  • the vehicle control device 10 is incorporated in the vehicle 100 (FIG. 4 and the like), and is configured to be able to execute automatic driving or automatic driving support of the vehicle 100.
  • the vehicle control device 10 includes a control system 12, an input device, and an output device. Each of the input device and the output device is connected to the control system 12 via a communication line.
  • the input device includes an external sensor 14, a navigation device 16, a vehicle sensor 18, a communication device 20, an automatic operation switch 22, and an operation detection sensor 26 connected to the operation device 24.
  • the output device includes a driving force device 28 that drives a wheel (not shown), a steering device 30 that steers the wheel, and a braking device 32 that brakes the wheel.
  • the external sensor 14 includes a plurality of cameras 33 and a plurality of radars 34 that acquire information (hereinafter referred to as external information) indicating an external state of the vehicle 100, and outputs the acquired external information to the control system 12.
  • the external sensor 14 may further include a plurality of LIDAR (Light Detection and Ranging; Laser Imaging Detection and Ranging) devices.
  • the navigation device 16 includes a satellite positioning device that can detect the current position of the vehicle 100 and a user interface (for example, a touch panel display, a speaker, and a microphone). The navigation device 16 calculates a route to the designated destination based on the current position of the vehicle 100 or a position designated by the user, and outputs the route to the control system 12. The route calculated by the navigation device 16 is stored in the route information storage unit 44 of the storage device 40 as route information.
  • the vehicle sensor 18 is a speed sensor that detects the speed (vehicle speed) of the vehicle 100, an acceleration sensor that detects acceleration, a lateral G sensor that detects lateral G, a yaw rate sensor that detects angular velocity around the vertical axis, and a direction / orientation.
  • a azimuth sensor that detects the gradient and a gradient sensor that detects the gradient, and outputs a detection signal from each sensor to the control system 12.
  • These detection signals are stored in the host vehicle state information storage unit 46 of the storage device 40 as host vehicle state information Ivh.
  • the communication device 20 is configured to be able to communicate with roadside units, other vehicles, and external devices including a server, and for example, transmits / receives information related to traffic equipment, information related to other vehicles, probe information, or latest map information. .
  • the map information is stored in the navigation device 16 and also stored in the map information storage unit 42 of the storage device 40 as map information.
  • the operation device 24 includes an accelerator pedal, a steering wheel (handle), a brake pedal, a shift lever, and a direction indication lever.
  • the operation device 24 is provided with an operation detection sensor 26 that detects the presence / absence of the operation by the driver, the operation amount, and the operation position.
  • the operation detection sensor 26 outputs, as detection results, the accelerator depression amount (accelerator opening), the steering operation amount (steering amount), the brake depression amount, the shift position, the right / left turn direction, and the like to the vehicle control unit 60.
  • the automatic operation switch 22 is a push button switch provided on the instrument panel, for example, for a user including a driver to switch between the non-automatic operation mode (manual operation mode) and the automatic operation mode by manual operation.
  • each time the automatic operation switch 22 is pressed the automatic operation mode and the non-automatic operation mode are switched.
  • the driver's automatic driving intention confirmation for example, press twice to switch from non-automatic driving mode to automatic driving mode, and press once to switch from automatic driving mode to non-automatic driving mode. Can also be set.
  • the automatic operation mode is an operation mode in which the vehicle 100 travels under the control of the control system 12 while the driver does not operate the operation device 24 (specifically, the accelerator pedal, the steering wheel, and the brake pedal). .
  • the control system 12 determines the driving force device 28, the steering device 30, and the braking device 32 based on an action plan that is sequentially determined (short-term trajectory St described later). This is an operation mode in which part or all of the operation is controlled.
  • the automatic operation mode is automatically canceled and switched to the non-automatic operation mode (manual operation mode).
  • the driving force device 28 includes a driving force ECU (Electronic Control Unit) and a driving source including an engine and a driving motor.
  • the driving force device 28 generates a traveling driving force (torque) for the vehicle 100 to travel in accordance with the vehicle control value Cvh input from the vehicle control unit 60, and transmits the traveling driving force (torque) to the wheels via the transmission or directly.
  • the steering device 30 includes an EPS (electric power steering system) ECU and an EPS device.
  • the steering device 30 changes the direction of the wheels (steering wheels) according to the vehicle control value Cvh input from the vehicle control unit 60.
  • the braking device 32 is, for example, an electric servo brake that also uses a hydraulic brake, and includes a brake ECU and a brake actuator.
  • the braking device 32 brakes the wheel according to the vehicle control value Cvh input from the vehicle control unit 60.
  • the control system 12 includes one or more ECUs, and includes a storage device 40 and the like in addition to various function implementation units.
  • the function realization unit is a software function unit in which a function is realized by executing a program stored in the storage device 40 by a CPU (central processing unit). It can also be realized by a hardware function unit.
  • the control system 12 includes an external environment recognition unit 52, a recognition result reception unit 53, a local environment map generation unit 54, an overall control unit 70, a long-term trajectory generation unit 71, A medium-term trajectory generator 72 and a short-term trajectory generator 73 are included.
  • the overall control unit 70 controls the task synchronization of the recognition result receiving unit 53, the local environment map generating unit 54, the long-term trajectory generating unit 71, the medium-term trajectory generating unit 72, and the short-term trajectory generating unit 73. Performs overall control.
  • the outside world recognition unit 52 refers to the vehicle state information Ivh from the vehicle control unit 60, and based on outside world information (including image information) from the outside world sensor 14, lane marks (white lines) on both sides of the vehicle 100 are displayed. In addition to recognition, “static” external recognition information including the distance to the stop line and the travelable area is generated. At the same time, the external recognition unit 52, based on external information from the external sensor 14, includes obstacles (including parked vehicles), traffic participants (people, other vehicles), and traffic lights ⁇ blue (green ), Yellow (orange), red ⁇ , etc., are generated.
  • the static and dynamic external recognition information is stored in the external recognition information storage unit 45 of the storage device 40 as external recognition information Ipr.
  • the recognition result receiving unit 53 In response to the calculation command Aa, the recognition result receiving unit 53 outputs the external environment recognition information Ipr received within the predetermined calculation cycle Toc (reference cycle or reference calculation cycle) to the overall control unit 70 together with the count value of the update counter.
  • the calculation cycle Toc is a reference calculation cycle inside the control system 12, and is set to a value of about several tens of ms, for example.
  • the local environment map generation unit 54 In response to the calculation command Ab from the overall control unit 70, the local environment map generation unit 54 refers to the vehicle state information Ivh and the external environment recognition information Ipr, and generates the local environment map information Iem within the calculation cycle Toc. And the count value of the update counter are output to the overall control unit 70. That is, at the start of control, a calculation cycle of 2 ⁇ Toc is required until the local environment map information Iem is generated.
  • the local environment map information Iem is information obtained by synthesizing the vehicle state information Ivh with the external world recognition information Ipr.
  • the local environment map information Iem is stored in the local environment map information storage unit 47 of the storage device 40.
  • the long-term trajectory generation unit 71 uses local environment map information Iem (uses only static components of the external environment recognition information Ipr), own vehicle state information Ivh, and map information.
  • a long-term trajectory Lt is generated with a relatively long calculation cycle (for example, 9 ⁇ Toc) with reference to a road map (curvature curvature or the like) stored in the storage unit 42. Then, the long-term trajectory generation unit 71 outputs the generated long-term trajectory Lt to the overall control unit 70 together with the count value of the update counter.
  • the long-term trajectory Lt is stored in the trajectory information storage unit 48 of the storage device 40 as trajectory information.
  • the medium-term trajectory generation unit 72 uses the local environment map information Iem (using both the dynamic component and the static component in the external environment recognition information Ipr), With reference to the vehicle state information Ivh and the long-term track Lt, the medium-term track Mt is generated with a relatively middle calculation cycle (for example, 3 ⁇ Toc). Then, the medium-term trajectory generation unit 72 outputs the generated medium-term trajectory Mt to the overall control unit 70 together with the count value of the update counter.
  • the medium-term trajectory Mt is stored in the trajectory information storage unit 48 as trajectory information, similarly to the long-term trajectory Lt.
  • the short-term trajectory generation unit 73 uses the local environment map information Iem (using both the dynamic component and the static component in the external environment recognition information Ipr),
  • the short-term track St is generated with a relatively short calculation cycle (for example, Toc) with reference to the vehicle state information Ivh and the medium-term track Mt.
  • the short-term trajectory generation unit 73 outputs the generated short-term trajectory St together with the count value of the update counter to the overall control unit 70 and the vehicle control unit 60 at the same time.
  • the short-term trajectory St is stored in the trajectory information storage unit 48 as trajectory information, similarly to the long-term trajectory Lt and the medium-term trajectory Mt.
  • the long-term track Lt indicates a track in a traveling time of about 10 seconds, for example, and is a track that prioritizes ride comfort and comfort.
  • the short-term track St indicates a track in a traveling time of, for example, about 1 second, and is a track that prioritizes vehicle dynamics and ensuring safety.
  • the medium-term trajectory Mt indicates a trajectory in a traveling time of about 5 seconds, for example, and is an intermediate trajectory for the long-term trajectory Lt and the short-term trajectory St.
  • the short-term trajectory St includes, for example, a vertical (X-axis) position x, a horizontal (Y-axis) position y, a posture angle ⁇ z, a velocity Vs, an acceleration Va, a curvature ⁇ , a yaw rate ⁇ , and a steering angle ⁇ st as data units.
  • the long-term trajectory Lt or the medium-term trajectory Mt is a data set defined in the same manner as the short-term trajectory St, although the periods are different.
  • the vehicle control unit 60 determines the vehicle control value Cvh that allows the vehicle 100 to travel according to the behavior specified by the short-term track St (track point sequence), and uses the obtained vehicle control value Cvh as the driving force device 28 and the steering. Output to the device 30 and the braking device 32.
  • FIG. 2 is a functional block diagram showing main features of the vehicle control device 10 of FIG.
  • the vehicle control device 10 includes an external state detection unit 80, an object recognition unit 82, an integrated object formation unit 84, an information synthesis unit 86, an coherence prediction unit 88, a trajectory generation unit 90, and a vehicle control unit 60. .
  • the outside world state detection unit 80 corresponds to the outside world sensor 14 shown in FIG. 1 and detects the outside world state of the vehicle 100.
  • the object recognition unit 82 corresponds to the external world recognition unit 52 shown in FIG. 1, and recognizes one or more objects by applying a known recognition method to the detection result by the external world state detection unit 80.
  • the integrated object formation unit 84 and the information synthesis unit 86 correspond to the local environment map generation unit 54 shown in FIG.
  • the integrated object forming unit 84 integrates specific objects among a plurality of objects by using the external environment recognition information Ipr including the recognition result by the object recognition unit 82 and the own vehicle state information Ivh regarding the vehicle 100.
  • the information synthesis unit 86 synthesizes external environment recognition information Ipr including information related to an object outside the vehicle 100 (hereinafter referred to as object information) or information related to a lane (hereinafter referred to as lane information) to create local environment map information Iem.
  • the coherence prediction unit 88 and the trajectory generation unit 90 correspond to the short-term trajectory generation unit 73 (or medium-term trajectory generation unit 72) shown in FIG.
  • the coherence predicting unit 88 uses the local environment map information Iem and the own vehicle state information Ivh, and may cause one or more objects to contact or approach the vehicle 100 (hereinafter also referred to as “interference possibility”). ).
  • the trajectory generation unit 90 generates a travel trajectory used for behavior control of the vehicle 100 in consideration of the prediction result by the coherence prediction unit 88.
  • the vehicle control device 10 in this embodiment is configured as described above. Next, the operation of the vehicle control device 10 (in particular, the functional block diagram shown in FIG. 2) will be described with reference to the flowchart of FIG.
  • step S1 of FIG. 3 the external state detection unit 80 (specifically, the camera 33 or the radar 34) detects the external state of the vehicle 100.
  • the detection result by the external state detection unit 80 will be described with reference to FIG.
  • a plurality of pylons 104 are arranged around the vehicle 100 traveling on the lane 102.
  • a region surrounded by a two-dot chain line has a substantially fan shape centered on the detection reference position 106 on the vehicle 100 and corresponds to a region where an object outside the vehicle 100 can be detected (hereinafter referred to as a detectable region 108).
  • the external world state detection unit 80 detects 13 pylons 104 in the detectable region 108.
  • step S2 of FIG. 3 the object recognition unit 82 recognizes one or more objects (here, 13 pylons 104) by applying a known recognition method to the detection result in step S1. To do.
  • the recognition result by the object recognition unit 82 will be described with reference to FIG.
  • the virtual space 110 shown in FIG. 5 is a planar space defined by a local coordinate system based on the position / posture of the vehicle 100, for example.
  • 13 pylons 104 (FIG. 4) are recognized as the object set 112.
  • An arc indicated by a two-dot chain line corresponds to an equidistant line from the detection reference position 106. That is, all the 13 pylons 104 are arranged at approximately the same distance from the vehicle 100.
  • the shape of each object may be represented by simple symbols (for example, “ ⁇ ” and “ ⁇ ”).
  • the integrated object forming unit 84 integrates specific objects from the object set 112 (one or more objects) recognized in step S2, and integrates objects U1 and U2 as an integrated object.
  • the integrated object forming unit 84 includes all of two or more objects within a predetermined distance range, and forms integrated objects U1 and U2 having a polygonal shape.
  • a method for forming the integrated objects U1, U2 will be described in detail with reference to FIGS. 6A-12.
  • the integrated object forming unit 84 sets a predetermined distance range according to the shape of the vehicle 100. Specifically, the integrated object forming unit 84 defines a plurality of circular regions 114 having the same radius R1 and centering on each position, and groups two or more objects having overlapping portions 115 and 116 together. Turn into.
  • three circular regions 114 having a radius R1 are defined with the positions of the objects D1, D2, and D3 as the center.
  • the two circular regions 114 and 114 have overlapping portions 115 (hatched regions) that partially overlap each other.
  • the two circular regions 114 and 114 have an overlapping portion 116 (a hatched region) that partially overlaps.
  • the radius R1 is a value obtained by adding a certain margin value M1 to the vehicle width 2 ⁇ W of the vehicle 100. That is, it is considered that the vehicle 100 can pass through the gap when the distance between the objects is larger than R1, while the vehicle 100 cannot pass through the gap when the distance between the objects is equal to or less than R1.
  • the radius R1 is not limited to the vehicle width, and may be arbitrarily set according to the shape of the vehicle 100 including the vehicle length or a combination thereof.
  • the 13 objects forming the object set 112 are configured by the integrated group 118 configured by 9 positioned in front of the vehicle 100 and by 4 positioned diagonally forward to the right of the vehicle 100. It is classified into an integrated group 120.
  • nine objects belonging to the integrated group 118 are referred to as “object D1-D9”, and four objects belonging to the integrated group 120 are referred to as “object E1-E4”.
  • the integrated object forming unit 84 defines a plurality of circular regions 114 having the same radius R1 and centering on the positions of the respective objects D1-D9, E1-E4, and overlapping portions 115 of the circular regions 114. , 116 may be used to form integrated objects U1 and U2. Thereby, it is possible to group objects using a simple calculation method.
  • the integrated object forming unit 84 may set a predetermined distance range (radius R1 of the circular region 114) according to the shape of the vehicle 100 to form the integrated objects U1 and U2. Based on the tendency that the determination result of whether or not the vehicle 100 can pass through the gap between the objects differs depending on the shape of the vehicle 100, it is possible to make a detailed prediction.
  • the integrated object forming unit 84 selects an angle direction centered on the detection reference position 106 from the two or more objects D1-D9, E1-E4 constituting each integrated group 118, 120.
  • representative objects are extracted at predetermined angular intervals.
  • the “representative object” is a representative object for determining the vertexes Vd1-Vd7, Ve1-Ve7 (FIG. 12) of the polygon, and the position of the representative object characterizes the shape of the polygon.
  • an angular direction ( ⁇ ) with respect to the vehicle body center line of the vehicle 100 is defined.
  • the clockwise direction (right turning direction) is set as the “positive direction”
  • the counterclockwise direction (left turning direction) is set as the “negative direction”.
  • the representative object is represented by “ ⁇ ” in order to clearly distinguish it from the other object “ ⁇ ”.
  • the object D1 at the minimum angle (negative direction), the object D9 at the maximum angle (positive direction), and the object D5 at the intermediate position between the objects D1 and D9 are representative. Each is extracted as an object. Similarly, out of the objects E1-E4 belonging to the integrated group 120, the object E1 at the minimum angle (negative direction) and the object E4 at the maximum angle (positive direction) are extracted as representative objects.
  • the angular distance between adjacent representative objects are as follows.
  • the value is equal to ⁇ (for example, 10 [deg]) or a value close to ⁇ .
  • corresponds to the detection resolution in the angular direction that allows the external state detection unit 80 to identify objects.
  • the integrated object forming unit 84 has an angle around the position of the vehicle 100 (detection reference position 106) among the two or more objects D1-D9, E1-E4 constituting the integrated objects U1, U2.
  • the representative objects D1, D5, D9, E1, and E4 may be extracted at predetermined angular intervals ⁇ with respect to the direction ( ⁇ ), and at least two vertices forming a polygon may be determined from the positions of the representative objects.
  • the vertexes of the polygon can be arranged at positions at a predetermined angular interval ⁇ .
  • the integrated object forming unit 84 may set a predetermined angle interval ⁇ according to the detection performance of the external state detection unit 80 and determine at least two vertices forming a polygon. Based on the tendency that the detection resolution in the angular direction in which the objects can be distinguished differ depending on the detection performance of the external state detection unit 80, the vertexes of the polygon can be arranged at appropriate positions.
  • the integrated object forming unit 84 additionally extracts representative objects from the remaining objects (D2-D4, D6-D8, E2, E3) as necessary.
  • the object E3 is located closest to the vehicle 100 among the objects E1-E4 belonging to the integrated group 120.
  • the object E3 that has not been extracted is newly added as a representative object.
  • the integrated object forming unit 84 selects the object E3 that is relatively close to the vehicle 100 from the two or more objects D1-D9, E1-E4 constituting the integrated objects U1, U2. And at least one vertex forming a polygon may be determined from the position of the representative object. As a result, the presence of an object with a high degree of attention from the viewpoint of the positional relationship with the vehicle 100 can be reflected in the shape of the boundary lines 136 and 138 of the polygon.
  • the integrated object forming unit 84 selects one of polygon boundary lines 136 and 138 (FIG. 12) based on the positions of the extracted representative objects (three integrated groups 118 and three integrated groups 120). Determine the part.
  • the line segment 124 is a straight line having the detection reference position 106 as one end and the representative object D1 as the other end.
  • the line segment 126 is a straight line having the detection reference position 106 as one end and the representative object D5 as the other end.
  • a line segment 128 is a straight line (so-called tangent line) that passes through the detection reference position 106 and touches the circle 122 corresponding to the representative object D1.
  • the radius R2 is a value obtained by adding a certain margin value M2 to the vehicle width half W of the vehicle 100. That is, when the vehicle body center line is used as a reference, it is considered that the width is the minimum necessary for the vehicle width direction end portion (here, the right end portion) of the vehicle 100 not to contact the representative object D1.
  • the radius R2 is not limited to the vehicle width, and may be arbitrarily set according to the shape of the vehicle 100 including the vehicle length or a combination thereof.
  • the vertex Vd1 is a point on a circle 122 centered on the position of the representative object D1 corresponding to the extreme end side (negative direction) in the angular direction and at a position corresponding to the minimum angle.
  • the vertex Vd2 is a point on the circle 122 centered on the position of the representative object D1 and closest to the position of the vehicle 100 (here, the detection reference position 106).
  • the vertex Vd3 is a point closest to the detection reference position 106 on the circle 122 centered on the position of the representative object D5.
  • the vertex Vd4 is a point closest to the detection reference position 106 on the circle 122 centered on the position of the representative object D9.
  • the vertex Vd5 is a point on the circle 122 centered on the position of the representative object D9 corresponding to the extreme end side (positive direction) in the angular direction and at a position corresponding to the maximum angle.
  • the vertex Ve1 is a point on the circle 122 centering on the position of the representative object E1 corresponding to the extreme end side (negative direction) in the angular direction and at a position corresponding to the minimum angle.
  • the vertex Ve2 is a point that is closest to the detection reference position 106 on the circle 122 centered on the position of the representative object E1.
  • the vertex Ve3 is a point on the circle 122 centered on the position of the representative object E3 and closest to the detection reference position 106.
  • the vertex Ve4 is a point on the circle 122 centered on the position of the representative object E4 and closest to the detection reference position 106.
  • the vertex Ve5 is a point on the circle 122 centering on the position of the representative object E4 corresponding to the extreme end side (positive direction) in the angular direction and at a position corresponding to the maximum angle.
  • the integrated object forming unit 84 sets the points closest to the position of the vehicle 100 on the circle 122 having the same radius R2 centered on the position of the representative object as the vertexes Vd2-Vd4 and Ve2-Ve4 of the polygon. You may decide. Accordingly, boundary lines 136 and 138 that can cover all the distance ranges where two or more objects are present (front side with respect to the vehicle 100) are provided, and the distance between the representative object and the boundary lines 136 and 138 is always set to a predetermined value. It can be kept above (radius R2 of the circle 122).
  • the integrated object forming unit 84 is on a circle having the same radius R2 centered on the position of the representative object corresponding to the extreme end side in the angular direction, one point at a position corresponding to the maximum angle or the minimum angle. May be determined as polygon vertices Vd1, Vd5, Ve1, Ve5. Accordingly, boundary lines 136 and 138 that can cover all angle ranges with two or more objects are provided, and the distance between the representative object and the boundary lines 136 and 138 is always a predetermined value (radius R2 of the circle 122). It can be kept above.
  • the integrated object forming unit 84 determines the remaining polygon boundary lines 136 and 138 (FIG. 12) based on the positions of the extracted representative objects (three integrated groups 118 and three integrated groups 120). Determine the part.
  • the vertex Vd6 is on a straight line 131 connecting the two points of the position of the representative object D9 corresponding to the extreme end side (positive direction) in the angular direction and the detection reference position 106, and has a predetermined length from the position of the representative object D9.
  • the vertex Vd7 is on a straight line 132 connecting the two points of the position of the representative object D1 corresponding to the extreme end side (negative direction) in the angular direction and the detection reference position 106, and has a predetermined length from the position of the representative object D1. The only point on the back side.
  • the vertex Ve6 is on a straight line 133 connecting the two points of the position of the representative object E4 corresponding to the extreme end side (positive direction) in the angular direction and the detection reference position 106, and a predetermined distance from the position of the representative object E4. It is a point on the far side by the length.
  • the vertex Ve7 is on a straight line 134 connecting the two points of the position of the representative object E1 corresponding to the extreme end side (negative direction) in the angular direction and the detection reference position 106, and has a predetermined length from the position of the representative object E1. The only point on the back side.
  • a heptagonal boundary line 136 is defined by sequentially connecting the determined vertices Vd1 to Vd7 with line segments.
  • a heptagonal boundary line 138 is defined by sequentially connecting the determined vertices Ve1-Ve7 with line segments. That is, the integrated object forming unit 84 integrates specific objects in the object set 112 (FIG. 5) to form integrated objects U1 and U2 as an integrated object.
  • the integrated object forming unit 84 determines at least one point located behind the positions of all the objects D1-D9, E1-E4 constituting the integrated objects U1, U2 as the vertexes Vd6, Vd7, Ve6, Ve7 of the polygon. May be determined as Thereby, the boundary lines 136 and 138 that can cover the entire distance range (the back side for the vehicle 100) with two or more objects are provided.
  • the integrated object forming unit 84 is on a straight line 131-134 connecting two points of the position of the representative object corresponding to the extreme end side in the angular direction ( ⁇ ) and the position of the vehicle 100, and is predetermined from the position of the representative object.
  • One point on the back side by the length of may be determined as the vertexes Vd6, Vd7, Ve6, Ve7 of the polygon.
  • the boundary lines 136 and 138 (here, the back side for the vehicle 100) that can cover all the angular ranges where there are two or more objects are provided.
  • step S4 of FIG. 3 the information synthesis unit 86 generates local environment map information Iem by synthesizing various information including object information (recognition result in step S2, formation result in step S3) and lane information. To do.
  • This local environment map information Iem includes object information on [1] integrated object U1, [2] integrated object U2, [3] individual objects other than objects D1-D9 and E1-E4 in object set 112. Note that
  • the coherence prediction unit 88 predicts the possibility that the object set 112 is in contact with or close to the vehicle 100 using the local environment map information Iem obtained by the synthesis in step S4.
  • the coherency predicting unit 88 replaces each of the objects D1-D9 and E1-E4 constituting the integrated objects U1 and U2 with the integrated objects U1 and U2 The possibility of contacting or approaching the vehicle 100 is predicted.
  • two integrated objects U1 and U2 each having a heptagon shape are arranged.
  • a portion indicated by a thick line is a portion facing the vehicle 100 (hereinafter, a facing portion 140).
  • a portion indicated by a thick line is a portion facing the vehicle 100 (hereinafter, a facing portion 142).
  • the coherence predicting unit 88 determines the vehicle 100 from the positional relationship between the vehicle 100 and the portions (facing portions 140 and 142) facing the vehicle 100 in the boundary lines 136 and 138 of the integrated objects U1 and U2. The possibility of touching or approaching may be predicted. By using the most effective portion for determining the coherence among the boundary lines 136 and 138 of the integrated objects U1 and U2, the calculation time is shortened, and the determination can be made earlier by that much.
  • boundary lines 136 and 138 that satisfy the magnitude relationship of R2> W (FIG. 10B) and in which the vehicle body width of the vehicle 100 is considered in advance are provided.
  • the vehicle 100 can be regarded as having a point shape, and the coherence with respect to the integrated objects U1 and U2 can be predicted and evaluated based on the positional relationship with the linear traveling track.
  • step S6 of FIG. 3 the short-term trajectory generation unit 73 (or medium-term trajectory generation unit 72) is based on the prediction result in step S5, and the short-term trajectory St (or medium-term trajectory Mt) used for behavior control of the vehicle 100. Is generated. Thereafter, the vehicle control unit 60 controls the behavior of the vehicle 100 based on the short-term trajectory St generated by the short-term trajectory generation unit 73, in other words, according to the prediction result by the coherence prediction unit 88.
  • FIG. 13 shows a trajectory that allows the vehicle 100 at the vehicle position 144 to smoothly pass through the gap 146 between the integrated objects U1 and U2. Accordingly, the vehicle 100 can smoothly travel on the lane 102 while avoiding contact with the plurality of pylons 104 (FIG. 4) by automatic driving control of the vehicle control unit 60.
  • the vehicle control device 10 includes [1] an external state detection unit 80 that detects the external state of the vehicle 100, and [2] one or more objects D1 based on the detection result by the external state detection unit 80.
  • -Object recognition unit 82 for recognizing D9, E1-E4, and [3]
  • Coherency prediction unit 88 for predicting the possibility that recognized objects D1-D9, E1-E4 will contact or approach the vehicle 100. And comprising.
  • the vehicle control device 10 [4] among the plurality of objects D1-D9, E1-E4, the boundary lines 136, 138 are determined based on the positional relationship between two or more objects within a predetermined distance range (R1).
  • the integrated object forming unit 84 that forms the integrated objects U1 and U2 as the integrated objects to be determined is further provided.
  • the coherence predicting unit 88 includes the respective objects D1 to D9 ( Instead of E1-E4), the possibility that the integrated objects U1, U2 will contact or approach the vehicle 100 is predicted.
  • the vehicle control method using the vehicle control device 10 is [4] Among the plurality of objects D1-D9, E1-E4, the positional relationship between two or more objects within a predetermined distance range (R1).
  • One or a plurality of computers execute a prediction step (S5) for predicting the possibility that the integrated objects U1 and U2 will contact or approach the vehicle 100.
  • the integrated object forming unit 84 includes all the objects D1-D9 and the objects E1-E4 and forms the integrated objects U1, U2 having a polygonal shape. This is because the polygon boundary lines 136 and 138 are aggregates of a plurality of linear components, so that the amount of calculation required for determining the coherence is reduced.
  • the vertices Vf1 and Vf2 are two points determined from the position of the representative object F1.
  • the vertex Vf3 is one point determined from the position of the representative object F3.
  • the vertex Vf4 is one point determined from the position of the representative object F5.
  • the vertex Vf6 is on a straight line 154 connecting the two positions of the representative object F1 corresponding to the extreme end side (negative direction) in the angular direction and the detection reference position 106, and has a predetermined length from the position of the representative object F1. Only one point on the far side.
  • the apex candidate 158 is on a straight line 156 that connects two points of the position of the representative object F5 corresponding to the extreme end side (positive direction) in the angular direction and the detection reference position 106, and has a predetermined length from the position of the representative object F5. That is one point on the far side.
  • the travelable range of the vehicle 100 may be unnecessarily limited.
  • the integrated object forming unit 84 determines that when one point (vertex candidate 158) that is a predetermined length away from the position of the representative object F5 is on the lane 150 on which the vehicle 100 is about to travel, May be determined as a vertex Vf5 of the polygon that does not exist on the lane 150. Thereby, it is possible to prevent the range defined by the boundary line 160 from being unnecessarily expanded to other parts of the lane 150.
  • FIG. 15A one circle 122 (radius R2) centered on the position of the representative object D1 is drawn on the virtual space 110.
  • the vertices Vd1 and Vd2 are points defined in the same manner as in FIG. 10A.
  • the sector central angle formed by the vertices Vd1 and Vd2 is defined as ⁇ .
  • the integrated object forming unit 84 may add polygon vertices Vd8 and Vd9 by interpolating between the two vertices Vd1 and Vd2 along an arc shape with respect to the representative object D1. In this case, one or more interpolation points are added so that the central angle ⁇ formed by adjacent vertices does not exceed the threshold ⁇ th.
  • the central angle ⁇ is equally divided so that the angle is closest to the threshold ⁇ th without exceeding the threshold ⁇ th.
  • the central angle ⁇ and the threshold ⁇ th satisfy the relationship of 2 ⁇ ⁇ th ⁇ ⁇ 3 ⁇ ⁇ th, the central angle ⁇ may be divided into three equal parts.
  • the integrated object forming unit 84 has a plurality of vertices Vd1 and Vd2 on the circle 122 centered on the position of the representative object D1 corresponding to the extreme end side in the angular direction.
  • One or more interpolation points obtained by interpolating the gaps between them may be determined as polygon vertices Vd8 and Vd9. Thereby, it can suppress that the location where the distance between the representative object D1 and the partial boundary line 164 is short arises from a viewpoint of angle resolution.
  • the determination method of the boundary lines 136, 138, and 160 is not limited to the above-described embodiment and improvement example, and any method based on the positional relationship between two or more objects may be adopted.
  • the shape of the integrated object may be a polygon having six or fewer vertices or eight or more, or may be a geometric shape including, for example, a circle or an ellipse.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両制御装置(10)の統合物体形成部(84)は、所定の距離範囲内にある2つ以上の物体同士の位置関係から境界線(136、138、160)が決定される、一体物としての統合物体(U1、U2、U3)を形成する。車両制御装置(10)の干渉性予測部(88)は、各々の物体(D1-D9、E1-E4、F1-F5)に代わって、統合物体(U1、U2、U3)が車両(100)に対して接触又は接近する可能性を予測する。

Description

車両制御装置
 本発明は、車両の外界状態にある物体を認識し、この認識結果に基づいて車両の挙動を制御する車両制御装置に関する。
 従来から、車両の外界状態にある物体を認識し、この認識結果に基づいて車両の挙動を制御する車両制御装置が知られている。例えば、同時に認識された複数の物体に対して効果的に処置するための技術が種々提案されている。
 特開2011-076527号公報(要約、[0036]等)では、互いに近くに位置しており、且つ、互いに近い速度で移動する移動物体同士をグループ化し、車両と接触又は近接(以下、干渉)する可能性がある場合に、各々のグループについて1回だけ報知を行う走行安全装置が提案されている。これにより、警報の作動回数が低減し、運転者への煩わしさを軽減させることができる。
 なお、特開2011-076527号公報の段落[0046]には、グループを構成する移動物体に対してTTC(Time To Collision)をそれぞれ算出し、当該グループの代表値としてTTCの最小値を用いて、干渉の可能性を判定する旨が記載されている。
 しかしながら、特開2011-076527号公報で提案される手法では、グループの代表的な評価値(ここでは、TTC)を用いて干渉性を予測するため、例えば、グループを構成する複数の物体における位置関係が考慮されていない。このように、干渉性に関する予測のきめ細かさという観点で、改良の余地が十分に残されている。
 本発明は上記した問題を解決するためになされたものであり、物体同士のグループ化による利便性を活かしつつも、きめ細かな干渉性の予測を行うことが可能な車両制御装置を提供することを目的とする。
 本発明に係る車両制御装置は、車両の外界状態を検出する外界状態検出部と、前記外界状態検出部による検出結果に基づいて1つ又は複数の物体を認識する物体認識部と、前記物体認識部により認識された1つ又は複数の前記物体が、前記車両に対して接触又は接近する可能性を予測する干渉性予測部を備える装置であって、前記物体認識部により認識された複数の前記物体のうち、所定の距離範囲内にある2つ以上の物体同士の位置関係から境界線が決定される、一体物としての統合物体を形成する統合物体形成部をさらに備え、前記干渉性予測部は、前記統合物体を構成する各々の前記物体に代わって、前記統合物体形成部により形成された前記統合物体が、前記車両に対して接触又は接近する可能性を予測する。
 このように構成したので、所定の距離範囲内にある2つ以上の物体同士の位置関係が考慮された境界線を有する統合物体を用いて、車両に対する干渉(接触又は接近)の可能性を予測可能である。これにより、物体同士のグループ化による利便性を活かしつつも、きめ細かな干渉性の予測を行うことができる。
 また、前記統合物体形成部は、前記車両の形状に応じて前記所定の距離範囲を設定し、前記統合物体を形成してもよい。車両が物体同士の隙間を通過できるか否かの判定結果が車両の形状に応じて異なる傾向を踏まえて、きめ細かな予測を行うことができる。
 また、前記統合物体形成部は、同一の半径であって各々の前記物体の位置を中心とする複数の円領域を画定し、前記円領域の重複部分を有する2つ以上の物体同士による前記統合物体を形成してもよい。これにより、簡易な演算方法を用いて物体同士のグループ化を行うことができる。
 また、前記統合物体形成部は、前記所定の距離範囲内にある2つ以上の物体同士をすべて包含し、ポリゴンの形状を有する前記統合物体を形成してもよい。ポリゴンの境界線が複数の直線成分の集合体であるので、干渉性の判定に要する演算量が少なくなる。
 また、前記統合物体形成部は、前記統合物体を構成する2つ以上の物体の中から、前記車両の位置を中心とする角度方向に対して所定の角度間隔おきに代表物体を抽出し、前記代表物体の位置から前記ポリゴンをなす少なくとも2つの頂点を決定してもよい。これにより、所定の角度間隔にある位置にポリゴンの頂点を配置することができる。
 また、前記統合物体形成部は、前記外界状態検出部の検出性能に応じて前記所定の角度間隔を設定し、前記ポリゴンをなす少なくとも2つの頂点を決定してもよい。物体同士を識別可能である角度方向の検出分解能が外界状態検出部の検出性能に応じて異なる傾向を踏まえて、適切な位置にポリゴンの頂点を配置することができる。
 また、前記統合物体形成部は、前記統合物体を構成する2つ以上の物体の中から、前記車両に相対的に近い位置にある物体を代表物体として抽出し、前記代表物体の位置から前記ポリゴンをなす少なくとも1つの頂点を決定してもよい。これにより、車両との位置関係の観点から注意度が高い物体の存在を、ポリゴンの境界線の形状に反映させることができる。
 また、前記統合物体形成部は、前記代表物体の位置を中心とする円上であって、前記車両の位置に最も近い点を前記ポリゴンの頂点として決定してもよい。これにより、2つ以上の物体がある距離範囲(車両にとって手前側)をすべて網羅可能な境界線が設けられると共に、代表物体と境界線の間の距離を必ず所定値(円の半径)以上に保つことができる。
 また、前記統合物体形成部は、角度方向の最端側に対応する前記代表物体の位置を中心とする円上であって、最大角度又は最小角度に相当する位置にある1点ずつを前記ポリゴンの頂点として決定してもよい。これにより、2つ以上の物体がある角度範囲をすべて網羅可能な境界線が設けられると共に、代表物体と境界線の間の距離を必ず所定値(円の半径)以上に保つことができる。
 また、前記統合物体形成部は、角度方向の最端側に対応する前記代表物体の位置を中心とする円上に前記ポリゴンの頂点が複数存在する場合、隣接する頂点の間を円弧状に補間して得た1つ以上の補間点を前記ポリゴンの頂点として決定してもよい。これにより、角度分解能の観点から、代表物体と部分境界線の間の距離が短い箇所が生じるのを抑制できる。
 また、前記統合物体形成部は、前記統合物体を構成するすべての物体の位置よりも奥側にある少なくとも1点を前記ポリゴンの頂点として決定してもよい。これにより、2つ以上の物体がある距離範囲(車両にとって奥側)をすべて網羅可能な境界線が設けられる。
 また、前記統合物体形成部は、角度方向の最端側に対応する前記代表物体の位置と前記車両の位置の2点を結ぶ直線上であって、前記代表物体の位置から所定の長さだけ奥側にある1点を前記ポリゴンの頂点として決定してもよい。これにより、2つ以上の物体がある角度範囲をすべて網羅可能な境界線(ここでは、車両にとって奥側)が設けられる。
 また、前記統合物体形成部は、前記代表物体の位置から所定の長さだけ奥側にある1点が、前記車両が走行しようとするレーンの上に存在する場合、前記所定の長さを短縮することで、前記レーンの上に存在しない別の1点を前記ポリゴンの頂点として決定してもよい。これにより、境界線により画定される範囲を、レーンの他部分にまで不必要に拡大するのを防止できる。
 また、前記干渉性予測部は、前記統合物体の境界線のうち前記車両に面する部分と前記車両の間の位置関係から、前記車両に対して接触又は接近する可能性を予測してもよい。統合物体の境界線のうち干渉性の判定に最も効果的な部分を用いることで演算時間が短縮され、その分だけ早期に判定することができる。
 また、前記干渉性予測部による予測結果に応じて前記車両の挙動を制御する車両制御部をさらに備えてもよい。
 本発明に係る車両制御装置によれば、物体同士のグループ化による利便性を活かしつつも、きめ細かな干渉性の予測を行うことができる。
本発明の一実施形態に係る車両制御装置の構成を示すブロック図である。 図1の車両制御装置における主要な特徴部を示す機能ブロック図である。 図2に示す機能ブロック図の動作説明に供されるフローチャートである。 ステップS1の検出処理により得られる結果を示す図である。 ステップS2の認識処理により得られる結果を示す図である。 図6Aは、物体同士の重なり判定方法を説明する図である。図6Bは、図6Aに示す円領域の半径の設定方法を説明する図である。 複数の物体を2つの統合グループに分類した結果を示す図である。 統合グループ毎に代表物体を抽出する方法を説明する図である。 代表物体を追加的に抽出する方法を説明する図である。 図10Aは、手前側及び側方にある頂点の決定方法を説明する図である。図10Bは、図10Aに示す円の半径の設定方法を説明する図である。 ポリゴンの境界線の一部を決定した結果を示す図である。 ポリゴンの境界線の全部を決定した結果を示す図である。 短期軌道の決定方法を示す模式図である。 奥側にある頂点の決定方法に関する第1改良例を示す図である。 図15A及び図15Bは、手前側にある頂点の決定方法に関する第2改良例を示す図である。
 以下、この発明に係る車両制御装置について好適な実施形態を挙げ、添付の図面を参照しながら説明する。
[車両制御装置10の構成]
<全体構成>
 図1は、本発明の一実施形態に係る車両制御装置10の構成を示すブロック図である。車両制御装置10は、車両100(図4等)に組み込まれ、且つ、車両100の自動運転又は自動運転支援を実行可能に構成される。車両制御装置10は、制御システム12と、入力装置と、出力装置と、を備える。入力装置及び出力装置はそれぞれ、制御システム12に通信線を介して接続されている。
 入力装置は、外界センサ14と、ナビゲーション装置16と、車両センサ18と、通信装置20と、自動運転スイッチ22と、操作デバイス24に接続された操作検出センサ26と、を備える。
 出力装置は、図示しない車輪を駆動する駆動力装置28と、前記車輪を操舵する操舵装置30と、前記車輪を制動する制動装置32と、を備える。
<入力装置の具体的構成>
 外界センサ14は、車両100の外界状態を示す情報(以下、外界情報)を取得する複数のカメラ33と複数のレーダ34を備え、取得した外界情報を制御システム12に出力する。外界センサ14は、さらに、複数のLIDAR(Light Detection and Ranging;光検出と測距/Laser Imaging Detection and Ranging;レーザ画像検出と測距)装置を備えてもよい。
 ナビゲーション装置16は、車両100の現在位置を検出可能な衛星測位装置と、ユーザインタフェース(例えば、タッチパネル式のディスプレイ、スピーカ及びマイク)を含んで構成される。ナビゲーション装置16は、車両100の現在位置又はユーザによる指定位置に基づいて、指定した目的地までの経路を算出し、制御システム12に出力する。ナビゲーション装置16により算出された経路は、経路情報として記憶装置40の経路情報記憶部44に記憶される。
 車両センサ18は、車両100の速度(車速)を検出する速度センサ、加速度を検出する加速度センサ、横Gを検出する横Gセンサ、垂直軸周りの角速度を検出するヨーレートセンサ、向き・方位を検出する方位センサ、勾配を検出する勾配センサを含み、各センサからの検出信号を制御システム12に出力する。これらの検出信号は、自車状態情報Ivhとして記憶装置40の自車状態情報記憶部46に記憶される。
 通信装置20は、路側機、他車、及びサーバを含む外部装置と通信可能に構成されており、例えば、交通機器に関わる情報、他車に関わる情報、プローブ情報又は最新の地図情報を送受信する。なお、地図情報は、ナビゲーション装置16に記憶されると共に、地図情報として記憶装置40の地図情報記憶部42にも記憶される。
 操作デバイス24は、アクセルペダル、ステアリングホイール(ハンドル)、ブレーキペダル、シフトレバー、及び方向指示レバーを含んで構成される。操作デバイス24には、ドライバによる操作の有無や操作量、操作位置を検出する操作検出センサ26が取り付けられている。
 操作検出センサ26は、検出結果としてアクセル踏込量(アクセル開度)、ハンドル操作量(操舵量)、ブレーキ踏込量、シフト位置、右左折方向等を車両制御部60に出力する。
 自動運転スイッチ22は、例えば、インストルメントパネルに設けられ、ドライバを含むユーザが、マニュアル操作により、非自動運転モード(手動運転モード)と自動運転モードを切り替えるための押しボタンスイッチである。
 この実施形態では、自動運転スイッチ22が押される度に、自動運転モードと非自動運転モードが切り替わるように設定されている。これに代わって、ドライバの自動運転意思確認の確実化のために、例えば、2度押しで非自動運転モードから自動運転モードに切り替わり、1度押しで自動運転モードから非自動運転モードに切り替わるように設定することもできる。
 自動運転モードは、ドライバが、操作デバイス24(具体的には、アクセルペダル、ステアリングホイール及びブレーキペダル)の操作を行わない状態で、車両100が制御システム12による制御下に走行する運転モードである。換言すれば、自動運転モードは、制御システム12が、逐次決定される行動計画(短期的には、後述する短期軌道St)に基づいて、駆動力装置28、操舵装置30、及び制動装置32の一部又は全部を制御する運転モードである。
 なお、自動運転モード中に、ドライバが、操作デバイス24の操作を開始した場合には、自動運転モードは自動的に解除され、非自動運転モード(手動運転モード)に切り替わる。
<出力装置の具体的構成>
 駆動力装置28は、駆動力ECU(電子制御装置;Electronic Control Unit)と、エンジン・駆動モータを含む駆動源から構成される。駆動力装置28は、車両制御部60から入力される車両制御値Cvhに従って車両100が走行するための走行駆動力(トルク)を生成し、トランスミッションを介し、或いは直接的に車輪に伝達する。
 操舵装置30は、EPS(電動パワーステアリングシステム)ECUと、EPS装置とから構成される。操舵装置30は、車両制御部60から入力される車両制御値Cvhに従って車輪(操舵輪)の向きを変更する。
 制動装置32は、例えば、油圧式ブレーキを併用する電動サーボブレーキであって、ブレーキECUと、ブレーキアクチュエータとから構成される。制動装置32は、車両制御部60から入力される車両制御値Cvhに従って車輪を制動する。
<制御システム12の構成>
 制御システム12は、1つ又は複数のECUにより構成され、各種機能実現部の他、記憶装置40等を備える。なお、機能実現部は、この実施形態では、CPU(中央処理ユニット)が記憶装置40に記憶されているプログラムを実行することにより機能が実現されるソフトウエア機能部であるが、集積回路等からなるハードウエア機能部により実現することもできる。
 制御システム12は、記憶装置40及び車両制御部60の他、外界認識部52と、認識結果受信部53と、局所環境マップ生成部54と、統括制御部70と、長期軌道生成部71と、中期軌道生成部72と、短期軌道生成部73と、を含んで構成される。ここで、統括制御部70は、認識結果受信部53、局所環境マップ生成部54、長期軌道生成部71、中期軌道生成部72、及び短期軌道生成部73のタスク同期を制御することで、各部の統括制御を行う。
 外界認識部52は、車両制御部60からの自車状態情報Ivhを参照した上で、外界センサ14からの外界情報(画像情報を含む)に基づき、車両100の両側のレーンマーク(白線)を認識すると共に、停止線までの距離、走行可能領域を含む「静的」な外界認識情報を生成する。これと併せて、外界認識部52は、外界センサ14からの外界情報に基づき、障害物(駐停車車両を含む)、交通参加者(人、他車両)、及び信号機の灯色{青(緑)、黄(オレンジ)、赤}等の「動的」な外界認識情報を生成する。
 なお、静的及び動的な外界認識情報はそれぞれ、外界認識情報Iprとして記憶装置40の外界認識情報記憶部45に記憶される。
 認識結果受信部53は、演算指令Aaに応答して、所定の演算周期Toc(基準周期又は基準演算周期)内に受信した外界認識情報Iprを更新カウンタのカウント値と共に、統括制御部70に出力する。ここで、演算周期Tocは、制御システム12の内部での基準の演算周期であり、例えば、数10ms程度の値に設定されている。
 局所環境マップ生成部54は、統括制御部70からの演算指令Abに応答して、自車状態情報Ivh及び外界認識情報Iprを参照し、演算周期Toc内に局所環境マップ情報Iemを生成して、更新カウンタのカウント値と共に、統括制御部70に出力する。すなわち、制御の開始時には、局所環境マップ情報Iemが生成されるまでに、演算周期2×Tocを要する。
 概略的に言えば、局所環境マップ情報Iemは、外界認識情報Iprに対して自車状態情報Ivhを合成した情報である。局所環境マップ情報Iemは、記憶装置40の局所環境マップ情報記憶部47に記憶される。
 長期軌道生成部71は、統括制御部70からの演算指令Acに応答して、局所環境マップ情報Iem(外界認識情報Iprのうち静的な成分のみ利用)、自車状態情報Ivh、及び地図情報記憶部42に記憶されている道路地図(カーブの曲率等)を参照して、相対的に最も長い演算周期(例えば、9×Toc)で長期軌道Ltを生成する。そして、長期軌道生成部71は、生成した長期軌道Ltを更新カウンタのカウント値と共に、統括制御部70に出力する。なお、長期軌道Ltは、軌道情報として記憶装置40の軌道情報記憶部48に記憶される。
 中期軌道生成部72は、統括制御部70からの演算指令Adに応答して、局所環境マップ情報Iem(外界認識情報Iprのうち、動的な成分及び静的な成分の両方を利用)、自車状態情報Ivh、及び長期軌道Ltを参照して、相対的に中位の演算周期(例えば、3×Toc)で中期軌道Mtを生成する。そして、中期軌道生成部72は、生成した中期軌道Mtを更新カウンタのカウント値と共に、統括制御部70に出力する。なお、中期軌道Mtは、長期軌道Ltと同様に、軌道情報として軌道情報記憶部48に記憶される。
 短期軌道生成部73は、統括制御部70からの演算指令Aeに応答して、局所環境マップ情報Iem(外界認識情報Iprのうち、動的な成分及び静的な成分の両方を利用)、自車状態情報Ivh、及び中期軌道Mtを参照し、相対的に最も短い演算周期(例えば、Toc)で短期軌道Stを生成する。そして、短期軌道生成部73は、生成した短期軌道Stを更新カウンタのカウント値と共に、統括制御部70及び車両制御部60に同時に出力する。なお、短期軌道Stは、長期軌道Lt及び中期軌道Mtと同様に、軌道情報として軌道情報記憶部48に記憶される。
 なお、長期軌道Ltは、例えば10秒間程度の走行時間における軌道を示し、乗り心地・快適性を優先した軌道である。また、短期軌道Stは、例えば1秒間程度の走行時間における軌道を示し、車両ダイナミクスの実現及び安全性の確保を優先した軌道である。中期軌道Mtは、例えば5秒間程度の走行時間における軌道を示し、長期軌道Lt及び短期軌道Stに対する中間的な軌道である。
 短期軌道Stは、短周期Ts(=Toc)毎の、車両100の目標挙動を示すデータセットに相当する。短期軌道Stは、例えば、縦方向(X軸)の位置x、横方向(Y軸)の位置y、姿勢角θz、速度Vs、加速度Va、曲率ρ、ヨーレートγ、操舵角δstをデータ単位とする軌道点列(x,y,θz,Vs,Va,ρ,γ,δst)である。また、長期軌道Lt又は中期軌道Mtは、周期がそれぞれ異なるものの、短期軌道Stと同様に定義されたデータセットである。
 車両制御部60は、短期軌道St(軌道点列)にて特定される挙動に従って車両100が走行可能となる車両制御値Cvhを決定し、得られた車両制御値Cvhを駆動力装置28、操舵装置30、及び制動装置32に出力する。
<主要な特徴部>
 図2は、図1の車両制御装置10における主要な特徴部を示す機能ブロック図である。車両制御装置10は、外界状態検出部80と、物体認識部82と、統合物体形成部84と、情報合成部86と、干渉性予測部88と、軌道生成部90と、車両制御部60と、を備える。
 外界状態検出部80は、図1に示す外界センサ14に相当し、車両100の外界状態を検出する。物体認識部82は、図1に示す外界認識部52に相当し、外界状態検出部80による検出結果に対して公知の認識手法を適用することで、1つ又は複数の物体を認識する。
 統合物体形成部84及び情報合成部86は、図1に示す局所環境マップ生成部54に相当する。統合物体形成部84は、物体認識部82による認識結果を含む外界認識情報Iprと、車両100に関する自車状態情報Ivhを用いて、複数の物体のうち特定の物体同士を統合する。情報合成部86は、車両100の外界にある物体に関する情報(以下、物体情報)又はレーンに関する情報(以下、車線情報)を含む外界認識情報Iprを合成し、局所環境マップ情報Iemを作成する。
 干渉性予測部88及び軌道生成部90は、図1に示す短期軌道生成部73(又は中期軌道生成部72)に相当する。干渉性予測部88は、局所環境マップ情報Iemと自車状態情報Ivhを用いて、1つ又は複数の物体が車両100に対して接触又は近接する可能性(以下、「干渉可能性」ともいう)を予測する。軌道生成部90は、干渉性予測部88による予測結果を考慮して、車両100の挙動制御に供される走行軌道を生成する。
[車両制御装置10の動作]
 この実施形態における車両制御装置10は、以上のように構成される。続いて、車両制御装置10(特に、図2に示す機能ブロック図)の動作について、図3のフローチャートを参照しながら説明する。
 図3のステップS1において、外界状態検出部80(具体的には、カメラ33又はレーダ34)は、車両100の外界状態を検出する。以下、外界状態検出部80による検出結果について、図4を参照しながら説明する。
 図4に示すように、レーン102上を走行する車両100の周辺には、複数のパイロン104が配置されている。二点鎖線で囲む領域は、車両100上の検出基準位置106を中心とする概略扇形状を有し、車両100の外界にある物体を検出可能な領域(以下、検出可能領域108という)に相当する。本図の例では、外界状態検出部80は、検出可能領域108内にある13個のパイロン104を検出する。
 図3のステップS2において、物体認識部82は、ステップS1での検出結果に対して公知の認識手法を適用することで、1つ又は複数の物体(ここでは、13個のパイロン104)を認識する。以下、物体認識部82による認識結果について、図5を参照しながら説明する。
 図5に示す仮想空間110は、例えば、車両100の位置・姿勢を基準とするローカル座標系によって定義される平面空間である。仮想空間110上では、13個のパイロン104(図4)が物体集合112として認識される。二点鎖線で示す円弧は、検出基準位置106からの等距離線に相当する。つまり、13個のパイロン104はいずれも、車両100から略等距離に配置されている。以下、図5以降の図面において、説明及び図示の便宜上、各々の物体の形状を単なる記号(例えば、「×」「△」)で表記する場合がある。
 図3のステップS3において、統合物体形成部84は、ステップS2で認識された物体集合112(1つ又は複数の物体)のうち特定の物体同士を統合し、一体物としての統合物体U1、U2を形成する。具体的には、統合物体形成部84は、所定の距離範囲内にある2つ以上の物体同士をすべて包含し、ポリゴンの形状を有する統合物体U1、U2を形成する。以下、統合物体U1、U2の形成方法について、図6A-図12を参照しながら詳細に説明する。
[1]先ず、統合物体形成部84は、車両100の形状に応じて所定の距離範囲を設定する。具体的には、統合物体形成部84は、同一の半径R1であって各々の位置を中心とする複数の円領域114を画定し、重複部分115、116を有する2つ以上の物体同士をグループ化する。
 図6Aに示すように、仮想空間110上には、物体D1、D2、D3の位置を中心とし、半径がいずれもR1である3つの円領域114が画定されている。物体D1、D2の関係において、2つの円領域114、114は、部分的に重なり合う重複部分115(ハッチングを付した領域)を有する。物体D2、D3の関係において、2つの円領域114、114は、部分的に重なり合う重複部分116(ハッチングを付した領域)を有する。
 他の物体についても同様にして、任意の1つの円領域114に関して、少なくとも1つの円領域114が重なる位置関係にある場合、これらの物体同士(ここでは、物体D1-D3)は、1つのグループとして分類される。
 図6Bに示すように、半径R1は、車両100の車幅2・Wに一定のマージン値M1を加算した値である。つまり、物体同士の間隔がR1よりも大きい場合に車両100がその隙間を通過できる一方、物体同士の間隔がR1以下である場合に車両100がその隙間を通過できないと考えられる。なお、半径R1は、車幅に限られず、車長、或いはこれらの組み合わせを含む、車両100の形状に応じて任意に設定してもよい。
 図7に示すように、物体集合112をなす13個の物体は、車両100の正面前方にある9個で構成される統合グループ118と、車両100の右斜め前方にある4個で構成される統合グループ120に分類される。以下、説明の便宜上、統合グループ118に属する9個の物体を「物体D1-D9」と表記し、統合グループ120に属する4個の物体を「物体E1-E4」と表記する。
 このように、統合物体形成部84は、同一の半径R1であって各々の物体D1-D9、E1-E4の位置を中心とする複数の円領域114を画定し、円領域114の重複部分115、116を有する2つ以上の物体同士による統合物体U1、U2を形成してもよい。これにより、簡易な演算方法を用いて物体同士のグループ化を行うことができる。
 また、統合物体形成部84は、車両100の形状に応じて所定の距離範囲(円領域114の半径R1)を設定し、統合物体U1、U2を形成してもよい。車両100が物体同士の隙間を通過できるか否かの判定結果がその車両100の形状に応じて異なる傾向を踏まえて、きめ細かな予測を行うことができる。
[2]次いで、統合物体形成部84は、各々の統合グループ118、120を構成する2つ以上の物体D1-D9、E1-E4の中から、検出基準位置106を中心とする角度方向に対して、所定の角度間隔おきに代表物体を抽出する。ここで、「代表物体」とは、ポリゴンの頂点Vd1-Vd7、Ve1-Ve7(図12)を決定するための代表的な物体であり、この代表物体の位置がポリゴンの形状を特徴付ける。
 図8に示すように、仮想空間110上において、車両100の車体中心線を基準とする角度方向(θ)を定義する。例えば、時計回り(右旋回方向)を「正方向」とし、反時計回り(左旋回方向)を「負方向」とする。本図では、他の物体「×」と明確に区別するため、代表物体を「△」で表記する。
 統合グループ118に属する物体D1-D9のうち、最小角度(負方向)にある物体D1と、最大角度(正方向)にある物体D9と、物体D1、D9の中間位置にある物体D5が、代表物体としてそれぞれ抽出される。同様に、統合グループ120に属する物体E1-E4のうち、最小角度(負方向)にある物体E1と、最大角度(正方向)にある物体E4が、代表物体としてそれぞれ抽出される。
 ここで、隣接する代表物体同士、具体的には(1)代表物体D1と代表物体D5、(2)代表物体D5と代表物体D9、(3)代表物体E1と代表物体E4、の角度間隔はいずれも、Δθ(例えば、10[deg])に等しい値又はΔθに近い値である。なお、Δθは、外界状態検出部80が物体同士を識別可能である角度方向の検出分解能に相当する。
 このように、統合物体形成部84は、統合物体U1、U2を構成する2つ以上の物体D1-D9、E1-E4の中から、車両100の位置(検出基準位置106)を中心とする角度方向(θ)に対して所定の角度間隔Δθおきに代表物体D1、D5、D9、E1、E4を抽出し、代表物体の位置からポリゴンをなす少なくとも2つの頂点を決定してもよい。これにより、所定の角度間隔Δθにある位置にポリゴンの頂点を配置することができる。
 また、統合物体形成部84は、外界状態検出部80の検出性能に応じて所定の角度間隔Δθを設定し、ポリゴンをなす少なくとも2つの頂点を決定してもよい。物体同士を識別可能である角度方向の検出分解能が外界状態検出部80の検出性能に応じて異なる傾向を踏まえて、適切な位置にポリゴンの頂点を配置することができる。
[3]次いで、統合物体形成部84は、必要に応じて、残りの物体(D2-D4、D6-D8、E2、E3)の中から代表物体を追加的に抽出する。
 図9に示すように、物体E3は、統合グループ120に属する物体E1-E4の中で、車両100に最も近い位置にある。この場合、先に抽出されていた2つの代表物体E1、E4の他に、未だ抽出されていなかった物体E3が代表物体として新たに追加される。
 このように、統合物体形成部84は、統合物体U1、U2を構成する2つ以上の物体D1-D9、E1-E4の中から、車両100に相対的に近い位置にある物体E3を代表物体として抽出し、代表物体の位置からポリゴンをなす少なくとも1つの頂点を決定してもよい。これにより、車両100との位置関係の観点から注意度が高い物体の存在を、ポリゴンの境界線136、138の形状に反映させることができる。
[4]次いで、統合物体形成部84は、抽出した代表物体(統合グループ118の3つ、統合グループ120の3つ)の位置に基づいて、ポリゴンの境界線136、138(図12)の一部を決定する。
 図10Aに示すように、仮想空間110上には、代表物体D1、D5の位置を中心とし、半径がいずれもR2である2つの円122が描画されている。線分124は、検出基準位置106を一端とし、代表物体D1の位置を他端とする直線である。線分126は、検出基準位置106を一端とし、代表物体D5の位置を他端とする直線である。線分128は、検出基準位置106を通り、代表物体D1に対応する円122に接する直線(いわゆる接線)である。
 図10Bに示すように、半径R2は、車両100の車幅半分Wに一定のマージン値M2を加算した値である。つまり、車体中心線を基準とする場合、車両100の車幅方向端部(ここでは、右側端部)が代表物体D1に接触しないための必要最小限の幅と考えられる。なお、半径R2は、車幅に限られず、車長、或いはこれらの組み合わせを含む、車両100の形状に応じて任意に設定してもよい。
 図11に示すように、統合グループ118に対応するポリゴンの頂点の一部が決定される。頂点Vd1は、角度方向の最端側(負方向)に対応する代表物体D1の位置を中心とする円122上であって、最小角度に相当する位置にある点である。頂点Vd2は、代表物体D1の位置を中心とする円122上であって、車両100の位置(ここでは、検出基準位置106)に最も近い点である。頂点Vd3は、代表物体D5の位置を中心とする円122上であって、検出基準位置106に最も近い点である。頂点Vd4は、代表物体D9の位置を中心とする円122上であって、検出基準位置106に最も近い点である。頂点Vd5は、角度方向の最端側(正方向)に対応する代表物体D9の位置を中心とする円122上であって、最大角度に相当する位置にある点である。
 また、頂点Ve1は、角度方向の最端側(負方向)に対応する代表物体E1の位置を中心とする円122上であって、最小角度に相当する位置にある点である。頂点Ve2は、代表物体E1の位置を中心とする円122上であって、検出基準位置106に最も近い点である。頂点Ve3は、代表物体E3の位置を中心とする円122上であって、検出基準位置106に最も近い点である。頂点Ve4は、代表物体E4の位置を中心とする円122上であって、検出基準位置106に最も近い点である。頂点Ve5は、角度方向の最端側(正方向)に対応する代表物体E4の位置を中心とする円122上であって、最大角度に相当する位置にある点である。
 このように、統合物体形成部84は、代表物体の位置を中心とする同じ半径R2の円122上であって、車両100の位置に最も近い点をポリゴンの頂点Vd2-Vd4、Ve2-Ve4として決定してもよい。これにより、2つ以上の物体がある距離範囲(車両100にとって手前側)をすべて網羅可能な境界線136、138が設けられると共に、代表物体と境界線136、138の間の距離を必ず所定値(円122の半径R2)以上に保つことができる。
 また、統合物体形成部84は、角度方向の最端側に対応する代表物体の位置を中心とする同じ半径R2の円上であって、最大角度又は最小角度に相当する位置にある1点ずつをポリゴンの頂点Vd1、Vd5、Ve1、Ve5として決定してもよい。これにより、2つ以上の物体がある角度範囲をすべて網羅可能な境界線136、138が設けられると共に、代表物体と境界線136、138の間の距離を必ず所定値(円122の半径R2)以上に保つことができる。
[5]次いで、統合物体形成部84は、抽出した代表物体(統合グループ118の3つ、統合グループ120の3つ)の位置に基づいて、ポリゴンの境界線136、138(図12)の残り部分を決定する。
 図12に示すように、統合グループ118に対応するポリゴンの頂点の全部が決定される。頂点Vd6は、角度方向の最端側(正方向)に対応する代表物体D9の位置と、検出基準位置106の2点を結ぶ直線131上であって、代表物体D9の位置から所定の長さだけ奥側にある点である。頂点Vd7は、角度方向の最端側(負方向)に対応する代表物体D1の位置と、検出基準位置106の2点を結ぶ直線132上であって、代表物体D1の位置から所定の長さだけ奥側にある点である。
 また、頂点Ve6は、角度方向の最端側(正方向)に対応する代表物体E4の位置と、検出基準位置106の2点を結ぶ直線133上であって、代表物体E4の位置から所定の長さだけ奥側にある点である。頂点Ve7は、角度方向の最端側(負方向)に対応する代表物体E1の位置と、検出基準位置106の2点を結ぶ直線134上であって、代表物体E1の位置から所定の長さだけ奥側にある点である。
 統合グループ118に関して、決定された頂点Vd1-Vd7を線分で順次接続することで、七角形状の境界線136が画定される。同様に、統合グループ120に関して、決定された頂点Ve1-Ve7を線分で順次接続することで、七角形状の境界線138が画定される。つまり、統合物体形成部84は、物体集合112(図5)のうち特定の物体同士を統合し、一体物としての統合物体U1、U2を形成する。
 ここで、統合物体形成部84は、統合物体U1、U2を構成するすべての物体D1-D9、E1-E4の位置よりも奥側にある少なくとも1点をポリゴンの頂点Vd6、Vd7、Ve6、Ve7として決定してもよい。これにより、2つ以上の物体がある距離範囲(車両100にとって奥側)をすべて網羅可能な境界線136、138が設けられる。
 また、統合物体形成部84は、角度方向(θ)の最端側に対応する代表物体の位置と車両100の位置の2点を結ぶ直線131-134上であって、代表物体の位置から所定の長さだけ奥側にある1点をポリゴンの頂点Vd6、Vd7、Ve6、Ve7として決定してもよい。これにより、2つ以上の物体がある角度範囲をすべて網羅可能な境界線136、138(ここでは、車両100にとって奥側)が設けられる。
 図3のステップS4において、情報合成部86は、物体情報(ステップS2での認識結果、ステップS3での形成結果)及び車線情報を含む各種情報を合成することで、局所環境マップ情報Iemを生成する。この局所環境マップ情報Iemには、[1]統合物体U1、[2]統合物体U2、[3]物体集合112のうち、物体D1-D9、E1-E4を除く個別物体、に関する物体情報が含まれる点に留意する。
 図3のステップS5において、干渉性予測部88は、ステップS4での合成により得られる局所環境マップ情報Iemを用いて、物体集合112が車両100に対して接触又は近接する可能性を予測する。ここで、統合物体U1、U2が形成されている場合、干渉性予測部88は、統合物体U1、U2を構成する各々の物体D1-D9、E1-E4に代わって、統合物体U1、U2が車両100に対して接触又は接近する可能性を予測する。
 図13に示すように、仮想空間110上では、いずれも七角形状である2つの統合物体U1、U2が配置されている。統合物体U1の境界線136のうち、太線で示した箇所は、車両100に面する部分(以下、対面部分140)である。統合物体U2の境界線138のうち、太線で示した箇所は、車両100に面する部分(以下、対面部分142)である。
 ここで、干渉性予測部88は、統合物体U1、U2の境界線136、138のうち車両100に面する部分(対面部分140、142)と、車両100の間の位置関係から、車両100に対して接触又は接近する可能性を予測してもよい。統合物体U1、U2の境界線136、138のうち干渉性の判定に最も効果的な部分を用いることで演算時間が短縮され、その分だけ早期に判定することができる。
 特に、R2>W(図10B)の大小関係を満たしており、車両100の車体幅が予め考慮された境界線136、138が設けられている。これにより、車両100が点形状であるとみなして、線状の走行軌道との位置関係に基づいて、統合物体U1、U2に対する干渉性を予測・評価することができる。
 図3のステップS6において、短期軌道生成部73(又は中期軌道生成部72)は、ステップS5での予測結果に基づいて、車両100の挙動制御に供される短期軌道St(又は中期軌道Mt)を生成する。その後、車両制御部60は、短期軌道生成部73により生成された短期軌道Stに基づいて、換言すれば、干渉性予測部88による予測結果に応じて、車両100の挙動を制御する。
 図13に示す短期軌道Stは、自車位置144にある車両100が、統合物体U1、U2の隙間146を円滑に通過可能となる軌道を示す。これにより、車両100は、車両制御部60の自動運転制御により、複数のパイロン104(図4)との接触を回避しながら、レーン102上を円滑に走行できる。
[この車両制御装置10による効果]
 以上のように、車両制御装置10は、[1]車両100の外界状態を検出する外界状態検出部80と、[2]外界状態検出部80による検出結果に基づいて1つ又は複数の物体D1-D9、E1-E4を認識する物体認識部82と、[3]認識された物体D1-D9、E1-E4が、車両100に対して接触又は接近する可能性を予測する干渉性予測部88と、を備える。
 そして、車両制御装置10は、[4]複数の物体D1-D9、E1-E4のうち、所定の距離範囲(R1)内にある2つ以上の物体同士の位置関係から境界線136、138が決定される、一体物としての統合物体U1、U2を形成する統合物体形成部84をさらに備え、[5]干渉性予測部88は、統合物体U1、U2を構成する各々の物体D1-D9(E1-E4)に代わって、統合物体U1、U2が車両100に対して接触又は接近する可能性を予測する。
 また、車両制御装置10を用いた車両制御方法は、[4]複数の物体D1-D9、E1-E4のうち、所定の距離範囲(R1)内にある2つ以上の物体同士の位置関係から境界線136、138が決定される、一体物としての統合物体U1、U2を形成する形成ステップ(S3)と、[5]統合物体U1、U2を構成する各々の物体D1-D9(E1-E4)に代わって、統合物体U1、U2が車両100に対して接触又は接近する可能性を予測する予測ステップ(S5)と、を1つ又は複数のコンピュータが実行する。
 このように構成したので、所定の距離範囲(R1)内にある2つ以上の物体同士の位置関係が考慮された境界線136、138を有する統合物体U1、U2を用いて、車両100に対する干渉(接触又は接近)の可能性を予測可能である。これにより、物体同士のグループ化による利便性を活かしつつも、きめ細かな干渉性の予測を行うことができる。
 特に、統合物体形成部84は、物体D1-D9同士、物体E1-E4同士をすべて包含し、ポリゴンの形状を有する統合物体U1、U2を形成することが一層好ましい。ポリゴンの境界線136、138が複数の直線成分の集合体であるので、干渉性の判定に要する演算量が少なくなるためである。
[改良例]
 以下、境界線を決定する方法(図12)の改良例について、図14、図15A及び図15Bを参照しながら説明する。
<第1改良例>
 図14に示すように、車両100が、逆C字状に湾曲するレーン150上を走行している場合を想定する。レーン150の湾曲内側にあるレーン外領域152には、5つの物体F1-F5(「×」印で表記)が配置されている。5つの物体F1-F5は、所定の位置関係を満たすため、上記したグループ化(つまり、統合物体U3の形成)が可能であったとする。
 頂点Vf1、Vf2は、代表物体F1の位置から決定された2点である。頂点Vf3は、代表物体F3の位置から決定された1点である。頂点Vf4は、代表物体F5の位置から決定された1点である。頂点Vf6は、角度方向の最端側(負方向)に対応する代表物体F1の位置と、検出基準位置106の2点を結ぶ直線154上であって、代表物体F1の位置から所定の長さだけ奥側にある1点である。
 頂点候補158は、角度方向の最端側(正方向)に対応する代表物体F5の位置と、検出基準位置106の2点を結ぶ直線156上であって、代表物体F5の位置から所定の長さだけ奥側にある1点である。ところが、頂点候補158がレーン150の上に位置するので、車両100の走行可能範囲を不必要に制限する可能性がある。
 そこで、統合物体形成部84は、代表物体F5の位置から所定の長さだけ奥側にある1点(頂点候補158)が、車両100が走行しようとするレーン150の上に存在する場合、所定の長さを短縮することで、レーン150の上に存在しない別の1点をポリゴンの頂点Vf5として決定してもよい。これにより、境界線160により画定される範囲を、レーン150の他部分にまで不必要に拡大するのを防止できる。
<第2改良例>
 図15Aに示すように、仮想空間110上には、代表物体D1の位置を中心とする1つの円122(半径R2)が描画されている。頂点Vd1、Vd2はそれぞれ、図10Aの場合と同様に定義された点である。ここで、頂点Vd1、Vd2がなす扇形の中心角をφと定義する。
 例えば、境界線136(図12)を決定する際に2つの頂点Vd1、Vd2を直線状に結ぶ場合、中心角φの値が大きいほど、扇状の領域が忠実に表現されない傾向がある。このとき、代表物体D1と部分境界線162の間の距離が短い箇所(部分境界線162の中点)が存在するので、予測結果に反して統合物体U1との干渉が生じる懸念がある。
 そこで、統合物体形成部84は、代表物体D1に関して、2つの頂点Vd1、Vd2の間を円弧状に沿って補間し、ポリゴンの頂点Vd8、Vd9を追加してもよい。この場合、隣接する頂点同士がなす中心角φが閾値φthを超えないように、1つ以上の補間点を追加する。なお、閾値φthは、予め設定された正値(例えば、φth=45[deg])である。
 例えば、「閾値φthを超えずに、且つ、閾値φthに最も近い角度になるように、中心角φを等分割する」という決定規則を適用することができる。中心角φと閾値φthが、2・φth<φ<3・φthの大小関係を満たす場合、中心角φを3等分すればよい。
 図15Bに示すように、円122上には、扇形の中心角がそれぞれ(φ/3)である4つの頂点Vd1、Vd8(補間点)、Vd9(補間点)、Vd2が配置されている。決定された頂点Vd1、Vd8、Vd9、Vd2を線分で順次接続することで、円122の形状に沿った部分境界線164が画定される。
 このように、統合物体形成部84は、角度方向の最端側に対応する代表物体D1の位置を中心とする円122上に頂点Vd1、Vd2が複数存在する場合、隣接する頂点Vd1、Vd2の間を円弧状に補間して得た1つ以上の補間点をポリゴンの頂点Vd8、Vd9として決定してもよい。これにより、角度分解能の観点から、代表物体D1と部分境界線164の間の距離が短い箇所が生じるのを抑制できる。
 ここでは、代表物体D1について説明したが、角度方向の最端側に対応する他の代表物体D9、E1、E4についても、上記と同様に取り扱ってもよい。
[補足]
 なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。
 例えば、境界線136、138、160の決定方法は、上記した実施形態及び改良例に限られることなく、2つ以上の物体同士の位置関係に基づく任意の手法を採用してもよい。また、統合物体の形状は、七角形の他、頂点数が6つ以下又は8つ以上の多角形でもよいし、例えば、円形、楕円形を含む幾何学的形状であってもよい。

Claims (15)

  1.  車両(100)の外界状態を検出する外界状態検出部(80)と、
     前記外界状態検出部(80)による検出結果に基づいて1つ又は複数の物体(D1-D9、E1-E4、F1-F5)を認識する物体認識部(82)と、
     前記物体認識部(82)により認識された1つ又は複数の前記物体(D1-D9、E1-E4、F1-F5)が、前記車両(100)に対して接触又は接近する可能性を予測する干渉性予測部(88)と、
     を備える車両制御装置(10)であって、
     前記物体認識部(82)により認識された複数の前記物体(D1-D9、E1-E4、F1-F5)のうち、所定の距離範囲内にある2つ以上の物体同士の位置関係から境界線(136、138、160)が決定される、一体物としての統合物体(U1、U2、U3)を形成する統合物体形成部(84)をさらに備え、
     前記干渉性予測部(88)は、前記統合物体(U1、U2、U3)を構成する各々の前記物体(D1-D9、E1-E4、F1-F5)に代わって、前記統合物体形成部(84)により形成された前記統合物体(U1、U2、U3)が、前記車両(100)に対して接触又は接近する可能性を予測する
     ことを特徴とする車両制御装置(10)。
  2.  請求項1に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、前記車両(100)の形状に応じて前記所定の距離範囲を設定し、前記統合物体(U1、U2、U3)を形成することを特徴とする車両制御装置(10)。
  3.  請求項1又は2に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、同一の半径(R1)であって各々の前記物体(D1-D9、E1-E4、F1-F5)の位置を中心とする複数の円領域(114)を画定し、前記円領域(114)の重複部分(115、116)を有する2つ以上の物体同士による前記統合物体(U1、U2、U3)を形成することを特徴とする車両制御装置(10)。
  4.  請求項1-3のいずれか1項に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、前記所定の距離範囲内にある2つ以上の物体同士をすべて包含し、ポリゴンの形状を有する前記統合物体(U1、U2、U3)を形成することを特徴とする車両制御装置(10)。
  5.  請求項4に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、前記統合物体(U1、U2)を構成する2つ以上の物体の中から、前記車両(100)の位置(106)を中心とする角度方向に対して所定の角度間隔(Δθ)おきに代表物体(D1、D5、D9、E1、E4、F1、F3、F5)を抽出し、前記代表物体(D1、D5、D9、E1、E4、F1、F3、F5)の位置から前記ポリゴンをなす少なくとも2つの頂点(Vd1-Vd9、Ve1、Ve2、Ve4-Ve7、Vf1-Vf6)を決定することを特徴とする車両制御装置(10)。
  6.  請求項5に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、前記外界状態検出部(80)の検出性能に応じて前記所定の角度間隔(Δθ)を設定し、前記ポリゴンをなす少なくとも2つの頂点(Vd1-Vd9、Ve1、Ve2、Ve4-Ve7、Vf1-Vf6)を決定することを特徴とする車両制御装置(10)。
  7.  請求項4-6のいずれか1項に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、前記統合物体(U1、U2、U3)を構成する2つ以上の物体の中から、前記車両(100)に相対的に近い位置にある物体を代表物体(E3)として抽出し、前記代表物体(E3)の位置から前記ポリゴンをなす少なくとも1つの頂点(Ve3)を決定することを特徴とする車両制御装置(10)。
  8.  請求項5-7のいずれか1項に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、前記代表物体(D1、D5、D9、E1、E3、E4、F1、F3、F5)の位置を中心とする円(122)上であって、前記車両(100)の位置に最も近い点を前記ポリゴンの頂点(Vd2-Vd4、Ve2-Ve4、Vf2-Vf4)として決定することを特徴とする車両制御装置(10)。
  9.  請求項8に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、角度方向の最端側に対応する前記代表物体(D1、D9、E1、E4、F1、F5)の位置を中心とする円(122)上であって、最大角度又は最小角度に相当する位置にある1点ずつを前記ポリゴンの頂点(Vd1、Vd5、Ve1、Ve5、Vf1、Vf4)として決定することを特徴とする車両制御装置(10)。
  10.  請求項9に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、角度方向の最端側に対応する前記代表物体(D1)の位置を中心とする円(122)上に前記ポリゴンの頂点が複数存在する場合、隣接する頂点(Vd1、Vd2)の間を円弧状に補間して得た1つ以上の補間点を前記ポリゴンの頂点(Vd8、Vd9)として決定することを特徴とする車両制御装置(10)。
  11.  請求項4-10のいずれか1項に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、前記統合物体(U1、U2、U3)を構成するすべての物体の位置よりも奥側にある少なくとも1点を前記ポリゴンの頂点(Vd6、Vd7、Ve6、Ve7、Vf5、Vf6)として決定することを特徴とする車両制御装置(10)。
  12.  請求項11に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、角度方向の最端側に対応する前記代表物体(D1、D9、E1、E4、F1、F5)の位置と前記車両(100)の位置(106)の2点を結ぶ直線(131-134、154、156)上であって、前記代表物体(D1、D9、E1、E4、F1、F5)の位置から所定の長さだけ奥側にある1点を前記ポリゴンの頂点(Vd6、Vd7、Ve6、Ve7、Vf6)として決定することを特徴とする車両制御装置(10)。
  13.  請求項12に記載の車両制御装置(10)において、
     前記統合物体形成部(84)は、前記代表物体(F5)の位置から所定の長さだけ奥側にある1点(158)が、前記車両(100)が走行しようとするレーン(150)の上に存在する場合、前記所定の長さを短縮することで、前記レーン(150)の上に存在しない別の1点を前記ポリゴンの頂点(Vf5)として決定することを特徴とする車両制御装置(10)。
  14.  請求項1-13のいずれか1項に記載の車両制御装置(10)において、
     前記干渉性予測部(88)は、前記統合物体(U1、U2、U3)の境界線(136、138、160)のうち前記車両(100)に面する部分(140、142)と前記車両(100)の間の位置関係から、前記車両(100)に対して接触又は接近する可能性を予測することを特徴とする車両制御装置(10)。
  15.  請求項1-14のいずれか1項に記載の車両制御装置(10)において、
     前記干渉性予測部(88)による予測結果に応じて前記車両(100)の挙動を制御する車両制御部(60)をさらに備えることを特徴とする車両制御装置(10)。
PCT/JP2017/031554 2016-09-30 2017-09-01 車両制御装置 WO2018061613A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018542030A JP6780006B2 (ja) 2016-09-30 2017-09-01 車両制御装置
US16/337,622 US11027728B2 (en) 2016-09-30 2017-09-01 Vehicle control device
CN201780060844.7A CN109844840B (zh) 2016-09-30 2017-09-01 车辆控制装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-193727 2016-09-30
JP2016193727 2016-09-30

Publications (1)

Publication Number Publication Date
WO2018061613A1 true WO2018061613A1 (ja) 2018-04-05

Family

ID=61763402

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/031554 WO2018061613A1 (ja) 2016-09-30 2017-09-01 車両制御装置

Country Status (4)

Country Link
US (1) US11027728B2 (ja)
JP (1) JP6780006B2 (ja)
CN (1) CN109844840B (ja)
WO (1) WO2018061613A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210035169A1 (en) * 2018-03-29 2021-02-04 Twinner Gmbh Vehicle detection system
JP2022545173A (ja) * 2019-08-21 2022-10-26 ウェイモ エルエルシー 自律車両のポリライン輪郭表現
JP7382200B2 (ja) 2019-10-10 2023-11-16 株式会社日立製作所 乗降判定装置、乗降判定方法及び乗降判定プログラム
WO2024034332A1 (ja) * 2022-08-10 2024-02-15 日立Astemo株式会社 フリースペース検知装置、物***置の正規化方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3495220B1 (en) * 2017-12-11 2024-04-03 Volvo Car Corporation Path prediction for a vehicle
JP7073880B2 (ja) * 2018-04-19 2022-05-24 トヨタ自動車株式会社 進路決定装置
CN110435648B (zh) * 2019-07-26 2021-02-26 中国第一汽车股份有限公司 车辆的行驶控制方法、装置、车辆和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097392A (ja) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp 警告表示方法および警告表示プログラム
JP2015075966A (ja) * 2013-10-09 2015-04-20 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5443930B2 (ja) 2009-10-01 2014-03-19 本田技研工業株式会社 車両の走行安全装置
JP5693994B2 (ja) * 2011-02-16 2015-04-01 富士重工業株式会社 車両検出装置
DE112012006868B4 (de) * 2012-09-03 2022-09-22 Toyota Jidosha Kabushiki Kaisha Kollisionsbestimmungsvorrichtung und Kollisionsbestimmungsverfahren
JP2016001464A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097392A (ja) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp 警告表示方法および警告表示プログラム
JP2015075966A (ja) * 2013-10-09 2015-04-20 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210035169A1 (en) * 2018-03-29 2021-02-04 Twinner Gmbh Vehicle detection system
US11933602B2 (en) * 2018-03-29 2024-03-19 Twinner Gmbh Vehicle detection system
JP2022545173A (ja) * 2019-08-21 2022-10-26 ウェイモ エルエルシー 自律車両のポリライン輪郭表現
JP7346707B2 (ja) 2019-08-21 2023-09-19 ウェイモ エルエルシー 自律車両のポリライン輪郭表現
US11938926B2 (en) 2019-08-21 2024-03-26 Waymo Llc Polyline contour representations for autonomous vehicles
JP7382200B2 (ja) 2019-10-10 2023-11-16 株式会社日立製作所 乗降判定装置、乗降判定方法及び乗降判定プログラム
WO2024034332A1 (ja) * 2022-08-10 2024-02-15 日立Astemo株式会社 フリースペース検知装置、物***置の正規化方法

Also Published As

Publication number Publication date
US11027728B2 (en) 2021-06-08
CN109844840A (zh) 2019-06-04
CN109844840B (zh) 2022-04-08
JPWO2018061613A1 (ja) 2019-06-24
JP6780006B2 (ja) 2020-11-04
US20200031342A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
WO2018061613A1 (ja) 車両制御装置
JP6361567B2 (ja) 自動運転車両システム
JP7001628B2 (ja) 自動運転車両の駐車軌跡の計画
US11467596B2 (en) Target abnormality determination device
WO2018079069A1 (ja) 車両制御装置
JP6677822B2 (ja) 車両制御装置
CN105835886B (zh) 驾驶辅助装置
JP6555067B2 (ja) 車線変更支援装置
CN112046501B (zh) 自动驾驶装置和方法
US9896098B2 (en) Vehicle travel control device
WO2018061612A1 (ja) 車両制御装置
JP6827107B2 (ja) 車両制御装置
JP2018039412A (ja) 車両用運転支援装置
CN105807763A (zh) 车辆***
CN110171421B (zh) 车辆控制装置
US20170369077A1 (en) Vehicle control device
CN106541946A (zh) 车速控制装置
JP7163729B2 (ja) 車両制御装置
JP7156252B2 (ja) 運転支援装置
JP7152339B2 (ja) 走行制御装置、走行制御方法、およびプログラム
WO2018173175A1 (ja) 車両制御装置
JP2007004711A (ja) 車両用進路推定装置
CN113525373A (zh) 一种车辆的变道控制***、控制方法
WO2021199674A1 (ja) 駐車支援装置、駐車支援システム、及び駐車支援方法
JP2022126341A (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855571

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018542030

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17855571

Country of ref document: EP

Kind code of ref document: A1