WO2020200683A1 - Method for determining the yaw rate of a target object on the basis of sensor data, for example a high-resolution radar - Google Patents

Method for determining the yaw rate of a target object on the basis of sensor data, for example a high-resolution radar Download PDF

Info

Publication number
WO2020200683A1
WO2020200683A1 PCT/EP2020/056618 EP2020056618W WO2020200683A1 WO 2020200683 A1 WO2020200683 A1 WO 2020200683A1 EP 2020056618 W EP2020056618 W EP 2020056618W WO 2020200683 A1 WO2020200683 A1 WO 2020200683A1
Authority
WO
WIPO (PCT)
Prior art keywords
target object
vehicle
yaw rate
center
detections
Prior art date
Application number
PCT/EP2020/056618
Other languages
German (de)
French (fr)
Inventor
Dan Oprisan
Philipp RUESS
Original Assignee
Zf Friedrichshafen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Friedrichshafen Ag filed Critical Zf Friedrichshafen Ag
Publication of WO2020200683A1 publication Critical patent/WO2020200683A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/589Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S15/588Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Definitions

  • the present disclosure relates to a method for evaluating sensor data, in particular in the field of vehicle sensors for driver assistance systems, autonomous vehicles or semi-autonomous vehicles.
  • the invention is based on the object of providing a method and an evaluation unit which improves the determination of the yaw rate. This object is achieved by the method according to claim 1 and the evaluation unit according to claim 10. Further advantageous embodiments of the invention emerge from the subclaims and the following description of preferred exemplary embodiments of the present invention.
  • the exemplary embodiments show a method for determining the yaw rate of a target object, comprising receiving sensor data which include multiple detections describing the target object, estimating the position of the yaw center of the target object on the basis of the detections, and determining the yaw rate on the basis the estimated location of the greed center.
  • the yaw rate describes the speed of rotation of an object around the vertical axis at a defined reference point, here called the yaw center.
  • the multiple detections preferably provide a point cloud which describes the target object.
  • the vehicle can in particular be a driverless autonomous vehicle or a partially autonomous vehicle.
  • a driverless autonomous vehicle or a partially autonomous vehicle.
  • it can be a land, air or water vehicle, for example a driverless transport system (AGV), an autonomous car, a rail vehicle, a drone or a boat.
  • AGV driverless transport system
  • the sensor data originate, for example, from one or more sensors which are designed to detect the surroundings of a vehicle.
  • the sensors can in particular be cameras, radar sensors, lidar sensors, ultrasonic sensors or the like.
  • the method preferably comprises a combination of a least squares estimation method of several detections with an orientation estimation based on the principal component analysis, together with an estimation of the yaw center.
  • the yaw rate is determined, for example, by solving an overdetermined model equation which estimates the movement of the target object.
  • a model equation can be used here, for example, which contains the amount of the target object speed and the yaw rate of the target object as unknowns.
  • the model equation is solved, for example, by inserting N detections or measuring points of the sensor data into the model equation in order to obtain an equation system with two unknowns and N equations.
  • the system of equations can be solved, for example, with the aid of a least square estimation method.
  • the sensor data are available, for example, as a point cloud that includes location and speed information of targets of the target object.
  • the position of the yaw center can be estimated, for example, by estimating the coordinates of the cluster center of the point cloud.
  • the cluster center can be determined as the center of gravity of the point cloud.
  • the location of the yaw center can also be estimated based on a principal component analysis.
  • the orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in that the angle of the main components is evaluated.
  • the position of the yaw center can be estimated as the center of a rear axle of the target object.
  • the exemplary embodiments also show an evaluation unit with a processor which is designed to carry out the method described here.
  • CPU central processing unit
  • the method can be realized, for example, as a computer-implemented method that is executed by a processor of an evaluation unit.
  • the subject matter is therefore also a computer program that executes the method described here.
  • the detection, checking and processing for example the determination of the yaw rate, is preferably carried out in real time. That is, the determination of the yaw rate of a target object on the basis of the sensor data, for example from a high-resolution radar, is preferably instantaneous. Instantaneous means here that the yaw rate is estimated within a measurement cycle, i.e. without any history information.
  • FIG. 1 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention
  • FIG. 2 is a block diagram showing an exemplary configuration of an autonomous driving control device
  • FIG. 3 shows schematically the data of a vehicle measured by a radar sensor
  • FIG. 4 and 5 schematically show the step-by-step determination of the center of rotation of a gyrating vehicle from a point cloud provided by a radar sensor;
  • FIG. 6 shows, in a flow diagram, the determination of the center of rotation of a gurgling vehicle from a point cloud provided by a radar sensor
  • FIG. 7 shows the determination of the yaw rate of a yawing vehicle from a point cloud provided by a radar sensor with an already determined center of rotation.
  • FIG. 1 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention.
  • the vehicle comprises several components which are connected to one another via a vehicle communication network 28.
  • the vehicle communication network 28 may, for example, be a standard vehicle communication network installed in the vehicle, such as a CAN bus (controller area network), a LIN bus (local interconnect network), a LAN bus (local area network), a MOST bus and / or a FlexRay bus (registered trademark) or the like.
  • the autonomous vehicle 1 comprises a control unit 12 (ECU 1).
  • This control unit 12 controls a steering system.
  • the steering system refers to the components that enable directional control of the vehicle.
  • the autonomous vehicle 1 further includes a control unit 14 (ECU 2) that controls a braking system.
  • the braking system refers to the components that enable the vehicle to brake.
  • the autonomous vehicle 1 further comprises a control unit 16 (ECU 3) which controls a drive train.
  • the drive train relates to the drive components of the vehicle.
  • the powertrain may include an engine, a transmission, a drive / propeller shaft, a differential, and a final drive.
  • the autonomous vehicle 1 further includes an autonomous driving control unit 18 (ECU 4).
  • the control unit for autonomous driving 18 is designed to control the autonomous vehicle 1 in such a way that it can operate entirely or partially without the influence of a human driver in road traffic.
  • the control unit for autonomous driving 18, which is described in more detail in FIG. 2 and the associated description, controls one or more vehicle subsystems while the vehicle is being operated in the autonomous mode, namely the braking system 14, the steering system 12 and the drive system 14.
  • the control unit for autonomous driving 18 can communicate with the corresponding control units 12, 14 and 16, for example via the vehicle communication network 28.
  • the vehicle further comprises one or more sensors 26 which are designed to detect the surroundings of the vehicle, the sensors being on the vehicle are mounted and capture images of the area around the vehicle, or detect objects or conditions in the area around the vehicle.
  • the environment sensors 26 include, in particular, cameras, radar sensors, lidar sensors, ultrasonic sensors or the like.
  • the environment sensors 26 can be arranged inside the vehicle or outside the vehicle (for example on the outside of the vehicle).
  • a camera can be provided in a front area of the vehicle for taking pictures of an area in front of the vehicle.
  • GPS / GNSS unit The vehicle sensor system of the vehicle also includes a satellite navigation unit 24 (GPS / GNSS unit).
  • GPS / GNSS is representative of all global navigation satellite systems (GNSS), such as GPS, A-GPS, Galileo, GLONASS ( Russia), Compass (China), IRNSS (India) and the like.
  • the input interface can include, for example, keyboards, switches, touch-sensitive screens (touchscreens), Eye-T rackers and the like.
  • the control unit for autonomous driving 18 determines, on the basis of available data about a specified route, environmental data recorded by environmental sensors, as well as vehicle operating parameters recorded by the vehicle sensors, the control unit 18 from the control units 12, 14 and 16 are supplied, parameters for the autonomous operation of the vehicle (for example target speed, target torque, distance to the vehicle ahead, distance to the edge of the road, steering process and the like).
  • the control unit for autonomous driving 18 is designed to analyze and assess the route of surrounding vehicles, for example vehicles of other traffic participants.
  • FIG. 2 is a block diagram showing an exemplary configuration of an autonomous driving control unit 18 (ECU 4).
  • the control unit for autonomous driving 18 can be, for example, a control device (electronic control unit ECU or electronic control module ECM).
  • the control unit for autonomous driving 18 (ECU 4) comprises a processor 40.
  • the processor 40 can be, for example, a computing unit such as a central processing unit (CPU) that executes program instructions.
  • the processor of the control unit for autonomous driving 18 is designed to calculate an optimal driving position (following distance, lateral offset) while driving behind a vehicle in front, depending on the planned driving maneuver, based on the information from the sensor-based environment model, taking into account the permissible lane area.
  • the calculated optimal driving position is used to control actuators of the vehicle subsystems 12, 14 and 16, for example braking, drive and / or steering actuators.
  • the autonomous driving control unit 18 further includes a memory and an input / output interface.
  • the memory can consist of one or more non-transitory computer-readable media and comprises at least a program storage area and a data storage area.
  • the autonomous driving control unit 18 may further comprise an external storage drive 44, such as an external hard disk drive (HDD), a flash memory drive, or a non-volatile solid state drive (SSD).
  • the control unit for autonomous driving 18 further comprises a communication interface 45 via which the control unit can communicate with the vehicle communication network (28 in FIG. 2).
  • 3 shows schematically the data of a vehicle measured by an environment sensor 26.
  • a high-resolution radar is used as the environment sensor 26, for example, which generates a plurality of detections Pi to PN (“targets”) for a target object, which can be assigned to a target object using methods known to those skilled in the art. The principles of the invention are described below using a radar sensor.
  • the target object is here, for example, a vehicle 50 with a rear axle 51.
  • the radar is able to determine the position of the detections Pi to PN, for example in a polar coordinate system (distance h and azimuth angle q), as well as to detect the radial velocity v rj of the detections.
  • the radial velocity distribution v ri is known at various points of the target object Pi to PN for a given measurement time.
  • the reference point around which the vehicle rotates can be precisely described through the center of the rear axle. This reference point is referred to below as the center of rotation 64.
  • FIGS. 4 and 5 schematically show the step-by-step determination of the center of rotation of a gurgling vehicle from a point cloud provided by a radar sensor (also called “detections” or “targets”). Since there are several spatially distributed detections for a target object, the geometric extent and also the orientation of the target object can be determined. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in that the angle of the main components is evaluated.
  • an environment sensor 26 for example a radar sensor, detects a target object as a point cloud in its field of view 260.
  • the point cloud consists of individual detections, which are determined from distance measurements and direction measurements in the field of vision of the sensor.
  • the point cloud or the individual detections contain not only distance (location) but also (relative)
  • the geometric extent and thus also the orientation of the target object, in this case the vehicle 50, can therefore be determined.
  • the main components 61 and 62 that are orthogonal to one another are determined from the point cloud by means of main component analysis. Algorithms for this purpose are well known from the prior art.
  • conclusions can also be drawn about the geometric extent of the target object from the point cloud.
  • FIG. 4 shows how a rectangle 60 is fitted into the point cloud by means of least square or another error function minimization method. This rectangle 60 is used at this point as a simplified shape of the target object and uses the knowledge that the target object is a vehicle 50 whose shape can be approximated as a rectangle.
  • the rectangle is fitted to the point cloud, for example, under the auxiliary condition that the respective sides of the rectangle a and b are orthogonal to the main components 61 and 62 stand.
  • An error function f can then be determined, with f adding up the shortest distances between a point P 1 and the rectangle 60 and minimizing this function using the least square method or another error function minimization algorithm.
  • FIG. 5 shows the calculated rectangle 60 with side lengths a and b including main components 61 and 62 without the point cloud determined by the radar sensor.
  • the position of the rear axle 63 can be estimated approximately. Therefore, the location of the rear axle 63 can be estimated by assuming the rear axle 63 to be parallel to the rear of the vehicle at a distance L an.
  • the rear of the vehicle can be determined from the side lengths a and b of the rectangle 60 and the mean speed vector v ‘of the vehicle. Since vehicles are longer than they are wide, only one of the two shorter sides can be considered as the rear. So first it is determined whether a or b is shorter.
  • Fig. 6 shows in a flow diagram the determination of the center of rotation of a girie-generating vehicle from a point cloud provided by a radar sensor. The method is carried out, for example, by a sensor evaluation unit, such as a control unit for autonomous driving (18 in FIG. 1) or the like.
  • a first step S60 the mutually orthogonal main components 61 and 62 are determined from the point cloud of the radar sensor by means of main component analysis.
  • an angle f is determined from the main components 61 and 62 (see FIG. 8) which indicates the orientation of the vehicle relative to the sensor 26.
  • the rectangle lengths a and b are determined using the point cloud and the main components. For this purpose, use is made of the knowledge that a and b are orthogonal to their respective main component and then the error function f is minimized using the least square method or another error function minimization method, so that the two a and b are determined for which the error function f becomes minimal.
  • the error function f can be expressed as follows, for example
  • a next step S64 the rear of the vehicle is determined from the direction of the mean speed v 'and the rectangular side lengths a and b, using the knowledge that only the short rectangular side length min (a, b) is possible as the rear and an it is assumed that the vehicle is traveling forwards, the rear consequently being the length of the rectangle which is in the opposite direction of the mean speed v '.
  • the position and orientation of the rear axle 63 are estimated to be parallel to the rear and at a distance L.
  • step S66 the center of rotation 64 is now estimated to be in the center of the rear axle 63. In this way, the location of the center of rotation 64 is now sufficiently known to arrive at a robust estimate of the yaw rate.
  • FIG. 7 shows the determination of the yaw rate of a yawing vehicle from a point cloud provided by a radar sensor with an already determined center of rotation.
  • the method is carried out, for example, by a sensor evaluation unit, such as a control unit for autonomous driving (18 in FIG. 1) or the like.
  • a sensor evaluation unit such as a control unit for autonomous driving (18 in FIG. 1) or the like.
  • the point cloud is received, which is supplied by a sensor and represents the measurement data of this sensor.
  • the sensor can be a radar, a lidar or a camera sensor.
  • the point cloud consists of distance measurements of a detected object in the field of view of the sensor. In addition to distance (location) information, the point cloud also contains (relative) speed information.
  • the center of rotation of the object is determined from the point cloud.
  • the target object orientation is determined by principal component analysis.
  • the target object orientation can be obtained from another source instead of the main component analysis. This can be determined with the help of another sensor in a fusion system (eg lidar or camera). Or by using a priori knowledge (e.g. cross traffic at the intersection).
  • a third step S73 the points Pi to P N of the point cloud are inserted into a model equation which contains the two unknowns amount of target object speed v and yaw rate w.
  • the model equation typically describes the movement behavior of a vehicle, which in turn is approximated as a rectangle with side lengths a and b.
  • the model equation is over-determined with two unknowns and N> 2 measuring points. Therefore, the model equation is evaluated for several detections from one measuring cycle, which results in an overdetermined system of equations with two unknowns and N equations, where N stands for the number of observed detections (points of the point cloud).
  • This system of equations is solved using a least squares estimation method and an estimate of the yaw rate w and the magnitude of the speed vector v is obtained.
  • the calculated yaw rate w is now output, so that other systems systems of the vehicle, for example a parking, braking or driving assistant can use these for their function.
  • the geometric extent and thus also the orientation of the target object can be determined.
  • the orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in which the angle of the main components is evaluated.
  • the assumption is made that an estimate using the coordinates of the cluster center is sufficient. Simulations have confirmed that the exact position of the center of rotation does not need to be known to get a robust yaw rate estimate. There remain two unknowns (amount of the target object speed and yaw rate) for a model equation, so the equation is underdetermined.
  • the model equation is therefore evaluated for several detections from one measurement cycle, which results in an overdetermined system of equations with two unknowns and N equations, where N stands for the number of detections considered.
  • This system of equations is solved using a least squares estimation method and an estimate of the yaw rate and the magnitude of the speed vector is obtained.
  • the exemplary embodiments thus show a combination of a least squares estimation method of several detections with an orientation estimation based on the principal component analysis, together with an estimation of the rotation center.
  • the amount of speed and the yaw rate of the object can be evaluated within one measuring cycle with just one radar sensor.
  • the methods described so far are dependent on at least two radar sensors to estimate the yaw rate of a target object in a measuring cycle, or, if one radar sensor is used, require several measuring cycles to determine the yaw rate.
  • FIG. 8 illustrates a model equation as used in FIG. 7 to estimate the yaw rate w.
  • the individual variables here designate the following physical quantities, as shown in FIG. 8:
  • Q, r and v D designate the angle, distance and radial speed of a detection measured by sensor 26 (see FIG. 3).
  • f denotes the orientation angle of the vehicle 10 relative to the sensor 26 determined by means of the main axis transformation (cf. step S61 in FIG. 6).
  • x R and y R denote the Koordina th of the yaw center 64 (as determined, for example, according to the method of FIG. 6), w denotes the searched yaw rate of the vehicle and v denotes the linear speed of the vehicle 10, the radial velocity of the vehicle measured by the sensor 26 10.
  • the point cloud p that the sensor delivers consists of N detections with at least the entries r £ , v D i and 0 £ :
  • Equation (2) can now be applied to every element of the point cloud P £ ep, so that an equation system with N equations is created. This can be represented as a vector equation with the vectors y and p, as well as the matrix X:
  • equation (3) By inverting the matrix X, equation (3) can be rearranged according to.
  • equation (3) For the least square method estimation, another transposition of X is recommended, so that another equation is obtained:

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

A method for determining the yaw rate (ω) of a target object (50), comprising: receiving sensor data which comprise a scatter plot (P1,... PN) describing the target object (50); estimating the location of the yaw centre (64) of the target object (50) on the basis of the scatter plot (P1,... PN); and determining the yaw rate (ω) on the basis of the estimated location of the yaw centre (64).

Description

Verfahren zur Bestimmung der Gierrate eines Zielobiekts Method for determining the yaw rate of a target object
auf Grundlage der Sensordaten beispielsweise eines hochauflösenden Radars based on the sensor data, for example from high-resolution radar
Die vorliegende Offenbarung betrifft ein Verfahren zum Auswerten von Sensordaten, insbesondere im Gebiet der Fahrzeugsensorik für Fahrerassistenzsysteme, autono me Fahrzeuge oder halbautonome Fahrzeuge. The present disclosure relates to a method for evaluating sensor data, in particular in the field of vehicle sensors for driver assistance systems, autonomous vehicles or semi-autonomous vehicles.
Autonome Fahrzeuge und Fahrassistenzsysteme gewinnen an Relevanz und Ver breitung. Für solche Systeme ist es insbesondere von Bedeutung, dass das Fahr zeug den Fahrweg umliegender Fahrzeuge, beispielsweise von Fahrzeugen anderer Verkehrsteilnehmer richtig einschätzen kann. Um den Fahrweg anderer Fahrzeuge im Straßenverkehr einzuschätzen, ist neben der Ortsinformation und der Bewe gungsgeschwindigkeit auch die Gierrate (Drehung) des einzuschätzenden Fahrzeugs von Bedeutung. Autonomous vehicles and driver assistance systems are becoming increasingly relevant and widespread. For such systems it is particularly important that the vehicle can correctly assess the route of surrounding vehicles, for example vehicles of other road users. In order to estimate the route of other vehicles in road traffic, the yaw rate (rotation) of the vehicle to be assessed is important in addition to the location information and the movement speed.
Es sind bereits Lösungen aus dem Stand der Technik bekannt, die in der Lage sind die Gierrate eines Fahrzeugs basierend auf Sensordaten zu bestimmen. So bestimmt das in Patentoffenbarung DE 102013019804 A1 offengelegte Gerät die Gierrate ei nes anderen Fahrzeugs mit Hilfe zweier Sensoren. Solutions are already known from the prior art which are able to determine the yaw rate of a vehicle based on sensor data. The device disclosed in patent disclosure DE 102013019804 A1 determines the yaw rate of another vehicle with the aid of two sensors.
Es sind auch weitere Lösungen bekannt, welche die Gierrate über zeitliche Filterung (Tracking) der Sensordaten bestimmen. Other solutions are also known which determine the yaw rate by filtering (tracking) the sensor data over time.
Die bekannten Lösungen sind allerdings im zeitlichen Auflösungsvermögen be schränkt, da mehrere zeitlich versetzte Messungen ausgewertet werden müssen, oder es besteht die Notwendigkeit, mehrere Sensoren zu verwenden, was den Auf bau der Messapparatur platz- und ressourcenintensiv macht. The known solutions are, however, limited in their temporal resolving power, since several measurements staggered in time have to be evaluated, or there is a need to use several sensors, which makes the construction of the measuring apparatus space and resource-intensive.
Hiervon ausgehend liegt der Erfindung die Aufgabe zu Grunde, ein Verfahren und eine Auswertungseinheit bereitzustellen, welches die Bestimmung der Gierrate ver bessert. Diese Aufgabe wird durch das Verfahren nach Anspruch 1 und die Auswer tungseinheit nach Anspruch 10 gelöst. Weitere vorteilhafte Ausgestaltungen der Er- findung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung. Proceeding from this, the invention is based on the object of providing a method and an evaluation unit which improves the determination of the yaw rate. This object is achieved by the method according to claim 1 and the evaluation unit according to claim 10. Further advantageous embodiments of the invention emerge from the subclaims and the following description of preferred exemplary embodiments of the present invention.
Die Ausführungsbeispiele zeigen ein Verfahren zur Bestimmung der Gierrate eines Zielobjektes, umfassend ein Empfangen von Sensordaten, welche mehrere Detektio nen umfassen, welche das Zielobjekt beschreibt, ein Abschätzen der Lage des Gier zentrums des Zielobjektes auf Grundlage der Detektionen, sowie ein Bestimmen der Gierrate auf Grundlage des abgeschätzten Ortes des Gierzentrums. Die Gierrate be schreibt hierbei die Rotationsgeschwindigkeit eines Objekts um die Hochachse an einem definierten Referenzpunkt, hier Gierzentrum genannt. Vorzugsweise liefern die mehreren Detektionen liefern eine Punktwolke, welche das Zielobjekt beschreibt. The exemplary embodiments show a method for determining the yaw rate of a target object, comprising receiving sensor data which include multiple detections describing the target object, estimating the position of the yaw center of the target object on the basis of the detections, and determining the yaw rate on the basis the estimated location of the greed center. The yaw rate describes the speed of rotation of an object around the vertical axis at a defined reference point, here called the yaw center. The multiple detections preferably provide a point cloud which describes the target object.
Bei dem Fahrzeug kann es sich insbesondere um ein fahrerloses autonomes oder um ein teilautonom bewegtes Fahrzeug handeln. Es kann sich beispielsweise um ein Land-, Luft- oder Wasserfahrzeug handeln, beispielsweise um ein fahrerloses Trans portsystem (FTS), einen autonomen PKW, ein Schienenfahrzeug, eine Drohne oder ein Boot. The vehicle can in particular be a driverless autonomous vehicle or a partially autonomous vehicle. For example, it can be a land, air or water vehicle, for example a driverless transport system (AGV), an autonomous car, a rail vehicle, a drone or a boat.
Die Sensordaten stammen beispielsweise von ein oder mehreren Sensoren, welche dazu ausgelegt sind, das Umfeld eines Fahrzeugs zu erfassen. Bei den Sensoren kann es sich insbesondere um Kameras, Radar-Sensoren, Lidar-Sensoren, Ultra schall-Sensoren oder dergleichen handeln. The sensor data originate, for example, from one or more sensors which are designed to detect the surroundings of a vehicle. The sensors can in particular be cameras, radar sensors, lidar sensors, ultrasonic sensors or the like.
Das Verfahren umfasst vorzugsweise eine Kombination eines Least Squares- Schätzverfahrens von mehreren Detektionen mit einer Orientierungsschätzung auf Basis der Hauptkomponentenanalyse, zusammen mit einer Abschätzung des Gier zentrums. The method preferably comprises a combination of a least squares estimation method of several detections with an orientation estimation based on the principal component analysis, together with an estimation of the yaw center.
Die Gierrate wird beispielsweise bestimmt durch Lösung einer überbestimmten Mo dellgleichung, welche die Bewegung des Zielobjektes abschätzt. Hierbei kann bei spielsweise eine Modellgleichung verwendet werden, die als Unbekannte den Betrag der Zielobjektsgeschwindigkeit und die Gierrate des Zielobjekts enthält. Die Modellgleichung wird beispielsweise gelöst, indem N Detektionen bzw. Mess punkte der Sensordaten in die Modellgleichung eingesetzt werden, um ein Glei chungssystem mit zwei Unbekannten und N Gleichungen zu erhalten. The yaw rate is determined, for example, by solving an overdetermined model equation which estimates the movement of the target object. A model equation can be used here, for example, which contains the amount of the target object speed and the yaw rate of the target object as unknowns. The model equation is solved, for example, by inserting N detections or measuring points of the sensor data into the model equation in order to obtain an equation system with two unknowns and N equations.
Das Gleichungssystem kann beispielsweise mit Hilfe eines Least-Square- Schätzverfahrens gelöst werden. The system of equations can be solved, for example, with the aid of a least square estimation method.
Die Sensordaten liegen beispielsweise als Punktwolke vor, die Orts- und Geschwin digkeitsinformationen von Zielen des Zielobjektes umfasst. The sensor data are available, for example, as a point cloud that includes location and speed information of targets of the target object.
Das Abschätzen der Lage des Gierzentrums kann beispielsweise durch Abschätzung der Koordinaten des Clusterzentrums der Punkwolke erfolgen. Beispielsweise kann das Clusterzentrum als der Schwerpunkt der Punkwolke ermittelt werden. The position of the yaw center can be estimated, for example, by estimating the coordinates of the cluster center of the point cloud. For example, the cluster center can be determined as the center of gravity of the point cloud.
Die Lage des Gierzentrums kann auch auf Basis einer Hauptkomponentenanalyse abgeschätzt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt bei spielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird. The location of the yaw center can also be estimated based on a principal component analysis. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in that the angle of the main components is evaluated.
Beispielsweise kann die Lage des Gierzentrums als Mitte einer Hinterachse des Ziel objektes abgeschätzt werden. For example, the position of the yaw center can be estimated as the center of a rear axle of the target object.
Die Ausführungsbeispiele zeigen auch eine Auswertungseinheit mit einem Prozes sor, der dazu ausgelegt ist, das hier beschrieben Verfahren durchzuführen. Bei dem Prozessor kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Ver arbeitungseinheit (CPU = central Processing unit) handeln, die Programminstruktio nen ausführt. The exemplary embodiments also show an evaluation unit with a processor which is designed to carry out the method described here. The processor can be, for example, a computing unit such as a central processing unit (CPU = central processing unit) that executes program instructions.
Das Verfahren kann beispielsweise als ein computer-implementiertes Verfahren rea lisiert werden, das von einem Prozessor einer Auswertungseinheit ausgeführt wird. Gegenstand ist somit auch ein Computerprogramm, welches die hier beschriebenen Verfahren ausführt. Die Erfassung, Überprüfung und Verarbeitung, beispielsweise die Bestimmung der Gierrate erfolgt vorzugsweise in Echtzeit. Das heißt, die Bestimmung der Gierrate eines Zielobjekts auf Grundlage der Sensordaten beispielsweise eines hochauflö senden Radars erfolgt vorzugsweise instantan. Instantan bedeutet hier, dass die Schätzung der Gierrate innerhalb eines Messzyklus, also ohne Historieninformation, erfolgt. The method can be realized, for example, as a computer-implemented method that is executed by a processor of an evaluation unit. The subject matter is therefore also a computer program that executes the method described here. The detection, checking and processing, for example the determination of the yaw rate, is preferably carried out in real time. That is, the determination of the yaw rate of a target object on the basis of the sensor data, for example from a high-resolution radar, is preferably instantaneous. Instantaneous means here that the yaw rate is estimated within a measurement cycle, i.e. without any history information.
Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beige fügten Zeichnungen beschrieben, in denen: Embodiments will now be described by way of example and with reference to the accompanying drawings, in which:
Fig. 1 ein Blockdiagramm zeigt, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt; FIG. 1 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention;
Fig. 2 ein Blockdiagramm ist, das eine beispielhafte Konfiguration eines Steuergeräts für autonomes Fahren zeigt; 2 is a block diagram showing an exemplary configuration of an autonomous driving control device;
Fig. 3 die von einem Radarsensor gemessenen Daten eines Fahrzeugs schematisch darstellt; 3 shows schematically the data of a vehicle measured by a radar sensor;
Fig. 4 und Fig. 5 schematisch die schrittweise Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwol ke zeigen; 4 and 5 schematically show the step-by-step determination of the center of rotation of a gyrating vehicle from a point cloud provided by a radar sensor;
Fig. 6 in einem Flussdiagram die Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke schema tisch darstellt; und 6 shows, in a flow diagram, the determination of the center of rotation of a gurgling vehicle from a point cloud provided by a radar sensor; and
Fig. 7 die Bestimmung der Gierrate eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke bei bereits bestimmtem Drehzentrum zeigt. FIG. 7 shows the determination of the yaw rate of a yawing vehicle from a point cloud provided by a radar sensor with an already determined center of rotation.
Fig. 8 eine mögliche Modellgleichung zur Berechnung der Gierrate verdeutlicht. Fig. 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Fahr zeug umfasst mehrere Komponenten, welche via eines Fahrzeugkommunikations netzwerks 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeug kommunikationsnetzwerk wie etwa ein CAN-Bus (Controller area network), ein LIN- Bus (local interconnect network), ein LAN-Bus (local area network), ein MOST-Bus und/oder ein FlexRay-Bus (registered trademark) oder dergleichen sein. 8 illustrates a possible model equation for calculating the yaw rate. FIG. 1 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention. The vehicle comprises several components which are connected to one another via a vehicle communication network 28. The vehicle communication network 28 may, for example, be a standard vehicle communication network installed in the vehicle, such as a CAN bus (controller area network), a LIN bus (local interconnect network), a LAN bus (local area network), a MOST bus and / or a FlexRay bus (registered trademark) or the like.
In dem in FIG. 1 dargestellten Beispiel umfasst das autonome Fahrzeug 1 eine Steu ereinheit 12 (ECU 1 ). Diese Steuereinheit 12 steuert ein Lenksystem. Das Lenksys tem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahr zeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit 14 (ECU 2), die ein Bremssystem steuert. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das autonome Fahr zeug 1 umfasst ferner eine Steuereinheit 16 (ECU 3), die einen Antriebsstrang steu ert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahr zeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs- /Propellerwelle, ein Differential und einen Achsantrieb umfassen. In the one shown in FIG. 1, the autonomous vehicle 1 comprises a control unit 12 (ECU 1). This control unit 12 controls a steering system. The steering system refers to the components that enable directional control of the vehicle. The autonomous vehicle 1 further includes a control unit 14 (ECU 2) that controls a braking system. The braking system refers to the components that enable the vehicle to brake. The autonomous vehicle 1 further comprises a control unit 16 (ECU 3) which controls a drive train. The drive train relates to the drive components of the vehicle. The powertrain may include an engine, a transmission, a drive / propeller shaft, a differential, and a final drive.
Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit für autonomes Fahren 18 (ECU 4). Die Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, das au tonome Fahrzeug 1 so zu steuern, dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Die Steuereinheit für autonomes Fahren 18, die in Fig. 2 und der zugehörigen Beschreibung näher be schrieben ist, steuert ein oder mehrere Fahrzeugsubsysteme während das Fahr zeug im autonomen Modus betrieben wird, nämlich das Bremssystem 14, das Lenk system 12 und das Antriebssystem 14. Hierfür kann die Steuereinheit für autonomes Fahren 18 beispielsweise über das Fahrzeugkommunikationsnetzwerk 28 mit den entsprechenden Steuereinheiten 12, 14 und 16 kommunizieren. The autonomous vehicle 1 further includes an autonomous driving control unit 18 (ECU 4). The control unit for autonomous driving 18 is designed to control the autonomous vehicle 1 in such a way that it can operate entirely or partially without the influence of a human driver in road traffic. The control unit for autonomous driving 18, which is described in more detail in FIG. 2 and the associated description, controls one or more vehicle subsystems while the vehicle is being operated in the autonomous mode, namely the braking system 14, the steering system 12 and the drive system 14. For this purpose, the control unit for autonomous driving 18 can communicate with the corresponding control units 12, 14 and 16, for example via the vehicle communication network 28.
Das Fahrzeug umfasst ferner ein oder mehrere Sensoren 26, welche dazu ausgelegt sind, das Umfeld des Fahrzeugs zu erfassen, wobei die Sensoren am Fahrzeug montiert sind und Bilder des Umfelds des Fahrzeugs erfassen, oder Objekte oder Zustände im Umfeld des Fahrzeugs erkennen. Die Umfeldsensoren 26 umfassen insbesondere Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen. Die Umfeldsensoren 26 können innerhalb des Fahrzeugs oder außer halb des Fahrzeugs (z. B. an der Außenseite des Fahrzeugs) angeordnet sein. Bei spielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs zur Auf nahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs vorgesehen sein. The vehicle further comprises one or more sensors 26 which are designed to detect the surroundings of the vehicle, the sensors being on the vehicle are mounted and capture images of the area around the vehicle, or detect objects or conditions in the area around the vehicle. The environment sensors 26 include, in particular, cameras, radar sensors, lidar sensors, ultrasonic sensors or the like. The environment sensors 26 can be arranged inside the vehicle or outside the vehicle (for example on the outside of the vehicle). For example, a camera can be provided in a front area of the vehicle for taking pictures of an area in front of the vehicle.
Die Fahrzeugsensorik des Fahrzeugs umfasst ferner eine Satellitennavigationsein heit 24 (GPS/GNSS-Einheit). Es sei darauf hingewiesen, dass im Kontext der vorlie genden Erfindung GPS/GNSS stellvertretend für sämtliche Globale Navigationssatel litensysteme (GNSS) steht, wie z.B. GPS, A-GPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien) und dergleichen. The vehicle sensor system of the vehicle also includes a satellite navigation unit 24 (GPS / GNSS unit). It should be noted that in the context of the present invention, GPS / GNSS is representative of all global navigation satellite systems (GNSS), such as GPS, A-GPS, Galileo, GLONASS (Russia), Compass (China), IRNSS (India) and the like.
Das Fahrzeug umfasst ferner eine Benutzerschnittstelle 32 (HMI = Human-Machine- Interface), die einem Fahrzeuginsassen ermöglicht, mit einem oder mehreren Fahr zeugsystemen in Interaktion zu stehen. Diese Benutzerschnittstelle 32 (beispielswei se eine GUI = graphical user interface) kann eine elektronische Anzeige zum Ausge ben einer Graphik, von Symbolen und/oder Inhalt in Text-form, und eine Eingabe schnittstelle zum Empfangen einer Eingabe (beispielsweise manuelle Eingabe, Spracheingabe und Eingabe durch Gesten, Kopf- oder Augen-bewegungen) umfas sen. Die Eingabeschnittstelle kann beispielsweise Tastaturen, Schalter, berührungs empfindliche Bildschirme (Touchscreen), Eye-T racker und dergleichen umfassen. The vehicle further comprises a user interface 32 (HMI = Human Machine Interface) which enables a vehicle occupant to interact with one or more vehicle systems. This user interface 32 (for example a GUI = graphical user interface) can be an electronic display for displaying graphics, symbols and / or content in text form, and an input interface for receiving input (for example manual input, voice input and input gestures, head or eye movements). The input interface can include, for example, keyboards, switches, touch-sensitive screens (touchscreens), Eye-T rackers and the like.
Wenn steuerungsseitig oder fahrerseitig ein Betriebszustand für das autonome Fah ren aktiviert ist, bestimmt die Steuereinheit für autonomes Fahren 18, auf Grundlage von zur Verfügung stehenden Daten über eine vorgegebene Fahrtstrecke, von Um weltsensoren aufgenommenen Umgebungsdaten, sowie von mittels den Fahr zeugsensoren erfassten Fahrzeugbetriebsparametern, die der Steuereinheit 18 von den Steuereinheiten 12, 14 und 16 zugeleitet werden, Parameter für den autonomen Betrieb des Fahrzeugs (beispielsweise Soll-Geschwindigkeit, Soll-Moment, Abstand zum Vorausfahrzeug, Abstand zum Fahrbahnrand, Lenkvorgang und dergleichen). Beispielsweise ist die Steuereinheit für autonomes Fahren 18 dazu ausgelegt den Fahrweg umliegender Fahrzeuge, beispielsweise von Fahrzeugen anderer Verkehrs teilnehmer zu analysieren und einzuschätzen. If an operating state for autonomous driving is activated on the control side or on the driver side, the control unit for autonomous driving 18 determines, on the basis of available data about a specified route, environmental data recorded by environmental sensors, as well as vehicle operating parameters recorded by the vehicle sensors, the the control unit 18 from the control units 12, 14 and 16 are supplied, parameters for the autonomous operation of the vehicle (for example target speed, target torque, distance to the vehicle ahead, distance to the edge of the road, steering process and the like). For example, the control unit for autonomous driving 18 is designed to analyze and assess the route of surrounding vehicles, for example vehicles of other traffic participants.
FIG. 2 zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuer einheit für autonomes Fahren 18 (ECU 4) darstellt. Bei der Steuereinheit für autono mes Fahren 18 kann es sich beispielsweise um ein Steuergerät (electronic control unit ECU oder electronic control module ECM) handeln. Die Steuereinheit für auto nomes Fahren 18 (ECU 4) umfasst einen Prozessor 40. Bei dem Prozessor 40 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central Processing unit) handeln, die Programminstruktionen ausführt. Der Prozessor der Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, beim Fah ren hinter einem Vorausfahrzeug je nach geplantem Fahrmanöver, basierend auf den Informationen des sensorbasierten Umfeldmodells, eine optimale Fahrposition (Folgeabstand, Lateral versatz) unter Berücksichtigung des zulässigen Fahrspurbe reichs zu berechnen. Die errechnete optimale Fahrposition wird zur Steuerung von Aktuatoren der Fahrzeugsubsysteme 12, 14 und 16, beispielsweise von Brems-, An triebs- und/oder Lenkaktuatoren, verwendet. Die Steuereinheit für autonomes Fahren 18 umfasst ferner einen Speicher und eine Eingabe/ Ausgabe-Schnittstelle. Der Speicher kann aus einem oder mehreren nichtflüchtigen computerlesbaren Medien bestehen und umfasst mindestens einen Programmspeicherbereich und einen Da tenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen von verschiedenen Arten von Speicher umfassen, beispiels weise von einem Nur-Lese-Speicher 43 (ROM = Read-only memory) und einem Di rektzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM ("DRAM"), synchron DRAM ("SDRAM") usw.). Ferner kann die Steuereinheit für au tonomes Fahren 18 ein externes Speicherlaufwerk 44, wie beispielsweise ein exter nes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Steuerein heit für autonomes Fahren 18 umfasst ferner eine Kommunikationsschnittstelle 45, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in Fig. 2) kommunizieren kann. Fig. 3 zeigt schematisch die von einem Umgebungssensor 26 gemessenen Daten eines Fahrzeugs. Als Umgebungssensor 26 wird beispielsweise ein hochauflösender Radar verwendet, der für ein Zielobjekt mehrere Detektionen Pi bis PN („Ziele“) gene riert, die mittel dem Fachmann bekannten Verfahren einem Zielobjekt zugeschrieben werden können. Im Folgenden werden die Prinzipien der Erfindung anhand eines Radarsensors beschrieben. Diese Prinzipien lassen sich allerdings genauso für Da ten von anderen Sensortypen, wie beispielsweise ToF-, Lidar-, Ultraschall- oder Ka merasensoren anwenden. Bei dem Zielobjekt handelt es sich hier beispielsweise um ein Fahrzeug 50 mit Hinterachse 51 . Das Radar ist in der Lage, die Position der De tektionen Pi bis PN beispielsweise in einem Polarkoordinatensystem (Abstand h und Azimutwinkel q,) zu bestimmen, sowie die Radialgeschwindigkeit vrj der Detektionen zu erfassen. Dadurch ist die radiale Geschwindigkeitsverteilung vr i an verschiedenen Ortspunkten des Zielobjekts Pi bis PN für einen gegebenen Messzeitpunkt bekannt. Bei einer reinen Translationsbewegung stimmt der gemessene Geschwindigkeitsvek tor V, an dem gegebenen Messpunkt P, in Betrag und Phase mit der mittleren Zielob jektgeschwindigkeit v‘ = Mittelwert (v,) überein. Für diese Situationen sind Verfahren bekannt, um aus den gemessenen Radardetektionen den Objektgeschwindigkeits vektor V, zu bestimmen, auf die an dieser Stelle nicht näher eingegangen wird. FIG. 2 is a block diagram showing an exemplary configuration of an autonomous driving control unit 18 (ECU 4). The control unit for autonomous driving 18 can be, for example, a control device (electronic control unit ECU or electronic control module ECM). The control unit for autonomous driving 18 (ECU 4) comprises a processor 40. The processor 40 can be, for example, a computing unit such as a central processing unit (CPU) that executes program instructions. The processor of the control unit for autonomous driving 18 is designed to calculate an optimal driving position (following distance, lateral offset) while driving behind a vehicle in front, depending on the planned driving maneuver, based on the information from the sensor-based environment model, taking into account the permissible lane area. The calculated optimal driving position is used to control actuators of the vehicle subsystems 12, 14 and 16, for example braking, drive and / or steering actuators. The autonomous driving control unit 18 further includes a memory and an input / output interface. The memory can consist of one or more non-transitory computer-readable media and comprises at least a program storage area and a data storage area. The program memory area and the data memory area can comprise combinations of different types of memory, for example a read-only memory 43 (ROM = read-only memory) and a direct access memory 42 (RAM = random access memory) (z. B. dynamic RAM ("DRAM"), synchronous DRAM ("SDRAM", etc.). The autonomous driving control unit 18 may further comprise an external storage drive 44, such as an external hard disk drive (HDD), a flash memory drive, or a non-volatile solid state drive (SSD). The control unit for autonomous driving 18 further comprises a communication interface 45 via which the control unit can communicate with the vehicle communication network (28 in FIG. 2). 3 shows schematically the data of a vehicle measured by an environment sensor 26. A high-resolution radar is used as the environment sensor 26, for example, which generates a plurality of detections Pi to PN (“targets”) for a target object, which can be assigned to a target object using methods known to those skilled in the art. The principles of the invention are described below using a radar sensor. However, these principles can also be used for data from other types of sensors, such as ToF, lidar, ultrasound or camera sensors. The target object is here, for example, a vehicle 50 with a rear axle 51. The radar is able to determine the position of the detections Pi to PN, for example in a polar coordinate system (distance h and azimuth angle q), as well as to detect the radial velocity v rj of the detections. As a result, the radial velocity distribution v ri is known at various points of the target object Pi to PN for a given measurement time. In the case of a purely translational movement, the measured speed vector V, at the given measuring point P, corresponds in amount and phase to the mean target object speed v '= mean value (v,). Methods are known for these situations in order to determine the object speed vector V, from the measured radar detections, which will not be discussed in detail at this point.
Eine zusätzliche Rotation des Zielobjekts um das Rotationszentrum (im realen Um feld oft gegeben, beispielsweise bei einer Kurvenfahrt) mit einer Gierrate w führt zu einer Überlagerung der mittleren Zielobjektgeschwindigkeit v‘ mit dem Geschwindig keitsanteil ve , der durch die Rotation des Zielobjekts verursacht wird. Die Superposi tion dieser Geschwindigkeitskomponenten beeinflusst die radiale Geschwindigkeits verteilung vr , die vom Sensor erfasst wird. Durch die zusätzlichen unbekannten Grö ßen (Gierrate w, Rotationszentrum) ist eine allgemeine Bestimmung der Fahrzeugki nematik in einem einzigen Zyklus nicht mehr sinnvoll durchführbar. Aus diesem Grund nutzt das folgende Verfahren einige Annahmen über die Form und Funktiona lität von Fahrzeugen, um das mathematische Problem der Bestimmung der Gierrate aus den gemessenen Sensordaten zu vereinfachen. An additional rotation of the target object around the center of rotation (often given in the real environment, for example when cornering) with a yaw rate w results in an overlay of the mean target object speed v 'with the speed component ve, which is caused by the rotation of the target object. The superposition of these speed components influences the radial speed distribution v r , which is recorded by the sensor. Due to the additional unknown variables (yaw rate w, center of rotation), a general determination of the vehicle kinematics in a single cycle can no longer be carried out in a meaningful way. For this reason, the following procedure uses some assumptions about the shape and functionality of vehicles in order to simplify the mathematical problem of determining the yaw rate from the measured sensor data.
Setzt man zur Beschreibung der Kinematik des Zielobjekts ein Einspurmodell mit Vorderachslenkung voraus (klassisches Fahrzeug), lässt sich der Referenzpunkt, um den das Fahrzeug rotiert, durch das Zentrum der Hinterachse genau beschreiben. Dieser Referenzpunkt wird im Folgenden als Drehzentrum 64 bezeichnet. If a single-track model is used to describe the kinematics of the target object Front axle steering ahead (classic vehicle), the reference point around which the vehicle rotates can be precisely described through the center of the rear axle. This reference point is referred to below as the center of rotation 64.
Fig. 4 und Fig. 5 zeigen schematisch die schrittweise Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke (auch„Detektionen“, oder„Ziele“ genannt). Da für ein Zielobjekt mehrere räumlich verteilte Detektionen vorhanden sind, kann die geometrische Ausdehnung und auch die Orientierung des Zielobjekts bestimmt werden. Die Ermittlung der Ori entierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponen ten ausgewertet wird. 4 and 5 schematically show the step-by-step determination of the center of rotation of a gurgling vehicle from a point cloud provided by a radar sensor (also called “detections” or “targets”). Since there are several spatially distributed detections for a target object, the geometric extent and also the orientation of the target object can be determined. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in that the angle of the main components is evaluated.
In Fig. 4 detektiert ein Umgebungssensor 26, beispielsweise ein Radarsensor, in sei nem Sichtfeld 260 ein Zielobjekt als Punktwolke. Die Punktwolke besteht aus einzel nen Detektionen, welche aus Abstandsmessungen und Richtungsmessungen im Sichtbereich des Sensors ermittelt werden. Die Punktwolke bzw. die einzelnen De tektionen enthalten neben Abstands- (Ort) auch (Relativ-In FIG. 4, an environment sensor 26, for example a radar sensor, detects a target object as a point cloud in its field of view 260. The point cloud consists of individual detections, which are determined from distance measurements and direction measurements in the field of vision of the sensor. The point cloud or the individual detections contain not only distance (location) but also (relative)
)Geschwindigkeitsinformationen. Daher kann die geometrische Ausdehnung und so mit auch die Orientierung des Zielobjekts, in diesem Fall das Fahrzeug 50, bestimmt werden. Zu diesem Zweck werden beispielsweise die zueinander orthogonal stehen den Hauptkomponenten 61 und 62 aus der Punktewolke mittels Hauptkomponen tenanalyse bestimmt. Algorithmen zu diesem Zweck sind aus dem Stand der Technik hinlänglich bekannt. Ferner kann aus der Punktewolke auch auf die geometrische Ausdehnung des Zielobjekts rückgeschlossen werden. Fig. 4 zeigt diesbezüglich, wie mittels Least Square oder einem anderen Fehlerfunktions-Minimalisierungsverfahren ein Rechteck 60 in die Punktwolke gefittet wird. Dieses Rechteck 60 wird an dieser Stelle als vereinfachte Form des Zielobjektes benutzt und nutzt das Wissen aus, dass es sich bei dem Zielobjekt um ein Fahrzeug 50 handelt, dessen Form als Rechteck angenähert werden kann. ) Speed information. The geometric extent and thus also the orientation of the target object, in this case the vehicle 50, can therefore be determined. For this purpose, for example, the main components 61 and 62 that are orthogonal to one another are determined from the point cloud by means of main component analysis. Algorithms for this purpose are well known from the prior art. Furthermore, conclusions can also be drawn about the geometric extent of the target object from the point cloud. In this regard, FIG. 4 shows how a rectangle 60 is fitted into the point cloud by means of least square or another error function minimization method. This rectangle 60 is used at this point as a simplified shape of the target object and uses the knowledge that the target object is a vehicle 50 whose shape can be approximated as a rectangle.
Das Rechteck wird beispielsweise unter der Hilfsbedingung an die Punktwolke gefit tet, dass die jeweiligen Rechteckseiten a und b orthogonal auf den Hauptkomponen- ten 61 und 62 stehen. Anschließend kann eine Fehlerfunktion f bestimmt werden, wobei f die jeweils kürzesten Abstände zwischen einem Punkt P, und dem Rechteck 60 aufsummiert und diese Funktion mittels Least-Square-Verfahrens oder einem an deren Fehlerfunktions-Minimierungsalgorithmuses minimiert. The rectangle is fitted to the point cloud, for example, under the auxiliary condition that the respective sides of the rectangle a and b are orthogonal to the main components 61 and 62 stand. An error function f can then be determined, with f adding up the shortest distances between a point P 1 and the rectangle 60 and minimizing this function using the least square method or another error function minimization algorithm.
Fig 5. zeigt das berechnete Rechteck 60 mit Seitenlangen a und b inklusive Haupt- kompnenten 61 und 62 ohne die vom Radarsensor bestimmte Punktwolke. Sobald das Rechteck 60 bestimmt ist, kann die Lage der Hinterachse 63 näherungsweise geschätzt werden. Daher kann der Ort der Hinterachse 63 dadurch abgeschätzt wer den, dass die Hinterachse 63 als parallel zum Heck des Fahrzeugs im Abstand L an genommen wird. Der Abstand L kann im Vorfeld eingestellt werden, zum Beispiel als L = 0,2 · max{a, b}. Das Heck des Fahrzeugs kann aus den Seitenlängen a und b des Rechtecks 60 und dem mittleren Geschwindigkeitsvektor v‘ des Fahrzeugs bestimmt werden. Da Fahrzeuge länger als breit sind, kommt als Heck nur eine der beiden kürzeren Seiten in Betracht. Zunächst wird also bestimmt, ob a oder b kürzer ist. Nun wird angenommen, dass das Fahrzeug vorwärts fährt. In diesem Fall kann ange nommen werden, dass das Heck die Seite ist, die sich in der entgegengesetzten Richtung zur mittleren Geschwindigkeit v‘ der Punktwolke befindet. Ist das Heck auf diese Weise bestimmt, kann Ort und Orientierung der Hinterachse 63 abgeschätzt werden. Nun wird als weitere Annahme verwendet, dass das Drehzentrum 64 des Zielobjekts sich in der Mitte der Hinterachse 63 befindet. Auf diese Art kann der Ort der Drehachse 64 ausreichend eingeschätzt werden um mit der weiteren Gierraten bestimmung fortzufahren. 5 shows the calculated rectangle 60 with side lengths a and b including main components 61 and 62 without the point cloud determined by the radar sensor. As soon as the rectangle 60 is determined, the position of the rear axle 63 can be estimated approximately. Therefore, the location of the rear axle 63 can be estimated by assuming the rear axle 63 to be parallel to the rear of the vehicle at a distance L an. The distance L can be set in advance, for example as L = 0.2 · max {a, b}. The rear of the vehicle can be determined from the side lengths a and b of the rectangle 60 and the mean speed vector v ‘of the vehicle. Since vehicles are longer than they are wide, only one of the two shorter sides can be considered as the rear. So first it is determined whether a or b is shorter. It is now assumed that the vehicle is moving forward. In this case it can be assumed that the stern is the side which is in the opposite direction to the mean velocity v ‘of the point cloud. Once the rear end has been determined in this way, the location and orientation of the rear axle 63 can be estimated. It is now used as a further assumption that the center of rotation 64 of the target object is located in the center of the rear axle 63. In this way, the location of the axis of rotation 64 can be estimated sufficiently to continue with the further yaw rate determination.
Simulationen haben bestätigt, dass die Position des Rotationszentrums nicht exakt bekannt sein muss, um eine robuste Gierratenschätzung zu erhalten. Für die Be stimmung des Rotationszentrums 64 kann deshalb alternativ auch eine Abschätzung über die Koordinaten des Clusterzentrums der Punkwolke herangezogen werden, was für die hier Beschriebene Bestimmung der Gierrate bereits ausreichend ist. Das Verwenden des Clusterzentrums als Gierzentrum ist im Vergleich zur Berechnung der Hinterachse weniger Rechenzeit-aufwändig. Fig. 6 zeigt in einem Flussdiagram die Bestimmung des Drehzentrums eines girie renden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke. Das Verfahren wird beispielsweise von einer Sensorauswertungseinheit ausgeführt, wie beispielsweise einer Steuereinheit für autonomes Fahren (18 in Fig. 1 ) oder der gleichen ausgeführt. In einem ersten Schritt S60 werden die zueinander orthogona len Hauptkomponenten 61 und 62 aus der Punktwolke des Radar-Sensors mittels Hauptkomponentenanalyse bestimmt. In einem Zwischenschritt S61 wird aus den Hauptkomponenten 61 und 62 ein Winkel f bestimmt (siehe Fig. 8), der die relative Orientierung des Fahrzeugs zum Sensor 26 angibt. In einem nächsten Schritt S62 werden die Rechteckslängen a und b anhand der Punktwolke und der Hauptkompo nenten bestimmt. Hierzu wird das wissen ausgenutzt, dass sich a und b orthogonal zu ihrer jeweiligen Hauptkomponente befinden und anschließend die Fehlerfunktion f mittels Least-Square-Verfahren oder einem anderen Fehlerfunktons- Minimierungsverfahrens minimiert, sodass die beiden a und b bestimmt werden, für die die Fehlerfunktion f minimal wird. Hierbei kann die Fehlerfunktion f beispielsweise wie folgt ausgedrückt werden
Figure imgf000013_0001
Simulations have confirmed that the exact position of the center of rotation does not need to be known to get a robust yaw rate estimate. For the determination of the center of rotation 64 it is therefore alternatively also possible to use an estimate of the coordinates of the cluster center of the point cloud, which is already sufficient for the determination of the yaw rate described here. Using the cluster center as the yaw center is less computationally time consuming compared to calculating the rear axle. Fig. 6 shows in a flow diagram the determination of the center of rotation of a girie-generating vehicle from a point cloud provided by a radar sensor. The method is carried out, for example, by a sensor evaluation unit, such as a control unit for autonomous driving (18 in FIG. 1) or the like. In a first step S60, the mutually orthogonal main components 61 and 62 are determined from the point cloud of the radar sensor by means of main component analysis. In an intermediate step S61, an angle f is determined from the main components 61 and 62 (see FIG. 8) which indicates the orientation of the vehicle relative to the sensor 26. In a next step S62, the rectangle lengths a and b are determined using the point cloud and the main components. For this purpose, use is made of the knowledge that a and b are orthogonal to their respective main component and then the error function f is minimized using the least square method or another error function minimization method, so that the two a and b are determined for which the error function f becomes minimal. Here, the error function f can be expressed as follows, for example
Figure imgf000013_0001
als die Summe über alle minimalen Abstände zwischen einem Messpunkt P, und dem Rechteck 60 repräsentiert durch die Funktion R(a,b). Anschließend wir in einem Schritt S63 aus den Punktgeschwindigkeiten v, der Punktwolke die mittlere Fahr zeuggeschwindigkeit v‘ bestimmt. Hierbei gilt:
Figure imgf000013_0002
as the sum over all minimum distances between a measuring point P 1 and the rectangle 60 represented by the function R (a, b). Then we in a step S63 from the point velocities v, the point cloud, the mean vehicle speed v 'determined. The following applies here:
Figure imgf000013_0002
wobei N die Anzahl der Punkte der Punktwolke ist. In einem nächsten Schritt S64 wird das Heck des Fahrzeugs aus der Richtung der mittleren Geschwindigkeit v‘ und den Rechtecksseitenlängen a und b bestimmt, wobei das Wissen ausgenutzt wird, dass nur die kürze Rechtecksseitenlänge min(a,b) als Heck in Frage kommt und an genommen wird, dass das Fahrzeug vorwärts fährt, das Heck folglich die Rechtecks seitenlänge ist, die sich in der entgegengesetzten Richtung der mittleren Geschwin digkeit v‘ befindet. In einem nächsten Schritt S65 werden Lage und Orientierung der Hinterachse 63 als parallel zum Heck und im Abstand L abgeschätzt. Für L kann zu vor ein Wert festgelegt werden. Zum Beispiel L = 0,2 · ma x{a, b}. In einem letzten Schritt S66 wird nun das Drehzentrum 64 als in der Mitte der Hinterachse 63 befind lich abgeschätzt. Auf diese Art ist nun der Ort des Drehzentrums 64 ausreichend be kannt, um zu einer robusten Abschätzung der Gierrate zu gelangen. where N is the number of points in the point cloud. In a next step S64, the rear of the vehicle is determined from the direction of the mean speed v 'and the rectangular side lengths a and b, using the knowledge that only the short rectangular side length min (a, b) is possible as the rear and an it is assumed that the vehicle is traveling forwards, the rear consequently being the length of the rectangle which is in the opposite direction of the mean speed v '. In a next step S65, the position and orientation of the rear axle 63 are estimated to be parallel to the rear and at a distance L. A value can be specified for L before. For example L = 0.2 · ma x {a, b}. In a last one In step S66, the center of rotation 64 is now estimated to be in the center of the rear axle 63. In this way, the location of the center of rotation 64 is now sufficiently known to arrive at a robust estimate of the yaw rate.
Fig. 7 zeigt die Bestimmung der Gierrate eines girierenden Fahrzeugs aus einer von einem Radarsensor bereitgestellten Punktwolke bei bereits bestimmtem Drehzent rum. Das Verfahren wird beispielsweise von einer Sensorauswertungseinheit ausge führt, wie beispielsweise einer Steuereinheit für autonomes Fahren (18 in Fig. 1 ) oder dergleichen. In einem ersten Schritt S71 wird zunächst die Punktwolke empfangen, die von einem Sensor geliefert wird und die Messdaten dieses Sensors repräsentiert. Der Sensor kann ein Radar, ein Lidar oder auch ein Kamerasensor sein. Die Punkt wolke besteht aus Abstandsmessungen eines detektierten Objekts im Sichtbereich des Sensors. Die Punktwolke enthält neben Abstands- (Ort) auch (Relativ- )Geschwindigkeitsinformationen. In einem zweiten Schritt S72 wird das Drehzentrum des Objekts aus der Punktwolke bestimmt. Dazu wird beispielsweise das in Fig. 6 beschriebene Verfahren angewandt. Gemäß dem Verfahren der Fig. 6 wird die Ziel objektorientierung durch Hauptkomponentenanalyse ermittelt. In einer anderen Vari ante kann die Zielobjektorientierung an Stelle der Hauptkomponentanalyse aus einer anderen Quelle bezogen werden. Dies kann mit Hilfe eines anderen Sensors in ei nem Fusionssytem bestimmt werden (z.B. Lidar oder Kamera). Oder aber durch Verwendung von a priori Wissen (z.B. Querverkehr an der Kreuzung). In einem drit ten Schritt S73 werden die Punkte Pi bis PN der Punktwolke in eine Modellgleichung eingesetzt, die die zwei Unbekannten Betrag der Zielobjektgeschwindigkeit v und Gierrate w enthält. Die Modellgleichung beschreibt hierbei typischerweise das Bewe gungsverhaltens eines Fahrzeugs, das wiederum als Rechteck mit den Seitenlängen a und b genähert wird. Die Modellgleichung ist mit zwei Unbekannten und N > 2 Messpunkten überbestimmt. Daher wird die Modellgleichung für mehrere Detektio nen aus einem Messzyklus ausgewertet, was ein überbestimmtes Gleichungssystem mit zwei Unbekannten und N Gleichungen zur Folge hat, wobei N für die Anzahl der betrachteten Detektionen (Punkte der Punktwolke) steht. Dieses Gleichungssystem wird mit einem Least-Squares-Schätzverfahren gelöst und man erhält eine Schät zung der Gierrate w und des Betrags des Geschwindigkeitsvektors v. In einem vier ten Schritt S74 wird nun die berechnete Gierrate w ausgeben, sodass andere Sys- teme des Fahrzeugs, zum Beispiel ein Einpark-, Brems- oder Fahrassistent diese für ihre Funktion verwenden können. FIG. 7 shows the determination of the yaw rate of a yawing vehicle from a point cloud provided by a radar sensor with an already determined center of rotation. The method is carried out, for example, by a sensor evaluation unit, such as a control unit for autonomous driving (18 in FIG. 1) or the like. In a first step S71, the point cloud is received, which is supplied by a sensor and represents the measurement data of this sensor. The sensor can be a radar, a lidar or a camera sensor. The point cloud consists of distance measurements of a detected object in the field of view of the sensor. In addition to distance (location) information, the point cloud also contains (relative) speed information. In a second step S72, the center of rotation of the object is determined from the point cloud. The method described in FIG. 6 is used for this purpose, for example. According to the method of FIG. 6, the target object orientation is determined by principal component analysis. In another variant, the target object orientation can be obtained from another source instead of the main component analysis. This can be determined with the help of another sensor in a fusion system (eg lidar or camera). Or by using a priori knowledge (e.g. cross traffic at the intersection). In a third step S73, the points Pi to P N of the point cloud are inserted into a model equation which contains the two unknowns amount of target object speed v and yaw rate w. The model equation typically describes the movement behavior of a vehicle, which in turn is approximated as a rectangle with side lengths a and b. The model equation is over-determined with two unknowns and N> 2 measuring points. Therefore, the model equation is evaluated for several detections from one measuring cycle, which results in an overdetermined system of equations with two unknowns and N equations, where N stands for the number of observed detections (points of the point cloud). This system of equations is solved using a least squares estimation method and an estimate of the yaw rate w and the magnitude of the speed vector v is obtained. In a fourth step S74, the calculated yaw rate w is now output, so that other systems systems of the vehicle, for example a parking, braking or driving assistant can use these for their function.
Da für ein Zielobjekt mehrere räumlich verteilte Detektionen vorhanden sind, kann die geometrische Ausdehnung und somit auch die Orientierung des Zielobjekts bestimmt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, in dem der Winkel der Hauptkomponenten ausgewertet wird. Für die Bestimmung des Rotationszentrums wird die Annahme getroffen, dass eine Abschätzung über die Ko ordinaten des Clusterzentrums ausreichend ist. Simulationen haben bestätigt, dass die Position des Rotationszentrums nicht exakt bekannt sein muss, um eine robuste Gierratenschätzung zu erhalten. Es verbleiben zwei Unbekannte (Betrag der Zielob jektgeschwindigkeit und Gierrate) für eine Modellgleichung, somit ist die Gleichung unterbestimmt. Daher wird die Modellgleichung für mehrere Detektionen aus einem Messzyklus ausgewertet, was ein überbestimmtes Gleichungssystem mit zwei Unbe kannten und N Gleichungen zur Folge hat, wobei N für die Anzahl der betrachteten Detektionen steht. Dieses Gleichungssystem wird mit einem Least-Squares- Schätzverfahren gelöst und man erhält eine Schätzung der Gierrate und des Betrags des Geschwindigkeitsvektors. Since several spatially distributed detections are available for a target object, the geometric extent and thus also the orientation of the target object can be determined. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in which the angle of the main components is evaluated. For the determination of the center of rotation, the assumption is made that an estimate using the coordinates of the cluster center is sufficient. Simulations have confirmed that the exact position of the center of rotation does not need to be known to get a robust yaw rate estimate. There remain two unknowns (amount of the target object speed and yaw rate) for a model equation, so the equation is underdetermined. The model equation is therefore evaluated for several detections from one measurement cycle, which results in an overdetermined system of equations with two unknowns and N equations, where N stands for the number of detections considered. This system of equations is solved using a least squares estimation method and an estimate of the yaw rate and the magnitude of the speed vector is obtained.
Die Ausführungsbeispiele zeigen somit eine Kombination eines Least Squares- Schätzverfahrens von mehreren Detektionen mit einer Orientierungsschätzung auf Basis der Hauptkomponentenanalyse, zusammen mit einer Abschätzung des Rotati onszentrums. Dadurch kann der Geschwindigkeitsbetrag und die Gierrate des Ob jekts innerhalb eines Messzyklus mit nur einem Radarsensor ausgewertet werden. Bisher beschriebene Verfahren sind zur Gierratenschätzung eines Zielobjekts in ei nem Messzyklus auf mindestens zwei Radarsensoren angewiesen, oder benötigen bei Verwendung von einem Radarsensor mehrere Messzyklen um die Gierrate zu bestimmen. The exemplary embodiments thus show a combination of a least squares estimation method of several detections with an orientation estimation based on the principal component analysis, together with an estimation of the rotation center. As a result, the amount of speed and the yaw rate of the object can be evaluated within one measuring cycle with just one radar sensor. The methods described so far are dependent on at least two radar sensors to estimate the yaw rate of a target object in a measuring cycle, or, if one radar sensor is used, require several measuring cycles to determine the yaw rate.
Fig. 8 veranschaulicht eine Modellgleichung, wie sie in Fig. 7 verwendet wurde, um die Gierrate w abzuschätzen. Eine Modellgleichung zur Beschreibung der Bewegung, insbesondere der Drehung eines Fahrzeugs 10, die verwendet werden kann, um die Gierrate zu schätzen, wie in Schritt S73 der Fig. 7 beschrieben, lautet beispielsweise: vD = v · cos(0— f) + w · ( yR · cos(0)— xR · sin(0)) (1) FIG. 8 illustrates a model equation as used in FIG. 7 to estimate the yaw rate w. A model equation for describing the movement, in particular the rotation of a vehicle 10, which can be used to estimate the yaw rate, as described in step S73 of FIG. 7, is for example: v D = v · cos (0-f) + w (y R cos (0) - x R sin (0)) (1)
Hierbei bezeichnen die einzelnen Variablen folgende physikalische Größen, wie in Fig. 8 dargestellt: Q, r und vD bezeichnen den vom Sensor 26 gemessenen Winkel, Abstand und Radialgeschwindigkeit einer Detektion (vgl. Fig. 3). f bezeichnet den mittels Hauptachsentransformation ermittelten Orientierungswinkel des Fahrzeugs 10 relativ zum Sensor 26 (vgl. Schritt S61 in Fig. 6). xR und yR bezeichnen die Koordina ten des Gierzentrums 64 (wie beispielsweise gemäß dem Verfahren der Fig. 6 ermit telt), w bezeichnet die gesuchte Gierrate des Fahrzeugs und v die Lineargeschwin digkeit des Fahrzeugs 10, die vom Sensor 26 gemessene Radialgeschwindigkeit des Fahrzeugs 10. The individual variables here designate the following physical quantities, as shown in FIG. 8: Q, r and v D designate the angle, distance and radial speed of a detection measured by sensor 26 (see FIG. 3). f denotes the orientation angle of the vehicle 10 relative to the sensor 26 determined by means of the main axis transformation (cf. step S61 in FIG. 6). x R and y R denote the Koordina th of the yaw center 64 (as determined, for example, according to the method of FIG. 6), w denotes the searched yaw rate of the vehicle and v denotes the linear speed of the vehicle 10, the radial velocity of the vehicle measured by the sensor 26 10.
Die Punktwolke p, die der Sensor liefert besteht aus N Detektionen mit mindestens den Einträgen r£, vD i und 0£:
Figure imgf000016_0001
The point cloud p that the sensor delivers consists of N detections with at least the entries r £ , v D i and 0 £ :
Figure imgf000016_0001
Die Werte xR und yR (Koordinaten des Gierzentrums 6) und der Orientierungswinkel f wurden aus der Hauptkomponentenanalyse (siehe Fig. 4 bis 6) bestimmt. Somit verbleiben nur die Lineargeschwindigkeit v und die Gierrate w als unbekannte Grö ßen der Modellgleichung. The values x R and y R (coordinates of the yaw center 6) and the orientation angle f were determined from the principal component analysis (see FIGS. 4 to 6). Thus, only the linear velocity v and the yaw rate w remain as unknown quantities in the model equation.
Gleichung (1 ) kann als Skalarprodukt zweier Vektoren dargestellt werden , wobei der zweite Vektor die Unbekannten v und w enthält: vD = [cos(0— <p)Equation (1) can be represented as the scalar product of two vectors, where the second vector contains the unknowns v and w: v D = [cos (0- <p)
Figure imgf000016_0002
Gleichung (2) kann nun auf jedes Element der Punktwolke P£ e p angewendet wer den, sodass ein Gleichungssystem mit N Gleichungen entsteht. Dieses kann als Vek torgleichung mit den Vektoren y und p, sowie der Matrix X dargestellt werden:
Figure imgf000016_0002
Equation (2) can now be applied to every element of the point cloud P £ ep, so that an equation system with N equations is created. This can be represented as a vector equation with the vectors y and p, as well as the matrix X:
Figure imgf000017_0001
Figure imgf000017_0001
y x v y x v
Durch Invertieren der Matrix X kann Gleichung (3) nach umgestellt werden. Für die Least-Square-Verfahrensschätzung empfiehlt sich eine weitere Transposition von X, sodass eine weitere Gleichung erhalten wird: By inverting the matrix X, equation (3) can be rearranged according to. For the least square method estimation, another transposition of X is recommended, so that another equation is obtained:
PLSQ = (XT xr1 ct · 9 (4) PLSQ = (X T xr 1 ct 9 (4)
Da das Gleichungssystem überbestimmt ist, kann, wie bereits weiter oben erwähnt, p und damit v und w mittels Least-Square-Schätzverfahren aus Gleichung (4) be stimmt/geschätzt werden. Since the system of equations is overdetermined, as already mentioned above, p and thus v and w can be determined / estimated from equation (4) using the least square estimation method.
Bezuqszeichen Reference symbol
10 Fahrzeug 10 vehicle
12 ECU 1 Bremssystem 12 ECU 1 braking system
14 ECU 2 Antriebsstrang 14 ECU 2 powertrain
16 ECU 3 Lenksystem 16 ECU 3 steering system
18 ECU 4 Steuereinheit für autonomes Fahren 18 ECU 4 control unit for autonomous driving
20 Safety-ECU 20 Safety ECU
24 GNSS 24 GNSS
26 Umfeldsensoren (Radar) 26 environment sensors (radar)
28 Fahrzeugkommunikationsnetzwerk 28 Vehicle communication network
30 Notaus-ECU 30 emergency stop ECU
32 HMI 32 HMI
50 Fahrzeug und Zielobjekt 50 vehicle and target
51 Hinterachse des Fahrzeugs 50 51 rear axle of vehicle 50
61 Hauptkomponente 61 main component
62 Hauptkomponente 62 Main Component
60 Rechteck 60 rectangle
63 Hinterachse 63 rear axle
64 Gierzentrum 64 Greed Center
260 Sichtfeld des Sensors 26 260 Field of View of Sensor 26
Pi, . . . PN Punktwolke des Zielobjekts Pi,. . . PN point cloud of the target object

Claims

Patentansprüche Claims
1 . Verfahren zur Bestimmung der Gierrate (w) eines Zielobjektes (50), umfas send ein Empfangen von Sensordaten, welche mehrere Detektionen (Pi , . . . PN) um fassen, welche das Zielobjekt (50) beschreiben, ein Abschätzen der Lage des Gier zentrums (64) des Zielobjektes (50) auf Grundlage der Detektionen (Pi , ... PN), sowie ein Bestimmen der Gierrate (w) auf Grundlage des abgeschätzten Ortes des Gier zentrums (64). 1 . A method for determining the yaw rate (w) of a target object (50), including the reception of sensor data which include several detections (Pi,... PN) describing the target object (50), an estimation of the position of the yaw center (64) of the target object (50) on the basis of the detections (Pi, ... PN), as well as determining the yaw rate (w) on the basis of the estimated location of the yaw center (64).
2. Verfahren nach Anspruch 1 , bei dem eine Bestimmung der Orientierung ( f ) des Zielobjektes (50) auf Basis einer Hauptkomponentenanalyse erfolgt. 2. The method as claimed in claim 1, in which the orientation (f) of the target object (50) is determined on the basis of a principal component analysis.
3 Verfahren nach Anspruch 1 oder 2, das ein Least Square-Schätzverfahren basierend auf mehreren Detektionen (Pi , . . . PN) umfasst. 3. The method according to claim 1 or 2, which comprises a least square estimation method based on a plurality of detections (Pi,... PN).
4. Verfahren einem der vorhergehenden Ansprüche, wobei die Gierrate (w) be stimmt wird durch Lösung einer überbestimmten Modellgleichung (Gleichung (4)), welche die Bewegung des Zielobjektes (50) abschätzt. 4. The method according to any one of the preceding claims, wherein the yaw rate (w) is determined by solving an over-determined model equation (equation (4)), which estimates the movement of the target object (50).
5. Verfahren nach Anspruch 4, wobei eine Modellgleichung verwendet wird, die als Unbekannte den Betrag der Zielobjektsgeschwindigkeit (v) und die Gierrate (w) des Zielobjekts (50) enthält. 5. The method according to claim 4, wherein a model equation is used which contains the magnitude of the target object speed (v) and the yaw rate (w) of the target object (50) as unknowns.
6. Verfahren nach Anspruch 4 oder 5, wobei die Modellgleichung gelöst wird, indem N Detektionen der Sensordaten (Pi bis PN) in die Modellgleichung eingesetzt werden, um ein Gleichungssystem mit zwei Unbekannten ( v , w) und N Gleichungen zu erhalten. 6. The method according to claim 4 or 5, wherein the model equation is solved by inserting N detections of the sensor data (Pi to PN) into the model equation in order to obtain an equation system with two unknowns (v, w) and N equations.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Lage des Gierzentrums (64) durch Abschätzung der Koordinaten des Clusterzentrums der De tektionen (P^ . . . PN) erfolgt. 7. The method according to any one of the preceding claims, wherein the position of the yaw center (64) is carried out by estimating the coordinates of the cluster center of the detections (P ^... PN).
8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Lage des Gierzentrums (64) auf Basis einer Hauptkomponentenanalyse abgeschätzt wird. 8. The method according to any one of the preceding claims, wherein the position of the yaw center (64) is estimated on the basis of a principal component analysis.
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Lage des Gierzentrums (64) als Mitte einer Hinterachse (63) des Zielobjektes abgeschätzt wird. 9. The method according to any one of the preceding claims, wherein the position of the yaw center (64) is estimated as the center of a rear axle (63) of the target object.
10. Vorrichtung, umfassen einen Prozessor, der dazu ausgelegt ist, das Verfahren nach einem der Ansprüche 1 bis 9 durchzuführen. 10. The device comprise a processor which is designed to carry out the method according to any one of claims 1 to 9.
PCT/EP2020/056618 2019-03-29 2020-03-12 Method for determining the yaw rate of a target object on the basis of sensor data, for example a high-resolution radar WO2020200683A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019204408.5 2019-03-29
DE102019204408.5A DE102019204408B4 (en) 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar

Publications (1)

Publication Number Publication Date
WO2020200683A1 true WO2020200683A1 (en) 2020-10-08

Family

ID=69804910

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/056618 WO2020200683A1 (en) 2019-03-29 2020-03-12 Method for determining the yaw rate of a target object on the basis of sensor data, for example a high-resolution radar

Country Status (2)

Country Link
DE (1) DE102019204408B4 (en)
WO (1) WO2020200683A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240185719A1 (en) * 2022-12-01 2024-06-06 Caterpillar Inc. Systems and methods for detecting false positives in collision notifications

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008025773A1 (en) * 2008-05-29 2009-01-08 Daimler Ag Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition
DE102013019804A1 (en) 2013-11-27 2015-05-28 Daimler Ag Method for determining a movement of an object
EP3151034A1 (en) * 2015-10-02 2017-04-05 Delphi Technologies, Inc. Automated vehicle radar system to determine yaw-rate of a target vehicle
EP3285230A1 (en) * 2016-08-19 2018-02-21 Autoliv Development AB Enhanced object detection and motion estimation for a vehicle environment detection system
EP3415948A1 (en) * 2017-06-12 2018-12-19 Aptiv Technologies Limited A method of determining the de-aliased range rate of a target
EP3415945A1 (en) * 2017-06-12 2018-12-19 Aptiv Technologies Limited Method of determining the yaw rate of a target vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008025773A1 (en) * 2008-05-29 2009-01-08 Daimler Ag Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition
DE102013019804A1 (en) 2013-11-27 2015-05-28 Daimler Ag Method for determining a movement of an object
EP3151034A1 (en) * 2015-10-02 2017-04-05 Delphi Technologies, Inc. Automated vehicle radar system to determine yaw-rate of a target vehicle
EP3285230A1 (en) * 2016-08-19 2018-02-21 Autoliv Development AB Enhanced object detection and motion estimation for a vehicle environment detection system
EP3415948A1 (en) * 2017-06-12 2018-12-19 Aptiv Technologies Limited A method of determining the de-aliased range rate of a target
EP3415945A1 (en) * 2017-06-12 2018-12-19 Aptiv Technologies Limited Method of determining the yaw rate of a target vehicle

Also Published As

Publication number Publication date
DE102019204408A1 (en) 2020-10-01
DE102019204408B4 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
DE102017217961B4 (en) DEVICE FOR CONTROLLING A VEHICLE AT AN INTERSECTION
DE102017118401B4 (en) METHOD AND SYSTEM FOR PERFORMING AUTONOMOUS OPERATION OF A VEHICLE
DE102016106298B4 (en) Fusion method for a cross-traffic application using radar devices and a camera
EP2819901B1 (en) Method and device for determining the speed and/or position of a vehicle
DE102016102002B4 (en) Improvement of a vehicle motion estimation with radar data
DE102015114464A1 (en) Uniform motion planner for an autonomous vehicle while avoiding a moving obstacle
DE102014111126A1 (en) Method for generating an environment map of an environmental area of a motor vehicle, driver assistance system and motor vehicle
DE102018221265B4 (en) Method and system for detecting wind acting on a vehicle
DE102019214628A1 (en) Validation of surroundings detection using satellite images and SAR radar data
EP3328715B1 (en) Method for at least semi-autonomous manoeuvring of a motor vehicle with positional correction, driver assistance system and motor vehicle
WO2016020347A1 (en) Method for detecting an object in a surrounding region of a motor vehicle using an ultrasonic sensor, driver assistance system, and motor vehicle
EP3653460A1 (en) Method and control unit for operating an autonomous vehicle
DE102021104324A1 (en) IMPROVED OBJECT DETECTION AND RESPONSE
WO2021219353A1 (en) Autonomous and/or assisted coupling of a trailer, taking into consideration the height profile of the ground
DE102017108130A1 (en) Method for data fusion of a data set, corresponding arithmetic unit and vehicle which is equipped with a corresponding arithmetic unit and computer program
DE102020215504A1 (en) Method and device for detecting objects in the surroundings of a vehicle
DE102019213929A1 (en) Plausibility check of stopped previously dynamic objects with the help of allocation grids
EP3663771A1 (en) Method and system for detecting wind in a geographic region
DE102019217723A1 (en) DRIVING SAFETY CONTROL SYSTEM USING AMBIENT NOISE AND CONTROL METHOD THEREFOR
DE102018216999A1 (en) Process, computer program and measuring system for the evaluation of movement information
DE102018217000A1 (en) Process, computer program and measuring system for the evaluation of movement information
WO2020200683A1 (en) Method for determining the yaw rate of a target object on the basis of sensor data, for example a high-resolution radar
EP4114703A1 (en) Method for steering a vehicle
DE112020002753T5 (en) VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM
DE102019213867A1 (en) Obstacle detection comprising a recurrent neural network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20710927

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20710927

Country of ref document: EP

Kind code of ref document: A1