WO2020126447A1 - Verfahren und system zum bereitstellen von umgebungsdaten - Google Patents

Verfahren und system zum bereitstellen von umgebungsdaten Download PDF

Info

Publication number
WO2020126447A1
WO2020126447A1 PCT/EP2019/083354 EP2019083354W WO2020126447A1 WO 2020126447 A1 WO2020126447 A1 WO 2020126447A1 EP 2019083354 W EP2019083354 W EP 2019083354W WO 2020126447 A1 WO2020126447 A1 WO 2020126447A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
environmental data
object parameters
data
vehicle
Prior art date
Application number
PCT/EP2019/083354
Other languages
English (en)
French (fr)
Inventor
Stefan RIETDORF
Nora NORTMANN
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to US17/416,718 priority Critical patent/US12002353B2/en
Priority to CN201980085032.7A priority patent/CN113228131B/zh
Publication of WO2020126447A1 publication Critical patent/WO2020126447A1/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees

Definitions

  • the present invention relates to a method and a system for providing
  • Environmental data in particular in an environment of a vehicle, and a vehicle with a system according to the invention.
  • a lidar scanner scans an environment and detects an intensity curve. Disruptions to the propagation conditions, such as when it rains, can be identified in this way. Furthermore, data compression can be achieved by only deviating a measured from an expected intensity curve
  • the present invention has for its object to provide a method and a system for providing environmental data that allow a particularly flexible and efficient use of limited resources, such as a vehicle.
  • Object parameters are assigned to the objects. Based on the acquired first environmental data a traffic situation is determined and depending on the determined
  • filter criteria are determined.
  • the filter criteria include prioritizations and forecasts for the objects and the object parameters assigned to them.
  • second, updated surroundings data are acquired and transmission data are generated on the basis of the second, updated surroundings data and the filter criteria.
  • the transmission data are output.
  • the method is based on a bidirectional
  • the method can in particular be carried out iteratively for a third point in time and, if appropriate, for further points in time that follow.
  • a current one is used in particular on the basis of the first environmental data and the transmission data
  • a current transmission data record can also be generated by capturing the environmental data as in the first time step and restarting the method from the beginning.
  • a classic method is usually based on a feed-forward approach. First of all, information from the environment is recorded using sensors and passed on in its entirety to a unit for processing the data and making decisions. Information is then transmitted to actuators that can execute certain control commands. As a result, ever greater bandwidths and computing power are required when developing systems to take on complex tasks, such as autonomous vehicle travel.
  • the method of the invention is based on a “feed-backward” approach, in which predictions are generated and in the “backward” direction, for example at facilities at the level of Acquisition of environmental data are transmitted. Conversely, it is enough, only
  • the filtering in the invention takes place on the basis of an analysis of the current traffic situation, from which in turn prioritizations for objects and object parameters are derived.
  • the observation of the objects can therefore be focused on the part of the environment, for the decision level, for example
  • Driving functions of a vehicle are planned and controlled is relevant. However, the observation of other areas can be flexibly reduced.
  • a camera for observing the area in front of a vehicle retransmits the information with each detection step that a vehicle in front with a certain one is in the detection area
  • the acquisition of the environmental data takes place in a manner known per se. It can
  • Various sensors are used individually or in combination, for example lidar, radar, ultrasound or light sensors, cameras for visible or infrared light, 3D cameras or devices for position determination, such as receivers for signals from
  • the environmental data relate in particular to the environment of a ego vehicle with a system for executing the method as well as features and states of the ego vehicle itself.
  • the environment extends to a spatial area in which objects can occur which are necessary for evaluating the driving situation of the vehicle Vehicle and for determining suitable driving maneuvers are relevant. This area can be defined, for example, based on a radius of 100 m around the ego vehicle.
  • the acquisition of the environmental data can further include that information is received from a driver assistance system.
  • driver assistance system is understood broadly and can include different systems in connection with driving functions. Some or all of the driving tasks are carried out automatically.
  • a driver assistance system can output information for a driver or the driver Supplementary control support;
  • individual aspects of vehicle control can be taken over or a fully autonomous driving of the vehicle can be carried out with a high degree of automation. For example, data about upcoming automatic driving maneuvers can be evaluated that have an impact on the expected environmental data. If braking is carried out, for example, the relative speeds of objects in the environment change in accordance with the extent of one's own speed change. Changes in the direction of the vehicle also change the
  • Preprocessing unit which pre-processes the environmental data recorded by sensors and, as a result, information about the detected objects and
  • object parameters for example for a computing unit or a
  • Driver assistance system which in turn determines an environment model based on these results and determines suitable driving maneuvers.
  • the degree of preprocessing provided can vary depending on the computing power of a preprocessing unit.
  • a preprocessing unit can be provided for a single sensor or a single module for capturing the environmental data, but the environmental data captured by several such modules can also be preprocessed by a preprocessing unit.
  • the environmental data are analyzed and data belonging to certain physical objects are determined.
  • the detection in particular creates the prerequisites for determining features for physical objects on the basis of the recorded environmental data, which are referred to as object parameters in the sense of the invention.
  • the object parameter can be used to determine what type of object it is, for example another road user, an object, a building or an element of vegetation. The determination can also be carried out in a more differentiated manner, for example by recognizing cars, trucks, teams and trailers, pedestrians or cyclists as road users. Elements of a traffic infrastructure can be detected, such as traffic lights, posts, road markings, pillars or features of traffic structures. On the basis of the recognized types of objects, a distinction can be made, for example, between static and dynamic objects. Furthermore, specific motion models can be used for different types of objects to take into account the different speeds of vehicles and pedestrians.
  • the detected objects can also be identified as separate units within the environment, for example they are provided with an identification number or a similar marking in order to be able to identify them again at different times over several measurements and to be able to determine a movement of an object.
  • an object with an identification "ID1" can be recognized as a "car”.
  • the object parameters are determined for individual objects and can relate to different physical characteristics of the objects.
  • the object parameter comprises a position, a distance, a speed, an acceleration or a
  • the parameters can also be determined in a global coordinate system or in a relative coordinate system, for example relative to the position of the ego vehicle.
  • an object “ID1” it is determined for an object “ID1” that it is located frontally in front of your own vehicle at a certain distance and moves at a certain speed. It can also be determined that there is an acceleration that can change over time, for example when braking or a positive acceleration process is initiated.
  • the object parameter comprises one direction. This can be
  • An orientation of an object in space can also advantageously be evaluated.
  • the front of a vehicle is oriented in a certain direction relative to its own vehicle.
  • the object parameter comprises a color or a brightness.
  • the method is particularly iterative.
  • the second, updated environmental data can be used instead of the first to carry out the method further
  • Environmental data are used. Furthermore, environmental models can be generated and updated on the basis of the updated environmental data, the transmission data being used to reduce the volume of data to be transmitted.
  • the first and second environmental data are recorded, the object parameters for the objects are determined and the transmission data are generated by means of a recording unit.
  • the traffic situation and the filter criteria are determined by means of a computing unit.
  • Object parameters for the first point in time are transmitted from the detection unit to the computing unit, the filter criteria are transmitted from the computing unit to the detection unit, and the transmission data for the second point in time are transferred from the
  • the acquisition unit can comprise a sensor for acquiring the environmental data based on a specific physical principle and furthermore an integrated or separate control device for preprocessing the data thus acquired.
  • Processing of the recorded environmental data can be distributed differently to different units in further training, in particular around the available ones
  • the method of the invention therefore sees a coordinated interaction between a sensor system or the detection unit and the computing unit, which is approximately as
  • Control unit is designed for controlling various driving functions of a vehicle.
  • the data volume of the transmission data is compared to that
  • the transmission data comprise a subset of those object parameters that could be determined on the basis of the second, updated environmental data. It will thus advantageously a considerable reduction in the data volume to be transmitted in all subsequent steps is achieved.
  • the method is based on an initial detection of the environment, on the basis of which a first environment model can be generated.
  • the environment model includes information about an environment, in particular about objects in this environment. This can include information about the type of objects, their positions in relative or absolute coordinates, their speed, acceleration or a change in acceleration, their orientation and certain states, such as lighting.
  • the environment model can be updated repeatedly in an iterative process in certain time steps, the transmission data in particular being used to update the object parameters assigned to the objects. This means that at a third point in time and further points in time thereafter, a current environmental data record is always generated, which serves as the starting point for generating a current environment model, in particular on the basis of the transmission data last output. In doing so
  • the filter criteria with prioritizations and forecasts newly generated in each step and used to generate new transmission data on the basis of newly acquired environmental data are particularly, the filter criteria with prioritizations and forecasts newly generated in each step and used to generate new transmission data on the basis of newly acquired environmental data.
  • physical models can be used to determine forecasts, in particular on the basis of the environment models, in order to forecast the development of the environment model over time.
  • assumptions are made, such as that certain object parameters of the objects do not change. For example, it can be assumed that the speeds and directions of movement of the objects do not change, so that static objects remain in their position in an absolute coordinate system, while the positions of moving objects can be calculated for later times. It can also be assumed that objects continue a certain current acceleration until the next time step, so that the speed and position can also be calculated for this next time step.
  • These forecasts are used to form the filter criteria.
  • the forecasts formed in the method relate to objects and the object parameters assigned to them. They can be viewed as hypotheses about the values of the object parameters, for example the hypothesis "The value of the parameter remains constant in the next time step" or "The value of the parameter assumes a certain value at the next time step".
  • the forecasts for certain object parameters include information as to whether the object parameters are assumed to remain constant for the updated environmental data. As a result, these constant object parameters advantageously do not have to be retransmitted again and again.
  • the object parameters can be viewed in particular in different coordinate systems, for example in a static global coordinate system in which
  • a roadway is represented as unmoved, or a vehicle system in which the own vehicle is assumed to be stationary, while, for example, static objects move against the direction of travel of the own vehicle.
  • This can allow particularly simple filter criteria, in which, for example, it is assumed that all objects rest in the global coordinate system, which is the case, for example, for road markings and elements of the vegetation.
  • all objects are based in the vehicle system, that is to say that they are moving at the same speed as the own vehicle. This can be the case, for example, in heavy traffic for vehicles in the vicinity of your own vehicle.
  • the forecasts for certain object parameters include information about which changed values of the object parameters are expected for the updated environmental data. As a result, it can advantageously be precisely specified which values expected according to an environment model do not have to be retransmitted repeatedly.
  • concrete values are determined and transferred that are expected for an object parameter of an object.
  • a forecast is generated on the basis of a physical model, according to which a certain position of an object is expected after a time step, assuming a constant speed.
  • the object parameter determined on the basis of the updated environmental data is only taken into account when generating the transmission data if it deviates from the forecast, in particular if the deviation exceeds a specific threshold value. In this way, unnecessary transmission of object parameters can be avoided if their value has already been correctly predicted.
  • the forecasts for the object parameters are determined on the basis of a planned driving maneuver.
  • Driving maneuvers which in particular are carried out partially autonomously or completely automatically, are taken into account on the recorded environmental data in order to avoid an unnecessary increase in the transmitted data volume.
  • driving maneuvers such as a planned acceleration, an overtaking maneuver or a lane change necessarily lead to a change in the perception of the surroundings relative to the vehicle.
  • the positions and speeds of the objects change relative to your own vehicle when it is performing such a driving maneuver.
  • Information about driving maneuvers can be provided by driver assistance systems, which, for example, serve to support certain driving maneuvers or can perform a driving maneuver partially or completely automatically. Further indications of driving maneuvers can also be evaluated, for example the actuation of a turn signal, which typically indicates a change in direction.
  • the forecasts can then be generated in such a way that, for example, it is specified for certain object parameters and certain objects, that a certain value is expected for these or that the current value remains constant.
  • the method also determines a traffic situation that affects the effects of the objects with specific object parameters on the journey and the possibilities of driving one's own vehicle.
  • the transmission data include information about a deviation of the detected object parameters from the forecasts.
  • the transmission data include information about a deviation of the detected object parameters from the forecasts.
  • transmission data can advantageously be reduced to the minimum amount of data required.
  • the transmission data can therefore be a particularly simple update of a
  • Allow the environment model by simply making the necessary adjustments to the specific object parameters. This minimizes the amount of data to be transferred and enables faster transfer.
  • Traffic situation a classification for types of driving maneuvers, configurations of vehicles to each other or traffic regulations. This advantageously allows the filter criteria that are generated on the basis of the traffic situation to be adapted particularly well to the respective context of the surroundings of the vehicle.
  • the classification is based in particular on the object parameters that are assigned to the objects.
  • the particular traffic situation can relate in particular to the relationship of one's own vehicle to objects and, in particular, to other road users in the area, and the resulting boundary conditions for continuing the journey.
  • the traffic situation can include, for example, information that there is a vehicle in front of the vehicle in the direction of travel. You can in other examples
  • the traffic situation can be determined in a manner known per se, for example using a driver assistance system or a system for partially or completely autonomous control, which analyzes the recorded environmental data and plans a driving maneuver for your own vehicle. It can be rule-based or
  • Machine learning can be used to classify and determine the
  • filter criteria are determined depending on the traffic situation. These include rules for filtering the second, updated environment data for generating the transmission data.
  • the filter criteria include in particular information about conditions for whether certain data and object parameters for certain objects are to be transmitted. Prioritizations and forecasts are used to define these criteria.
  • the prioritizations for specific objects and object parameters indicate how important it is for the objects to have precise knowledge of the object parameters at all times.
  • the prioritizations can define that certain
  • Object parameters for certain objects must always be known as precisely as possible, while in another case they are less relevant.
  • the distance to a vehicle in front when driving in heavy traffic, it can be particularly important to monitor the distance to a vehicle in front in order to be able to react quickly to changes.
  • the distance to a following vehicle can, however, be of secondary importance as long as no major changes occur here and, for example, a collision is imminent.
  • the speed of a vehicle traveling in a neighboring lane in heavy traffic can be rated as less important than the lateral distance, which changes, for example, when the other vehicle swings out and can indicate an impending collision.
  • the prioritizations are determined in particular for each of the objects determined on the basis of the environmental data and each of the object parameters assigned to them. Furthermore, certain prioritizations can apply to certain groups of objects, for example for objects in a certain spatial area relative to the position of one's own
  • Object parameters are assigned threshold values and when generating the transmission data information about such object parameters is rejected, which is less than the respective one Thresholds differ from the respective forecast.
  • Thresholds differ from the respective forecast.
  • the transmission data can already include information about a slight change in the distance to the vehicle in front or a smaller lateral deviation of the vehicle in the neighboring lane.
  • the transmission data can only include a change in the lateral position of the preceding vehicle if there is a greater deviation from the forecast, such as, for example, when changing lanes.
  • the prioritizations can also include information about the sensors from which the environmental data for a specific object or a specific object parameter are to be acquired. This means that the filter criteria can be taken into account during the acquisition of the second, updated environmental data at the second point in time.
  • certain object parameters can be detected particularly well on the basis of data of a certain sensor type.
  • Data of other sensors that are not required can be avoided by not activating these sensors or by filtering the recorded environmental data in such a way that the data recorded by the corresponding sensors are not taken into account.
  • the acquisition of the environmental data can be set variably by various sensors, for example by defining an area in which the acquisition takes place with a higher or lower temporal or spatial resolution. In this way, it can advantageously be avoided that unnecessary data is recorded, which then have to be filtered or processed. Conversely, by avoiding such data, particularly fast processing is achieved.
  • the transmission data are also output, in particular via an interface.
  • the output can take place, for example, by transmission to an environment determination unit which is set up to update or check an environment model on the basis of the transmission data.
  • the interface can be designed bidirectionally and can also be used to transmit the filter criteria, which are generated in particular by the environment determination unit.
  • the system according to the invention for providing environmental data comprises one
  • Acquisition unit for acquiring first environmental data at a first point in time and a preprocessing unit which is set up to detect objects on the basis of the acquired first environmental data and to determine object parameters for the objects, the object parameters being assigned to the objects.
  • the system further comprises a computing unit, which is set up on the basis of the detected first
  • Environment data further determine a traffic situation and determine filter criteria depending on the determined traffic situation.
  • the filter criteria include prioritizations and forecasts for the objects and the object parameters assigned to them.
  • the acquisition unit is also set up to acquire second, updated environmental data at a second point in time.
  • the preprocessing unit is also set up on the basis of the second, updated environmental data and the filter criteria
  • the system according to the invention is particularly designed to implement the method according to the invention described above.
  • the system thus has the same advantages as the method according to the invention.
  • the detection unit comprises a lidar, radar or ultrasound detector and / or a camera.
  • other sensors or detection modules can be provided which are used to detect
  • a position determination unit can be provided, for example based on a global one
  • the environmental data acquired by a specific sensor or acquisition module can each be processed by a preprocessing unit, or the environmental data acquired by multiple sensors or acquisition modules are processed by a common one
  • Preprocessing unit processed.
  • the preprocessing unit is from
  • the acquisition unit is set up to provide the first object parameters for the first point in time and the transmission data for the second
  • the computing unit is set up to transmit the filter criteria to the detection unit.
  • the system is therefore advantageously set up in such a way that the data transmitted during its operation is optimized and that for
  • the preprocessing unit can be designed, for example, as a control unit and can be an integral part of the detection unit. It can also be designed as a separate unit, in particular belonging to the detection unit. Furthermore, the computing tasks can be distributed to various units during the preprocessing of the recorded environmental data, which in particular partially comprises the recording unit and the other part is formed separately from it.
  • the recording unit is controlled on the basis of the prioritizations in such a way that the updated environmental data are recorded on the basis of a subset of different sensors of the recording unit.
  • a vehicle includes a large number of sensors which can be activated or deactivated individually depending on the prioritizations, at least when environmental data are recorded for a specific object or a specific object parameter assigned to the object. Furthermore, the data recorded by the sensors can be filtered in such a way that the environmental data are not provided for specific objects and / or associated object parameters.
  • the vehicle according to the invention comprises a system according to the invention.
  • FIG. 1 shows an exemplary embodiment of the system according to the invention
  • Figures 2A to 2C show a first embodiment of the invention
  • FIGS. 3A and 3B show a further exemplary embodiment of the invention
  • the vehicle 1 comprises a position determination unit 5, which in the exemplary embodiment is based on a global navigation satellite system, for example the global one Positioning system, GPS.
  • a position determination unit 5 is based on a global navigation satellite system, for example the global one Positioning system, GPS.
  • GPS global one Positioning system
  • other position determination methods can also be used in a global or relative coordinate system, for example landmark-based location.
  • the vehicle 1 further comprises a detection unit 2, which in the exemplary embodiment comprises a camera 3 and a preprocessing unit 4.
  • the preprocessing unit 4 is included as a preprocessing module by a control device for the camera 3, but it can be implemented in practically any other way.
  • the detection unit 2 can comprise any desired sensor devices, such as LI DAR or RADAR scanners, time-of-flight cameras, stereo cameras, infrared cameras or ultrasound sensors. This can be done by others
  • the vehicle 1 also includes a computing unit 6, with which the detection unit 2, the position determination unit 5 and a driver assistance system 7 are coupled.
  • driver assistance system 7 can be operated in such a way that it only has a function that supports the driver of vehicle 1, for example by outputting information or by supporting interventions in vehicle control; it can also be operated in such a way that the vehicle 1 is controlled partially or completely autonomously.
  • the starting point here is a system according to the invention which is constructed analogously to the exemplary embodiment explained above with reference to FIG. 1 and for which the same reference numerals are therefore used.
  • FIG. 2A shows a traffic situation in which an ego vehicle 20 is traveling in a middle lane of a road. There is a further vehicle 21 on the left lane and a further vehicle 22 on the right lane. There are trees 23 at the edge of the road. The ego vehicle 20 and the vehicle 21 in the left lane move at the same speed, which is represented by the arrows 25 of the same length. The vehicle 22 in the right lane moves at a higher speed, represented by the longer solid arrow 25.
  • the solid arrows 25 indicate the speeds of the vehicles 20, 21, 22 in the world system, which is defined in such a way that static objects such as, for example, the Road markings or trees 23 rest.
  • Dashed arrows 27 also show the respective speeds of the objects in the relative system of the ego vehicle 20. In this system, the ego vehicle 20 and the vehicle 21 rest in the left lane, so that dashed arrows are not shown here.
  • the static trees 23 move in this relative coordinate system against the direction of travel of the ego vehicle 20, which is also shown by dashed arrows 27.
  • the speed of the vehicle 22 in the right lane is reduced in the relative system of the ego vehicle 20 by the speed of the ego vehicle 20, which is shown by the difference in length of the solid arrow 25 compared to the dashed arrow 27.
  • the vehicle 20 captures video data in the vicinity of the vehicle 20 by means of the camera 3 of the acquisition unit 2. This is simplified here
  • Affect vehicle 20 with a radius of about 100 m.
  • Environmental data can be provided, which record environmental data, for example, in different spatial areas around the vehicle 20.
  • the preprocessing unit 4 comprised by the detection unit 2 receives the video data recorded by the camera 3 and detects objects therein
  • Embodiment the vehicle 21 in the left lane, the vehicle 22 in the right lane and the trees 23 next to the road and the lane marking on the
  • the detection is carried out in a manner known per se, in particular by means of image processing and pattern recognition.
  • the objects are classified, and it is recognized whether they are static or dynamic objects.
  • trees 23 can be recognized as static objects, namely components of a vegetation.
  • the other vehicles 21, 22 are cars and consequently dynamic objects.
  • Object parameters are also assigned to the recognized objects
  • Embodiment can be determined based on the video data of the camera 3.
  • a position relative to the ego vehicle 20 is determined for each of the objects, in the exemplary embodiment defined by an angle and a distance.
  • a speed relative to vehicle 20 is also determined.
  • Other environmental parameters can be an acceleration or a change in the acceleration, a direction or a state of lighting.
  • the object parameters determined by the preprocessing unit 4 in a coordinate system relative to the ego vehicle 20 can also be transformed into a world coordinate system or vice versa .
  • the data recorded in this way about objects and object parameters assigned to the objects are transmitted to the computing unit 6, which makes an initial determination of an initial environment model.
  • Data is merged, which is a summary of
  • the environment model is used in particular by the driver assistance system 7 in order to determine suitable driving maneuvers for the vehicle 20 and to issue corresponding recommendations for a driver or to automatically support or carry out the driving maneuvers.
  • the computing unit 6 determines a traffic situation on the basis of the environment model.
  • the environment model is classified, a configuration of objects with the specific object parameters in the environment of the vehicle 20 being assigned to a specific traffic situation in a manner known per se. This can relate, for example, to the role of the other vehicles 21, 22 and their relevance for the driving of the ego vehicle 20.
  • the particular traffic situation includes one
  • filter criteria are determined, which include prioritizations and forecasts for the objects and the object parameters assigned to them.
  • the filter criteria include, for example
  • Relative system of the ego vehicle 20 is essentially assumed to be constant if the ego vehicle 20 moves in the lane at a constant speed. Furthermore, the trees 23 are located away from the road, so that changes in the object parameters assigned to them are only relevant for a new evaluation of the traffic situation if the changes are particularly large, for example if it is recognized that an incorrect detection is involved is a dynamic object that moves towards the road. Furthermore, the filter criteria include, for example, the information that objects at the same speed as the ego vehicle 20 are less relevant than other objects. That is, the vehicle 21 in the left lane can be adopted at a constant position relative to the first-person vehicle 20 as long as it does not change its speed.
  • the computing unit 6 also uses a physical model which describes the objects in the environment model and in which specific values of the object parameters can be inferred by extrapolation.
  • the detection unit 2 again detects the surroundings of the ego vehicle 20.
  • the preprocessing unit 4 in turn carries out the detection of the objects and the object parameters associated with them, objects identical to the last detection being recognized. That is, detections of the initial environment detection in a first time step are assigned updated detections of the second environment detection in a second time step. The prioritizations and forecasts for the objects detected in the first time step can therefore be compared with the objects detected in the second time step. Subsequently, transmission data are generated and sent to the
  • Transfer computing unit 6 The data is filtered to reduce its size and the bandwidth required for transmission. In doing so, the
  • Filter criteria predefined conditions for the objects and their assigned
  • the traffic situation shown in FIG. 2A is filtered using the forecast that all objects in the world system are at rest. This means that all objects that have a speed of 0 compared to the world system are filtered out of the environmental data.
  • Embodiment the trees 23, which are therefore no longer included in Figure 2B, and the road markings, which are shown in dashed lines for orientation.
  • filtering is carried out for the traffic situation shown in FIG. 2A using the forecast that all objects are at rest relative to the ego vehicle 20. This means that all objects from the environment data
  • the ego vehicle 20 is for
  • FIG. 2D a logical AND operation of the filterings shown in FIGS. 2B and 2C is carried out. That is, both objects that are resting in the world system and objects that are resting against the movement of the ego vehicle 20 are ignored. Only the vehicle 22 remains in the right lane. The ego vehicle 20 and the road markings are only shown in dashed lines for the sake of orientation.
  • FIG. 3A shows a traffic situation in which an ego vehicle 30 is traveling in a middle lane of a road. In the direction of travel in front of the ego vehicle 30 there is a vehicle 31 driving ahead and in the right lane there is another vehicle 32
  • Vehicles 30, 31, 32 drive at this time at the same speed, which is indicated by the same lengths of the arrows 35.
  • the speeds relate to the world system.
  • the traffic situation is analyzed and a prioritization is determined in such a way that the object parameters “speed” and “distance” have a particularly high priority for the object “vehicle 31 in front”.
  • the object parameters “speed” and “distance” have a particularly high priority for the object “vehicle 31 in front”.
  • the object parameters “speed” and “distance” have a particularly high priority for the object “vehicle 31 in front”.
  • the object parameters “speed” and “distance” have a particularly high priority for the object “vehicle 31 in front”.
  • the object parameters “speed” and “distance” have a particularly high priority for the object “vehicle 31 in front”.
  • the object parameters for the objects are assigned threshold values and the filter criteria include the information that newly recorded object parameters for the respective objects should only be included in the transmission data if they deviate from a forecast for the respective value by more than the threshold value .
  • the higher priority of the distance for the preceding vehicle 31 means that
  • Embodiment specifically that compared to the vehicle 32 in the right lane a lower threshold value is determined, which determines whether a deviation from the transmission data should be included.
  • Filter criteria included threshold values so that information about these deviations from the forecast should be included in the transmission data.
  • a change in the lateral position of the vehicle 32 in the right lane can be detected that exceeds the threshold value determined therefor. This can be the case, for example, when the vehicle 32 starts a lane change in the right lane. Corresponding information about the changed lateral position is then taken into account in the transmission data.
  • the prioritization of different objects and object parameters makes it possible to distinguish between more or less relevant parameters. For example, there is an increased risk of a collision if the distance of the preceding vehicle 31 decreases rather than if, for example, the vehicle 32 brakes in the right lane.
  • Threshold values for the "Speed" object parameters therefore depend on the
  • the threshold values for the object parameter “lateral position” depend on the vehicles 31, 32 and the traffic situation.
  • a color or brightness is determined as the object parameter.
  • signals from traffic lights or other road users are recorded and taken into account when determining the traffic situation. Depending on their training, light signals from vehicles are interpreted, for example, as indications of braking or an intention to change the subject.
  • the traffic situation includes a categorization “red / green traffic light ahead” or “neighboring vehicle wants to change lane” or “vehicle in front brakes”.
  • the driver assistance system 7 generates an instruction for executing an autonomous driving maneuver or a request to perform a driving maneuver. Based on the dynamics determined for the driving maneuver, the forecasts for individual objects can be determined more precisely. For example, is a
  • Acceleration of the ego vehicle 30 is planned, it can be assumed that the relative speeds of all objects in the environment change accordingly and that their relative positions also change in accordance with the planned dynamics of the ego vehicle 30.
  • the method can alternatively or additionally be applied to an actuator system of the ego vehicle 30.
  • the data transmitted from the actuator system to the computing unit 6 are filtered in an analogous manner, as is done in the exemplary embodiments for the sensor system described above.
  • the actuator system comprises devices and modules for controlling the movement of the vehicle in the longitudinal and / or transverse direction. These can be actuators for setting driving parameters, for example actuators for setting a steering angle or drive power. It can also be functions of a driver assistance system 7, by means of which, for example, individual actuators are controlled, in particular as a function of an environment perception.
  • a lane departure warning system For example, a lane departure warning system, a longitudinal control or a function for maintaining a speed depending on the distance to a preceding vehicle 31 is counted to the actuators.
  • a certain result is usually assumed, for example driving a certain trajectory for overtaking or at a certain distance from others

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Bei dem erfindungsgemäßen Verfahren zum Bereitstellen von Umgebungsdaten werden zu einem ersten Zeitpunkt erste Umgebungsdaten erfasst, wobei anhand der erfassten ersten Umgebungsdaten Objekte (21, 22, 23, 31, 32, 33) detektiert und für die Objekte (21, 22, 23, 31, 32, 33) jeweils Objektparameter bestimmt werden, wobei die Objektparameter den Objekten (21, 22, 23, 31, 32, 33) zugeordnet sind. Anhand der erfassten ersten Umgebungsdaten wird ferner eine Verkehrssituation bestimmt und in Abhängigkeit von der bestimmten Verkehrssituation werden Filterkriterien bestimmt. Dabei umfassen die Filterkriterien Priorisierungen und Prognosen für die Objekte (21, 22, 23, 31, 32, 33) und die ihnen zugeordneten Objektparameter. Zu einem zweiten Zeitpunkt werden zweite, aktualisierte Umgebungsdaten erfasst und anhand der zweiten, aktualisierten Umgebungsdaten und der Filterkriterien werden Übertragungsdaten erzeugt. Die Übertragungsdaten werden ausgegeben. Das erfindungsgemäße System zum Bereitstellen von Umgebungsdaten umfasst eine Erfassungseinheit, eine Vorverarbeitungseinheit (4) und eine Recheneinheit (6) und ist dazu eingerichtet, das erfindungsgemäße Verfahren auszuführen. Das erfindungsgemäße Fahrzeug (1, 20, 30) umfasst ein System gemäß der Erfindung.

Description

Beschreibung
Verfahren und System zum Bereitstellen von Umgebungsdaten
Die vorliegende Erfindung betrifft ein Verfahren und ein System zum Bereitstellen von
Umgebungsdaten, insbesondere in einer Umgebung eines Fahrzeugs, sowie ein Fahrzeug mit einem erfindungsgemäßen System.
Moderne Fahrerassistenzsysteme, deren Aufgaben bis hin zur automatischen Steuerung verschiedener Fahraufgaben eines Fahrzeugs reichen, erfordern ein hohes Maß an
Kenntnissen über das Umfeld das Fahrzeugs. Es ist typischerweise eine Vielzahl Sensoren vorgesehen, die vielfältige und umfangreiche Messdaten liefern. Diese sollen idealerweise in Echtzeit bereitgestellt und verarbeitet werden, um im laufenden Betrieb des Fahrzeugs korrekte Fahrentscheidungen zu treffen und diese schnellstmöglich umzusetzen. Hierbei stoßen die Bandbreiten zur Übertragung von Daten und die Rechenkapazitäten für deren Verarbeitung an Grenzen.
Bei dem in der DE 10 2009 028 578 A1 beschriebenen Verfahren tastet ein Lidar-Scanner ein Umfeld ab und erfasst eine Intensitätskurve. Störungen der Ausbreitungsbedingungen, etwa bei Regen, können so erkannt werden. Ferner kann eine Datenkompression erreicht werden, indem lediglich Abweichungen einer gemessenen von einer erwarteten Intensitätskurve an ein
Fahrerassistenzsystem gemeldet werden.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren und ein System zum Bereitstellen von Umgebungsdaten bereitzustellen, die eine besonders flexible und effiziente Nutzung begrenzter Ressourcen, etwa eines Fahrzeugs, erlauben.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1 und ein System mit den Merkmalen des Anspruchs 12 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
Bei dem erfindungsgemäßen Verfahren werden zu einem ersten Zeitpunkt erste
Umgebungsdaten erfasst. Anhand der erfassten ersten Umgebungsdaten werden Objekte detektiert und für die Objekte werden jeweils Objektparameter bestimmt, wobei die
Objektparameter den Objekten zugeordnet sind. Anhand der erfassten ersten Umgebungsdaten wird ferner eine Verkehrssituation bestimmt und in Abhängigkeit von der bestimmten
Verkehrssituation werden Filterkriterien bestimmt. Die Filterkriterien umfassen Priorisierungen und Prognosen für die Objekte und die ihnen zugeordneten Objektparameter. Zu einem zweiten Zeitpunkt werden zweite, aktualisierte Umgebungsdaten erfasst und anhand der zweiten, aktualisierten Umgebungsdaten und der Filterkriterien werden Übertragungsdaten erzeugt. Die Übertragungsdaten werden ausgegeben.
Dies erlaubt vorteilhafterweise eine besonders starke Verringerung des zu übertragenden und zu verarbeitenden Datenvolumens. Das Verfahren basiert dabei auf einer bidirektionale
Kommunikation zwischen den verschiedenen Ebenen von Wahrnehmung und Verarbeitung des Umfeldes.
Das Verfahren kann insbesondere iterativ für einen dritten Zeitpunkt und gegebenenfalls für weitere darauf folgende Zeitpunkte ausgeführt werden. In diesem Fall wird insbesondere anhand der ersten Umgebungsdaten und der Übertragungsdaten ein aktueller
Umgebungsdatensatz erzeugt. Anhand dieses aktuellen Umgebungsdatensatzes, der in jedem Zeitschritt aktualisiert werden kann, werden neue Filterkriterien erzeugt und verwendet, um in einem folgenden Zeitschritt aktuelle Übertragungsdaten zu erzeugen und auszugeben. Das heißt, an die Stelle der Erfassung der ersten Umgebungsdaten im ersten Zeitschritt tritt in weiteren Zeitschritten das Erzeugen des aktuellen Umgebungsdatensatzes anhand der im jeweils vorigen Zeitschritt erzeugten Überragungsdaten und eines zuvor vorhandenen
Umgebungsdatensatzes. Auf diese Weise können Veränderungen in der Umgebung
berücksichtigt werden. Ferner kann ein aktueller Übertragungsdatensatz auch erzeugt werden, indem die Umgebungsdaten wie im ersten Zeitschritt erfasst werden und das Verfahren wieder von Anfang an neu gestartet wird.
Bei klassischen Verfahren wird üblicherweise von einem Feed-Forward- Ansatz ausgegangen. Dabei werden zunächst Informationen aus der Umwelt mittels Sensoren erfasst und in Gänze an eine Einheit zur Verarbeitung der Daten und zum Treffen von Entscheidungen weitergeleitet. Anschließend werden Informationen an Aktoren übertragen, die bestimmte Steuerbefehle ausführen können. Bei der Entwicklung von Systemen zur Übernahme komplexer Aufgaben, etwa bei einer autonomen Fahrzeugfahrt, werden dadurch immer größere Bandbreiten und Rechenleistungen erforderlich.
Das Verfahren der Erfindung geht dagegen von einem„Feed-Backward“- Ansatz aus, bei dem Vorhersagen erzeugt und in„Rückwärts“-Richtung etwa an Einrichtungen auf der Ebene der Erfassung von Umgebungsdaten übertragen werden. Umgekehrt genügt es, nur noch
Abweichungen von den Vorhersagen zu übertragen, was die gesamte Datenmenge drastisch reduziert. Die Daten können also auf Fälle reduziert werden, in denen ein Objekt von seinem erwarteten Verhalten abweicht.
Im Unterschied zu bekannten Verfahren erfolgt die Filterung bei der Erfindung anhand einer Analyse der aktuellen Verkehrssituation, aus der wiederum Priorisierungen für Objekte und Objektparameter abgeleitet werden. Die Beobachtung der Objekte kann daher auf den Teil der Umgebung fokussiert werden, der für die Entscheidungsebene, bei der beispielsweise
Fahrfunktionen eines Fahrzeugs geplant und gesteuert werden, relevant ist. Die Beobachtung anderer Bereiche kann dagegen flexibel reduziert werden.
Zum Beispiel kann vermieden werden, dass eine Kamera zur Beobachtung des vor einem Fahrzeug liegenden Bereichs mit jedem Erfassungsschritt neu die Information überträgt, dass sich im Erfassungsbereich ein vorausfahrendes Fahrzeug mit einer bestimmten
Geschwindigkeit in einem bestimmten Abstand zum Ego-Fahrzeug befindet. Diese
Beobachtung wird erst dann wieder relevant, wenn sich der Abstand zu dem vorausfahrenden Fahrzeug oder seine Relativgeschwindigkeit ändert und beispielsweise Maßnahmen zum Vermeiden einer Kollision eingeleitet werden müssen.
Die Erfassung der Umgebungsdaten erfolgt auf an sich bekannte Weise. Es können
verschiedene Sensoren einzeln oder in Kombination verwendet werden, beispielsweise Lidar-, Radar-, Ultraschall- oder Lichtsensoren, Kameras für sichtbares oder Infrarotlicht, 3D-Kameras oder Einrichtungen zur Positionsbestimmung, wie etwa Empfänger für Signale von
Navigationssatelliten. Die Umgebungsdaten betreffen insbesondere die Umgebung eines Ego- Fahrzeugs mit einem System zur Ausführung des Verfahrens sowie Merkmale und Zustände des Ego-Fahrzeugs selbst. Die Umgebung erstreckt sich dabei auf einen räumlichen Bereich, in dem Objekte auftreten können, die für die Bewertung der Fahrsituation des Fahrzeugs und zur Ermittlung von geeigneten Fahrmanövern relevant sind. Dieser Bereich kann zum Beispiel anhand eines Radius von 100 m um das Ego-Fahrzeug herum definiert sein.
Die Erfassung der Umgebungsdaten kann ferner umfassen, dass Informationen von einem Fahrerassistenzsystem empfangen werden. Der Begriff„Fahrerassistenzsystem“ wird dabei breit verstanden und kann unterschiedliche Systeme im Zusammenhang mit Fahrfunktionen umfassen. Dabei werden Fahraufgaben teilweise oder vollständig automatisch ausgeführt. Zum Beispiel kann ein Fahrerassistenzsystem Hinweise für einen Fahrer ausgeben oder ihn bei der Steuerung ergänzend unterstützen; ferner können einzelne Aspekte der Fahrzeugsteuerung übernommen werden oder in einem höchsten Grad der Automatisierung kann eine vollständig autonome Fahrt des Fahrzeugs durchgeführt werden. Beispielsweise können Daten über bevorstehende automatische Fahrmanöver ausgewertet werden, die Auswirkungen auf die zu erwartenden Umgebungsdaten haben. Wird etwa eine Bremsung durchgeführt, so verändern sich die Relativgeschwindigkeiten von Objekten im Umfeld entsprechend dem Maß der eigenen Geschwindigkeitsänderung. Auch Richtungsänderungen des Fahrzeugs verändern die
Wahrnehmung der Umgebung durch Sensoren des Fahrzeugs.
Auch die Detektion von Objekten und die Bestimmung von Objektparametern anhand der erfassten Umgebungsdaten erfolgt auf an sich bekannte Weise. Insbesondere ist eine
Vorverarbeitungseinheit vorgesehen, welche die von Sensoren erfassten Umgebungsdaten vorverarbeitet und im Ergebnis Informationen über die detektierten Objekte und
Objektparameter bereitstellt, beispielsweise für eine Recheneinheit oder ein
Fahrerassistenzsystem, welches wiederum anhand dieser Ergebnisse ein Umfeldmodell bestimmt und geeignete Fahrmanöver ermittelt. Der Grad der vorgesehenen Vorverarbeitung kann je nachdem variieren, welche Rechenleistung eine Vorverarbeitungseinheit aufweist. Es kann eine Vorverarbeitungseinheit für einen einzelnen Sensor oder ein einzelnes Modul zur Erfassung der Umgebungsdaten vorgesehen sein, allerdings können auch die von mehreren solchen Modulen erfassten Umgebungsdaten von einer Vorverarbeitungseinheit vorverarbeitet werden.
Bei der Detektion werden die Umgebungsdaten analysiert und zu bestimmten physischen Objekten gehörige Daten bestimmt. Die Detektion schafft insbesondere die Voraussetzungen dafür, für physische Objekte anhand der erfassten Umgebungsdaten Merkmale zu bestimmen, die im Sinne der Erfindung als Objektparameter bezeichnet werden.
Bei der Detektion der Objekte kann als Objektparameter bestimmt werden, um welchen Typ von Objekt es sich handelt, beispielsweise einen weiteren Verkehrsteilnehmer, einen Gegenstand, ein Bauwerk oder ein Element einer Vegetation. Die Bestimmung kann auch differenzierter erfolgen, beispielsweise indem als Verkehrsteilnehmer PKW, LKW, Gespanne und Anhänger, Fußgänger oder Radfahrer erkannt werden. Es können Elemente einer Verkehrsinfrastruktur detektiert werden, etwa Lichtsignalanlagen, Pfosten, Fahrbahnmarkierungen, Pfeiler oder Merkmale von Verkehrsbauwerken. Anhand der erkannten Typen von Objekten kann beispielsweise zwischen statischen und dynamischen Objekten unterschieden werden. Ferner können spezifische Bewegungsmodelle für verschiedene Typen von Objekten verwendet werden, etwa zur Berücksichtigung der verschiedenen Geschwindigkeiten von Fahrzeugen und Fußgängern.
Die detektierten Objekte können ferner als eigene Einheiten innerhalb der Umgebung identifiziert werden, wobei sie beispielsweise mit einer Identifikationsnummer oder einer ähnlichen Markierung versehen werden, um sie etwa auch über mehrere Messungen hinweg zu verschiedenen Zeitpunkten erneut identifizieren und etwa eine Bewegung eines Objekts bestimmen zu können. Zum Beispiel kann ein Objekt mit einer Identifikation„ID1“ als„PKW“ erkannt werden.
Die Objektparameter werden für einzelne Objekte bestimmt und können unterschiedliche physikalische Merkmale der Objekte betreffen.
Bei einer Ausbildung des erfindungsgemäßen Verfahrens umfasst der Objektparameter eine Position, einen Abstand, eine Geschwindigkeit, eine Beschleunigung oder eine
Beschleunigungsänderung. Es werden dadurch vorteilhafterweise besonders relevante
Parameter bestimmt, die zur Beurteilung einer dynamischen Fahrsituationen von großer Bedeutung sind. Die Parameter können zudem in einem globalen Koordinatensystem oder in einem relativen Koordinatensystem, etwa relativ zur Position des Ego-Fahrzeugs, bestimmt werden.
Zum Beispiel wird für ein Objekt„ID1“ bestimmt, dass es sich frontal vor dem eigenen Fahrzeug in einem bestimmten Abstand befindet und mit einer bestimmten Geschwindigkeit bewegt. Es kann ferner bestimmt werden, dass eine Beschleunigung vorliegt, die sich zeitlich ändern kann, beispielsweise wenn eine Bremsung oder ein positiver Beschleunigungsvorgang eingeleitet wird.
Bei einer Weiterbildung umfasst der Objektparameter eine Richtung. Dadurch kann
vorteilhafterweise auch eine Orientierung eines Objekts im Raum ausgewertet werden.
Beispielsweise kann bestimmt werden, dass die Front eines Fahrzeugs in eine bestimmte Richtung relativ zum eigenen Fahrzeug ausgerichtet ist.
Bei einer Ausbildung umfasst der Objektparameter eine Farbe oder eine Helligkeit. Dadurch können vorteilhafterweise Lichtzeichen ausgewertet werden, die im Straßenverkehr weit verbreitet sind. Beispielsweise können Lichtsignale ausgewertet werden, die auf eine Bremsung oder einen geplanten Richtungswechsel eines Fahrzeugs hinweisen. Ferner können Signale von Lichtsignalanlagen ausgewertet werden, die beispielsweise das Passieren einer Kreuzung erlauben oder verbieten.
Das Verfahren ist insbesondere iterativ ausgestaltet. Dabei können die zweiten, aktualisierten Umgebungsdaten zur weiteren Ausführung des Verfahrens anstelle der ersten
Umgebungsdaten verwendet werden. Ferner können Umgebungsmodelle erzeugt und anhand der aktualisierten Umgebungsdaten aktualisiert werden, wobei die Übertragungsdaten genutzt werden, um das zu übertragende Datenvolumen zu verringern.
Bei einer weiteren Ausbildung des Verfahrens erfolgt das Erfassen der ersten und zweiten Umgebungsdaten, das Bestimmen der Objektparameter für die Objekte sowie das Erzeugen der Übertragungsdaten mittels einer Erfassungseinheit. Das Bestimmen der Verkehrssituation und der Filterkriterien erfolgt mittels einer Recheneinheit. Dabei werden die ersten
Objektparameter für den ersten Zeitpunkt von der Erfassungseinheit an die Recheneinheit übertragen, die Filterkriterien werden von der Recheneinheit an die Erfassungseinheit übertragen und die Übertragungsdaten für den zweiten Zeitpunkt werden von der
Erfassungseinheit an die Recheneinheit übertragen. Das Verfahren wird dabei
vorteilhafterweise dazu genutzt, die jeweils zu übertragenden Daten zu optimieren.
Zum Beispiel kann die Erfassungseinheit einen Sensor zum Erfassen der Umgebungsdaten anhand eines bestimmten physikalischen Prinzips und ferner ein integriertes oder separates Steuergerät zur Vorverarbeitung der so erfassten Daten umfassen. Die Aufgaben zur
Verarbeitung der erfassten Umgebungsdaten kann bei weiteren Ausbildungen unterschiedlich auf verschiedene Einheiten verteilt sein, insbesondere um die zur Verfügung stehende
Rechenleistung jeweils optimal zu nutzen.
Das Verfahren der Erfindung sieht also ein koordiniertes Zusammenspiel zwischen einer Sensorik beziehungsweise der Erfassungseinheit und der Recheneinheit, die etwa als
Steuereinheit für die Steuerung verschiedener Fahrfunktionen eines Fahrzeugs ausgebildet ist, vor.
Bei einer Weiterbildung ist das Datenvolumen der Übertragungsdaten gegenüber dem
Datenvolumen der ersten Objektparameter in Abhängigkeit von den Filterkriterien reduziert. Insbesondere umfassen die Übertragungsdaten eine Teilmenge derjenigen Objektparameter, die anhand der zweiten, aktualisierten Umgebungsdaten bestimmt werden könnten. Es wird also vorteilhafterweise eine erhebliche Reduktion des in allen Folgeschritten zu übertragenden Datenvolumens erreicht.
Bei einer Ausbildung wird anhand der erfassten ersten Umgebungsdaten ein erstes
Umfeldmodell bestimmt und anhand des erstes Umfeldmodells und der Übertragungsdaten wird ein zweites, aktualisiertes Umfeldmodell erzeugt. Dadurch kann vorteilhafterweise ein ständig aktuelles Umfeldmodell bereitgestellt werden.
Das Verfahren geht von einer initialen Erfassung der Umgebung aus, anhand derer ein erstes Umfeldmodell erzeugt werden kann. Das Umfeldmodell umfasst Informationen über ein Umfeld, insbesondere über Objekte in diesem Umfeld. Hierzu können Informationen über die Art der Objekte, ihre Positionen in relativen oder absoluten Koordinaten, ihre Geschwindigkeit, Beschleunigung oder eine Änderung der Beschleunigung, ihre Ausrichtung und bestimmte Zustände, etwa eine Beleuchtung, sein.
Das Umfeldmodell kann in einem iterativen Prozess in bestimmten Zeitschritten immer wieder aktualisiert werden, wobei insbesondere die Übertragungsdaten genutzt werden, um die den Objekten zugeordneten Objektparameter zu aktualisieren. Das heißt, zu einem dritten Zeitpunkt sowie weiteren darauf folgenden Zeitpunkten wird stets ein aktueller Umgebungsdatensatz erzeugt, der als Ausgangspunkt zum Erzeugen eines aktuellen Umfeldmodells dient, insbesondere anhand der zuletzt ausgegebenen Übertragungsdaten. Dabei werden
insbesondere auch die Filterkriterien mit Priorisierungen und Prognosen in jeden Schritt neu erzeugt und zur Erzeugung neuer Übertragungsdaten anhand neu erfasster Umgebungsdaten verwendet.
Ferner können zum Bestimmen von Prognosen, insbesondere anhand der Umfeldmodelle, physikalische Modelle verwendet werden, um die Entwicklung des Umfeldmodells mit der Zeit zu prognostizieren. Hierzu werden Annahmen getroffen wie beispielsweise, dass sich bestimmte Objektparameter der Objekte nicht verändern. Beispielsweise kann davon ausgegangen werden, dass sich die Geschwindigkeiten und Bewegungsrichtungen der Objekte nicht verändern, sodass statische Objekte weiterhin an ihrer Position in einem absoluten Koordinatensystem verbleiben, während die Positionen sich bewegender Objekte für spätere Zeitpunkte berechnet werden können. Es kann ferner die Annahme getroffen werden, dass Objekte eine bestimmte aktuelle Beschleunigung bis zum nächsten Zeitschritt fortsetzen, sodass die Geschwindigkeit und Position auch zu diesem nächsten Zeitschritt berechnet werden kann. Diese Prognosen werden zur Bildung der Filterkriterien verwendet. Die bei dem Verfahren gebildeten Prognosen betreffen Objekte und die ihnen zugeordneten Objektparameter. Sie können als Hypothesen über die Werte der Objektparameter betrachtet werden, beispielsweise die Hypothese„Wert des Parameters bleibt im nächsten Zeitschritt konstant“ oder„Wert des Parameters nimmt zum nächsten Zeitschritt einen bestimmten Wert an“.
Es können mehrere Prognosen für die gleichen Objekte und zugeordneten Objektparameter verwendet werden, beispielsweise um mehrere Hypothesen zu prüfen. Es kann eine Filterung in mehreren Schritten anhand dieser mehreren Prognosen erfolgen, wobei durch eine
Verknüpfung dieser Filter, etwa mittels einer logischen UND-, ODER- oder ENTWEDER-ODER- Verknüpfung, die Zahl der verbleibenden Elemente besonders gut reduziert werden kann.
Bei einer Ausbildung umfassen die Prognosen für bestimmte Objektparameter eine Information darüber, ob für die Objektparameter davon ausgegangen wird, dass sie für die aktualisierten Umgebungsdaten konstant bleiben. Diese konstanten Objektparameter müssen dadurch vorteilhafterweise nicht immer wieder neu übertragen werden.
Beispielsweise kann angenommen werden, dass sich alle Objekte mit konstanten
Geschwindigkeiten bis zum nächsten Zeitschritt bewegen, wobei in diesem Fall auch ihre Position zum nächsten Zeitschritt vorhergesagt werden kann. Bei statischen Objekten kann davon ausgegangen werden, dass sich ihre Position bis zum nächsten Zeitschritt nicht verändert, während bei bestimmten weiteren Objekten während einer Beschleunigung angenommen werden kann, dass sich die Geschwindigkeit weiter gleichförmig verändert
Die Objektparameter können insbesondere in verschiedenen Koordinatensystemen betrachtet werden, beispielsweise in einem statischen globalen Koordinatensystem, in welchem
beispielsweise eine Fahrbahn als unbewegt repräsentiert wird, oder einem Fahrzeugsystem, in dem das eigene Fahrzeug als ruhend angenommen wird, während sich beispielsweise statische Objekte entgegen der Fahrtrichtung des eigenen Fahrzeugs bewegen. Dies kann besonders einfache Filterkriterien erlauben, bei denen beispielsweise angenommen wird, dass alle Objekte in dem globalen Koordinatensystem ruhen, was beispielsweise für Fahrbahnmarkierungen und Elemente der Vegetation der Fall ist. In einem weiteren Beispiel kann angenommen werden, dass alle Objekte in dem Fahrzeugsystem beruhen, das heißt, dass sie sich mit der gleichen Geschwindigkeit wie das eigene Fahrzeug bewegen. Dies kann beispielsweise im dichten Verkehr für Fahrzeuge in der Umgebung des eigenen Fahrzeugs zutreffen. Bei einer weiteren Ausbildung umfassen die Prognosen für bestimmte Objektparameter eine Information darüber, welche veränderten Werte der Objektparameter für die aktualisierten Umgebungsdaten erwartet werden. Dadurch kann vorteilhafterweise genau spezifiziert werden, welche gemäß einem Umfeldmodell erwarteten Werte nicht wiederholt neu übertragen werden müssen.
Dabei werden konkrete Werte bestimmt und übertragen, die für einen Objektparameter eines Objekts erwartet werden. Beispielsweise wird anhand eines physikalischen Modells eine Prognose erzeugt, wonach unter Annahme einer konstanten Geschwindigkeit nach einem Zeitschritt eine bestimmte Position eines Objekts erwartet wird. Bei einer solchen Prognose wird der anhand der aktualisierten Umgebungsdaten bestimmte Objektparameter nur dann bei der Erzeugung der Übertragungsdaten berücksichtigt, wenn er von der Prognose abweicht, insbesondere wenn die Abweichung einen bestimmten Schwellenwert überschreitet. Auf diese Weise kann auf eine unnötige Übertragung von Objektparametern verzichtet werden, wenn ihr Wert bereits richtig prognostiziert wurde.
Bei einer Weiterbildung werden die Prognosen für die Objektparameter anhand eines geplanten Fahrmanövers bestimmt. Dadurch können vorteilhafterweise die Rückwirkungen eines
Fahrmanövers, das insbesondere teilautonom oder vollständig automatisch durch geführt wird, auf die erfassten Umgebungsdaten berücksichtigt werden, um eine unnötige Vergrößerung des übertragenen Datenvolumens zu vermeiden.
Beispielsweise führen Fahrmanöver wie eine geplante Beschleunigung, ein Überholvorgang oder ein Spurwechsel notwendigerweise zur Veränderung der Wahrnehmung des Umfelds relativ zu dem Fahrzeug. Beispielsweise ändern sich die Positionen und Geschwindigkeiten der Objekte relativ zu dem eigenen Fahrzeug, wenn dieses ein solches Fahrmanöver durchführt. Informationen über Fahrmanöver können von Fahrerassistenzsystemen bereitgestellt werden, die beispielsweise zur Unterstützung bestimmter Fahrmanöver dienen oder ein Fahrmanöver teilweise oder vollständig automatisch ausführen können. Es können ferner weitere Hinweise auf Fahrmanöver ausgewertet werden, beispielsweise das Betätigen eines Blinkers, was typischerweise auf eine Richtungsänderung hinweist. Die Prognosen können dann so erzeugt werden, dass beispielsweise für bestimmte Objektparameter und bestimmte Objekte angegeben wird, dass für diese ein bestimmter Wert erwartet wird oder dass der aktuelle Wert konstant bleibt. Bei dem Verfahren wird ferner eine Verkehrssituation bestimmt, die die Auswirkungen der Objekte mit bestimmten Objektparametern auf die Fahrt und die Fahrtmöglichkeiten des eigenen Fahrzeugs betrifft.
Bei einer Weiterbildung umfassen die Übertragungsdaten Informationen über eine Abweichung erfasster Objektparameter von den Prognosen. Insbesondere werden lediglich die
Abweichungen zwischen gemessenen und prognostizierten Werten übertragen, also etwa Differenzen zwischen den Werten der Prognose und der tatsächlichen Messung. Die
Übertragungsdaten können dadurch vorteilhafterweise auf die minimal notwendige Datenmenge reduziert werden.
Die Übertragungsdaten können daher eine besonders einfache Aktualisierung eines
Umfeldmodells erlauben, indem lediglich die erforderlichen Anpassungen der bestimmten Objektparameter vorgenommen werden. Dadurch wird die zu übertragende Datenmenge minimiert und es wird eine schnellere Übertragung ermöglicht.
Bei einer Ausbildung des erfindungsgemäßen Verfahrens umfasst das Bestimmen der
Verkehrssituation eine Klassifikation für Typen von Fahrmanövern, Konfigurationen von Fahrzeugen zueinander oder Verkehrsregelungen. Dies erlaubt es vorteilhafterweise, die Filterkriterien, die anhand der Verkehrssituation erzeugt werden, besonders gut an den jeweiligen Kontext der Umgebung des Fahrzeugs anzupassen. Die Klassifikation erfolgt insbesondere anhand der Objektparameter, die den Objekten zugeordnet sind.
Die bestimmte Verkehrssituation kann insbesondere das Verhältnis des eigenen Fahrzeugs zu Objekten und insbesondere weiteren Verkehrsteilnehmern in der Umgebung und dadurch bedingte Randbedingungen für die Fortsetzung der Fahrt betreffen. Die Verkehrssituation kann beispielsweise Informationen darüber umfassen, dass sich in Fahrtrichtung vor dem eigenen Fahrzeug ein vorausfahrendes Fahrzeug befindet. Sie kann in anderen Beispielen
Informationen über eine verwendete Fahrspur innerhalb einer bestimmten Anordnung von Fahrspuren, nachfolgende Fahrzeuge, weitere Fahrzeuge auf benachbarten Fahrspuren, entgegenkommende Fahrzeuge oder Hindernisse für eine Fahrt betreffen. Sie können ferner Verkehrsregelungen, etwa durch Lichtsignalanlagen oder Schilder, betreffen, die Regeln für die weitere Fahrt angeben.
Die Verkehrssituation kann auf an sich bekannte Weise bestimmt werden, beispielsweise anhand eines Fahrerassistenzsystems oder eines Systems zur teilweise oder vollständigen autonomen Steuerung, welches die erfassten Umgebungsdaten analysiert und ein Fahrmanöver für das eigene Fahrzeug plant. Es können regelbasierte Verfahren oder
Maschinenlernen eingesetzt werden, um die Klassifikation und Bestimmung der
Verkehrssituation durchzuführen.
Bei der Erfindung werden in Abhängigkeit von der Verkehrssituation Filterkriterien bestimmt. Diese umfassen Regeln für die Filterung der zweiten, aktualisierten Umgebungsdaten für das Erzeugen der Übertragungsdaten. Die Filterkriterien umfassen insbesondere Informationen über Bedingungen dafür, ob bestimmte Daten und Objektparameter für bestimmte Objekte übertragen werden sollen. Um diese Kriterien zu definieren, werden Priorisierungen und Prognosen verwendet.
Bei der Erfindung wird durch die Priorisierungen für bestimmte Objekte und Objektparameter angegeben, wie wichtig eine jederzeit hochgenaue Kenntnis der Objektparameter für die Objekte ist. Beispielsweise können die Priorisierungen definieren, dass bestimmte
Objektparameter für bestimmte Objekte stets möglichst genau bekannt sein müssen, während sie in einem anderen Fall weniger relevant sind.
Zum Beispiel kann es bei einer Fahrt im dichten Verkehr besonders wichtig sein, den Abstand zu einem vorausfahrenden Fahrzeug zu überwachen, um schnell auf Veränderungen reagieren zu können. Der Abstand zu einem nachfolgenden Fahrzeug kann jedoch von nachgeordneter Wichtigkeit sein, solange hier keine größeren Veränderungen auftreten und beispielsweise eine Kollision droht. Die Geschwindigkeit eines im dichten Verkehr auf einer Nachbarspur fahrenden Fahrzeugs kann als weniger wichtig bewertet werden als der seitliche Abstand, der sich beispielsweise beim Ausscheren des anderen Fahrzeugs verändert und auf eine drohende Kollision hinweisen kann.
Die Priorisierungen werden insbesondere für jedes der anhand der Umgebungsdaten bestimmten Objekte und jeden der ihnen zugeordneten Objektparameter bestimmt. Ferner können bestimmte Priorisierungen für bestimmte Gruppen von Objekten gelten, beispielsweise für Objekte in einem bestimmten räumlichen Bereich relativ zur Position des eigenen
Fahrzeugs.
Bei einer weiteren Ausbildung werden anhand der Priorisierungen bestimmten
Objektparametern Schwellenwerte zugeordnet und beim Erzeugen der Übertragungsdaten werden Informationen über solche Objektparameter verworfen, die weniger als die jeweiligen Schwellenwerte von der jeweiligen Prognose abweichen. Dadurch kann vorteilhafterweise für bestimmte Objekte und Objektparameter festgelegt werden, wie empfindlich insbesondere auf Änderungen der bestimmten Parameter reagiert werden kann und wie hoch die Relevanz bestimmter Objekte und Parameter für die Erfüllung einer Fahreraufgabe ist.
So können die Übertragungsdaten etwa bei dem obigen Beispiel bereits Informationen über eine geringfügige Änderung des Abstands zum vorausfahrenden Fahrzeug oder eine kleinere seitliche Abweichung des Fahrzeugs auf der Nachbarspur umfassen. Gleichzeitig können die Übertragungsdaten eine Änderung der lateralen Position des vorausfahrenden Fahrzeugs nur dann umfassen wenn es zu einer größeren Abweichung gegenüber der Prognose kommt, wie beispielsweise bei einem Spurwechsel.
Die Priorisierungen können ferner Informationen darüber umfassen, von welchen Sensoren die Umgebungsdaten für ein bestimmtes Objekt oder einen bestimmten Objektparameter erfasst werden sollen. Das heißt, die Filterkriterien können während des Erfassens der zweiten, aktualisierten Umgebungsdaten zu dem zweiten Zeitpunkt berücksichtigt werden.
Beispielsweise können bestimmte Objektparameter besonders gut anhand von Daten eines bestimmten Sensortyps erfasst werden. Nicht benötigte Daten anderer Sensoren können vermieden werden, indem diese Sensoren nicht aktiviert werden oder indem die erfassten Umgebungsdaten so gefiltert werden, dass die von den entsprechenden Sensoren erfassten Daten nicht berücksichtigt werden. Zudem kann die Erfassung der Umgebungsdaten durch verschiedene Sensoren variabel eingestellt werden, etwa indem ein Bereich definiert wird, in dem die Erfassung mit einer höheren oder niedrigeren zeitlichen oder räumlichen Auflösung erfolgt. Hierdurch kann vorteilhafterweise vermieden werden, dass unnötige Daten erfasst werden, die anschließend gefiltert oder verarbeitet werden müssen. Umgekehrt wird durch das Vermeiden solcher Daten eine besonders schnelle Verarbeitung erreicht.
Bei der Erfindung werden ferner die Übertragungsdaten ausgegeben, insbesondere über eine Schnittstelle. Die Ausgabe kann beispielsweise durch Übertragung an eine Umfeld- Bestimmungseinheit erfolgen, die dazu eingerichtet ist, anhand der Übertragungsdaten ein Umfeldmodell zu aktualisieren beziehungsweise zu überprüfen. Die Schnittstelle kann bidirektional ausgebildet sein und auch der Übertragung der Filterkriterien dienen, die insbesondere von der Umfeld-Bestimmungseinheit erzeugt werden.
Das erfindungsgemäße System zum Bereitstellen von Umgebungsdaten umfasst eine
Erfassungseinheit zum Erfassen von ersten Umgebungsdaten zu einem ersten Zeitpunkt und eine Vorverarbeitungseinheit, die dazu eingerichtet ist, anhand der erfassten ersten Umgebungsdaten Objekte zu detektieren und für die Objekte jeweils Objektparameter zu bestimmen, wobei die Objektparameter den Objekten zugeordnet sind. Das System umfasst ferner eine Recheneinheit, die dazu eingerichtet ist, anhand der erfassten ersten
Umgebungsdaten ferner eine Verkehrssituation zu bestimmen und in Abhängigkeit von der bestimmten Verkehrssituation Filterkriterien zu bestimmen. Dabei umfassen die Filterkriterien Priorisierungen und Prognosen für die Objekte und die ihnen zugeordneten Objektparameter. Die Erfassungseinheit ist ferner dazu eingerichtet, zu einem zweiten Zeitpunkt zweite, aktualisierte Umgebungsdaten zu erfassen. Die Vorverarbeitungseinheit ist ferner dazu eingerichtet, anhand der zweiten, aktualisierten Umgebungsdaten und der Filterkriterien
Übertragungsdaten zu erzeugen und die Übertragungsdaten auszugeben.
Das erfindungsgemäße System ist insbesondere ausgebildet, das vorstehend beschriebene erfindungsgemäße Verfahren zu implementieren. Das System weist somit dieselben Vorteile auf wie das erfindungsgemäße Verfahren.
Bei einer Ausbildung des erfindungsgemäßen Systems umfasst die Erfassungseinheit einen Lidar-, Radar- oder Ultraschalldetektor und/oder eine Kamera. Alternativ oder zusätzlich können andere Sensoren oder Erfassungsmodule vorgesehen sein, die zum Erfassen von
Umgebungsdaten anhand verschiedener Messprinzipien geeignet sind. Ferner kann eine Positionsbestimmungseinheit vorgesehen sein, beispielsweise auf Basis eines globalen
Navigationssatellitensystems oder einer kartenbasierten Positionsbestimmung. Dadurch können vorteilhafterweise flexibel sehr verschiedene Typen von Sensoren genutzt werden.
Die von einem bestimmten Sensor oder Erfassungsmodul erfassten Umgebungsdaten können jeweils von einer Vorverarbeitungseinheit verarbeitet werden oder die von mehreren Sensoren oder Erfassungsmodulen erfassten Umgebungsdaten werden von einer gemeinsamen
Vorverarbeitungseinheit verarbeitet.
Bei einer weiteren Ausbildung des Systems ist die Vorverarbeitungseinheit von der
Erfassungseinheit umfasst. Dabei ist die Erfassungseinheit dazu eingerichtet, die ersten Objektparameter für den ersten Zeitpunkt sowie die Übertragungsdaten für den zweiten
Zeitpunkt an die Recheneinheit übertragen. Ferner ist die Recheneinheit dazu eingerichtet, die Filterkriterien an die Erfassungseinheit zu übertragen. Das System ist daher vorteilhafterweise so eingerichtet, dass die bei seinem Betrieb übertragenen Daten optimiert und die zur
Verfügung stehende Bandbreiten optimal ausgenutzt werden. Die Vorverarbeitungseinheit kann beispielsweise als Steuergerät ausgebildet und integraler Bestandteil der Erfassungseinheit sein. Sie kann ferner als separate Einheit, insbesondere zur Erfassungseinheit gehörig, ausgebildet sein. Ferner können die Rechenaufgaben während der Vorverarbeitung der erfassten Umgebungsdaten auf verschiedene Einheiten verteilt sein, die insbesondere teilweise von der Erfassungseinheit umfasst und zum anderen Teil von dieser separat ausgebildet sind.
Bei einer weiteren Ausbildung wird anhand der Priorisierungen die Erfassungseinheit so gesteuert, dass die aktualisierten Umgebungsdaten anhand einer Teilmenge verschiedener Sensoren der Erfassungseinheit erfasst werden. Dadurch kann vorteilhafterweise bereits bei der Erfassung der Umgebungsdaten vermieden werden, dass irrelevante Daten von
bestimmten Sensoren bereitgestellt werden.
Beispielsweise umfasst ein Fahrzeug eine Vielzahl von Sensoren, die in Abhängigkeit von den Priorisierungen einzeln aktiviert oder deaktiviert werden können, zumindest bei der Erfassung von Umgebungsdaten für ein bestimmtes Objekt oder einen bestimmten, dem Objekt zugeordneten Objektparameter. Ferner können die von den Sensoren erfassten Daten so gefiltert werden, dass die Umgebungsdaten für bestimmte Objekte und/oder zugeordnete Objektparameter nicht bereitgestellt werden.
Das erfindungsgemäße Fahrzeug umfasst ein System gemäß der Erfindung.
Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
Figur 1 zeigt ein Ausführungsbeispiel des erfindungsgemäßen Systems,
Figuren 2A bis 2C zeigen ein erstes Ausführungsbeispiel des erfindungsgemäßen
Verfahrens und
Figuren 3A und 3B zeigen ein weiteres Ausführungsbeispiel des erfindungsgemäßen
Verfahrens.
Mit Bezug zu Figur 1 wird ein Ausführungsbeispiel des erfindungsgemäßen Systems erläutert.
Das Fahrzeug 1 umfasst eine Positionsbestimmungseinheit 5, die bei dem Ausführungsbeispiel auf einem globale Navigationssatellitensystem basiert, beispielsweise dem globalen Positionierungssystem, GPS. Bei anderen Ausführungsbeispielen können alternativ oder zusätzlich auch andere Positionsbestimmungsverfahren in einem globalen oder relativen Koordinatensystem verwendet werden, etwa eine landmarkenbasierte Ortung.
Das Fahrzeug 1 umfasst ferner eine Erfassungseinheit 2, die bei dem Ausführungsbeispiel eine Kamera 3 und eine Vorverarbeitungseinheit 4 umfasst. Die Vorverarbeitungseinheit 4 ist bei dem Beispiel als Vorverarbeitungsmodul von einem Steuergerät für die Kamera 3 umfasst, sie kann jedoch auf praktisch beliebige andere Weise ausgeführt sein. Bei anderen
Ausführungsbeispielen kann die Erfassungseinheit 2 alternativ oder zusätzlich beliebige Sensoreinrichtungen umfassen, etwa LI DAR- oder RADAR-Scanner, Time-of-flight-Kameras, Stereokameras, Infrarotkamera oder Ultraschallsensoren. Diesen können weitere
Vorverarbeitungseinheiten zugeordnet sein.
Das Fahrzeug 1 umfasst zudem eine Recheneinheit 6, mit der die Erfassungseinheit 2, die Positionsbestimmungseinheit 5 und ein Fahrerassistenzsystem 7 gekoppelt sind. Das
Fahrerassistenzsystem 7 kann bei dem Ausführungsbeispielen so betrieben werden, dass es lediglich eine den Fahrer des Fahrzeugs 1 unterstützende Funktion hat, etwa durch die Ausgabe von Hinweise oder durch unterstützende Eingriffe in die Fahrzeugsteuerung; es kann ferner so betrieben werden, dass das Fahrzeug 1 teilweise oder vollständig autonom gesteuert wird.
Mit Bezug zu den Figuren 2A bis 2D wird ein erstes Ausführungsbeispiel des
erfindungsgemäßen Verfahrens erläutert. Dabei wird von einem erfindungsgemäßen System ausgegangen, das analog zu dem oben mit Bezug zu Figur 1 erläuterten Ausführungsbeispiel aufgebaut ist und für das daher die gleichen Bezugszeichen verwendet werden.
Figur 2 A zeigt eine Verkehrssituation, bei der ein Ego-Fahrzeug 20 auf einer mittleren Spur einer Straße fährt. Auf einer linken Spur befindet sich ein weiteres Fahrzeug 21 , ferner ein weiteres Fahrzeug 22 auf der rechten Spur. Am Rand der Straße befinden sich Bäume 23. Das Ego-Fahrzeug 20 und das Fahrzeug 21 auf der linken Spur bewegen sich mit der gleichen Geschwindigkeit, die durch die gleich langen durchgezogenen Pfeile 25 dargestellt ist. Das Fahrzeug 22 auf der rechten Spur bewegt sich mit einer höheren Geschwindigkeit, dargestellt durch den längeren durchgezogenen Pfeil 25.
Die durchgezogenen Pfeile 25 weisen auf die Geschwindigkeiten der Fahrzeuge 20, 21 , 22 im Weltsystem hin, das so definiert ist, dass in ihm statische Objekte wie beispielsweise die Fahrbahnmarkierungen oder Bäume 23 ruhen. Ferner zeigen gestrichelte Pfeile 27 die jeweiligen Geschwindigkeiten der Objekte im Relativsystem des Ego-Fahrzeugs 20. In diesem System ruhen das Ego-Fahrzeug 20 und das Fahrzeug 21 auf der linken Spur, sodass hier keine gestrichelten Pfeile dargestellt sind. Die statischen Bäume 23 bewegen sich in diesem relativen Koordinatensystem entgegen der Fahrtrichtung des Ego-Fahrzeugs 20, was ebenfalls durch gestrichelte Pfeile 27 dargestellt ist. Die Geschwindigkeit des Fahrzeugs 22 auf der rechten Spur ist im Relativsystem des Ego-Fahrzeugs 20 um die Geschwindigkeit des Ego- Fahrzeugs 20 verringert, was durch den Längenunterschied des durchgezogenen Pfeils 25 gegenüber dem gestrichelten Pfeil 27 dargestellt ist.
Bei dem Verfahren erfasst das Fahrzeug 20 mittels der Kamera 3 der Erfassungseinheit 2 Videodaten in der Umgebung des Fahrzeugs 20. Es wird hier vereinfachend davon
ausgegangen, dass die so erfassten Umgebungsdaten den gesamten Umkreis des
Fahrzeugs 20 mit einem Radius von etwa 100 m betreffen. Bei weiteren Ausführungsbeispielen können alternativ oder zusätzlich weitere Sensoren oder Module zur Erfassung von
Umgebungsdaten vorgesehen sein, die Umgebungsdaten beispielsweise in verschiedenen räumlichen Bereichen um das Fahrzeug 20 herum erfassen.
Die von der Erfassungseinheit 2 umfasste Vorverarbeitungseinheit 4 empfängt die von der Kamera 3 aufgenommenen Videodaten und detektiert darin Objekte, bei dem
Ausführungsbeispiel das Fahrzeug 21 auf der linken Spur, das Fahrzeug 22 auf der rechten Spur sowie die Bäume 23 neben der Straße und die Fahrbahnmarkierung auf der
Fahrbahnoberfläche. Die Detektion erfolgt auf an sich bekannte Weise, insbesondere mittels einer Bildverarbeitung und Mustererkennung. Es wird eine Klassifizierung der Objekte vorgenommen, wobei erkannt wird, ob es sich um statische oder dynamische Objekte handelt. Zum Beispiel können Bäume 23 als statische Objekte, nämlich Bestandteile einer Vegetation, erkannt werden. Ferner kann erkannt werden, dass es sich bei den weiteren Fahrzeugen 21 , 22 um PKW und folglich dynamische Objekte handelt.
Den erkannten Objekten werden ferner Objektparameter zugeordnet, die bei dem
Ausführungsbeispiel anhand der Videodaten der Kamera 3 ermittelt werden. Für jedes der Objekte wird eine Position relativ zum Ego-Fahrzeug 20 bestimmt, bei dem Ausführungsbeispiel definiert durch einen Winkel und einen Abstand. Es wird ferner eine Geschwindigkeit relativ zum Fahrzeug 20 bestimmt. Weitere Umgebungsparameter können eine Beschleunigung oder eine Änderung der Beschleunigung, eine Richtung oder ein Zustand einer Beleuchtung sein.
Zusammen mit der durch die Positionsbestimmungseinheit 5 bestimmten Position und Richtung des Ego-Fahrzeugs 20 in einem globalen Koordinatensystem, sowie weitere im Fahrzeug 20 zur Verfügung stehenden Daten, beispielsweise über dessen Geschwindigkeit, können die durch die Vorverarbeitungseinheit 4 in einem Koordinatensystem relativ zum Ego-Fahrzeug 20 bestimmten Objektparameter auch in ein Weltkoordinatensystem transformiert werden oder umgekehrt.
Die so erfassten Daten über Objekte und den Objekten zugeordnete Objektparameter werden an die Recheneinheit 6 übertragen, die eine initiale Bestimmung eines initialen Umfeldmodells vornimmt. Dabei werden Daten zusammengeführt, die eine Zusammenfassung von
Informationen der Situation um das Ego-Fahrzeug 20 herum bilden. Das Umfeldmodell wird insbesondere durch das Fahrerassistenzsystem 7 genutzt, um geeignete Fahrmanöver für das Fahrzeug 20 zu bestimmen und entsprechende Empfehlungen für einen Fahrer auszugeben oder die Fahrmanöver automatisch zu unterstützen oder durchzuführen.
Die Recheneinheit 6 bestimmt anhand des Umfeldmodells eine Verkehrssituation. Hierzu wird eine Klassifizierung des Umfeldmodells durchgeführt, wobei auf an sich bekannte Weise eine Konfiguration von Objekten mit den bestimmten Objektparametern in der Umgebung des Fahrzeugs 20 einer bestimmten Verkehrssituation zugeordnet wird. Diese kann beispielsweise eine Rolle der anderen Fahrzeuge 21 , 22 und ihre Relevanz für die Fahrt des Ego- Fahrzeugs 20 betreffen. Beispielsweise umfasst die bestimmte Verkehrssituation eine
Bewertung der anderen Fahrzeuge 21 , 22 danach, ob sie sich auf der gleichen Fahrspur wie das Ego-Fahrzeug 20 befinden, ob sie überholt werden dürfen oder ob sie Hindernisse darstellen können.
In Abhängigkeit von der bestimmten Verkehrssituation werden Filterkriterien bestimmt, die Priorisierungen und Prognosen für die Objekte und die ihnen zugeordneten Objektparameter umfassen. Bei dem Ausführungsbeispiel umfassen die Filterkriterien beispielsweise die
Informationen, dass für die statischen Bäume 23 sowie die Fahrbahnmarkierungen keine Änderungen durch eine eigene Bewegung zu erwarten ist und ihre Geschwindigkeit im
Relativsystem des Ego-Fahrzeugs 20 im Wesentlichen als konstant angenommen wird, wenn sich das Ego-Fahrzeug 20 mit konstanter Geschwindigkeit auf der Fahrspur bewegt. Ferner befinden sich die Bäume 23 abseits der Fahrbahn, sodass Änderungen der ihnen zugeordneten Objektparameter nur dann für eine neue Bewertung der Verkehrssituation von Bedeutung sind, wenn es sich um besonders große Änderungen handelt, beispielsweise wenn erkannt wird, dass es sich wegen einer Fehldetektionen doch um ein dynamisches Objekt handelt, dass sich zur Fahrbahn hin bewegt. Ferner umfassen die Filterkriterien beispielsweise die Information, dass Objekte mit der gleichen Geschwindigkeit wie das Ego-Fahrzeug 20 von geringerer Relevanz sind als andere Objekte. Das heißt, das Fahrzeug 21 auf der linken Spur kann an einer konstanten Position relativ zu dem Egofahrzeug 20 angenommen werden, solange es seine Geschwindigkeit nicht verändert.
Bei dem Ausführungsbeispiel wendet die Recheneinheit 6 ferner ein physikalisches Modell an, welches die Objekte in dem Umfeldmodell beschreibt und bei dem durch Extrapolation auf bestimmte Werte der Objektparameter geschlossen werden kann.
Zu einem späteren Zeitpunkt erfasst die Erfassungseinheit 2 erneut das Umfeld des Ego- Fahrzeugs 20. Die Vorverarbeitungseinheit 4 führt wiederum die Detektion der Objekte und der ihnen zugeordneten Objektparameter durch, wobei gegenüber der letzten Erfassung gleiche Objekte erkannt werden. Das heißt, Detektionen der initialen Umgebungserfassung in einem ersten Zeitschritt werden aktualisierte Detektionen der zweiten Umgebungserfassung in einem zweiten Zeitschritt zugeordnet. Die Priorisierungen und Prognosen für die im ersten Zeitschritt detektierten Objekte können daher mit den im zweiten Zeitschritt detektierten Objekten verglichen werden. Anschließend werden Übertragungsdaten erzeugt und an die
Recheneinheit 6 übertragen. Es wird eine Filterung der Daten durchgeführt, um deren Umfang und die zur Übertragung notwendige Bandbreite zu verringern. Dabei werden durch die
Filterkriterien vorgegebene Bedingungen für die Objekte und die ihnen zugeordneten
Objektparameter geprüft. In Abhängigkeit davon, ob die Bedingungen erfüllt werden, sind die entsprechenden Daten von den Übertragungsdaten umfasst. Nachfolgend werden
verschiedene Möglichkeiten der Filterung an Beispielen erläutert.
Bei dem in Figur 2B gezeigten Fall wird für die Verkehrssituation, die in Figur 2A gezeigt ist, eine Filterung unter Verwendung der Prognose durchgeführt, dass alle Objekte im Weltsystem ruhen. Das heißt, es werden alle Objekte aus den Umgebungsdaten herausgefiltert, die eine Geschwindigkeit von 0 gegenüber dem Weltsystem aufweisen. Dies sind bei dem
Ausführungsbeispiel die Bäume 23, die in Figur 2B daher nicht mehr enthalten sind, sowie die Fahrbahnmarkierungen, die zur Orientierung gestrichelt gezeigt sind.
Bei dem in Figur 2C gezeigten Fall wird für die Verkehrssituation, die in Figur 2 A gezeigt ist, eine Filterung unter Verwendung der Prognose durchgeführt, dass alle Objekte relativ zum Ego- Fahrzeug 20 ruhen. Das heißt, es werden alle Objekte aus den Umgebungsdaten
herausgefiltert, welche die gleiche Geschwindigkeit gegenüber dem Weltsystem aufweisen wie das Ego-Fahrzeug 20. Dies ist bei dem Ausführungsbeispiel das Fahrzeug 21 auf der linken Spur, welches in Figur 2C daher nicht mehr enthalten ist. Das Ego-Fahrzeug 20 ist zur
Orientierung weiterhin dargestellt.
Bei dem in Figur 2D gezeigten Fall wird eine logische UND-Verknüpfung der in den Figuren 2B und 2C gezeigten Filterungen durchgeführt. Das heißt, es werden sowohl Objekte ignoriert, die im Weltsystem ruhen, als auch solche Objekte, die gegenüber der Bewegung des Ego- Fahrzeugs 20 ruhen. Es bleibt lediglich das Fahrzeug 22 auf der rechten Spur übrig. Das Ego- Fahrzeug 20 und die Fahrbahnmarkierungen sind lediglich der Orientierung wegen noch gestrichelt dargestellt.
Mit Bezug zu den Figuren 3A und 3B wird ein weiteres Ausführungsbeispiel des
erfindungsgemäßen Verfahrens erläutert. Dabei beschränken sich die folgenden Erläuterungen auf die Unterschiede gegenüber dem ersten Ausführungsbeispiel des erfindungsgemäßen Verfahrens.
Figur 3A zeigt eine Verkehrssituation, bei der ein Ego-Fahrzeug 30 auf einer mittleren Spur einer Straße fährt. In Fahrtrichtung vor dem Ego-Fahrzeug 30 befindet sich ein vorausfahrendes Fahrzeug 31 und auf der rechten Spur befindet sich ein weiteres Fahrzeug 32. Die
Fahrzeuge 30, 31 , 32 fahren zu diesem Zeitpunkt mit der gleichen Geschwindigkeit, was durch die gleichen Längen der Pfeile 35 angedeutet wird. Bei diesem Ausführungsbeispiel beziehen sich die Geschwindigkeiten auf das Weltsystem.
Die Verkehrssituation wird analysiert und es wird eine Priorisierung so bestimmt, dass für das Objekt„vorausfahrendes Fahrzeug 31“ die Objektparameter„Geschwindigkeit“ und„Abstand“ eine besonders hohe Priorität aufweisen. Dagegen haben die Objektparameter
„Geschwindigkeit“ und„Abstand“ für das Objekt„Fahrzeug auf der rechten Spur 32“eine geringere Priorität. Umgekehrt wird dem Objektparameter„laterale Position innerhalb der Spur“ für das Objekt„vorausfahrendes Fahrzeug 31“ eine geringere Priorität als für das Objekt „Fahrzeug auf der rechten Spur 32“ zugeordnet.
Bei der Priorisierung werden den Objektparametern für die Objekte Schwellenwerte zugeordnet und die Filterkriterien umfassen die Information, dass neu erfasste Objektparameter für die jeweiligen Objekte nur dann von den Übertragungsdaten umfasst sein sollen, wenn sie um mehr als den Schwellenwert von einer Prognose für den jeweiligen Wert abweichen. Die höhere Priorität des Abstandes für das vorausfahrende Fahrzeug 31 bedeutet bei dem
Ausführungsbeispiel konkret, dass im Vergleich zu dem Fahrzeug 32 auf der rechten Spur ein niedrigerer Schwellenwert festgelegt ist, der darüber bestimmt, ob eine Abweichung von den Übertragungsdaten umfasst sein soll.
Bei dem Ausführungsbeispiel wird prognostiziert, dass sich alle Objekte mit konstanter Geschwindigkeit bewegen beziehungsweise unverändert ruhen. In Figur 3B ist eine
Verkehrssituation bei einem späteren Zeitpunkt gezeigt, bei die Prognose der gleich bleibenden Bewegung für alle Objekte außer dem vorausfahrenden Fahrzeug 31 zutreffen, das heißt, alle anderen Objekte 32, 33 bewegen sich mit konstanter Geschwindigkeit oder weichen zumindest nicht mehr als die jeweils definierten Schwellenwerte von ihrer Geschwindigkeit gemäß der Prognose ab. Das Objekt 31 ist daher als einziges nicht gestrichelt gezeigt und der verglichen mit Figur 3A verkürzte Pfeil 35 deutet an, dass sich die Geschwindigkeit des vorausfahrenden Fahrzeugs 31 verringert hat, was auch zu einem verringerten Abstand zum Ego-Fahrzeug 30 führt. Die Veränderungen der Geschwindigkeit und des Abstandes zwischen dem Ego- Fahrzeug 30 und dem vorausfahrenden Fahrzeug 31 überschreiten die dafür von den
Filterkriterien umfassten Schwellenwerte, sodass Informationen über diese Abweichungen von der Prognose von den Übertragungsdaten umfasst sein sollen.
In einer weiteren Situation kann beispielsweise eine Änderung der lateralen Position des Fahrzeugs 32 auf der rechten Spur detektiert werden, die den dafür bestimmten Schwellenwert überschreitet. Dies kann beispielsweise bei einem durch das Fahrzeug 32 auf der rechten Spur durchgeführten Beginn eines Spurwechsels der Fall sein. Entsprechende Informationen über die veränderte laterale Position werden dann bei den Übertragungsdaten berücksichtigt.
Die Priorisierungen verschiedener Objekte und Objektparameter erlaubt es, zwischen mehr oder weniger relevanten Parametern zu unterscheiden. Beispielsweise besteht ein erhöhtes Risiko für eine Kollision eher, wenn sich der Abstand des vorausfahrenden Fahrzeugs 31 verringert, als wenn beispielsweise das Fahrzeug 32 auf der rechten Spur bremst. Die
Schwellenwerte für die Objektparameter„Geschwindigkeit“ hängen daher von den
Fahrzeugen 31 , 32 und ihrer Position relativ zu dem Ego-Fahrzeug 30, das heißt von der Verkehrssituation ab. Umgekehrt steigt das Risiko einer Kollision mit dem Ego-Fahrzeug 30, wenn es zu einem Wechsel des rechten Fahrzeugs 32 auf die mittlere Spur kommt, während ein Spurwechsel des vorausfahrenden Fahrzeugs 31 weniger direkt zu einer Gefährdung des Ego-Fahrzeug 30 führt. Auch hier hängen daher die Schwellenwerte für den Objektparameter „laterale Position“ von den Fahrzeugen 31 , 32 und der Verkehrssituation ab. Bei einem weiteren Ausführungsbeispiel wird als Objektparameter eine Farbe oder Helligkeit bestimmt. Anhand dieser Informationen werden Signale von Lichtsignalanlagen oder anderen Verkehrsteilnehmern erfasst und bei dem Bestimmen der Verkehrssituation berücksichtigt. Lichtsignale von Fahrzeugen werden dabei abhängig von ihrer Ausbildung zum Beispiel als Hinweise auf eine Bremsung oder eine Intention zur Änderung der Fachrichtung interpretiert.
Die Verkehrssituation umfasst in diesem Fall etwa eine Kategorisierung„rote/grüne Ampel voraus“ oder„benachbartes Fahrzeug will Spur wechseln“ oder„vorausfahrendes Fahrzeug bremst“.
Bei einem weiteren Ausführungsbeispiel erzeugt das Fahrerassistenzsystem 7 eine Anweisung für das Ausführen eines autonomen Fahrmanövers oder eine Aufforderung zum Durchführen eines Fahrmanövers. Anhand der für das Fahrmanöver bestimmten Dynamik können die Prognosen für einzelne Objekte genauer bestimmt werden. Ist beispielsweise eine
Beschleunigung des Ego-Fahrzeugs 30 geplant, so ist davon auszugehen, dass sich die Relativgeschwindigkeiten sämtlicher Objekte in der Umgebung entsprechend verändert und dass auch ihre Relativpositionen sich gemäß der geplanten Dynamik des Ego-Fahrzeugs 30 ändern.
Bei einem weiteren Ausführungsbeispiel kann das Verfahren alternativ oder zusätzlich auf eine Aktorik des Ego-Fahrzeug 30 angewandt werden. Dabei werden die von der Aktorik an die Recheneinheit 6 übertragenen Daten auf analoge Weise gefiltert, wie dies bei den oben beschriebenen Ausführungsbeispielen für die Sensorik erfolgt. Die Aktorik umfasst dabei Einrichtungen und Module zum Steuern der Bewegung des Fahrzeugs in Längs- und/oder Querrichtung. Es kann sich dabei etwa um Aktoren zur Einstellung von Fahrparametern handeln, beispielsweise Aktoren zum Einstellen eines Lenkwinkels oder einer Antriebsleistung. Es kann sich ferner um Funktionen eines Fahrerassistenzsystems 7 handeln, durch die beispielsweise einzelne Aktoren angesteuert werden, insbesondere in Abhängigkeit von einer Umfeldwahrnehmung. Zum Beispiel wird dabei ein Spurhalteassistent, eine Längsregelung oder eine Funktion zum Halten einer Geschwindigkeit in Abhängigkeit vom Abstand zu einem vorausfahrenden Fahrzeug 31 zur Aktorik gezählt. Beim Ansteuern einer Aktorik wird üblicherweise von einem bestimmten Ergebnis ausgegangen, zum Beispiel dem Fahren einer bestimmten Trajektorie zum Überholen oder in einem bestimmten Abstand zu anderen
Fahrzeugen. Beim Aktualisieren des Umfeldmodells können solche Trajektorien als Prognosen verwendet werden, soweit die Aktorik keine Abweichungen hiervon detektiert und mittels Übertragungsdaten bereitstellt. Die Prognosen können dann entsprechend angepasst werden. Bezugszeichenliste
Fahrzeug
Erfassungseinheit
Kamera
Vorverarbeitungseinheit
Positionsbestimmungseinheit
Recheneinheit
Fahrerassistenzsystem
Ego-Fahrzeug
Objekt, weiteres Fahrzeug (linke Spur)
Objekt, weiteres Fahrzeug (rechte Spur)
Objekt, Baum
Pfeil; Geschwindigkeit (im Weltsystem)
Pfeil; Geschwindigkeit (im Relativsystem)
Ego-Fahrzeug
Objekt, weiteres Fahrzeug (vorausfahrend) Objekt, weiteres Fahrzeug (rechte Spur)
Objekt, Baum
Pfeil; Geschwindigkeit (im Weltsystem)

Claims

Patentansprüche
1. Verfahren zum Bereitstellen von Umgebungsdaten; wobei
zu einem ersten Zeitpunkt erste Umgebungsdaten erfasst werden; wobei anhand der erfassten ersten Umgebungsdaten Objekte (21 , 22, 23, 31 , 32, 33) detektiert und für die Objekte (21 , 22, 23, 31 , 32, 33) jeweils Objektparameter bestimmt werden, wobei die Objektparameter den Objekten (21 , 22, 23, 31 , 32, 33) zugeordnet sind;
anhand der erfassten ersten Umgebungsdaten ferner eine Verkehrssituation bestimmt wird;
in Abhängigkeit von der bestimmten Verkehrssituation Filterkriterien bestimmt werden; wobei
die Filterkriterien Priorisierungen und Prognosen für die Objekte (21 , 22, 23, 31 , 32, 33) und die ihnen zugeordneten Objektparameter umfassen;
zu einem zweiten Zeitpunkt zweite, aktualisierte Umgebungsdaten erfasst werden; anhand der zweiten, aktualisierten Umgebungsdaten und der Filterkriterien Übertragungsdaten erzeugt werden; und
die Übertragungsdaten ausgegeben werden.
2. Verfahren gemäß Anspruch 1 ,
dadurch gekennzeichnet, dass
der Objektparameter eine Position, einen Abstand, eine Geschwindigkeit, eine Beschleunigung oder eine Beschleunigungsänderung umfasst.
3. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
das Erfassen der ersten und zweiten Umgebungsdaten, das Bestimmen der Objektparameter für die Objekte (21 , 22, 23, 31 , 32, 33) sowie das Erzeugen der
Übertragungsdaten mittels einer Erfassungseinheit (2) erfolgt; und
das Bestimmen der Verkehrssituation und der Filterkriterien mittels einer Recheneinheit (6) erfolgt; wobei
die ersten Objektparameter für den ersten Zeitpunkt von der Erfassungseinheit (2) an die Recheneinheit (6) übertragen werden; die Filterkriterien von der Recheneinheit (6) an die Erfassungseinheit (2) übertragen werden; und
die Übertragungsdaten für den zweiten Zeitpunkt von der Erfassungseinheit (2) an die Recheneinheit (6) übertragen werden.
4. Verfahren gemäß Anspruch 3,
dadurch gekennzeichnet, dass
das Datenvolumen der Übertragungsdaten gegenüber dem Datenvolumen der ersten Objektparameter in Abhängigkeit von den Filterkriterien reduziert ist.
5. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
anhand der erfassten ersten Umgebungsdaten ein erstes Umfeldmodell bestimmt wird; und anhand des erstes Umfeldmodells und der Übertragungsdaten ein zweites, aktualisiertes Umfeldmodell erzeugt wird.
6. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Prognosen für bestimmte Objektparameter eine Information darüber umfassen, ob für die Objektparameter davon ausgegangen wird, dass sie für die aktualisierten Umgebungsdaten konstant bleiben.
7. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Prognosen für bestimmte Objektparameter eine Information darüber umfassen, welche veränderten Werte der Objektparameter für die aktualisierten Umgebungsdaten erwartet werden.
8. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Prognosen für die Objektparameter anhand eines geplanten Fahrmanövers bestimmt werden.
9. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass die Übertragungsdaten Informationen über eine Abweichung erfasster Objektparameter von den Prognosen umfassen.
10. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
das Bestimmen der Verkehrssituation eine Klassifikation für Typen von Fahrmanövern, Konfigurationen von Fahrzeugen zueinander oder Verkehrsregelungen umfasst.
11. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
anhand der Priorisierungen bestimmten Objektparametern Schwellenwerte zugeordnet werden; und
beim Erzeugen der Übertragungsdaten Informationen über solche Objektparameter verworfen werden, die weniger als die jeweiligen Schwellenwerte von der jeweiligen Prognose abweichen.
12. System zum Bereitstellen von Umgebungsdaten mit
einer Erfassungseinheit (2) zum Erfassen von ersten Umgebungsdaten zu einem ersten Zeitpunkt;
einer Vorverarbeitungseinheit (4), die dazu eingerichtet ist, anhand der erfassten ersten Umgebungsdaten Objekte (21 , 22, 23, 31 , 32, 33) zu detektieren und für die Objekte (21 , 22, 23, 31 , 32, 33) jeweils Objektparameter zu bestimmen, wobei die Objektparameter den Objekten (21 , 22, 23, 31 , 32, 33) zugeordnet sind; und
einer Recheneinheit (6), die dazu eingerichtet ist, anhand der erfassten ersten Umgebungsdaten ferner eine Verkehrssituation zu bestimmen und in Abhängigkeit von der bestimmten Verkehrssituation Filterkriterien zu bestimmen; wobei
die Filterkriterien Priorisierungen und Prognosen für die Objekte (21 , 22, 23, 31 , 32, 33) und die ihnen zugeordneten Objektparameter umfassen; wobei
die Erfassungseinheit (2) ferner dazu eingerichtet ist, zu einem zweiten Zeitpunkt zweite, aktualisierte Umgebungsdaten zu erfassen; und
die Vorverarbeitungseinheit (4) ferner dazu eingerichtet ist, anhand der zweiten, aktualisierten Umgebungsdaten und der Filterkriterien Übertragungsdaten zu erzeugen und die Übertragungsdaten auszugeben.
13. System gemäß Anspruch 12, dadurch gekennzeichnet, dass
die Erfassungseinheit (2) einen Lidar-, Radar- oder Ultraschalldetektor und/oder eine Kamera (3) umfasst.
14. System gemäß Anspruch 12 oder 13,
dadurch gekennzeichnet, dass
die Vorverarbeitungseinheit (4) von der Erfassungseinheit (2) umfasst ist; wobei die Erfassungseinheit (2) dazu eingerichtet ist, die ersten Objektparameter für den ersten Zeitpunkt sowie die Übertragungsdaten für den zweiten Zeitpunkt an die
Recheneinheit (6) zu übertragen; und
die Recheneinheit (6) dazu eingerichtet ist, die Filterkriterien an die
Erfassungseinheit (2) zu übertragen.
15. System gemäß einem der Ansprüche 12 bis 14,
dadurch gekennzeichnet, dass
anhand der Priorisierungen die Erfassungseinheit (2) so gesteuert wird, dass die aktualisierten Umgebungsdaten anhand einer Teilmenge verschiedener Sensoren der Erfassungseinheit erfasst werden.
16. Fahrzeug (1 , 20, 30) mit einem System gemäß einem der Ansprüche 12 bis 15.
PCT/EP2019/083354 2018-12-21 2019-12-02 Verfahren und system zum bereitstellen von umgebungsdaten WO2020126447A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/416,718 US12002353B2 (en) 2018-12-21 2019-12-02 Method and system for providing environmental data
CN201980085032.7A CN113228131B (zh) 2018-12-21 2019-12-02 用于提供周围环境数据的方法和***

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018133457.5 2018-12-21
DE102018133457.5A DE102018133457B4 (de) 2018-12-21 2018-12-21 Verfahren und System zum Bereitstellen von Umgebungsdaten

Publications (1)

Publication Number Publication Date
WO2020126447A1 true WO2020126447A1 (de) 2020-06-25

Family

ID=68808330

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/083354 WO2020126447A1 (de) 2018-12-21 2019-12-02 Verfahren und system zum bereitstellen von umgebungsdaten

Country Status (4)

Country Link
US (1) US12002353B2 (de)
CN (1) CN113228131B (de)
DE (1) DE102018133457B4 (de)
WO (1) WO2020126447A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12002353B2 (en) 2018-12-21 2024-06-04 Volkswagen Aktiengesellschaft Method and system for providing environmental data

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7188325B2 (ja) * 2019-08-27 2022-12-13 トヨタ自動車株式会社 運転支援装置
DE102020210116A1 (de) 2020-08-11 2022-02-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben eines Assistenzsystems eines Fahrzeugs
US20230060380A1 (en) * 2021-08-27 2023-03-02 Ambient Ridge, Inc. Environmental hazard and risk information system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009028578A1 (de) 2009-08-17 2011-02-24 Robert Bosch Gmbh Verfahren für die Umfelderfassung mit einer Lidarsensorik
US20120161951A1 (en) * 2010-12-23 2012-06-28 Denso Corporation Vehicular obstacle notification apparatus
US20180090006A1 (en) * 2016-09-29 2018-03-29 Mazda Motor Corporation Automotive target-detection system
EP3330946A1 (de) * 2015-07-31 2018-06-06 Hitachi Automotive Systems, Ltd. Fahrzeugperipherieinformationverwaltungsvorrichtung

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10133945A1 (de) * 2001-07-17 2003-02-06 Bosch Gmbh Robert Verfahren und Vorrichtung zum Austausch und zur Verarbeitung von Daten
DE602005017144D1 (de) * 2005-08-18 2009-11-26 Honda Res Inst Europe Gmbh Fahrerassistenzsystem
AU2007224206A1 (en) 2006-03-03 2007-09-13 Inrix, Inc. Assessing road traffic conditions using data from mobile data sources
DE102008041549A1 (de) 2008-08-26 2010-03-04 Robert Bosch Gmbh Verfahren zur Erfassung der Rotorlage einer elektrischen Maschine und Vorrichtung hierzu
DE102008041679A1 (de) 2008-08-29 2010-03-04 Robert Bosch Gmbh Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102010018038B4 (de) * 2010-04-23 2023-08-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum Warnen eines Fahrers eines Fahrzeugs vor der Anwesenheit von Objekten in einem Totwinkelbereich und entsprechende Fahrerassistenzeinrichtung
DE102011076763A1 (de) 2011-05-31 2012-12-06 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zum Betreiben eines Fahrerassistenzsystems
DE102011107111A1 (de) 2011-07-12 2013-01-17 Continental Automotive Gmbh Verfahren und Kommunikationssystem zum Empfang von Daten bei der drahtlosen Fahrzeug-zu-Umgebung-Kommunikation
DE102013011969A1 (de) 2013-07-18 2015-01-22 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE102014111127A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte sowie Fahrerassistenzsystem
DE102014221888A1 (de) 2014-10-28 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs in seinem Umfeld
DE102014224665A1 (de) 2014-12-02 2016-06-02 Robert Bosch Gmbh Fahrerassistenzsteuergerät, Kraftfahrzeug, Verfahren zum Betreiben eines Fahrerassistenzsteuergeräts eines Kraftfahrzeugs
DE102015209186A1 (de) 2015-05-20 2016-12-08 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ermittlung einer Beschreibung eines Fahrstreifens
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
DE102016205152A1 (de) 2016-03-29 2017-10-05 Avl List Gmbh Fahrerassistenzsystem zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs
CN107547581A (zh) * 2016-06-23 2018-01-05 斑马网络技术有限公司 消息的推送方法、装置和设备
EP3534349B1 (de) 2016-10-25 2023-12-27 Pioneer Corporation Verarbeitungsvorrichtung, ausgabeverfahren und programm
DE102016225915A1 (de) 2016-12-21 2018-06-21 Robert Bosch Gmbh System und Verfahren zur Umfelderfassung eines Fahrzeugs
DE102017002089A1 (de) 2017-03-04 2017-11-30 Daimler Ag Vorrichtung zur Datenverarbeitung in einer Fahrerassistenzvorrichtung eines Fahrzeugs
DE202017003594U1 (de) 2017-07-07 2017-08-11 TWT GmbH Science & Innovation Datennetzwerk für ein Kraftfahrzeug, Kraftfahrzeug mit einem solchen Datennetzwerk
US10599929B2 (en) * 2018-01-04 2020-03-24 Motionloft, Inc. Event monitoring with object detection systems
JP7125214B2 (ja) * 2018-04-03 2022-08-24 モービルアイ ビジョン テクノロジーズ リミテッド プログラムおよびコンピューティングデバイス
DE102018133457B4 (de) 2018-12-21 2020-07-09 Volkswagen Aktiengesellschaft Verfahren und System zum Bereitstellen von Umgebungsdaten
US11520331B2 (en) * 2018-12-28 2022-12-06 Intel Corporation Methods and apparatus to update autonomous vehicle perspectives

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009028578A1 (de) 2009-08-17 2011-02-24 Robert Bosch Gmbh Verfahren für die Umfelderfassung mit einer Lidarsensorik
US20120161951A1 (en) * 2010-12-23 2012-06-28 Denso Corporation Vehicular obstacle notification apparatus
EP3330946A1 (de) * 2015-07-31 2018-06-06 Hitachi Automotive Systems, Ltd. Fahrzeugperipherieinformationverwaltungsvorrichtung
US20180090006A1 (en) * 2016-09-29 2018-03-29 Mazda Motor Corporation Automotive target-detection system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12002353B2 (en) 2018-12-21 2024-06-04 Volkswagen Aktiengesellschaft Method and system for providing environmental data

Also Published As

Publication number Publication date
CN113228131B (zh) 2023-01-13
US20220044554A1 (en) 2022-02-10
DE102018133457B4 (de) 2020-07-09
US12002353B2 (en) 2024-06-04
DE102018133457A1 (de) 2020-06-25
CN113228131A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
DE102018111778B4 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE102018133457B4 (de) Verfahren und System zum Bereitstellen von Umgebungsdaten
EP3181422B1 (de) Verfahren und system zur automatischen steuerung eines folgefahrzeugs mit einem scout-fahrzeug
WO2015197353A2 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE102009025545A1 (de) Verfahren und Vorrichtung zum Erkennen von Bremslichtsystemen
WO2008145543A1 (de) Verfahren und vorrichtung zur erkennung von verkehrsrelevanten informationen
DE102004038494A1 (de) Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
DE102017115988A1 (de) Modifizieren einer Trajektorie abhängig von einer Objektklassifizierung
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102017203654A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Fahrzeug auf einer Straße und Fahrerassistenzsystem
EP3818466B1 (de) Schnelle erkennung gefährlicher oder gefährdeter objekte im umfeld eines fahrzeugs
DE112016007501T5 (de) Regel-/steuervorrichtung und regel-/steuerverfahren
EP3688538A1 (de) Verfahren und system zum aktualisieren eines steuerungsmodells für eine automatische steuerung zumindest einer mobilen einheit
DE102017118651A1 (de) Verfahren und System zur Kollisionsvermeidung eines Fahrzeugs
WO2019233777A1 (de) Fahrassistenzsystem
DE102019217428A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem und Fahrzeug
EP4176378A1 (de) Verfahren zur umgebungserfassung mit wenigstens zwei unabhängigen bildgebenden umgebungserfassungssensoren, vorrichtung zur durchführung des verfahrens, fahrzeug sowie entsprechend ausgelegtes computerprogramm
DE102016203833A1 (de) Geschwindigkeitsanpassung für Autonomes Fahren
DE102018202966A1 (de) Verfahren zum Betreiben wenigstens eines automatisierten Fahrzeugs
DE102019104974A1 (de) Verfahren sowie System zum Bestimmen eines Fahrmanövers
DE112022001403T5 (de) Lichtinterferenzdetektion während der fahrzeugnavigation
DE102018215509A1 (de) Verfahren und Vorrichtung zum Betrieb eines zumindest teilweise automatisiert betriebenen ersten Fahrzeugs
DE102020127206A1 (de) Prozess und system zur gemeinsamen nutzung von sensoren für einen autonomen fahrspurwechsel
WO2017174227A1 (de) Verfahren zur bestimmung einer pose eines wenigstens teilautomatisiert fahrenden fahrzeugs mittels speziell ausgewählter und von einem backend-server übertragener landmarken
DE102019212604A1 (de) Verfahren und Steuergerät zum Bestimmen eines Auswertealgorithmus aus einer Mehrzahl von verfügbaren Auswertealgorithmen zur Verarbeitung von Sensordaten eines Fahrzeugsensors eines Fahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19816594

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19816594

Country of ref document: EP

Kind code of ref document: A1