WO2011138164A1 - Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug - Google Patents

Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug Download PDF

Info

Publication number
WO2011138164A1
WO2011138164A1 PCT/EP2011/056196 EP2011056196W WO2011138164A1 WO 2011138164 A1 WO2011138164 A1 WO 2011138164A1 EP 2011056196 W EP2011056196 W EP 2011056196W WO 2011138164 A1 WO2011138164 A1 WO 2011138164A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
driver assistance
assistance system
vehicle
environment
Prior art date
Application number
PCT/EP2011/056196
Other languages
English (en)
French (fr)
Inventor
Vsevolod Vovkushevsky
Tobias Geiger
Nicolas Jecker
Original Assignee
Valeo Schalter Und Sensoren Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter Und Sensoren Gmbh filed Critical Valeo Schalter Und Sensoren Gmbh
Publication of WO2011138164A1 publication Critical patent/WO2011138164A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the invention relates to a method for operating a driver assistance system of a vehicle.
  • Information about an environment of the vehicle is detected by at least one sensor of the driver assistance system.
  • Sensor information is provided from this information.
  • the sensor data becomes a digital one
  • Area map - a digital map of the area - calculated and displayed
  • the basis of the environment map is a functionality through the
  • Driver assistance system provided in the vehicle, by which a driver is assisted in driving the vehicle.
  • the invention also relates to a driver assistance system, which is designed to carry out such a method, as well as to a vehicle having such a driver assistance system.
  • Such an environment map is formed by map data; it essentially represents a database.
  • the map data contain information about objects located in the vicinity of the vehicle, namely in particular the position of the objects with respect to the vehicle and the like.
  • the provision of such an environment map, on the basis of which driver assistance functionality is provided, is known, for example, from document EP 0 650 866 B1.
  • a driver of a vehicle when parking out of a parking space is supported.
  • Environmental sensors of the vehicle detect objects that are in the environment. In particular, distances between the vehicle and obstacles located in the vicinity are measured, namely in the direction of travel of the vehicle. From the measured values for the distances, a local area map is formed.
  • a driving strategy for the process of parking is determined. For example, directional arrows can be displayed to the driver, according to which he can direct himself. So, functionality is provided in the vehicle based on the environment map, namely, the functionality of assisting the driver in performing
  • a driver assistance system which has a multiplicity of sensors.
  • the sensors detect one each
  • the sensors can also track objects located in the respective detection areas.
  • the sensors can also exchange information with each other: A sensor, which tracks a specific object in its detection range, can forward information about the respective instantaneous position of the object to another sensor when the object exits the detection range and enters the detection range of the further sensor ,
  • a digital environment map can be calculated that provides a basis for the provision of a specific application (functionality) by the driver assistance system.
  • the environment map is usually implemented by a specific control device, which then also provides the application in the vehicle.
  • Area map deleted and it is calculated a new area map when the functionality is to be provided by the controller again, namely, for example, when the driver is to be supported again when parking.
  • information about an environment of the vehicle is detected by at least one sensor of the driver assistance system.
  • Sensor information is provided from this information.
  • the sensor data becomes a digital one
  • Area map is calculated, and based on the area map becomes a Functionality provided by the driver assistance system in the vehicle, by which a driver is assisted in guiding the vehicle.
  • the environment map is calculated for at least two different functionalities of the driver assistance system in a common format, and based on the common
  • Area map will be the at least two functionalities through the
  • a common digital environment map is calculated, independently of the respective functionalities of the driver assistance system.
  • the environment map is implemented functionally independent, i. H. regardless of whether and which functionalities or applications of the
  • Driver assistance system to be provided immediately.
  • a common environment map is available for the at least two functionalities; no separate environment maps need to be implemented for the at least two functionalities.
  • the driver assistance system thus manages for the at least two functionalities with only a single environment map, so that the available sensor resources are optimally utilized.
  • Area map also has the advantage that - if sensor data of a variety of sensors are used for the calculation of the area map - virtually for each driver assistance functionality on the entire amount of map data can be accessed, regardless of where the map data come from and how they originated are.
  • the environment map is temporally independent of the at least two functionalities of the driver assistance system. This means that the environment map is time independent of the time and the need to provide the
  • the environment map is preferably continuously calculated in the driver assistance system and adapted to the respective current environment of the vehicle. For example, this may be such that the environment map is formed by map data containing information about a given map
  • Contain surrounding area around the vehicle Contain surrounding area around the vehicle. If the vehicle is moving, then those map data may be deleted that contain information about those areas of the environment that are beyond the given surrounding area go out. At the same time, new map data can be calculated so that the environment map for the predetermined surrounding area is completed. More generally, in this embodiment, the environment map is continuously adjusted for a predetermined environmental area with respect to the vehicle.
  • the environment map is calculated jointly for two different control devices of the driver assistance system, each having a functionality for
  • a control unit can provide at least two functionalities for driver assistance, namely on the basis of the common environment map.
  • the digital environment map may be used in common for at least two functionalities, preferably for at least three functionalities, more preferably for at least four functionalities, even more preferably for at least five functionalities of the
  • Driver assistance system can be implemented. On the basis of the common environment map, therefore, at least two functionalities, in particular at least three functionalities, preferably at least four functionalities, more preferably at least five functionalities can be provided by the driver assistance system.
  • driver assistance system may preferably provide at least two of the following functionalities based on the environment map:
  • format is a specification of
  • Sensor data of at least two different sensors of the driver assistance system are preferably processed to form the environment map. It thus becomes possible to generate an environment map containing a variety of information about the surroundings of the vehicle. And it can be one
  • sensor data of at least one camera and / or at least one ultrasound sensor and / or sensor data of at least one radar device and / or sensor data of at least one optical distance sensor can form the environment map
  • the environment map is subdivided into at least two different representation planes or abstraction planes, which differ from one another in a degree of abstraction of the representation of the environment.
  • map data - which form the area map - are subdivided into at least two different display levels.
  • first map data by which a first representation plane is formed
  • second map data by which a second representation plane is formed.
  • This embodiment has the advantage that in order to provide the functionalities at different levels of abstraction, the representation of the environment can be accessed, depending on which degree of abstraction best suits the respective functionality suitable is.
  • the driver assistance system can access different presentation levels of the environment map for different functionalities.
  • the driver assistance system can access different presentation levels of the environment map for different functionalities.
  • map data of such a display plane containing information about the type and relative position of the surrounding objects with respect to the vehicle.
  • map data from such a representation level can be used, which include information about the relative position of individual points of an object with respect to the vehicle.
  • the sensor data does not need to be re-processed, but as needed to different map data of such a degree of abstraction can be accessed, which ensures the least effort in terms of data processing. It is thereby also the
  • the fusion of the data originating from different sources at several different locations is
  • Processing chain - namely in at least two different levels of representation - possible.
  • driver assistance system Functions map data depending on demand from at least two levels of representation, in particular from all levels of representation retrieved.
  • the driver assistance system can thus be demand-dependent
  • Map data of a first display level and when providing a second functionality on map data accesses a second display level. It can also be provided that the driver assistance system uses map data from at least two display levels when providing a single functionality. The individual display levels of the map can thus by the Driver assistance system can be used together or separately as needed. The driver assistance system can, in the provision of a specific functionality, access the representation map of the environment map which provides the least amount of data processing for this particular functionality.
  • One of the representation levels can be formed by map data that
  • Information about the relative position of individual points and / or contours of detected objects with respect to the vehicle include.
  • Such a representation level thus has a relatively low degree of abstraction; it merely contains information about individual detected points and / or contours of nearby ones
  • This display plane proves to be particularly advantageous, for example, for that application in which the driver is warned by the driver assistance system of critical intervals.
  • This representation level would also be accessed in such an application in which the driver is supported while holding the track or is warned when leaving the lane. Especially with such functionalities, this presentation level ensures a low level
  • one of the representation levels can be formed by map data having a higher degree of abstraction.
  • Such a representation plane may include such information, which is abstracted by combining individual points and / or individual contours into objects.
  • Display plane thus contains information about the type or shape of objects located in the environment as well as about the relative position of the objects with respect to the vehicle.
  • the objects located in the environment are therefore uniquely identified; these may be vehicles, curbs, road markings, traffic signs, trees, pedestrians, walls or the like.
  • Such a display plane allows, for example, the calculation of parking paths for parking assistance functions with the highest accuracy. For putting in, such a representation level ensures, for example, an accurate
  • sensor data of the most varied sensors of the driver assistance system can be processed to form the environment map.
  • map data for each representation plane is calculated therefrom.
  • sensor data of at least two sensors are processed to map data of at least two display levels.
  • the fusion of information from different sensors can take place in different levels of representation.
  • map data for a first display plane can be calculated from sensor data of all sensors, so that the fusion of the sensor data takes place virtually in the first display plane. From the map data of the first display plane, further map data can then be calculated, namely for further display levels. It can also be provided that, from sensor data of all sensors, map data are calculated quasi-parallel for all display planes.
  • the environment map may be stored in a memory of a controller of the
  • Driver assistance system are provided by which at least one
  • At least one further control unit by means of which a further functionality is provided, can then access the memory as needed in order to read out map data of the surroundings map for the provision of the assigned functionality and / or new ones formed from own sensor data
  • the environment map is thus provided in a control unit of the driver assistance system, while other control devices can access the environment map and process or manage the same.
  • This embodiment has the advantage that already existing components of the driver assistance system for the
  • Provision of the common environment map can be used, and the driver assistance system comes in particular without an additional computing and / or storage device. It can be saved in this embodiment components, as well as money.
  • each embodiment will be an environment map in different ECUs implemented, and the existing environment maps are virtually synchronized. For example, this may be such that each controller manages its own environment map and each other's environment maps
  • Each controller then accesses its own environment map.
  • the environment map of a predetermined controller may be managed by all the controllers, and the other environment maps may then be aligned.
  • the control units can communicate with each other, for example via a communication bus in the vehicle. This embodiment has the advantage that the environment map is present in all control devices so that the control devices can very quickly access their own environment maps and thus quickly provide the respective functionalities.
  • the environment map is present in all control devices so that the control devices can very quickly access their own environment maps and thus quickly provide the respective functionalities.
  • the control devices can very quickly access their own environment maps and thus quickly provide the respective functionalities.
  • the area map can also be stored in a memory device common to at least two control units of the driver assistance system
  • the at least two control devices can access the storage device as needed depending on the map data of the environment map
  • Environment map can be "relieved", namely, the map is managed on the shared memory device - which can also be assigned a computing device.
  • the driver assistance system communicates with
  • the driver assistance system may, for example, receive sensor data from other vehicles and also these driver assistance systems of other vehicles.
  • the driver assistance system may, for example, receive sensor data from other vehicles and also these driver assistance systems of other vehicles.
  • An inventive driver assistance system for a vehicle comprises at least one sensor for acquiring information about an environment of the vehicle and for providing sensor data from the acquired information.
  • Driver assistance system can calculate a digital environment map from the sensor data and on the basis of the environment map a functionality for Provide driver assistance.
  • the driver assistance system is designed for at least two different functionalities of the driver assistance system
  • An inventive vehicle in particular motor vehicle, includes a
  • Embodiments and their advantages apply correspondingly to the driver assistance system according to the invention and the vehicle according to the invention.
  • FIG. 1 in a schematic and highly abstract representation
  • Fig. 2 to 6 in a schematic representation in each case a plan view of a
  • Fig. 8 is a schematic representation of a structure of a
  • FIG. 1 shows schematic functional blocks which only functionally describe the driver assistance system 1. For example, individual function blocks can be used in
  • driver assistance system 1 various components of the driver assistance system 1 are realized, namely, for example, in control devices, sensors, computing devices,
  • the driver assistance system 1 provides a plurality of functionalities in the vehicle by which a driver is assisted in guiding the vehicle.
  • functionalities 2a to 2x are provided by the driver assistance system 1.
  • These functionalities can be, for example, the following:
  • the functionalities 2a to 2x are provided, for example, in each case by a control unit of the driver assistance system 1.
  • controllers may each comprise a digital signal processor and / or a microcontroller and / or a memory.
  • the driver assistance system 1 also includes a plurality of sensors 3a to 3y which respectively acquire information about an environment of the vehicle.
  • sensors 3a to 3y can each be assigned to a control unit or they can be separate components.
  • the sensors 3a to 3y may include, for example, the following components: at least one ultrasonic sensor and / or at least one optical distance sensor and / or at least one camera and / or at least one radar device.
  • the sensors 3a to 3y acquire information about the environment.
  • Sensor data 4a to 4y are respectively generated from the acquired information. The processing of the collected information is thus carried out
  • the information or detected raw data is separately processed for each sensor 3a to 3y, and the respective sensor data 4a to 4y become
  • the respective information is processed specifically - for example, the method of triangulation and / or sensor-specific filtering of the information is applied.
  • the respective information is thus processed in such a way that the sensor data 4a to 4y generated therefrom already contain abstracted information about the environment.
  • the sensor data 4a to 4y include information about individual features of surrounding objects, namely, for example, the position of individual points and / or individual contours detected objects - this can be calculated, for example, from the triangulation of ultrasound raw data - and / or information about floor projections of edges that were detected, for example, in an image of a camera.
  • driver assistance system 1 becomes for all functionalities 2a to 2x a
  • the environment map 5 is calculated.
  • the environment map 5 is provided based on the sensor data 4a to 4y. It is generated in a common format for all functionalities 2a to 2x or all control units and all sensors 4a to 4y. This means that all control units or functionalities 2a to 2x can access map data of the area map 5 and all Control devices and / or all sensors 3a to 3y manage the environment map 5, so can edit.
  • the digital environment map 5 is formed by map data including information about the surroundings of the vehicle.
  • the area map 5 is in
  • Embodiment divided into two different levels of representation, namely a first display level 6 and a second display level 7. Die
  • Display levels 6, 7 each have a different level of abstraction of the representation of the environment. Namely, the second display plane 7 has a higher degree of abstraction than the first display plane 6.
  • the presentation levels 6, 7 are each formed by map data. In other words, the
  • Map of the environment 5 forming map data divided into two groups; one group forms the first display plane 6, while the second group forms the second display plane 7.
  • the driver assistance system 1 for providing the functionalities 2a to 2x on both abstraction levels or
  • Display levels 6, 7 in the respective functionality 2a to 2x ensures the lowest data processing or computational effort.
  • the display levels 6, 7 in the respective functionality 2a to 2x ensures the lowest data processing or computational effort.
  • the environment map 5 is generated from the sensor data 4a to 4y.
  • the sensor data 4a to 4y are first combined, and the first display plane 6 is formed.
  • the first display plane 6 is formed by map data that has arisen from the sensor data 4a to 4y.
  • the first display plane 6 is formed by such map data, which contain information about elementary features of the objects in the environment. These include, for example, information about the relative position of individual points and / or points of intersection and / or
  • Tangent points of detected objects are generated by the method of triangulation of ultrasound measurements.
  • the map data of the first representation plane 6 can also contain information about the relative position of individual contours or edges of detected objects.
  • sensor data 4a to 4y of all sensors 3a to 3y become summarized, and the mentioned features of the detected objects are grouped, merged and further processed.
  • the density of these features in the room can be varied, so that, for example, those areas that are responsible for the
  • Presentation level 6 may also contain further information, namely, for example, information about the origin of the respective data - that is to say from which sensor 4a to 4y the data originates - and / or information about the probable nature of the detected object - for example "probably flat", " probably massive, probably free space and the like.
  • the map data of the first display plane 6 are processed into map data, by which the second display plane 7 is formed. Additionally or alternatively, the sensor data 4a to 4y can also be used directly to form the second
  • Representation level 7 are used, as shown in Fig. 1 with the dashed arrow.
  • the second representation level 7 contains map data that includes much more abstract information about the objects. These are information about the relative position and / or the dimensions and / or the height and / or the color and / or the type or the type and / or the relative speed with respect to the vehicle and / or a direction of movement with respect to the vehicle.
  • the objects shown in the second representation level 7 of the environment map 5 are thus reproduced virtually true to reality.
  • FIG. 2 shows a plan view of a real road situation.
  • a vehicle 9 - namely a passenger car - which has the driver assistance system 1 according to FIG.
  • the vehicle 9 moves from a starting point 10 in the direction of arrow 1 1 to that shown in Fig. 2
  • Marking lines 14, 15 is limited.
  • the situation shown in Fig. 2 is a real scenario.
  • an ultrasonic sensor arranged on the left side edge detects information about the environment to the left of the vehicle 9, while a further ultrasonic sensor arranged on the right side edge detects the Environment right of the vehicle 9 detected.
  • Raw data 16, 17 of the ultrasonic sensors - the raw data 16, 17 represent the acquired information - are shown schematically in FIG. From the raw data 16, 17, the sensors generate sensor data, namely on the basis of triangulation, filtering and the like. The sensor data are combined, and from the sensor data, map data 18, 19 are formed for the first display plane 6 (FIG. 4). As is apparent from Fig. 4, include
  • Map data 18, 19 of the first display plane 6 information about individual points 20 of the wall 12, as well as a contour 21 of the wall 12.
  • This map data also includes free spaces 22.
  • the free space points 22 provide the information that no object to the right of the vehicle located.
  • a camera of the driver assistance system 1 While driving, a camera of the driver assistance system 1 also detects
  • Map data 23 for the second representation plane 7 are then calculated from the map data 18, 19 of the first representation plane 6. These map data 23 now contain information about actual objects, namely the wall 12, as well as the marking lines 14, 15 (from the image data of the camera).
  • Map data 23 now contain information about actual objects, namely the wall 12, as well as the marking lines 14, 15 (from the image data of the camera).
  • Representation level 7 so the wall 12 is uniquely determined; their relative position with respect to the vehicle 9, as well as their spatial dimensions and properties are known.
  • the marking lines 14, 15 are also clearly marked in the second display plane 7; their respective positions with respect to the vehicle 9 are known.
  • the parking space 13 is also clearly designated in the second display plane 7.
  • map is 5 including the first and the second
  • the information about the wall 12 and the marking lines 14, 15 shown in FIG. 5, as well as about the parking space 13, is now accessed by a control unit, by means of which the functionality of the driver's assistance in performing parking operations is provided.
  • This controller sets - as shown in Fig. 6 - a region 24 around the
  • the control unit can now intervene, for example, on the steering of the vehicle 9 in order to park the vehicle 9 in the parking space 13, namely along the calculated parking path 25th
  • Fig. 7 another road scenario is shown. Shown is the vehicle 9, which is parked along a calculated parking track 25 in a parking space 13.
  • the parking space 13 is limited by two vehicles 26, 27.
  • individual points of the vehicles 26, 27 are shown, as they are shown in the first display level 6 of the area map 5.
  • Points 28 are shown by a
  • Ultrasonic sensor were detected during a passage of the vehicle 9 along the parking space 13 in the direction of arrow 29.
  • the points 28 are used to measure the parking space 13.
  • Fig. 7 also further points 30 are shown, which were detected by another sensor - this is for example arranged in the rear of the vehicle 9.
  • This sensor has in the prior art only the function of warning the driver when falling below a predetermined distance value to an object. All points 28, 30 are now combined in the first representation level 6 of the environment map 5, and also the second representation level 7 builds on this information.
  • Driver assistance system 1 can thus access all information of the area map 5 when performing the parking operation, and not as in the prior art about only about the information about the points 28.
  • Driver assistance system 1 can thus access all information of the area map 5 when performing the parking operation, and not as in the prior art about only about the information about the points 28.
  • FIG. 8 shows a possible structure of the driver assistance system 1 in the vehicle 9.
  • the driver assistance system 1 can include, for example, the following sensors 3a to 3y: a camera 3a, which can detect an area in front of the vehicle 9, four further cameras 3b, 3c, 3d, 3e, which are arranged on the outer surface of the vehicle 9, namely the camera 3b on a front bumper, the camera 3c on a rear bumper, the camera 3d on the left side flank - it can also be integrated into the left exterior mirror - and the camera 3e on the right side flank - it can also be in the right Exterior mirrors be integrated -, two ultrasonic sensors 3f, 3g, namely an ultrasonic sensor 3f on the left side edge and an ultrasonic sensor 3g on the right side edge, and two radars 3h, 3i, which are each arranged in a corner region of the rear bumper.
  • the number and arrangement of the sensors are shown in FIG. 8 by way of example only; it is also possible to provide further sensors or the existing sensors can
  • the driver assistance system 1 also includes control units which provide the aforementioned functionalities 2a to 2x. And that includes the driver assistance system 1, a control unit 31, which is designed to assist the driver in performing parking operations, a control unit 32, which the driver when
  • Presence of objects in the area of the blind spot can warn a control unit 33, which displays various images of the surroundings of the vehicle 9 on one
  • Display device can display as well as a control unit 34, which is designed to warn the driver when leaving a lane and / or for holding the vehicle 9 on a lane.
  • the functionalities as well as the number of control devices 31 to 34 are also shown only schematically.
  • the control units 31 to 34 are also shown only schematically.
  • control unit 34 is a memory 36, in which the environment map 5 is provided. Namely, all the controllers 31 to 34 access the memory 36 to store there new map data and read the existing map data to provide the respective functionality.
  • Surrounding map 5 is thus carried out by all control units 31 to 34.
  • the map data mentioned can be transmitted via the communication bus 35.
  • a separate and shared memory device 37 may be connected to the communication bus 35, in which the
  • Map 5 is provided.
  • all the controllers 31 to 34 can manage the common environment map 5, namely store new map data and read out existing map data.
  • an environment map 5 may be provided in each of the controllers 31 to 34, respectively; the environment maps 5 can then be aligned or synchronized with each other.
  • a driver assistance system 1 in which an environment map 5 is implemented independently of function. It can collect, store and manage the information about the vehicle environment, regardless of whether and which assistance functions are active. The information is stored in a common format known throughout the driver assistance system 1. Each assistance function can post new information in the area map 5 as it becomes available. At the same time, each assistance function can access the entire set of map data in the environment map 5, regardless of where they come from and how they originated. There are different ways of representing or processing information about the environment Defines abstraction levels, namely, for example, two levels of representation 6, 7. Thus, the data processing chain between the sensors and the
  • Assistance functions logically divided so that the environmental detection is separated from the application logic. Furthermore, this makes possible the data fusion of the measured values originating from different sources at several different points of the processing chain.
  • the acquired data goes through one level of abstraction 6, 7 after another.
  • the corresponding algorithms are executed which improve the information content of the data or convert it to new, more abstract data. In this way arise in the driver assistance system 1 more pictures of
  • Vehicle environment for example, suspected contours of obstacles on the one hand and object descriptions that were detected from the contours, on the other hand. These images can be used together or separately, as needed, to provide the relevant driver assistance functionality. So all information is made available to all assistance functions.
  • the page protection feature can take the data previously found in a
  • the proposed sensor fusion allows continuous detection of the vehicle environment regardless of which

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrerassistenzsystems (1) eines Fahrzeugs (9), wobei Informationen (16, 17) über eine Umgebung des Fahrzeugs (9) durch zumindest einen Sensor (3a bis 3y) des Fahrerassistenzsystems (1) erfasst und aus diesen Informationen (16, 17) Sensordaten (4a bis 4y) bereitgestellt werden, aus den Sensordaten (4a bis 4y) eine digitale Umgebungskarte (5) berechnet wird und auf Grundlage der Umgebungskarte (5) eine Funktionalität (2a bis 2x) durch das Fahrerassistenzsystem (1) in dem Fahrzeug (9) bereitgestellt wird, durch welche ein Fahrer beim Führen des Fahrzeugs (9) unterstützt wird. Die Umgebungskarte (5) wird für zumindest zwei verschiedene Funktionalitäten (2a bis 2x) des Fahrerassistenzsystems (1) in einem gemeinsamen Format berechnet, und auf Grundlage der gemeinsamen Umgebungskarte (5) werden die zumindest zwei Funktionalitäten (2a bis 2x) durch das Fahrerassistenzsystem (1) bereitgestellt.

Description

Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs,
Fahrerassistenzsystem und Fahrzeug
Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs. Es werden Informationen über eine Umgebung des Fahrzeugs durch zumindest einen Sensor des Fahrerassistenzsystems erfasst. Aus diesen Informationen werden Sensordaten bereitgestellt. Aus den Sensordaten wird eine digitale
Umgebungskarte - also eine digitale Karte der Umgebung - berechnet und auf
Grundlage der Umgebungskarte wird eine Funktionalität durch das
Fahrerassistenzsystem in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Die Erfindung bezieht sich außerdem auf ein Fahrerassistenzsystem, welches zum Durchführen eines solchen Verfahrens ausgebildet ist, wie auch auf ein Fahrzeug mit einem solchen Fahrerassistenzsystem.
Es ist Stand der Technik, aus Sensordaten eines Sensors eine digitale Umgebungskarte zu erzeugen. Eine solche Umgebungskarte wird durch Kartendaten gebildet; sie stellt im Wesentlichen eine Datenbank dar. Die Kartendaten beinhalten Informationen über in der Umgebung des Fahrzeugs befindliche Objekte, nämlich insbesondere die Position der Objekte bezüglich des Fahrzeugs und dergleichen. Das Bereitstellen einer solchen Umgebungskarte, auf deren Grundlage eine Funktionalität zur Fahrerunterstützung bereitgestellt wird, ist beispielsweise aus der Druckschrift EP 0 650 866 B1 bekannt. Im Gegenstand dieser Druckschrift wird ein Fahrer eines Fahrzeugs beim Ausparken aus einer Parklücke unterstützt. Umgebungssensoren des Fahrzeugs erfassen Objekte, die sich in der Umgebung befinden. Es werden insbesondere Abstände zwischen dem Fahrzeug und in der Umgebung befindlichen Hindernissen gemessen, nämlich in Fahrtrichtung des Fahrzeugs. Aus den Messwerten für die Abstände wird eine lokale Umgebungskarte gebildet. Auf Grundlage der Umgebungskarte wird eine Fahrstrategie für den Vorgang des Ausparkens festgelegt. Es können dem Fahrer beispielsweise Fahrtrichtungspfeile angezeigt werden, nach denen er sich richten kann. Also wird auf Grundlage der Umgebungskarte eine Funktionalität in dem Fahrzeug bereitgestellt - nämlich die Funktionalität des Unterstützens des Fahrers beim Durchführen von
Parkvorgängen.
Aus der Druckschrift EP 1 309 882 B1 ist ein Fahrerassistenzsystem bekannt, welches eine Vielzahl von Sensoren aufweist. Die Sensoren erfassen jeweils einen
unterschiedlichen Bereich der Umgebung. Die Sensoren können au ßerdem Objekte verfolgen, die sich in den jeweiligen Erfassungsbereichen befinden. Die Sensoren können auch Informationen miteinander austauschen: Ein Sensor, welcher in seinem Erfassungsbereich ein bestimmtes Objekt verfolgt, kann Informationen über die jeweils augenblickliche Position des Objektes an einen weiteren Sensor weiterleiten, wenn das Objekt aus dem Erfassungsbereich austritt und in den Erfassungsbereich des weiteren Sensors gelangt.
Also kann im Stand der Technik eine digitale Umgebungskarte berechnet werden, die eine Basis für die Bereitstellung einer spezifischen Applikation (Funktionalität) durch das Fahrerassistenzsystem darstellt. Dabei wird die Umgebungskarte in der Regel durch ein spezifisches Steuergerät implementiert, welches dann auch die Applikation in dem Fahrzeug bereitstellt. Nach dem Bereitstellen der Funktionalität wird die
Umgebungskarte gelöscht, und es wird eine neue Umgebungskarte dann berechnet, wenn die Funktionalität durch das Steuergerät wieder bereitgestellt werden soll, nämlich beispielsweise wenn der Fahrer wieder beim Einparken unterstützt werden soll.
Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei dem Verfahren der eingangs genannten Gattung eine gegenüber dem Stand der Technik verbesserte Ausnutzung der vorhandenen Sensorressourcen erzielt werden kann.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 1 , wie auch durch ein Fahrerassistenzsystem mit den Merkmalen gemäß Patentanspruch 1 1 sowie durch ein Fahrzeug mit den Merkmalen gemäß
Patentanspruch 12 gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche und der Beschreibung.
Bei einem erfindungsgemäßen Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs werden Informationen über eine Umgebung des Fahrzeugs durch zumindest einen Sensor des Fahrerassistenzsystems erfasst. Aus diesen Informationen werden Sensordaten bereitgestellt. Aus den Sensordaten wird eine digitale
Umgebungskarte berechnet, und auf Grundlage der Umgebungskarte wird eine Funktionalität durch das Fahrerassistenzsystem in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Die Umgebungskarte wird für zumindest zwei verschiedene Funktionalitäten des Fahrerassistenzsystems in einem gemeinsamen Format berechnet, und auf Grundlage der gemeinsamen
Umgebungskarte werden die zumindest zwei Funktionalitäten durch das
Fahrerassistenzsystem bereitgestellt.
Also wird erfindungsgemäß eine gemeinsame digitale Umgebungskarte berechnet, und zwar unabhängig von den jeweiligen Funktionalitäten des Fahrerassistenzsystems. Mit anderen Worten wird die Umgebungskarte funktionsunabhängig implementiert, d. h. unabhängig davon, ob und welche Funktionalitäten bzw. Applikationen des
Fahrerassistenzsystems augenblicklich bereitgestellt werden sollen. Es steht somit für die zumindest zwei Funktionalitäten eine gemeinsame Umgebungskarte zur Verfügung; es müssen für die zumindest zwei Funktionalitäten keine separaten Umgebungskarten implementiert werden. Das Fahrerassistenzsystem kommt somit für die zumindest zwei Funktionalitäten mit nur einer einzigen Umgebungskarte aus, so dass die vorhandenen Sensorressourcen optimal ausgenutzt werden.
Auf diesem Weg gelingt es au ßerdem, den Datenverarbeitungsaufwand bzw. den Rechenaufwand bei der Bereitstellung der Applikationen durch das
Fahrerassistenzsystem auf ein Minimum zu reduzieren. Eine gemeinsame
Umgebungskarte hat darüber hinaus den Vorteil, dass - wenn Sensordaten einer Vielzahl von Sensoren für die Berechnung der Umgebungskarte herangezogen werden - quasi für jede Fahrerassistenzfunktionalität auf die gesamte Menge der Kartendaten zugegriffen werden kann, und zwar unabhängig davon, woher die Kartendaten kommen und wie sie entstanden sind.
Vorzugsweise ist die Umgebungskarte zeitlich unabhängig von den zumindest zwei Funktionalitäten des Fahrerassistenzsystems. Dies bedeutet, dass die Umgebungskarte zeitlich unabhängig von der Zeit und der Notwenigkeit der Bereitstellung der
Funktionalität berechnet wird. Die Umgebungskarte wird in dem Fahrerassistenzsystem bevorzugt kontinuierlich berechnet und an die jeweils augenblickliche Umgebung des Fahrzeugs angepasst. Z. B. kann dies so aussehen, dass die Umgebungskarte durch Kartendaten gebildet wird, die Informationen über einen vorgegebenen
Umgebungsbereich um das Fahrzeug herum beinhalten. Bewegt sich das Fahrzeug, so können diejenigen Kartendaten gelöscht werden, die Informationen über diejenigen Bereiche der Umgebung beinhalten, die über den vorgegebenen Umgebungsbereich hinausgehen. Gleichzeitig können neue Kartendaten berechnet werden, so dass die Umgebungskarte für den vorbestimmten Umgebungsbereich vervollständigt wird. Ganz allgemein wird die Umgebungskarte also bei dieser Ausführungsform für einen vorbestimmten Umgebungsbereich bezüglich des Fahrzeugs kontinuierlich angepasst.
Insbesondere wird die Umgebungskarte gemeinsam für zwei verschiedene Steuergeräte des Fahrerassistenzsystems berechnet, die jeweils eine Funktionalität zur
Fahrerunterstützung auf Grundlage der gemeinsamen Umgebungskarte bereitstellen. Es kann auch vorgesehen sein, dass ein Steuergerät zumindest zwei Funktionalitäten zur Fahrerunterstützung bereitstellen kann, nämlich auf Grundlage der gemeinsamen Umgebungskarte.
Die digitale Umgebungskarte kann gemeinsam für zumindest zwei Funktionalitäten, bevorzugt für zumindest drei Funktionalitäten, noch bevorzugter für zumindest vier Funktionalitäten, noch bevorzugter für zumindest fünf Funktionalitäten des
Fahrerassistenzsystems implementiert werden. Auf Grundlage der gemeinsamen Umgebungskarte können also zumindest zwei Funktionalitäten, insbesondere zumindest drei Funktionalitäten, bevorzugt zumindest vier Funktionalitäten, noch bevorzugter zumindest fünf Funktionalitäten durch das Fahrerassistenzsystem bereitgestellt werden.
Unter einer Funktionalität wird vorliegend eine Applikation bzw. eine Funktion des Fahrerassistenzsystems verstanden, welche den Fahrer beim Führen des Fahrzeugs unterstützt. Das Fahrerassistenzsystem kann auf Grundlage der Umgebungskarte vorzugsweise zumindest zwei der folgenden Funktionalitäten bereitstellen:
- die Funktionalität des Unterstützens des Fahrers beim Durchführen von
Parkvorgängen und/oder
- die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorgegebenen Abstandswertes zu einem Objekt und/oder
- die Funktionalität des Warnens des Fahrers bei einem ungewollten Verlassen einer Spur und/oder
- die Funktionalität des Haltens des Fahrzeugs auf einer vorgegebenen Spur und/oder
- die Funktionalität des Anzeigens von in der Umgebung befindlichen Objekten auf einer Anzeigeeinrichtung und/oder
- die Funktionalität des Haltens eines vorgegebenen Abstands zu einem
vorausfahrenden Fahrzeug und/oder
- die Funktionalität des Warnens des Fahrers beim Vorhandensein eines Objekts im Bereich eines Totwinkels und/oder - die Funktionalität des automatischen Einschaltens des Fernlichts und/oder des Abblendlichts und/oder
- die Funktionalität der Veränderung einer räumlichen Verteilung des Fernlichts
und/oder des Abblendlichts und/oder
- die Funktionalität der Erkennung von Verkehrsschildern und/oder
- die Funktionalität des Eingreifens in eine Komponente des Fahrzeugs, insbesondere in eine Bremseinrichtung des Fahrzeugs.
Also wird die digitale Umgebungskarte in einem für alle Funktionalitäten gemeinsamen Format bereitgestellt. Unter dem Begriff „Format" wird hier eine Spezifikation der
Verarbeitung und der Speicherung von Daten verstanden, die festlegt, wie Daten der Umgebungskarte programmtechnisch gelesen, gespeichert und/oder verarbeitet werden können.
Es werden vorzugsweise Sensordaten zumindest zweier verschiedener Sensoren des Fahrerassistenzsystems, insbesondere Sensordaten aller im Fahrzeug vorhandener Umgebungssensoren, zur Bildung der Umgebungskarte verarbeitet. Es wird somit möglich, eine Umgebungskarte zu erzeugen, welche eine Vielzahl von Informationen über die Umgebung des Fahrzeugs beinhaltet. Und zwar kann eine solche
Umgebungskarte gebildet werden, auf deren Grundlage eine Vielzahl von
Funktionalitäten durch das Fahrerassistenzsystem bereitgestellt werden kann. Zur Bildung der Umgebungskarte können beispielsweise Sensordaten zumindest einer Kamera und/oder zumindest eines Ultraschallsensors und/oder Sensordaten zumindest eines Radargerätes und/oder Sensordaten zumindest eines optischen Abstandssensors
- z. B. eines LED-Sensors - verarbeitet werden. Auf diesem Weg gelingt es, eine höchst genaue und eine hohe Informationsdichte aufweisende Umgebungskarte bereitzustellen.
Es erweist sich als besonders vorteilhaft, wenn die Umgebungskarte in zumindest zwei verschiedene Darstellungsebenen bzw. Abstraktionsebenen unterteilt wird, die sich in einem Abstraktionsgrad der Darstellung der Umgebung voneinander unterscheiden. Dies bedeutet, dass Kartendaten - welche die Umgebungskarte bilden - in zumindest zwei verschiedene Darstellungsebenen unterteilt werden. Es gibt bei dieser Ausführungsform also erste Kartendaten, durch welche eine erste Darstellungsebene gebildet wird, wie auch zweite Kartendaten, durch welche eine zweite Darstellungsebene gebildet wird. Diese Ausführungsform hat den Vorteil, dass zur Bereitstellung der Funktionalitäten auf unterschiedliche Abstraktionsebenen der Darstellung der Umgebung zugegriffen werden kann, je nachdem, welcher Abstraktionsgrad für die jeweilige Funktionalität am besten geeignet ist. Somit kann der Rechenaufwand bei der Bereitstellung der Funktionalitäten noch weiter reduziert werden; das Fahrerassistenzsystem kann beispielsweise für unterschiedliche Funktionalitäten auf jeweils unterschiedliche Darstellungsebenen der Umgebungskarte zugreifen. Man würde zum Beispiel beim Unterstützen des Fahrers beim Durchführen von Parkvorgängen Kartendaten einer solchen Darstellungsebene verwenden, die Informationen über die Art und die relative Position der in der Umgebung befindlichen Objekte bezüglich des Fahrzeugs beinhalten. Für die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorbestimmten kritischen
Abstandswertes zu einem Objekt können hingegen Kartendaten aus einer solchen Darstellungsebene herangezogen werden, die Informationen über die relative Position einzelner Punkte eines Objekts bezüglich des Fahrzeugs umfassen. Die Festlegung von unterschiedlichen Darstellungsebenen mit jeweils unterschiedlichen Abstraktionsgraden der Darstellung der Umgebung hat somit den wesentlichen Vorteil, dass zur
Bereitstellung der Funktionalitäten die Sensordaten nicht von Neuem verarbeitet werden müssen, sondern bedarfsgerecht auf unterschiedliche Kartendaten eines solchen Abstraktionsgrads zugegriffen werden kann, welcher für den geringsten Aufwand hinsichtlich der Datenverarbeitung sorgt. Es wird hierdurch außerdem die
Datenverarbeitungskette zwischen der Erzeugung der Sensordaten und der
Bereitstellung der einzelnen Funktionalitäten logisch aufgeteilt, sodass die Erfassung der Umgebung von der Applikationslogik funktionell getrennt wird. Au ßerdem ist bei dieser Ausführungsform die Fusion bzw. die Zusammenfassung der aus unterschiedlichen Quellen stammenden Daten an mehreren unterschiedlichen Stellen der
Verarbeitungskette - nämlich in zumindest zwei verschiedenen Darstellungsebenen - möglich.
In einer Ausführungsform können für das Bereitstellen der zumindest zwei
Funktionalitäten Kartendaten bedarfsabhängig aus zumindest zwei Darstellungsebenen, insbesondere aus allen Darstellungsebenen, abgerufen werden. Zur Bereitstellung einer jeden Funktionalität kann somit das Fahrerassistenzsystem bedarfsabhängig
Kartendaten aus zumindest zwei Darstellungsebenen - insbesondere aus allen vorhandenen Darstellungsebenen - abrufen. Dies kann zum Beispiel so aussehen, dass das Fahrerassistenzsystem beim Bereitstellen einer ersten Funktionalität auf
Kartendaten einer ersten Darstellungsebene und beim Bereitstellen einer zweiten Funktionalität auf Kartendaten einer zweiten Darstellungsebene zugreift. Es kann auch vorgesehen sein, dass das Fahrerassistenzsystem beim Bereitstellen einer einzigen Funktionalität Kartendaten aus zumindest zwei Darstellungsebenen verwendet. Die einzelnen Darstellungsebenen der Umgebungskarte können also durch das Fahrerassistenzsystem zusammen oder getrennt je nach Bedarf verwendet werden. Das Fahrerassistenzsystem kann bei der Bereitstellung einer bestimmten Funktionalität auf diejenige Darstellungsebene der Umgebungskarte zugreifen, die bei dieser speziellen Funktionalität für den geringsten Datenverarbeitungsaufwand sorgt.
Eine der Darstellungsebenen kann durch Kartendaten gebildet werden, die
Informationen über die relative Position einzelner Punkte und/oder Konturen erfasster Objekte bezüglich des Fahrzeugs beinhalten. Eine solche Darstellungsebene weist also einen relativ geringen Abstraktionsgrad auf; sie beinhaltet lediglich Informationen über einzelne erfasste Punkte und/oder Konturen von in der Umgebung befindlichen
Objekten. Diese Darstellungsebene erweist sich beispielsweise für diejenige Applikation als besonders vorteilhaft, bei welcher der Fahrer durch das Fahrerassistenzsystem vor kritischen Abständen gewarnt wird. Auf diese Darstellungsebene würde man auch bei einer solchen Applikation zugreifen, bei welcher der Fahrer beim Halten der Spur unterstützt wird bzw. beim Verlassen der Spur gewarnt wird. Gerade bei solchen Funktionalitäten sorgt diese Darstellungsebene für einen geringen
Datenverarbeitungsaufwand.
Eine der Darstellungsebenen kann hingegen durch Kartendaten gebildet werden, die einen höheren Abstraktionsgrad aufweisen. Eine solche Darstellungsebene kann derartige Informationen beinhalten, welche durch Zusammenfassen einzelner Punkte und/oder einzelner Konturen zu Objekten abstrahiert werden. Eine solche
Darstellungsebene beinhaltet also Informationen über die Art bzw. die Form von in der Umgebung befindlichen Objekten, wie auch über die relative Position der Objekte bezüglich des Fahrzeugs. In dieser Darstellungsebene sind die in der Umgebung befindlichen Objekte also eindeutig bezeichnet; es kann sich hier um Fahrzeuge, Bordsteine, Straßenmarkierungen, Verkehrsschilder, Bäume, Fu ßgänger, Wände oder dergleichen handeln. Eine solche Darstellungsebene ermöglicht beispielsweise die Berechnung von Parkbahnen für Parkassistenzfunktionen mit höchster Genauigkeit. Au ßerdem sorgt eine solche Darstellungsebene beispielsweise für eine genaue
Darstellung der Umgebung auf einer Anzeigeeinrichtung des Fahrzeugs. Auf Grundlage von Kartendaten aus dieser Darstellungsebene können nämlich Bilder erzeugt und dem Fahrer angezeigt werden, welche die Umgebung des Fahrzeugs darstellen.
Wie bereits ausgeführt, können zur Bildung der Umgebungskarte Sensordaten unterschiedlichster Sensoren des Fahrerassistenzsystems verarbeitet werden. In einer Ausführungsform werden aus Sensordaten zumindest zweier Sensoren des Fahrerassistenzsystems - insbesondere aus Sensordaten eines jeden im Fahrzeug vorhandenen Umgebungssensors - jeweils Kartendaten für zumindest zwei
Darstellungsebenen berechnet. Insbesondere werden daraus Kartendaten für eine jede Darstellungsebene berechnet. Dies bedeutet, dass Sensordaten zumindest zweier Sensoren zu Kartendaten zumindest zweier Darstellungsebenen verarbeitet werden. Die Fusion der Informationen unterschiedlicher Sensoren kann dabei in unterschiedlichen Darstellungsebenen stattfinden. Zum Beispiel können aus Sensordaten aller Sensoren Kartendaten für eine erste Darstellungsebene berechnet werden, so dass die Fusion der Sensordaten quasi in der ersten Darstellungsebene erfolgt. Aus den Kartendaten der ersten Darstellungsebene können dann weitere Kartendaten berechnet werden, nämlich für weitere Darstellungsebenen. Es kann auch vorgesehen sein, dass aus Sensordaten aller Sensoren jeweils Kartendaten quasi parallel für alle Darstellungsebenen berechnet werden.
Hinsichtlich der Anordnung beziehungsweise des Ortes der Implementierung der digitalen Umgebungskarte sind verschiedene Ausführungsformen vorgesehen:
Die Umgebungskarte kann in einem Speicher eines Steuergeräts des
Fahrerassistenzsystems bereitgestellt werden, durch welches zumindest eine
Funktionalität bereitgestellt wird. Zumindest ein weiteres Steuergerät, durch welches eine weitere Funktionalität bereitgestellt wird, kann dann bedarfsabhängig auf den Speicher zugreifen, um Kartendaten der Umgebungskarte zur Bereitstellung der zugeordneten Funktionalität auszulesen und/oder aus eigenen Sensordaten gebildete neue
Kartendaten für die Umgebungskarte bereitzustellen. Bei dieser Ausführungsform ist die Umgebungskarte also in einem Steuergerät des Fahrerassistenzsystems bereitgestellt, während auch andere Steuergeräte auf die Umgebungskarte zugreifen und selbige verarbeiten beziehungsweise verwalten können. Diese Ausführungsform hat den Vorteil, dass bereits vorhandene Komponenten des Fahrerassistenzsystems für die
Bereitstellung der gemeinsamen Umgebungskarte verwendet werden können, und das Fahrerassistenzsystem kommt insbesondere ohne eine zusätzliche Rechen- und/oder Speichereinrichtung aus. Es können also bei dieser Ausführungsform Komponenten, wie auch Geld gespart werden.
Es kann auch vorgesehen sein, dass jeweils eine Umgebungskarte in jeweiligen
Speichern zumindest zweier Steuergeräte des Fahrerassistenzsystems bereitgestellt wird und die Umgebungskarten aneinander angeglichen werden. Bei dieser
Ausführungsform wird also jeweils eine Umgebungskarte in unterschiedlichen Steuergeräten implementiert, und die vorhandenen Umgebungskarten werden quasi synchronisiert. Dies kann beispielsweise so aussehen, dass jedes Steuergerät seine eigene Umgebungskarte verwaltet und die jeweils anderen Umgebungskarten
angeglichen werden. Jedes Steuergerät greift dann auf seine eigene Umgebungskarte zu. Alternativ kann auch die Umgebungskarte eines vorbestimmten Steuergeräts durch alle Steuergeräte verwaltet werden, und die jeweils anderen Umgebungskarten können dann angeglichen werden. Die Steuergeräte können miteinander beispielsweise über einen Kommunikationsbus in dem Fahrzeug kommunizieren. Diese Ausführungsform hat den Vorteil, dass die Umgebungskarte in allen Steuergeräten vorhanden ist, so dass die Steuergeräte sehr schnell auf ihre eigenen Umgebungskarten zugreifen und somit die jeweiligen Funktionalitäten rasch bereitstellen können. Insbesondere wird die
Bereitstellung der Funktionalitäten nicht durch die Laufzeit der Signale im
Kommunikationsbus verzögert.
Ergänzend oder alternativ kann die Umgebungskarte auch in einer für zumindest zwei Steuergeräte des Fahrerassistenzsystems gemeinsamen Speichereinrichtung
bereitgestellt werden. Dann können die zumindest zwei Steuergeräte bedarfsabhängig auf die Speichereinrichtung zugreifen, um Kartendaten der Umgebungskarte zur
Bereitstellung der zugeordneten Funktionalität auszulesen und/oder aus eigenen
Sensordaten gebildete neue Kartendaten für die Umgebungskarte bereitzustellen. Diese Ausführungsform hat wiederum den Vorteil, dass die Steuergeräte von der
Umgebungskarte„entlastet" werden können; die Umgebungskarte wird nämlich auf der gemeinsamen Speichereinrichtung verwaltet - der auch eine Recheneinrichtung zugeordnet werden kann.
In einer Ausführungsform kommuniziert das Fahrerassistenzsystem mit
Fahrerassistenzsystemen anderer Fahrzeuge. Das Fahrerassistenzsystem kann beispielsweise Sensordaten anderer Fahrzeuge empfangen und auch diese
empfangenen Sensordaten für die Berechnung der Umgebungskarte heranziehen. Somit kann die Informationsdichte der gemeinsamen Umgebungskarte weiter verbessert werden.
Ein erfindungsgemäßes Fahrerassistenzsystem für ein Fahrzeug umfasst zumindest einen Sensor zum Erfassen von Informationen über eine Umgebung des Fahrzeugs und zum Bereitstellen von Sensordaten aus den erfassten Informationen. Das
Fahrerassistenzsystem kann aus den Sensordaten eine digitale Umgebungskarte berechnen und auf Grundlage der Umgebungskarte eine Funktionalität zur Fahrerunterstützung bereitstellen. Das Fahrerassistenzsystem ist dazu ausgelegt, für zumindest zwei verschiedene Funktionalitäten des Fahrerassistenzsystems die
Umgebungskarte in einem gemeinsamen Format zu berechnen und auf Grundlage der gemeinsamen Umgebungskarte die zumindest zwei Funktionalitäten bereitzustellen.
Ein erfindungsgemäßes Fahrzeug, insbesondere Kraftwagen, umfasst ein
erfindungsgemäßes Fahrerassistenzsystem.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten
Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Fahrerassistenzsystem und das erfindungsgemäße Fahrzeug.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen
Kombinationen oder auch in Alleinstellung verwendbar.
Die Erfindung wird nun anhand einzelner bevorzugter Ausführungsbeispiele näher erläutert, wie auch unter Bezugnahme auf die beigefügten Zeichnungen.
Es zeigen:
Fig. 1 in schematischer und höchst abstrakter Darstellung ein
Fahrerassistenzsystem gemäß einer Ausführungsform der Erfindung, wobei ein Verfahren gemäß einer Ausführungsform der Erfindung näher erläutert wird;
Fig. 2 bis 6 in schematischer Darstellung jeweils eine Draufsicht auf eine
Verkehrssituation, wobei der Inhalt von Kartendaten unterschiedlicher Darstellungsebenen, wie auch die Verarbeitung von Sensordaten zu Kartendaten sowie die Bereitstellung einer Funktionalität anhand der Kartendaten näher erläutert werden; Fig. 7 in schematischer Darstellung eine Draufsicht auf eine Verkehrssituation, wobei Vorteile des Fahrerassistenzsystems näher erläutert werden; und
Fig. 8 in schematischer Darstellung einen Aufbau eines
Fahrerassistenzsystems gemäß einer Ausführungsform der Erfindung.
In Fig. 1 ist in höchst abstrakter Darstellung ein Fahrerassistenzsystem 1 dargestellt, wie es beispielsweise in einem Personenkraftwagen eingesetzt wird. In Fig. 1 sind dabei schematische Funktionsblöcke dargestellt, die das Fahrerassistenzsystem 1 lediglich funktionell beschreiben. Einzelne Funktionsblöcke können beispielsweise in
verschiedenen Komponenten des Fahrerassistenzsystems 1 verwirklicht werden, nämlich beispielsweise in Steuergeräten, Sensoren, Recheneinrichtungen,
Speichereinrichtungen und dergleichen.
Durch das Fahrerassistenzsystem 1 wird eine Vielzahl von Funktionalitäten in dem Fahrzeug bereitgestellt, durch welche ein Fahrer beim Führen des Fahrzeugs unterstützt wird. Und zwar werden durch das Fahrerassistenzsystem 1 Funktionalitäten 2a bis 2x bereitgestellt. Diese Funktionalitäten können beispielsweise folgende sein:
- die Funktionalität des Unterstützens des Fahrers beim Durchführen von
Parkvorgängen und/oder
- die Funktionalität des Warnens des Fahrers beim Unterschreiten eines vorgegebenen Abstandswertes zu einem Objekt und/oder
- die Funktionalität des Warnens des Fahrers bei einem ungewollten Verlassen einer Spur und/oder
- die Funktionalität des Haltens des Fahrzeugs auf einer vorgegebenen Spur und/oder
- die Funktionalität des Anzeigens von in der Umgebung befindlichen Objekten auf einer Anzeigeeinrichtung und/oder
- die Funktionalität des Haltens eines vorgegebenen Abstands zu einem
vorausfahrenden Fahrzeug und/oder
- die Funktionalität des Warnens des Fahrers beim Vorhandensein eines Objekts im Bereich eines Totwinkels und/oder
- die Funktionalität des automatischen Einschaltens des Fernlichts und/oder des
Abblendlichts und/oder
- die Funktionalität der Veränderung einer räumlichen Verteilung des Fernlichts
und/oder des Abblendlichts und/oder
- die Funktionalität der Erkennung von Verkehrsschildern und/oder - die Funktionalität des Eingreifens in eine Komponente des Fahrzeugs, insbesondere in eine Bremseinrichtung des Fahrzeugs.
Die Funktionalitäten 2a bis 2x werden beispielsweise jeweils durch ein Steuergerät des Fahrerassistenzsystems 1 bereitgestellt. Solche Steuergeräte können beispielsweise jeweils einen digitalen Signalprozessor und/oder einen MikroController und/oder einen Speicher umfassen.
Das Fahrerassistenzsystem 1 beinhaltet au ßerdem eine Vielzahl von Sensoren 3a bis 3y, die jeweils Informationen über eine Umgebung des Fahrzeugs erfassen. Die
Sensoren 3a bis 3y können beispielsweise jeweils einem Steuergerät zugeordnet sein oder sie können separate Komponenten sein. Die Sensoren 3a bis 3y können beispielsweise folgende Komponenten beinhalten: zumindest einen Ultraschallsensor und/oder zumindest einen optischen Abstandssensor und/oder zumindest eine Kamera und/oder zumindest ein Radargerät. Also erfassen die Sensoren 3a bis 3y Informationen über die Umgebung. Aus den erfassten Informationen werden jeweils Sensordaten 4a bis 4y erzeugt. Die Verarbeitung der erfassten Informationen erfolgt also
sensorspezifisch; die Informationen bzw. erfasste Rohdaten werden für jeden Sensor 3a bis 3y separat verarbeitet, und die jeweiligen Sensordaten 4a bis 4y werden
sensorspezifisch erzeugt. Bei der Erzeugung der Sensordaten 4a bis 4y werden die jeweiligen Informationen spezifisch verarbeitet - es wird beispielsweise das Verfahren der Triangulation und/oder eine sensorspezifische Filterung der Informationen angewandt. Die jeweiligen Informationen werden also derart aufbereitet, dass die daraus erzeugten Sensordaten 4a bis 4y bereits abstrahierte Informationen über die Umgebung beinhalten. Und zwar beinhalten die Sensordaten 4a bis 4y Informationen über einzelne Merkmale von in der Umgebung befindlichen Objekten, nämlich beispielsweise über die Position von einzelnen Punkten und/oder einzelnen Konturen erfasster Objekte - dies kann beispielsweise aus der Triangulation von Ultraschallrohdaten berechnet werden - und/oder Informationen über Bodenprojektionen von Kanten, die beispielsweise in einem Bild einer Kamera erkannt wurden.
In dem Fahrerassistenzsystem 1 wird für alle Funktionalitäten 2a bis 2x eine
gemeinsame digitale Umgebungskarte 5 berechnet. Die Umgebungskarte 5 wird auf Basis der Sensordaten 4a bis 4y bereitgestellt. Sie wird in einem für alle Funktionalitäten 2a bis 2x beziehungsweise alle Steuergeräte und alle Sensoren 4a bis 4y gemeinsamen Format erzeugt. Dies bedeutet, dass alle Steuergeräte beziehungsweise Funktionalitäten 2a bis 2x auf Kartendaten der Umgebungskarte 5 zugreifen können und alle Steuergeräte und/oder alle Sensoren 3a bis 3y die Umgebungskarte 5 verwalten, also bearbeiten können.
Die digitale Umgebungskarte 5 wird durch Kartendaten gebildet, die Informationen über die Umgebung des Fahrzeugs beinhalten. Die Umgebungskarte 5 wird im
Ausführungsbeispiel in zwei verschiedene Darstellungsebenen unterteilt, nämlich eine erste Darstellungsebene 6 und eine zweite Darstellungsebene 7. Die
Darstellungsebenen 6, 7 weisen jeweils einen anderen Abstraktionsgrad der Darstellung der Umgebung auf. Und zwar weist die zweite Darstellungsebene 7 einen höheren Abstraktionsgrad als die erste Darstellungsebene 6 auf. Die Darstellungsebenen 6, 7 werden jeweils durch Kartendaten gebildet. Mit anderen Worten werden die die
Umgebungskarte 5 bildenden Kartendaten in zwei Gruppen unterteilt; eine Gruppe bildet die erste Darstellungsebene 6, während die zweite Gruppe die zweite Darstellungsebene 7 bildet.
Wie aus Fig. 1 hervorgeht, kann das Fahrerassistenzsystem 1 zur Bereitstellung der Funktionalitäten 2a bis 2x auf beide Abstraktionsebenen beziehungsweise
Darstellungsebenen 6, 7 zugreifen, nämlich abhängig davon, welche der
Darstellungsebenen 6, 7 bei der jeweiligen Funktionalität 2a bis 2x für den geringsten Datenverarbeitungs- bzw. Rechenaufwand sorgt. Beispielsweise werden die
Funktionalitäten 2a, 2d und 2x - wie in Fig. 1 dargestellt ist - auf Grundlage der zweiten Abstraktionsebene 7 bereitgestellt, während die Funktionalitäten 2b und 2e auf
Grundlage der ersten Darstellungsebene 6 bereitgestellt werden. Die Funktionalität 2c wird auf Grundlage beider Darstellungsebenen 6, 7 bereitgestellt.
Die Umgebungskarte 5 wird aus den Sensordaten 4a bis 4y erzeugt. Die Sensordaten 4a bis 4y werden zunächst zusammengefasst, und es wird die erste Darstellungsebene 6 gebildet. Die erste Darstellungsebene 6 wird durch Kartendaten gebildet, die aus den Sensordaten 4a bis 4y entstanden sind. Die erste Darstellungsebene 6 wird durch solche Kartendaten gebildet, welche Informationen über elementare Merkmale der in der Umgebung befindlichen Objekte beinhalten. Dazu zählen beispielsweise Informationen über die relative Position einzelner Punkte und/oder Schnittpunkte und/oder
Tangentenpunkte erfasster Objekte. Diese Informationen werden beispielsweise - wie bereits ausgeführt - anhand des Verfahrens der Triangulation von Ultraschallmessungen erzeugt. Die Kartendaten der ersten Darstellungsebene 6 können auch Informationen über die relative Position einzelner Konturen beziehungsweise Kanten erfasster Objekte beinhalten. Es werden also Sensordaten 4a bis 4y aller Sensoren 3a bis 3y zusammengefasst, und die genannten Merkmale der erfassten Objekte werden gruppiert, zusammengeführt und weiterverarbeitet. Die Dichte dieser Merkmale im Raum kann variiert werden, so dass beispielsweise diejenigen Bereiche, die für die
Bereitstellung einer bestimmten Funktionalität 2a bis 2x besonders interessant sind, mit einer höheren Auflösung dargestellt werden. Die Kartendaten der ersten
Darstellungsebene 6 können au ßerdem weitere Informationen beinhalten, nämlich beispielsweise Informationen über den Ursprung der jeweiligen Daten - also aus welchem Sensor 4a bis 4y die Daten stammen - und/oder Informationen über die wahrscheinliche Art des erfassten Objekts - zum Beispiel„wahrscheinlich flach", „wahrscheinlich massiv",„wahrscheinlich freier Raum" und dergleichen.
Die Kartendaten der ersten Darstellungsebene 6 werden zu Kartendaten verarbeitet, durch welche die zweite Darstellungsebene 7 gebildet wird. Ergänzend oder alternativ können auch unmittelbar die Sensordaten 4a bis 4y zur Bildung der zweiten
Darstellungsebene 7 herangezogen werden, wie dies in Fig. 1 mit dem gestrichelten Pfeil dargestellt ist. Die zweite Darstellungsebene 7 beinhaltet dabei Kartendaten, die wesentlich abstraktere Informationen über die Objekte umfassen. Und zwar sind dies Informationen über die relative Position und/oder die Abmessungen und/oder die Höhe und/oder die Farbe und/oder den Typ beziehungsweise die Art und/oder über die relative Geschwindigkeit bezüglich des Fahrzeugs und/oder über eine Bewegungsrichtung bezüglich des Fahrzeugs. Die in der zweiten Darstellungsebene 7 der Umgebungskarte 5 dargestellten Objekte werden somit quasi realitätstreu wiedergegeben.
Bezug nehmend nun auf die Figuren 2 bis 6 wird eine Straßensituation beschrieben, anhand derer der Inhalt der einzelnen Darstellungsebenen 6, 7 der Umgebungskarte 5 näher erläutert wird. Fig. 2 zeigt dabei eine Draufsicht auf eine reale Straßensituation. Auf einem Parkplatz 8 befindet sich ein Fahrzeug 9 - nämlich ein Personenkraftwagen -, welches das Fahrerassistenzsystem 1 gemäß Fig. 1 aufweist. Das Fahrzeug 9 bewegt sich von einem Startpunkt 10 in Pfeilrichtung 1 1 hin zu der in Fig. 2 dargestellten
Position. Links des Fahrzeugs 9 befindet sich eine Wand 12, die ein Hindernis darstellt. Auf der rechten Seite wiederum befindet sich eine Parklücke 13, die durch zwei
Markierungslinien 14, 15 begrenzt ist. Die in Fig. 2 gezeigte Situation ist ein reales Szenario.
Während der Bewegung des Fahrzeugs 9 erfasst ein an der linken Seitenflanke angeordneter Ultraschallsensor Informationen über die Umgebung links des Fahrzeugs 9, während ein an der rechten Seitenflanke angeordneter weiterer Ultraschallsensor die Umgebung rechts des Fahrzeugs 9 erfasst. Rohdaten 16, 17 der Ultraschallsensoren - die Rohdaten 16, 17 stellen die erfassten Informationen dar - sind in Fig. 3 schematisch abgebildet. Aus den Rohdaten 16, 17 erzeugen die Sensoren Sensordaten, nämlich anhand einer Triangulation, Filterung und dergleichen. Die Sensordaten werden zusammengefasst, und aus den Sensordaten werden Kartendaten 18, 19 für die erste Darstellungsebene 6 gebildet (Fig. 4). Wie aus Fig. 4 hervorgeht, beinhalten die
Kartendaten 18, 19 der ersten Darstellungsebene 6 Informationen über einzelne Punkte 20 der Wand 12, wie auch über eine Kontur 21 der Wand 12. Diese Kartendaten beinhalten außerdem Frei raumpunkte 22. Die Freiraumpunkte 22 liefern die Information, dass sich kein Objekt rechts des Fahrzeugs 9 befindet.
Während der Fahrt erfasst auch eine Kamera des Fahrerassistenzsystems 1
Informationen über die Umgebung und erzeugt Sensordaten - nämlich Bilddaten. Auch diese Bilddaten werden zur Bildung der ersten Darstellungsebene 6 herangezogen - auch aus diesen Bilddaten werden Kartendaten (in Fig. 4 nicht dargestellt) für die erste Darstellungsebene 6 berechnet.
Aus den Kartendaten 18, 19 der ersten Darstellungsebene 6 werden dann Kartendaten 23 für die zweite Darstellungsebene 7 berechnet. Diese Kartendaten 23 beinhalten nun Informationen über tatsächliche Objekte, nämlich über die Wand 12, wie auch über die Markierungslinien 14, 15 (aus den Bilddaten der Kamera). In der zweiten
Darstellungsebene 7 ist also die Wand 12 eindeutig bestimmt; ihre relative Position bezüglich des Fahrzeugs 9, wie auch ihre räumlichen Abmessungen und Eigenschaften sind bekannt. Auch die Markierungslinien 14, 15 sind in der zweiten Darstellungsebene 7 eindeutig gekennzeichnet; ihre jeweiligen Positionen bezüglich des Fahrzeugs 9 sind bekannt. Auch die Parklücke 13 ist in der zweiten Darstellungsebene 7 eindeutig bezeichnet.
Nun steht die Umgebungskarte 5 einschließlich der ersten und der zweiten
Darstellungsebene 6, 7 für alle Funktionalitäten 2a bis 2x zur Verfügung. Auf die in Fig. 5 gezeigten Informationen über die Wand 12 und die Markierungslinien 14, 15, wie auch über die Parklücke 13, greift nun ein Steuergerät zu, durch welches die Funktionalität der Unterstützung des Fahrers beim Durchführen von Parkvorgängen bereitgestellt wird. Dieses Steuergerät legt - wie in Fig. 6 dargestellt ist - einen Bereich 24 um das
Fahrzeug 9 herum fest, wie auch eine Parkbahn 25. Das Steuergerät kann nun beispielsweise auf die Lenkung des Fahrzeugs 9 eingreifen, um das Fahrzeug 9 in die Parklücke 13 einzuparken, nämlich entlang der berechneten Parkbahn 25. In Fig. 7 ist ein weiteres Straßenszenario dargestellt. Dargestellt ist das Fahrzeug 9, welches entlang einer berechneten Parkbahn 25 in eine Parklücke 13 eingeparkt wird. Die Parklücke 13 ist durch zwei Fahrzeuge 26, 27 begrenzt. In Fig. 7 sind einzelne Punkte der Fahrzeuge 26, 27 dargestellt, wie sie in der ersten Darstellungsebene 6 der Umgebungskarte 5 abgebildet sind. Es sind Punkte 28 dargestellt, die von einem
Ultraschallsensor während einer Vorbeifahrt des Fahrzeugs 9 entlang der Parklücke 13 in Pfeilrichtung 29 erfasst wurden. Im Stand der Technik werden zur Vermessung der Parklücke 13 lediglich die Punkte 28 herangezogen. In Fig. 7 sind außerdem weitere Punkte 30 dargestellt, die durch einen weiteren Sensor - dieser ist beispielsweise im Heckbereich des Fahrzeugs 9 angeordnet - erfasst wurden. Dieser Sensor hat im Stand der Technik lediglich die Funktion der Warnung des Fahrers beim Unterschreiten eines vorbestimmten Abstandswertes zu einem Objekt. Alle Punkte 28, 30 sind nun in der ersten Darstellungsebene 6 der Umgebungskarte 5 zusammengefasst, und auch die zweite Darstellungsebene 7 baut auf diesen Informationen auf. Das
Fahrerassistenzsystem 1 kann somit auf alle Informationen der Umgebungskarte 5 beim Durchführen des Parkvorgangs zugreifen, und nicht wie im Stand der Technik etwa nur auf die Informationen über die Punkte 28. Es stehen somit für alle Funktionalitäten 2a bis 2x Informationen aller Sensoren 3a bis 3y zur Verfügung.
In Fig. 8 ist ein möglicher Aufbau des Fahrerassistenzsystems 1 in dem Fahrzeug 9 dargestellt. Das Fahrerassistenzsystem 1 kann beispielsweise folgende Sensoren 3a bis 3y beinhalten: eine Kamera 3a, die einen Bereich vor dem Fahrzeug 9 erfassen kann, vier weitere Kameras 3b, 3c, 3d, 3e, die an der äu ßeren Oberfläche des Fahrzeugs 9 angeordnet sind, nämlich die Kamera 3b an einem vorderen Stoßfänger, die Kamera 3c an einem hinteren Stoßfänger, die Kamera 3d an der linken Seitenflanke - sie kann auch in den linken Au ßenspiegel integriert sein - und die Kamera 3e an der rechten Seitenflanke - sie kann auch in den rechten Außenspiegel integriert sein -, zwei Ultraschallsensoren 3f, 3g, nämlich einen Ultraschallsensor 3f an der linken Seitenflanke und einen Ultraschallsensor 3g an der rechten Seitenflanke, sowie zwei Radargeräte 3h, 3i, die jeweils in einem Eckbereich des hinteren Stoßfängers angeordnet sind. Die Anzahl sowie die Anordnung der Sensoren sind in Fig. 8 lediglich beispielhaft dargestellt; es können auch weitere Sensoren vorgesehen sein oder die vorhandenen Sensoren können an jeweils anderen Stellen des Fahrzeugs 9 angeordnet sein.
Das Fahrerassistenzsystem 1 umfasst au ßerdem Steuergeräte, die die genannten Funktionalitäten 2a bis 2x bereitstellen. Und zwar beinhaltet das Fahrerassistenzsystem 1 ein Steuergerät 31 , welches zum Unterstützen des Fahrers beim Durchführen von Parkvorgängen ausgebildet ist, ein Steuergerät 32, welches den Fahrer beim
Vorhandensein von Objekten im Bereich des Totwinkels warnen kann, ein Steuergerät 33, welches verschiedene Bilder von der Umgebung des Fahrzeugs 9 auf einer
Anzeigeeinrichtung anzeigen kann, wie auch ein Steuergerät 34, welches zum Warnen des Fahrers beim Verlassen einer Spur und/oder zum Halten des Fahrzeugs 9 auf einer Spur ausgebildet ist. Die Funktionalitäten sowie die Anzahl der Steuergeräte 31 bis 34 sind ebenfalls lediglich schematisch dargestellt. Die Steuergeräte 31 bis 34
kommunizieren miteinander über einen Kommunikationsbus 35.
In dem Steuergerät 34 befindet sich ein Speicher 36, in welchem die Umgebungskarte 5 bereitgestellt wird. Und zwar können alle Steuergeräte 31 bis 34 auf den Speicher 36 zugreifen, um dort neue Kartendaten abzulegen und die vorhandenen Kartendaten zur Bereitstellung der jeweiligen Funktionalitäten auszulesen. Die Verwaltung der
Umgebungskarte 5 erfolgt also durch alle Steuergeräte 31 bis 34. Die genannten Kartendaten können über den Kommunikationsbus 35 übertragen werden.
Ergänzend oder alternativ kann an den Kommunikationsbus 35 auch eine separate und gemeinsame Speichereinrichtung 37 angeschlossen sein, in welcher die
Umgebungskarte 5 bereitgestellt wird. Auch bei dieser Ausführungsform können alle Steuergeräte 31 bis 34 die gemeinsame Umgebungskarte 5 verwalten, nämlich neue Kartendaten ablegen und bereits vorhandene Kartendaten auslesen.
In einer noch weiteren Ausführungsform kann jeweils eine Umgebungskarte 5 in allen Steuergeräten 31 bis 34 bereitgestellt sein; die Umgebungskarten 5 können dann aneinander angeglichen bzw. synchronisiert werden.
Insgesamt wird also ein Fahrerassistenzsystem 1 bereitgestellt, bei welchem eine Umgebungskarte 5 funktionsunabhängig implementiert wird. Sie kann die Informationen über die Fahrzeugumgebung sammeln, speichern und verwalten, unabhängig davon, ob und welche Assistenzfunktionen aktiv sind. Die Informationen werden in einem gemeinsamen Format gespeichert, welches im gesamten Fahrerassistenzsystem 1 bekannt ist. Jede Assistenzfunktion kann neue Informationen in der Umgebungskarte 5 ablegen, sobald sie verfügbar sind. Gleichzeitig kann jede Assistenzfunktion auf die gesamte Menge der Kartendaten in der Umgebungskarte 5 zugreifen, nämlich unabhängig davon, woher diese kommen und wie sie entstanden sind. Es werden für die Darstellung bzw. Verarbeitung von Informationen über die Umgebung unterschiedliche Abstraktionsebenen definiert, nämlich beispielsweise zwei Darstellungsebenen 6, 7. Dadurch wird die Datenverarbeitungskette zwischen der Sensorik und den
Assistenzfunktionalitäten logisch aufgeteilt, sodass die Umwelterfassung von der Applikationslogik getrennt wird. Des Weiteren wird dadurch die Datenfusion der aus unterschiedlichen Quellen stammenden Messwerte an mehreren unterschiedlichen Stellen der Verarbeitungskette möglich. Während der Verarbeitung durchlaufen die erfassten Daten eine Abstraktionsebene 6, 7 nach der anderen. In jeder Ebene werden die entsprechenden Algorithmen ausgeführt, die den Informationsgehalt der Daten verbessern bzw. diese zu neuen abstrakteren Daten konvertieren. Auf diese Art und Weise entstehen im Fahrerassistenzsystem 1 mehrere Abbildungen der
Fahrzeugumgebung, beispielsweise vermutete Konturen von Hindernissen einerseits und Objektbeschreibungen, die aus den Konturen erkannt wurden, andererseits. Diese Abbildungen können zusammen oder getrennt - je nach Bedarf - verwendet werden, nämlich für die Bereitstellung der jeweiligen Fahrerassistenzfunktionalitäten. Es werden also sämtliche Informationen allen Assistenzfunktionen zugänglich gemacht. So kann zum Beispiel die Funktion des Seitenschutzes die Daten, die zuvor bei einem
Ausparkvorgang gesammelt wurden, verwenden, um den Fahrer vor einer möglichen Kollision nach dem Abschalten des Ausparkassistenten zu warnen, wenn der Fahrer das Lenkrad zu stark einschlägt. Genauso kann die Parklückenvermessung bessere
Genauigkeiten liefern, wenn sie zusätzlich Informationen vom Seitenschutz während eines Einparkvorgangs erhalten kann. Die vorgeschlagene Sensorfusion ermöglicht eine kontinuierliche Erfassung der Fahrzeugumgebung unabhängig davon, welche
Assistenzfunktionen aktiv sind und welche Sensoren verwendet werden. Mit der vorgeschlagenen Lösung kann die Karte sogar aufgebaut werden, wenn einzelne Funktionen auf unterschiedlichen, kooperierenden Fahrzeugen ausgeführt werden.

Claims

Patentansprüche
1 . Verfahren zum Betreiben eines Fahrerassistenzsystems (1 ) eines Fahrzeugs (9), wobei Informationen (16, 17) über eine Umgebung des Fahrzeugs (9) durch zumindest einen Sensor (3a bis 3y) des Fahrerassistenzsystems (1 ) erfasst und aus diesen Informationen (16, 17) Sensordaten (4a bis 4y) bereitgestellt werden, aus den Sensordaten (4a bis 4y) eine digitale Umgebungskarte (5) berechnet wird und auf Grundlage der Umgebungskarte (5) eine Funktionalität (2a bis 2x) durch das Fahrerassistenzsystem (1 ) in dem Fahrzeug (9) bereitgestellt wird, durch welche ein Fahrer beim Führen des Fahrzeugs (9) unterstützt wird,
dadurch gekennzeichnet, dass
für zumindest zwei verschiedene Funktionalitäten (2a bis 2x) des
Fahrerassistenzsystems (1 ) die Umgebungskarte (5) in einem gemeinsamen Format berechnet wird und auf Grundlage der gemeinsamen Umgebungskarte (5) die zumindest zwei Funktionalitäten (2a bis 2x) durch das Fahrerassistenzsystem (1 ) bereitgestellt werden.
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
zur Bildung der Umgebungskarte (5) Sensordaten (4a bis 4y) zumindest zweier verschiedener Sensoren (3a bis 3y) des Fahrerassistenzsystems (1 ), insbesondere Sensordaten (4a bis 4y) aller im Fahrzeug (9) vorhandener Umgebungssensoren (4a bis 4y), verarbeitet werden.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass die Umgebungskarte (5) bildende Kartendaten (18, 19, 23) in zumindest zwei verschiedene Darstellungsebenen (6, 7) unterteilt werden, die sich in einem Abstraktionsgrad der Darstellung der Umgebung voneinander unterscheiden.
4. Verfahren nach Anspruch 3,
dadurch gekennzeichnet, dass
für das Bereitstellen der zumindest zwei Funktionalitäten (2a bis 2x) Kartendaten (18, 19, 23) bedarfsabhängig aus zumindest zwei Darstellungsebenen (6, 7), insbesondere aus allen Darstellungsebenen (6, 7), abgerufen werden.
5. Verfahren nach Anspruch 3 oder 4,
dadurch gekennzeichnet, dass
eine der Darstellungsebenen (6, 7) durch Kartendaten (18, 19) gebildet wird, die Informationen (16, 17) über die relative Position einzelner Punkte (20, 28, 30) und/oder Konturen (21 ) erfasster Objekte (12, 14, 15, 26, 27) bezüglich des Fahrzeugs (9) beinhalten.
6. Verfahren nach einem der Ansprüche 3 bis 5,
dadurch gekennzeichnet, dass
eine der Darstellungsebenen (6, 7) durch Kartendaten (18, 19) gebildet wird, die derartige Informationen (16, 17) beinhalten, welche durch Zusammenfassen einzelner Punkte (20, 28, 30) und/oder einzelner Konturen (21 ) zu Objekten (12, 14, 15, 26, 27) abstrahiert werden.
7. Verfahren nach einem der Ansprüche 3 bis 6,
dadurch gekennzeichnet, dass
aus Sensordaten (4a bis 4y) zumindest zweier Sensoren (3a bis 3y) des Fahrerassistenzsystems (1 ), insbesondere aus Sensordaten (4a bis 4y) eines jeden im Fahrzeug (9) vorhandenen Umgebungssensors (3a, 3y), jeweils Kartendaten für zumindest zwei der Darstellungsebenen (6, 7), insbesondere Kartendaten (18, 19) für eine jede Darstellungsebene (6, 7), berechnet werden.
8. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass die Umgebungskarte (5) in einem Speicher (36) eines Steuergerätes (31 bis 34) des Fahrerassistenzsystems (1 ) bereitgestellt wird, durch welches zumindest eine Funktionalität (2a bis 2x) bereitgestellt wird, und zumindest ein weiteres
Steuergerät (31 bis 34), durch welches eine weitere Funktionalität (2a bis 2x) bereitgestellt wird, bedarfsabhängig auf den Speicher (36) zugreift, um
Kartendaten (18, 19) der Umgebungskarte (5) zur Bereitstellung der zugeordneten Funktionalität (2a bis 2x) auszulesen und/oder aus eigenen Sensordaten (4a bis 4y) gebildete neue Kartendaten (18, 19) für die Umgebungskarte (5)
bereitzustellen.
9. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
jeweils eine Umgebungskarte (5) in jeweiligen Speichern zumindest zweier Steuergeräte (31 bis 34) des Fahrerassistenzsystems (1 ) bereitgestellt wird und die Umgebungskarten (5) aneinander angeglichen werden.
10. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Umgebungskarte (5) in einer für zumindest zwei Steuergeräte (31 bis 34) des Fahrerassistenzsystems (1 ) gemeinsamen Speichereinrichtung (37) bereitgestellt wird und die zumindest zwei Steuergeräte (31 bis 34) bedarfsabhängig auf die Speichereinrichtung (37) zugreifen, um Kartendaten (18, 19) der Umgebungskarte (5) zur Bereitstellung der zugeordneten Funktionalität (2a bis 2x) auszulesen und/oder aus eigenen Sensordaten (4a bis 4y) gebildete neue Kartendaten (18, 19) für die Umgebungskarte (5) bereitzustellen.
1 1 . Fahrerassistenzsystem (1 ) für ein Fahrzeug (9), mit zumindest einem Sensor (3a bis 3y) zum Erfassen von Informationen (16, 17) über eine Umgebung des
Fahrzeugs (9) und zum Bereitstellen von Sensordaten (4a bis 4y) aus den erfassten Informationen (16, 17), wobei das Fahrerassistenzsystem (1 ) dazu ausgelegt ist, aus den Sensordaten (4a bis 4y) eine digitale Umgebungskarte (5) zu berechnen und auf Grundlage der Umgebungskarte (5) eine Funktionalität (2a bis 2x) zur Fahrerunterstützung bereitzustellen,
dadurch gekennzeichnet, dass das Fahrerassistenzsystem (1 ) dazu ausgelegt ist, für zumindest zwei verschiedene Funktionalitäten (2a bis 2x) des Fahrerassistenzsystems (1 ) die Umgebungskarte (5) in einem gemeinsamen Format zu berechnen und auf Grundlage der gemeinsamen Umgebungskarte (5) die zumindest zwei Funktionalitäten (2a bis 2x) bereitzustellen.
12. Fahrzeug (9), insbesondere Kraftwagen, mit einem Fahrerassistenzsystem (1 ) nach Anspruch 1 1 .
PCT/EP2011/056196 2010-05-03 2011-04-19 Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug WO2011138164A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010018994A DE102010018994A1 (de) 2010-05-03 2010-05-03 Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Fahrerassistenzsystem und Fahrzeug
DE102010018994.4 2010-05-03

Publications (1)

Publication Number Publication Date
WO2011138164A1 true WO2011138164A1 (de) 2011-11-10

Family

ID=44291714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/056196 WO2011138164A1 (de) 2010-05-03 2011-04-19 Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug

Country Status (2)

Country Link
DE (1) DE102010018994A1 (de)
WO (1) WO2011138164A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113178089A (zh) * 2020-01-27 2021-07-27 丰田自动车株式会社 显示控制装置、显示控制方法以及计算机可读存储介质

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013207904A1 (de) 2013-04-30 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer effizienten Umfeldkarte für ein Fahrzeug
DE102014111126A1 (de) 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102014117783A1 (de) 2014-12-03 2016-06-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eins Fahrers eines Kraftfahrzeugs beim Einparken, Fahrerassistenzsystem und Kraftfahrzeug
DE102015104940A1 (de) 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bereitstellen von Höheninformationen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs an einer Kommunikationsschnittstelle, Sensoreinrichtung, Verarbeitungseinrichtung und Kraftfahrzeug
DE102015104934A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bereitstellen von Freirauminformationen in einem Umgebungsbereich eines Kraftfahrzeugs als Sensor-Rohdaten an einer Kommunikationsschnittstelle, Sensoreinrichtung, Verarbeitungseinrichtung und Kraftfahrzeug
DE102015115012A1 (de) 2015-09-08 2017-03-09 Connaught Electronics Ltd. Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015016704A1 (de) 2015-12-22 2017-06-22 Audi Ag Verfahren zum Übertragen von Kommunikationsdaten zwischen einer Vielzahl von Fahrzeugkomponenten eines Kraftfahrzeugs
DE102016204654A1 (de) * 2016-03-21 2017-09-21 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Eigenbewegungsschätzung für ein Kraftfahrzeug
DE102019213223A1 (de) * 2019-09-02 2021-03-04 Volkswagen Aktiengesellschaft Kollisionsvermeidung bei Annäherung eines Fahrzeugs an eine Anhängerdeichsel

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0650866B1 (de) 1993-09-29 1997-05-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ausparken eines Fahrzeuges
EP1309882B1 (de) 2000-08-16 2004-12-08 Raytheon Company System zur erfassung von naheliegenden objekten
DE102006044434A1 (de) * 2006-09-21 2008-03-27 Robert Bosch Gmbh Fahrerassistenzsystem
DE102007002197A1 (de) * 2007-01-16 2008-07-17 Siemens Ag Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme
EP2107503A1 (de) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Verfahren und Vorrichtung zur Erzeugung eines Umgebungsmodells für Fahrzeuge in Echtzeit

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19741631B4 (de) * 1997-09-20 2013-08-14 Volkswagen Ag Verfahren und Vorrichtung zur Vermeidung und/oder Minimierung von Konfliktsituationen im Straßenverkehr
DE19845568A1 (de) * 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Objekterfassung für Kraftfahrzeuge
DE102005026386A1 (de) * 2005-06-02 2006-12-07 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Fahrzeugs
DE102005049133A1 (de) * 2005-10-14 2007-04-19 Robert Bosch Gmbh Elektronischer Horizont für Fahrerassistenzsysteme

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0650866B1 (de) 1993-09-29 1997-05-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ausparken eines Fahrzeuges
EP1309882B1 (de) 2000-08-16 2004-12-08 Raytheon Company System zur erfassung von naheliegenden objekten
DE102006044434A1 (de) * 2006-09-21 2008-03-27 Robert Bosch Gmbh Fahrerassistenzsystem
DE102007002197A1 (de) * 2007-01-16 2008-07-17 Siemens Ag Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme
EP2107503A1 (de) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Verfahren und Vorrichtung zur Erzeugung eines Umgebungsmodells für Fahrzeuge in Echtzeit

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DARMS M ET AL: "A modular system architecture for sensor data processing of ADAS applications", INTELLIGENT VEHICLES SYMPOSIUM, 2005. PROCEEDINGS. IEEE LAS VEGAS, NV, USA JUNE 6-8, 2005, PISCATAWAY, NJ, USA,IEEE, PISCATAWAY, NJ, USA, 6 June 2005 (2005-06-06), pages 729 - 734, XP010833882, ISBN: 978-0-7803-8961-8, DOI: DOI:10.1109/IVS.2005.1505190 *
MULLER T ET AL: "Flexible system architecture for rapid algorithmic prototyping of multi sensorial driver assistance systems", INTELLIGENT TRANSPORTATION SYSTEMS, 2001. PROCEEDINGS. 2001 IEEE AUGUST 25-29, 2001, PISCATAWAY, NJ, USA,IEEE, 25 August 2001 (2001-08-25), pages 303 - 308, XP010555787, ISBN: 978-0-7803-7194-1 *
ULLRICH SCHEUNERT ET AL: "Early and Multi Level Fusion for Reliable Automotive Safety Systems", INTELLIGENT VEHICLES SYMPOSIUM, 2007 IEEE, IEEE, PI, 1 June 2007 (2007-06-01), pages 196 - 201, XP031126944, ISBN: 978-1-4244-1067-5 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113178089A (zh) * 2020-01-27 2021-07-27 丰田自动车株式会社 显示控制装置、显示控制方法以及计算机可读存储介质

Also Published As

Publication number Publication date
DE102010018994A1 (de) 2011-11-03

Similar Documents

Publication Publication Date Title
WO2011138164A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug
DE102009005566B4 (de) Verfahren und Vorrichtung zur Erstellung einer Umfeldkarte eines Kraftfahrzeugs
DE60122963T2 (de) Navigationsvorrichtung
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
EP2991874B1 (de) Bereitstellen einer effizienten umfeldkarte für ein fahrzeug
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
EP2229594A1 (de) Verfahren und vorrichtung zum anzeigen der umgebung eines fahrzeugs
DE102017003751B4 (de) Fahrassistenzvorrichtung
WO2012062573A1 (de) Verfahren zum erzeugen eines bilds einer fahrzeugumgebung und abbildungsvorrichtung
WO2014161691A1 (de) Verfahren und vorrichtung zum führen eines fahrzeugs im umfeld eines objekts
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
EP2594461B1 (de) Verfahren zum Erkennen einer Parklücke für ein Kraftfahrzeug, Parkhilfesystem und Kraftfahrzeug mit einem Parkhilfesystem
DE102005018408A1 (de) Verfahren und Vorrichtung zur Auswertung von Abstandsmessdaten eines Abstandsmesssystems eines Kraftfahrzeugs
DE102019206569A1 (de) Fahrzeug und verfahren zum steuern desselben
DE102008042825A1 (de) Fahrerassistenzsystem für Kraftfahrzeuge
DE102015116542A1 (de) Verfahren zum Bestimmen einer Parkfläche zum Parken eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102014111012A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Ausparken, Fahrerassistenzsystem und Kraftfahrzeug
DE102004028404A1 (de) Verfahren zur Schätzung des Verlaufs einer Fahrspur eines Kraftfahrzeuges
EP2801076B1 (de) Tiefenbildberechnung mit einer monokamera durch eine definierte trajektorie
WO2012163631A1 (de) Verfahren zum bestimmen einer nickbewegung einer in einem fahrzeug verbauten kamera und verfahren zur steuerung einer lichtaussendung zumindest eines frontscheinwerfers eines fahrzeugs
DE102017126452A1 (de) Fahrzeugsteuersystem
EP2287060B1 (de) Verfahren zur Ermittlung eines Ein- oder Ausschervorgangs eines dem eigenen Kraftfahrzeug vorausfahrenden Fahrzeugs
DE102005036782A1 (de) Verfahren zum Betrieb eines Bildauswertesystems zur Entfernungsmessung an einem Fahrzeug
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11716869

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11716869

Country of ref document: EP

Kind code of ref document: A1