WO2022135930A1 - Verfahren zum bestimmen eines freiraums in einer fahrzeugumgebung - Google Patents

Verfahren zum bestimmen eines freiraums in einer fahrzeugumgebung Download PDF

Info

Publication number
WO2022135930A1
WO2022135930A1 PCT/EP2021/084751 EP2021084751W WO2022135930A1 WO 2022135930 A1 WO2022135930 A1 WO 2022135930A1 EP 2021084751 W EP2021084751 W EP 2021084751W WO 2022135930 A1 WO2022135930 A1 WO 2022135930A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
view
contour
line
contour point
Prior art date
Application number
PCT/EP2021/084751
Other languages
English (en)
French (fr)
Inventor
Friedrich Keller
Michael Skutek
Wladimir Fischer
Original Assignee
HELLA GmbH & Co. KGaA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HELLA GmbH & Co. KGaA filed Critical HELLA GmbH & Co. KGaA
Priority to CN202180084349.6A priority Critical patent/CN116601680A/zh
Publication of WO2022135930A1 publication Critical patent/WO2022135930A1/de
Priority to US18/211,730 priority patent/US20230334875A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Definitions

  • the invention relates to a method for determining at least one free space in a vehicle environment of a vehicle, a computer program product, a control unit for a vehicle, a driver assistance system with the control unit and a vehicle sensor, and a vehicle.
  • the detection of the (static) vehicle environment is required for various driver assistance systems in vehicles such as the electronic distance warning, automated parking and for several stages of autonomous driving, such as recognition of the lane.
  • Driver assistance systems such as automated parking or the electronic distance warning typically use ultrasonic sensors.
  • Other sensors for a more general detection of the static environment are, for example, camera sensors, laser scanners or radar sensors.
  • the static vehicle environment can be specified using contour information.
  • This contour information depends on the type of measurement principle and the signal processing for detection and filtering.
  • the static environment can be specified using a list of points. The number of points depends on the measuring principle, the signal processing and the observation time.
  • Vehicle components that receive such contour information can be connected via CAN or Ethernet, for example. Such interfaces have limited bandwidth and may require a significant reduction in the data currently being transmitted. Another reason why data reduction is necessary is the computational effort for the receiver, which can also be limited. In addition to this limited bandwidth, the amount of data is not required for later processing steps in a vehicle control unit.
  • Most driver assistance functions do not require all of the detected contours or collected contour information. The most and often the only information required is the free space or free space around your own vehicle, also known as the ego vehicle, around e.g. B. to evaluate the probability of collisions or to calculate the route.
  • the limited bandwidth leads to another desired requirement. This lies in the ability to ensure static resolution at any point within a defined field of view.
  • the clearance information can be defined as the space between the ego vehicle and the nearest static object(s) for all directions within the field of view. In other words, it is the (navigable) space between the ego vehicle and all surrounding static objects in all relevant directions.
  • a typical approach for static contour detection is the evidence grid as described in M. Schreier et al., "From Grid Maps to Parametric Free Space Maps - A Highly Compact, Generic Environment Representation for ADAS" (IEEE Intelligent Vehicle Symposium [IV 2013 ]) is known. Each grid cell is marked as occupied or unoccupied depending on measurements that could be assigned to this cell during the last measurement cycles. There are various ways of making the decision that a grid cell is occupied, e.g. B. on the basis of statistical functions. Extracting the free space in this case is simple: the free space consists of all unoccupied cells around the ego vehicle and between the ego vehicle and the nearest occupied grid cells. See also Hesham M.
  • Another method for free space estimation is to calculate the intersections of a line starting at ego position [0, 0] with the nearest contour element. This line is rotated with a static or dynamic angle segment (static origin at ego position) and for each step the intersection with the nearest contour element is evaluated.
  • a very similar variation could be to use rotating angular segments and check with the area where the first detection is located.
  • This method is also very common, but as the range of the intersection increases, the resolution of the free space boundary decreases. In addition, this method depends on direct line of sight. She cannot see any space covered by a contour, and she cannot see around corners. This limits the applicability for automated driving, as it requires a very low speed to detect an intersection.
  • the object of the invention is to reduce the disadvantages known from the prior art.
  • the invention solves the problem by a method for determining at least one free space in a vehicle environment of a vehicle, the method having the following steps:
  • the invention provides a method (and according to the second aspect of the invention, a computer program product) for reducing the data in the entire signal processing chain within a control unit or driver assistance system of a vehicle. This consistently reduces the computational effort and memory requirements. Furthermore, the at least one free space or several free spaces can be determined in a particularly simple manner from this reduced amount of data. Another important advantage that is achieved according to the invention is a fixed (position) resolution of the free space description.
  • the method can be carried out in a two-dimensional plane, with two-dimensional contour points of the objects in the vehicle surroundings being received according to method step (a) and being processed according to method steps (b) to (d).
  • the method it is of course also possible for the method to be carried out in a number of two-dimensional planes or in three-dimensional space.
  • three-dimensional contour points of the objects in the vehicle environment can be received in method step (a).
  • the three-dimensional contour points of the objects in the vehicle environment can then be processed according to method steps (b) to (d), it being possible for this to be done for each of several two-dimensional planes or for the entire three-dimensional space.
  • the free space can be determined as a two-dimensional or a three-dimensional free space. It can be delimited or determined by the connected minimum contour points from the vehicle or ego vehicle.
  • the vehicle in which or by which the method is carried out or the driver assistance system is used is understood as the ego vehicle.
  • the free space can thus be defined as the space between the ego vehicle and the closest static object(s) within the vehicle's surroundings (for all directions) within the field of view under consideration.
  • the free space can be expressed as the (navigable) space between the ego vehicle and all surrounding static objects in the field of view under consideration.
  • the field of view under consideration can be defined in advance with regard to its position in the vehicle environment, its orientation and/or its size, or can be selected individually depending on the driver assistance system or the respective area of application of the method.
  • the field of view can be different for different areas of application of the method, so that different fields of view can be considered within the scope of the method carried out for different areas of application.
  • the field of view can be defined as a two-dimensional or three-dimensional field of view.
  • the subdivision of the field of view into the plurality of lines can be determined in advance or also defined depending on the area of application. In this way, different resolutions of the field of view can be defined by selecting more or fewer lines for subdividing the field of view.
  • the resolution is reduced, as a result of which the amount of data can be further reduced.
  • the resolution can be selected in such a way that it is (just) sufficient for the area of application or the respective driver assistance system.
  • the number of fields of view considered is not limited.
  • the fields of view can be arranged at right angles as well as rotated in relation to the vehicle. Provision can be made for the at least one field of view to be rectangular or (partially) circular.
  • the shape or geometry of the field of view can also be predefined or selected specifically for the respective area of application of the method or the respective driver assistance system of the (ego) vehicle. With a circular field of view geometry, the fields of view are circular.
  • a number of fields of view under consideration can together surround a circular shape or cover a circular vehicle environment.
  • This can in particular be a ring-shaped vehicle environment that can be monitored in this way.
  • the ego vehicle is located within the ring and the monitored ring of the vehicle's surroundings is formed by the fields of view.
  • the contour points within rows of at least a portion or all of the rows of the plurality of rows of the field of view that have the smallest contour point distances from the contour point to the vehicle's frame of reference within the rows to which they have been assigned are considered the minimum - Contour points determined.
  • that minimum contour point which has the smallest distance or contour point distance from the reference system is determined for all contour points within a line. This is repeated for at least part of the rows of the plurality of rows or all rows of the plurality of rows. Thereby the minimum contour points within the part of the lines of the plurality of lines are obtained.
  • the remaining contour points that have been received can be disregarded for the following procedure, in particular deleted (from a memory in which they were stored) in order to reduce the amount of data.
  • the minimum contour points can only be determined for some of the rows of the plurality of rows using the smallest contour point distance, for example when no contour points have been assigned to individual rows. This can especially occur when the dissolution of the field of view under consideration was selected very high or a large number of lines divided the field of view.
  • connection of the previously determined minimum contour points to form a free space or several free spaces within the at least one field of view under consideration can be determined by connecting the next minimum contour points of the respective rows, i.e. by oblique connecting lines between the minimum contour points, or by simply linking the Line spacing (then results in a stepped pattern (see Fig. 6)) are used when it is intended to save a great deal of memory and computing time.
  • the method can in particular be a computer-implemented method. As such, it can be executable by one or more computers.
  • Control devices in particular of vehicles, are also understood as computers or that control devices include computers.
  • Computers can also be referred to as processing units.
  • the reference system can be formed by at least one reference point or a plurality of reference points of the reference system.
  • the reference system is a vehicle longitudinal axis and/or a vehicle transverse axis of the vehicle.
  • those contour points can be determined as minimum contour points which have the smallest contour point distance from one of the two axes, that is to say the longitudinal axis of the vehicle or the transverse axis of the vehicle.
  • the contour point distance is not calculated as a distance from a previously defined reference point on the respective axis determined. Instead, the reference point of the contour point distance is different for each contour point in order to obtain the contour point distances normalized based on the distance from the respective axis or towards the respective axis. This allows a simple and accurate determination of the minimum contour points.
  • the method also includes the step of detecting the contour points of the objects in the vehicle environment using a vehicle sensor of the vehicle.
  • vehicle sensor of the vehicle This can be done using one or more vehicle sensors of a driver assistance system or the vehicle.
  • vehicle sensors of a driver assistance system or the vehicle For example, it is possible to use ultrasonic sensors, camera sensors, laser scanners and/or radar sensors as vehicle sensors.
  • the contour points can be detected with high precision in order to then be transmitted completely or selectively and finally received according to step (a) of the method.
  • a larger vehicle environment can be viewed.
  • the observation of two mutually parallel fields of vision on the side of the vehicle can be used to carry out roadway recognition, which can be an area of application for the method or a corresponding driver assistance system.
  • the choice of considering one or two or more fields of view can be made dependent on the field of application of the method or the driver assistance system, as has been discussed above.
  • the amount of data can be reduced if, from a number of possible fields of view, only those (application) fields of view are considered that are required for the current field of application of the method or the respective driver assistance system of the vehicle.
  • the area of application of the method is automated lateral parking of the vehicle or ego vehicle or the driver assistance system is an automatic lateral parking system
  • it is usually sufficient for an application field of view located behind the vehicle, an application field in front of the vehicle Field of view and an application field of view to the side of the vehicle are considered.
  • Unnecessary contour points within possible (non-application) fields of vision in front of the vehicle and another (non-application) field of vision to the side of the vehicle do not have to be, or at least not necessarily or completely, detected for this application area or driver assistance system, or at least not received or processed in order to be able to carry out safe automated lateral parking in a certain free space without physical contact of the vehicle with objects.
  • a free parking space is determined based on the at least one free space. For this purpose, a comparison can be made between the at least one specific free space and the size (and geometry) of a free parking space required for parking. If the at least one specific free space contains the free parking space or its size (and geometry) or allows parking, then the free parking space can be determined. Accordingly, the determined free parking space can be used in an application area of the method or driver assistance system for automated parking in order to safely park the (ego) vehicle therein.
  • Determining the free parking space is nevertheless only one possible area of application of the method according to the invention.
  • the defined free space can also be used for other areas of application or driver assistance systems such as (individual stages) autonomous driving, curb detection, and for those further named in the context of the description.
  • the contour points of the nearest neighboring cells are determined, which are connected to one another by means of a connecting line, so that a point on the connecting line within the row without an assigned contour point with the smallest contour point distance as the minimum contour point is determined.
  • This point on the connecting line is typically on one of two row lines of the respective row that shares the row with the neighboring rows. So the point can also be viewed as the intersection of the line with one of the line lines. This enables an approximate determination of a minimum contour point in a line without an assigned contour point. As has already been explained above, this can be beneficial in the case of a very low resolution.
  • the point on the connecting line with the smaller contour point distance is determined as the minimum contour point.
  • this makes it possible for the determined free space to be reduced in favor of precise recognition due to an erroneous determination of the minimum contour point.
  • the connecting line is used as a comparison variable for whether a contour point within the line actually represents a minimum contour point or not an intersection of the connecting line with one of the two line lines of this line actually represents a more probable or at least more reliable minimum contour point with regard to precise recognition indicates.
  • a row height of the plurality of rows of a field of view under consideration and/or a position of the at least one field of view under consideration within the vehicle environment is determined as a function of at least one driving parameter, in particular a speed.
  • the number of the plurality of rows can also be changed. This enables the method to be improved by adapting the field of view to at least one driving parameter, such as speed. As a result, the amount of data can be reduced or increased depending on requirements that are indicated by the at least one driving parameter.
  • the size of the field of view to be defined overall, ie for example by selecting the line width and/or the number of lines, as a function of the at least one driving parameter.
  • the object mentioned at the outset is achieved by a computer program product comprising instructions which, when the computer program product is executed by a computer, cause the latter to execute the method according to the first aspect of the invention.
  • a computer is also understood to mean, in particular, a control device of a vehicle, or at least that such control devices include a computer, which can also be referred to as a processing unit.
  • the object mentioned at the outset is achieved by a control unit for a vehicle, the control unit being set up to carry out the method according to the first aspect of the invention.
  • the control unit can have a computer or a processing unit. Furthermore, the control unit can have a storage medium.
  • the computer program product according to the second aspect of the invention can be stored on the storage medium.
  • the commands included in the computer program product can finally be executed by the computer of the control device in order to execute the method according to the first aspect of the invention.
  • the object mentioned at the beginning is achieved by a driver assistance system with a control device according to the third aspect of the invention and a vehicle sensor for detecting the contour points of the objects in the vehicle environment.
  • the vehicle sensor can be set up to transmit the detected contour points to the control unit, which in turn receives the contour points.
  • the driver assistance system can have a number of vehicle sensors for detecting the contour points of the objects in the vehicle environment. These vehicle sensors can be of the same type or be of different types. It is possible, for example, for the vehicle sensors to be ultrasonic sensors, camera sensors, laser scanners and/or radar sensors.
  • the object mentioned at the outset is achieved by a vehicle having a driver assistance system according to the fourth aspect of the invention.
  • the driver assistance system can offer different areas of application or assistance functions such as automated parking or electronic distance detection, or the vehicle can include several driver assistance systems for different areas of application. In the case of different driver assistance systems, these can have a common control device or different control devices that are set up according to the third aspect of the invention. Provision can also be made for driver assistance systems to be able to access or contain the same vehicle sensors.
  • FIG. 1 shows a schematic plan view of a first graphical representation in connection with a method according to the invention according to an embodiment
  • FIG. 2 shows a schematic plan view of a second graphical representation in connection with an exemplary field of application of the method according to the invention
  • FIG. 1 shows a schematic plan view of a first graphical representation in connection with a method according to the invention according to an embodiment
  • FIG. 2 shows a schematic plan view of a second graphical representation in connection with an exemplary field of application of the method according to the invention
  • FIG. 3 shows a schematic plan view of a third graphical representation in connection with the method according to the invention.
  • FIG. 4 shows a schematic plan view of a fourth graphic representation in connection with a further exemplary area of application of the method according to the invention
  • Fig. 5 is a schematic representation of the field of view divided into lines of Figs. 1 to 4;
  • FIG. 7 shows a side view of a vehicle according to the invention according to an exemplary embodiment
  • FIG. 9 shows a schematic representation of the control unit in the vehicle according to the invention from FIG.
  • FIG. 1 shows a first graphical representation in connection with a method 30 according to the invention (see FIG. 8) according to an exemplary embodiment of the invention.
  • a vehicle 1 or ego vehicle has a reference system 2, 3.
  • the reference system is formed by a vehicle longitudinal axis 2 and by a vehicle transverse axis 3.
  • a field of view 4 is observed as part of the method 30 .
  • a free space 6 (see FIGS. 2, 4, 6) in the field of view 4 under consideration is to be recognized or determined by means of the method 30 .
  • the specific free space 6 can be used for different areas of application of the vehicle 1 or for different driver assistance systems 20 (see FIG. 7) or a driver assistance system 20 with different areas of application of the vehicle 1 .
  • a free space 6 for parking the vehicle 1 is located within the field of view 4 considered, in which the vehicle 1 can be parked.
  • the area of application can relate to a driver assistance system 20 for automated parking or an electronic distance warning system.
  • the free space 6, which is to be determined, is located between two objects 5.1, 5.2, which in turn are different vehicles in the present case.
  • a third graphical representation shows that more than just one field of view 4 can also be considered within the scope of the method 30 according to the invention, in which a free space 6 or several free spaces 6 are detected must.
  • Four fields of view 4.1, 4.2, 4.3, 4.4 are shown here by way of example in FIG.
  • the exemplary application area with the driver assistance system 20 in the form of an automated parking system or an electronic distance warning device is shown again, but here by recognizing four fields of vision 4.1, 4.2, 4.3, 4.4, which show the vehicle surroundings of the vehicle 1 completely cover or the vehicle 1 completely or 360° surrounded.
  • Objects 5.1, 5.2, 5.3, 5.4, 5.5, 5., 5.7 are also located within the fields of view 4.1, 4.2, 4.3, 4.4, between which there are free spaces 6.1, 6.2, which are large enough to function as a parking lot, and which can be determined as part of the method 30.
  • the fields of view 4.1, 4.2, 4.3, 4.4 are selected here as rectangular and overlap.
  • the fields of view 4.1, 4.2, 4.3, 4.4 can also not overlap or have a different shape or geometry, for example circular.
  • FIG. 5 shows how the fields of view 4 are subdivided into a plurality of lines 8.1-8.N as part of the method 30 in order to be evaluated using the method 30, as will be explained in more detail below.
  • Each of the lines 8.1-8.N has a line height 9a and a line width 9b.
  • the majority of lines 8.1 - 8.N define the size of the field of view 4.
  • FIG. 6 now shows a graphical representation of a part of the method 30 according to the invention, as shown schematically in FIG. 8 and explained in more detail with regard to FIGS.
  • Figure 7 shows schematically the vehicle 1 with its components used for this purpose, namely a driver assistance system 20 with a control unit 21, which executes the method 30, and at least one vehicle sensor 22.
  • the representation of Fig. 7 is only schematic, so that the vehicle sensor 22 can of course be located at any position and can also be formed by a plurality of vehicle sensors 22 .
  • a first method step 31 vehicle sensor 22 first detects contour points 11.1-11.12, which indicate the contours of (foreign) objects 5 in the vehicle environment, as shown in FIGS. These are graphically represented in FIG.
  • contour points 11.1-11.12 which indicate the contours of (foreign) objects 5 in the vehicle environment, as shown in FIGS.
  • FIGS. These are graphically represented in FIG.
  • This field of view 4 was previously defined in terms of its position and size, which has been specifically defined for the area of application, here, for example, side parking. In addition to the areas of application already explained by way of example, this can involve curb detection, for example. In this case, the field of view 4 can be set correspondingly to a height in the area of the curb.
  • the contour points 11 .1 - 11 .12 can be at least two-dimensional, ie can be defined by two coordinates in space, in this case the image plane. It is nevertheless also possible to detect three-dimensional contour points 11.1-11.12 over different heights or an entire height range. This can be selected specifically for the area of application.
  • contour points 11 . 1 - 11 can be stored on a storage unit 41 of the control device 21 (see FIG. 9).
  • the received contour points 11.1-11.12 are assigned to the present finite plurality of lines 8.1-8.8, which subdivide line by line the visual field 4 located in the vehicle environment and considered within the framework of the method. It is shown here that, for example, the contour points 11.2, 11.3 are assigned to the line 8.1. Furthermore, the line 8.2 is assigned the contour point 11.4. Line 8.3 is assigned contour point 11.5. The lines 8.4, 8.6, 8.7 are each assigned the contour points 11.6, 11.7, 11.8. The contour point 11.9 is assigned to both lines 8.7, 8.8. In the present case, none of the contour points 11.1-11.12 is assigned to line 8.5, because none of the contour points 11.1-11.12 lie within this line 8.5.
  • the assignment is the local assignment of the contour points 11.1-11.12 to the lines 8.1-8.8 of a field of view 4.
  • the contour points 11.1, 11.10, 11.11, 11.12 lie outside the field of view 4 and are therefore none assigned to lines 8.1 - 8.8.
  • This received Contour points 11.1, 11.10, 11.11, 11.12 that lie outside the field of view 4 can be deleted from the memory unit 41 present in the control unit 21 in order to reduce the amount of data to be handled and thereby the computing effort of the method 30 , which is computer implemented.
  • a fourth method step 34 for each of the lines 8.1-8.8, that one of the remaining contour points 11.2-11.9 assigned to the lines 8.1-8.8 is determined which within the respective line 8.1-8.8 has the smallest contour point distance 15 ( here the measurement of this is shown as an example) to the reference system 2, 3 has.
  • the reference system 2, 3 is given by the longitudinal axis 2 of the vehicle, since the field of view 4 is located parallel thereto.
  • the contour points 11.2-11.9 with the smallest contour point distance 15 from the vehicle longitudinal axis 2 are referred to below as minimum contour points 13.1-13.3 (first type).
  • the procedure in the fourth method step 34 is to be explained as an example at line 8.1.
  • Two contour points 11.2, 11.3 were assigned to the line 8.1.
  • the contour point 11.3 is closer to the vehicle longitudinal axis 2 than the contour point 11.2.
  • the contour point 11.3 has a smaller contour point distance 15 than the contour point 11.2.
  • the contour point 11.3 is determined as the minimum contour point 13.1.
  • the same is now repeated for the remaining lines 8.2 - 8.8.
  • the minimum contour points 13.2, 13.3 are thereby determined.
  • the fourth method step 34 can namely be supplemented by a check that looks for a better solution for detecting the contour of the object 5 in the field of view 4 in this line 8.2 or at least checks whether the contour point 11.4 is actually a minimum Contour point 13 should be accepted or this represents the best solution.
  • This minimum contour point 14 can also be referred to as the second type in order to distinguish it from the minimum contour point 13 determined according to the previously explained direct determination using the smallest contour point distance 15, which can also be referred to as the first type.
  • the procedure according to this optional determination of a minimum contour point 14.1 of the second type instead of a minimum contour point 13 of the first type is to be described in more detail as an example for line 8.2.
  • the line 8.2 contains the single contour point 11.4.
  • a connecting line to the minimum contour point 13.1 of cell 8.1 now has an intersection with the lower row line of row 8.2, which has a smaller contour point distance 15 from the longitudinal axis 2 of the vehicle.
  • the connecting line from the contour point 11.4 to the contour point 11.5 of the adjacent line 8.3 results in an even smaller contour point distance 15 at the point of intersection with the upper line of this line 8.2.
  • This point is now determined as the minimum contour point 14.1 of the second type in line 8.2.
  • a fifth step 35 the minimum contour points 13, 14 (that is, of the first and second types) are now connected in order to form the contour line 12 of the object 5, as has been explained above.
  • this contour line 1 forms the free space boundary of the free space 6 within the field of view 4 .
  • the free space 6 determined in this way can now be used for the driver assistance system 20 or an area of application of such a system, in this case automated parking, for example, since the vehicle 1 has the information as to how far it can be moved laterally without touching the area in the field of vision 4 located objects 5 to meet.
  • FIG. 9 shows purely schematically the details of the control device 21 with a computer 42 or a processing unit and a memory unit 41 .
  • a computer program product 40 is stored on the storage unit 41 which, when the computer program product is executed by the computer 41 , causes the latter to execute the method 30 according to FIG. 8 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (30) zum Bestimmen zumindest eines Freiraums (6) in einer Fahrzeugumgebung eines Fahrzeugs (1), wobei das Verfahren (30) die folgenden Schritte aufweist: (a) Empfangen zumindest zweidimensionaler Konturpunkte (11) von Objekten (5) in der Fahrzeugumgebung, (b) Zuweisen der empfangenen Konturpunkte (11) zu einer Mehrzahl von Zeilen (8), die zumindest ein in der Fahrzeugumgebung befindliches und im Rahmen des Verfahrens betrachtetes Sichtfeld (4) zeilenweise unterteilen, (c) Ermitteln jeweils desjenigen Konturpunkts (11) innerhalb einer Zeile (8) für zumindest einen Teil der Mehrzahl von Zeilen (8) als Minimum-Konturpunkte (13), welcher innerhalb der jeweiligen Zeile (8) von allen dieser Zeile (8) zugewiesenen Konturpunkten (11) die geringste Konturpunkt-Distanz (15) zu einem Bezugssystem (2, 3) des Fahrzeugs (1) aufweist, und (d) Verbinden der zuvor ermittelten Minimum-Konturpunkte (13) zu einem Freiraum (6) oder mehreren Freiräumen (6) innerhalb des zumindest einen betrachteten Sichtfelds (4).

Description

Verfahren zum Bestimmen eines Freiraums in einer Fahrzeugumgebung
Beschreibung
Die Erfindung betrifft ein Verfahren zum Bestimmen zumindest eines Freiraums in einer Fahrzeugumgebung eines Fahrzeugs, ein Computerprogrammprodukt, ein Steuergerät für ein Fahrzeug, ein Fahrerassistenzsystem mit dem Steuergerät und einem Fahrzeugsensor sowie ein Fahrzeug.
Für verschiedene Fahrerassistenzsysteme in Fahrzeugen wie den elektronischen Abstandswarner, das automatisierte Einparken und für mehrere Stufen des autonomen Fahrens, wie beispielsweise die Erkennung der Fahrbahn, ist die Erfassung der (statischen) Fahrzeugumgebung erforderlich. Für
Fahrerassistenzsysteme wie das automatisierte Einparken oder den elektronischen Abstandswarner werden typischerweise Ultraschallsensoren verwendet. Andere Sensoren für eine allgemeinere Erkennung der statischen Umgebung sind beispielsweise Kamerasensoren, Laserscanner oder Radarsensoren.
Die Angabe der statischen Fahrzeugumgebung kann durch Konturinformationen erfolgen. Diese Konturinformationen hängen von der Art des Messprinzips und der Signalverarbeitung zur Erkennung und Filterung ab. Bei Radarsensoren und Laserscannern kann die Angabe der statischen Umgebung mittels einer Liste von Punkten erfolgen. Die Anzahl der Punkte hängt vom Messprinzip, der Signalverarbeitung und der Beobachtungszeit ab. Fahrzeugkomponenten, die solche Konturinformationen erhalten, können beispielsweise über CAN oder Ethernet angeschlossen werden. Solche Schnittstellen haben eine begrenzte Bandbreite und können eine erhebliche Reduzierung der derzeit übertragenen Daten erfordern. Ein weiterer Grund für die Notwendigkeit einer Datenreduktion ist der Rechenaufwand für den Empfänger, der ebenfalls begrenzt sein kann. Zusätzlich zu dieser begrenzten Bandbreite wird die Datenmenge für spätere Verarbeitungsschritte in einem Steuergerät des Fahrzeugs nicht benötigt. Die meisten Fahrerassistenzfunktionen benötigen nicht alle erkannten Konturen bzw. gesammelten Konturinformationen. Die am meisten und häufig als einzig benötigte Information ist der freie Raum bzw. Freiraum um das eigene Fahrzeug, auch Ego-Fahrzeug genannt, herum, um z. B. die Wahrscheinlichkeit von Kollisionen zu bewerten oder den Fahrweg zu berechnen.
Die begrenzte Bandbreite führt zu einer weiteren gewünschten Anforderung. Diese liegt in der Möglichkeit, eine statische Auflösung an jeder Stelle innerhalb eines definierten Sichtfeldes zu gewährleisten.
Es gibt verschiedene Ansätze aus dem Stand der Technik, um die statische Fahrzeugumgebung zu erkennen und die Freirauminformationen zu extrahieren. Die Freirauminformation kann als der Raum zwischen dem Ego-Fahrzeug und dem/den nächsten statischen Objekt(en) für alle Richtungen innerhalb des Sichtfeldes definiert werden. Mit anderen Worten ist es der (befahrbare) Raum zwischen dem Ego-Fahrzeug und allen umgebenden statischen Objekten in allen relevanten Richtungen.
Ein typischer Ansatz für die Erkennung statischer Konturen ist das Beweisgitter, wie es aus M. Schreier et al., „From Grid Maps to Parametric Free Space Maps - A Highly Compact, Generic Environment Representation for ADAS” (IEEE Intelligent Vehicle Symposium [IV 2013]) bekannt ist. Jede Gitterzelle wird in Abhängigkeit von Messungen, die dieser Zelle während der letzten Messzyklen zugeordnet werden konnten, als belegt oder nicht belegt markiert. Es gibt verschiedene Möglichkeiten, die Entscheidung, dass eine Gitterzelle belegt ist, z. B. auf der Grundlage statistischer Funktionen, zu treffen. Die Extraktion des Freiraums ist in diesem Fall einfach: Der Freiraum besteht aus allen nicht belegten Zellen um das Ego-Fahrzeug herum und zwischen dem Ego-Fahrzeug und den nächsten belegten Gitterzellen. Siehe hierzu auch Hesham M. Eraqi, Jens Honer, and Sebastian Zuther, „Static free space detection with laser scanner using occupancy grid maps” (arXiv preprint arXiv:1801 .00600 [2018]) und Schmid, M. R., Ates, S., Dickmann, J., von Hundelshausen, F., & Wuensche, H.-J. (2011 , June), „Parking space detection with hierarchical dynamic occupancy grids” (2011 IEEE Intelligent Vehicles Symposium [IV], pp. 254-259).
Diese Methode ist sehr weit verbreitet und bietet eine einfache Möglichkeit der Signalverarbeitung. Jedoch hängt die Auflösung der extrahierten Daten direkt von den Dimensionen der Gitterzellen ab, und der Rechenaufwand (bzw. die Laufzeit) zur Generierung der Gitterzelleninformation, die als Grundlage für die Freiraumauswertung dient, ist sehr hoch.
Eine weitere Methode zur Freiraumschätzung (unter der Annahme, dass bereits Konturen vorhanden sind) ist die Berechnung der Schnittpunkte einer Linie, beginnend an der Ego-Position [0, 0] mit dem nächsten Konturelement. Diese Linie wird mit einem statischen oder dynamischen Winkelsegment gedreht (statischer Ursprung an der Ego-Position), und für jeden Schritt wird der Schnittpunkt mit dem nächstliegenden Konturelement ausgewertet.
Eine sehr ähnliche Variante könnte darin bestehen, rotierende Winkelsegmente zu verwenden und mit dem Bereich zu prüfen, in dem sich die erste Erkennung befindet.
Diese Methode ist ebenfalls sehr gebräuchlich, aber mit zunehmender Reichweite des Schnittpunktes nimmt die Auflösung der Freiraumgrenze ab. Darüber hinaus hängt diese Methode von der direkten Sichtlinie ab. Sie kann keinen Freiraum erkennen, der von einer Kontur bedeckt ist, und sie kann nicht um die Ecke schauen. Dies schränkt die Anwendbarkeit für automatisiertes Fahren ein, da sie eine sehr geringe Geschwindigkeit erfordert, um eine Kreuzung zu erkennen.
Aufgabe der Erfindung ist es, die aus dem Stand der Technik bekannten Nachteile zu vermindern. Insbesondere ist es Aufgabe der Erfindung, ein Verfahren zum Bestimmen zumindest eines Freiraums in einer Fahrzeugumgebung eines Fahrzeugs vorzuschlagen, welches besonders einfach und zuverlässig ist und die notwendige Datenmenge gegenüber den bekannten Verfahren deutlich reduziert.
Die voranstehende Aufgabe wird durch die Gegenstände der Patentansprüche, insbesondere durch ein Verfahren zum Bestimmen zumindest eines Freiraums in einer Fahrzeugumgebung eines Fahrzeugs nach Anspruch 1 , ein Computerprogrammprodukt nach Anspruch 12, ein Steuergerät nach Anspruch 13, ein Fahrerassistenzsystem nach Anspruch 14 sowie ein Fahrzeug nach Anspruch 15 gelöst. Weitere Vorteile und Details der Erfindung ergeben sich aus den Unteransprüchen, der Beschreibung und den Zeichnungen. Dabei gelten Merkmale und Details, die im Zusammenhang mit dem erfindungsgemäßen Verfahren offenbart sind, selbstverständlich auch im Zusammenhang mit dem erfindungsgemäßen Computerprogrammprodukt, dem erfindungsgemäßen Steuergerät, dem erfindungsgemäßen Fahrerassistenzsystem und dem erfindungsgemäßen Fahrzeug sowie jeweils umgekehrt, sodass bezüglich der Offenbarung zu den einzelnen Erfindungsaspekten stets wechselseitig Bezug genommen wird beziehungsweise werden kann.
Gemäß dem ersten Aspekt löst die Erfindung die Aufgabe durch ein Verfahren zum Bestimmen zumindest eines Freiraums in einer Fahrzeugumgebung eines Fahrzeugs, wobei das Verfahren die folgenden Schritte aufweist:
(a) Empfangen zumindest zweidimensionaler Konturpunkte von Objekten in der Fahrzeugumgebung,
(b) Zuweisen der empfangenen Konturpunkte zu einer Mehrzahl von Zeilen, die zumindest ein in der Fahrzeugumgebung befindliches und im Rahmen des Verfahrens betrachtetes Sichtfeld zeilenweise unterteilen,
(c) Ermitteln jeweils desjenigen Konturpunkts innerhalb einer Zeile für zumindest einen Teil der Mehrzahl von Zeilen als Minimum-Konturpunkt, welcher innerhalb der jeweiligen Zeile von allen dieser Zeile zugewiesenen Konturpunkten die geringste Konturpunkt-Distanz zu einem Bezugssystem des Fahrzeugs aufweist, und
(d) Verbinden der zuvor ermittelten Minimum-Konturpunkte zu einem Freiraum oder mehreren Freiräumen innerhalb des zumindest einen betrachteten Sichtfelds.
Entsprechend stellt die Erfindung ein Verfahren (sowie nach dem zweiten Aspekt der Erfindung ein Computerprogrammprodukt) zur Reduktion der Daten in der gesamten Signalverarbeitungskette innerhalb eines Steuergeräts bzw. Fahrerassistenzsystems eines Fahrzeugs bereit. Dies reduziert konsequent den Rechenaufwand und den Speicherplatzbedarf. Ferner kann gleichsam der zumindest eine Freiraum oder können mehrere Freiräume besonders einfach aus dieser reduzierten Datenmenge bestimmt werden. Ein weiterer, wichtiger Vorteil, der erfindungsgemäß erzielt wird, ist eine feste (Positions-)Auflösung der Freiraumbeschreibung.
Das Verfahren kann grundsätzlich in einer zweidimensionalen Ebene ausgeführt werden, wobei gemäß Verfahrensschritt (a) zweidimensionale Konturpunkte der Objekte in der Fahrzeugumgebung empfangen und diese gemäß der Verfahrensschritte (b) bis (d) verarbeitet werden. Es ist selbstverständlich aber auch möglich, dass das Verfahren in mehreren zweidimensionalen Ebenen bzw. im dreidimensionalen Raum ausgeführt wird. Dabei können in Verfahrensschritt (a) dreidimensionale Konturpunkte der Objekte in der Fahrzeugumgebung empfangen werden. Die dreidimensionalen Konturpunkte der Objekte in der Fahrzeugumgebung können dann gemäß der Verfahrensschritte (b) bis (d) verarbeitet werden, wobei dies jeweils für jede von mehreren zweidimensionalen Ebenen bzw. insgesamt für den gesamten dreidimensionalen Raum erfolgen kann. Wie später anhand verschiedener Fahrerassistenzsysteme bzw. Anwendungsgebiete des Verfahrens verdeutlicht werden wird, kann es sinnvoll sein, verschiedene zweidimensionale Ebenen bzw. Ebenen unterschiedlicher Höhe für verschiedene Fahrerassistenzsysteme bzw. Anwendungsgebiete zu betrachten und demgemäß die zumindest zweidimensionalen Konturpunkte für verschiedene Ebenen bzw. Höhen (zu erfassen und) zu empfangen. Entsprechend kann der Freiraum als ein zweidimensionaler oder ein dreidimensionaler Freiraum bestimmt werden. Er kann durch die verbundenen Minimum-Konturpunkte vom Fahrzeug bzw. Ego-Fahrzeug abgegrenzt bzw. bestimmt werden. Als Ego-Fahrzeug wird das Fahrzeug verstanden, in welchem bzw. von welchem das Verfahren ausgeführt bzw. das Fahrerassistenzsystem genutzt wird. Der Freiraum kann also definiert werden als der Raum zwischen dem Ego-Fahrzeug und dem/den nächsten statischen Objekt(en) innerhalb der Fahrzeugumgebung (für alle Richtungen) innerhalb des betrachteten Sichtfeldes. Mit anderen Worten kann der Freiraum als der (befahrbare) Raum zwischen dem Ego-Fahrzeug und allen umgebenden statischen Objekten in dem betrachteten Sichtfeld ausgedrückt werden.
Das betrachtete Sichtfeld kann vorab hinsichtlich seiner Position in der Fahrzeugumgebung, seiner Ausrichtung und/oder seiner Größe festgelegt oder abhängig von dem Fahrerassistenzsystem bzw. dem jeweiligen Anwendungsgebiet des Verfahrens individuell gewählt werden. So kann das Sichtfeld für unterschiedliche Anwendungsgebiete des Verfahrens unterschiedlich ausfallen, sodass im Rahmen des für unterschiedliche Anwendungsgebiete durchgeführten Verfahrens unterschiedliche Sichtfelder betrachtet werden können. Das Sichtfeld kann dabei als ein zweidimensionales oder dreidimensionales Sichtfeld definiert werden. Die Unterteilung des Sichtfelds in die Mehrzahl von Zeilen kann vorab festgelegt oder ebenfalls in Abhängigkeit vom Anwendungsgebiet definiert werden. So können unterschiedliche Auflösungen des Sichtfeldes festgelegt werden, in dem mehr oder weniger Zeilen für die Unterteilung des Sichtfelds gewählt werden. Bei einer geringeren Anzahl von Zeilen bzw. einer entsprechend größeren Zeilenhöhe der einzelnen Zeile bei gegebener Zeilenanzahl verringert sich die Auflösung, wodurch die Datenmenge weiter gesenkt werden kann. Die Auflösung kann dabei derart gewählt werden, dass sie für das Anwendungsgebiet bzw. jeweilige Fahrerassistenzsystem (gerade) ausreichend ist. Grundsätzlich ist die Anzahl der betrachteten Sichtfelder nicht begrenzt. Die Sichtfelder können sowohl rechtwinklig als auch rotiert gegenüber dem Fahrzeug angeordnet sein. Es kann vorgesehen sein, dass das zumindest eine Sichtfeld rechteckig oder (teil)kreisförmig ausgebildet ist. So kann auch die Form bzw. Geometrie des Sichtfelds vordefiniert sein oder spezifisch für das jeweilige Anwendungsgebiet des Verfahrens bzw. das jeweilige Fahrerassistenzsystem des (Ego-)Fahrzeugs gewählt werden. Bei einer kreisförmigen Geometrie des Sichtfelds sind die Sichtfelder kreisförmig. Bei einer teilkreisförmigen Teilgeometrie des Sichtfelds können mehrere betrachtete Sichtfelder zusammen eine Kreisform umgeben bzw. eine kreisförmige Fahrzeugumgebung abdecken. Dabei kann es sich insbesondere um eine ringförmige Fahrzeugumgebung handeln, die derart überwacht werden kann. Das Ego-Fahrzeug befindet sich dabei innerhalb des Rings und der überwachte Ring der Fahrzeugumgebung wird von den Sichtfeldern gebildet.
Die Konturpunkte innerhalb von Zeilen von zumindest einem Teil der Zeilen oder sämtlicher Zeilen der Mehrzahl von Zeilen des Sichtfelds, die innerhalb der Zeilen, denen sie zugewiesen worden sind, die geringsten Konturpunkt-Distanzen von dem Konturpunkt zu dem Bezugssystem des Fahrzeugs aufweisen, werden als Minimum-Konturpunkte ermittelt. Mit anderen Worten wird für alle Konturpunkte innerhalb einer Zeile jeweils derjenige Minimum-Konturpunkt ermittelt, der die geringste Distanz bzw. Konturpunkt-Distanz zu dem Bezugssystem aufweist. Dies wird für zumindest einen Teil der Zeilen der Mehrzahl von Zeilen oder alle Zeilen der Mehrzahl der Zeilen durchgeführt bzw. wiederholt. Dadurch werden die Minimum-Konturpunkte innerhalb des Teils der Zeilen der Mehrzahl von Zeilen erhalten. Die restlichen Konturpunkte, die empfangen worden sind, können für das folgende Verfahren außer Acht gelassen werden, insbesondere (aus einem Speicher, in dem sie gespeichert worden sind) gelöscht werden, um die Datenmenge zu reduzieren. Dass nur für einen Teil der Zeilen der Mehrzahl von Zeilen die Minimum-Konturpunkte anhand der geringsten Konturpunkt-Distanz ermittelt werden, kann beispielsweise dann der Fall sein, wenn einzelnen Zeilen keine Konturpunkte zugewiesen worden sind. Dies kann insbesondere dann auftreten, wenn die Auflösung des betrachteten Sichtfelds sehr hoch gewählt wurde bzw. eine hohe Anzahl von Zeilen das Sichtfeld unterteilt.
Das Verbinden der zuvor ermittelten Minimum-Konturpunkte zu einem Freiraum oder mehreren Freiräumen innerhalb des zumindest einen betrachteten Sichtfelds kann durch Verbindung der nächsten Minimum-Konturpunkte der jeweiligen Zeilen bestimmt werden, also durch schräge Verbindungslinien zwischen den Minimum- Konturpunkten, oder durch eine einfache Verknüpfung der Zeilenabstände (ergibt dann ein Treppenmuster (siehe Fig. 6)), erfolgen, wenn es sehr Speicher- und rechenzeitsparend sein soll.
Bei dem Verfahren kann es sich insbesondere um ein computerimplementiertes Verfahren handeln. Als solches kann es von einem oder mehreren Computern ausführbar sein. Als Computer werden auch Steuergeräte, insbesondere von Fahrzeugen, verstanden oder, dass Steuergeräte Computer umfassen. Computer können auch als Recheneinheiten bezeichnet werden.
Ungeachtet der Nummerierung der Verfahrensschritte zur Abgrenzung der Schritte voneinander ist es nicht zwingend notwendig, dass die Verfahrensschritte in der angegebenen Reihenfolge ausgeführt werden müssen. Es kann gleichwohl vorgesehen sein, dass die Verfahrensschritte des Verfahrens in der angegebenen Reihenfolge (a) bis (d) durchgeführt werden.
Es kann ferner vorgesehen sein, dass das Bezugssystem durch zumindest einen Bezugspunkt oder mehrere Bezugspunkte des Bezugssystems gebildet wird. Insbesondere kann vorgesehen sein, dass das Bezugssystem eine Fahrzeuglängsachse und/oder eine Fahrzeugquerachse des Fahrzeugs ist. Dabei können diejenigen Konturpunkte als Minimum-Konturpunkte ermittelt werden, die zu einer der beiden Achsen, also Fahrzeuglängsachse oder Fahrzeugquerachse, die geringste Konturpunkt-Distanz aufweisen. Dabei wird die Konturpunkt-Distanz also nicht als Distanz etwa von einem zuvor festgelegten Bezugspunkt auf der jeweiligen Achse bestimmt. Stattdessen ist der Bezugspunkt der Konturpunkt-Distanz für jeden Konturpunkt anders, um die Konturpunkt-Distanzen anhand des Abstands von der jeweiligen Achse bzw. auf die jeweilige Achse hin normiert zu erhalten. Dies erlaubt eine einfache und genaue Ermittlung der Minimum-Konturpunkte.
Es kann außerdem vorgesehen sein, dass das Verfahren ferner den Schritt eines Erfassens der Konturpunkte der Objekte in der Fahrzeugumgebung mittels eines Fahrzeugsensors des Fahrzeugs umfasst. Dies kann mittels eines oder mehrerer Fahrzeugsensoren eines Fahrerassistenzsystems bzw. des Fahrzeugs erfolgen. Möglich ist beispielsweise der Einsatz von Ultraschallsensoren, Kamerasensoren, Laserscannern und/oder Radarsensoren als Fahrzeugsensoren. Dadurch können die Konturpunkte mit hoher Präzision erfasst werden, um anschließend vollständig oder selektiv übertragen und schließlich gemäß Schritt (a) des Verfahrens empfangen zu werden.
Es kann weiterhin vorgesehen sein, dass in dem Verfahren zumindest zwei in der Fahrzeugumgebung befindliche Sichtfelder betrachtet werden und die Verfahrensschritte (c) und (d) für zumindest zwei der zumindest zwei Sichtfelder durchgeführt werden. Durch die Betrachtung zweier unterschiedlicher Sichtfelder kann eine größere Fahrzeugumgebung betrachtet werden. Beispielhaft kann die Betrachtung zweier parallel zueinander liegender Sichtfelder seitlich des Fahrzeugs dazu dienen, eine Fahrbahnerkennung durchzuführen, was ein Anwendungsgebiet des Verfahrens bzw. eines entsprechenden Fahrerassistenzsystems sein kann.
Es kann auch vorgesehen sein, dass in dem Verfahren vier in der Fahrzeugumgebung befindliche Sichtfelder betrachtet werden, die gemeinsam eine vollständig das Fahrzeug umgebende Fahrzeugumgebung abbilden, und die Verfahrensschritte (c) und (d) für zumindest zwei oder alle der vier Sichtfelder durchgeführt werden. Insoweit kann natürlich die gesamte Fahrzeugumgebung überwacht werden. Je nach Anwendungsgebiet des Verfahrens bzw. Fahrerassistenzsystem des Fahrzeugs können dann nur die erforderlichen Sichtfelder gemäß der Verfahrensschritte (c) und (d) ausgewertet werden, um den jeweils für das Anwendungsgebiet bzw. Fahrerassistenzsystem notwendigen Freiraum zu ermitteln.
Auch kann vorgesehen sein, dass für unterschiedliche Anwendungen in Fahrerassistenzsystemen jeweils zumindest ein Anwendung-Sichtfeld von zumindest zwei Sichtfeldern bestimmt wird, welches für die Anwendung relevant ist, wobei das zumindest eine Anwendung-Sichtfeld in dem Verfahren betrachtet wird und die Verfahrensschritte (c) und (d) für das zumindest eine Anwendung-Sichtfeld der zumindest zwei Sichtfelder durchgeführt werden. Mit anderen Worten kann die Wahl der Betrachtung von einem oder zwei oder mehr Sichtfeldern von dem Anwendungsgebiet des Verfahrens bzw. dem Fahrerassistenzsystem abhängig gemacht werden, wie zuvor angesprochen worden ist. Gleichsam kann die Datenmenge reduziert werden, wenn von mehreren möglichen Sichtfeldern nur diejenigen (Anwendung-)Sichtfelder betrachtet werden, die für das aktuelle Anwendungsgebiet des Verfahrens bzw. das jeweilige Fahrerassistenzsystem des Fahrzeugs benötigt werden. Wenn beispielsweise das Anwendungsgebiet des Verfahrens ein automatisiertes seitliches Einparken des Fahrzeugs bzw. Ego-Fahrzeugs ist bzw. das Fahrerassistenzsystem ein automatisches seitliches Einparksystem ist, dann genügt es üblicherweise, dass ein hinter dem Fahrzeug liegendes Anwendung-Sichtfeld, ein vor dem Fahrzeug liegendes Anwendung- Sichtfeld und ein seitlich des Fahrzeugs liegendes Anwendung-Sichtfeld betrachtet werden. Nicht notwendige Konturpunkte innerhalb möglicher vor dem Fahrzeug liegender (nicht Anwendung-)Sichtfelder und eines weiteren seitlich des Fahrzeug liegenden (nicht Anwendung-)Sichtfelds müssen für dieses Anwendungsgebiet bzw. Fahrerassistenzsystem nicht bzw. zumindest nicht zwangsläufig oder vollständig erfasst oder zumindest nicht empfangen bzw. verarbeitet werden, um ein sicheres automatisiertes seitliches Einparken in einen bestimmten Freiraum ohne physischen Kontakt des Fahrzeugs mit Objekten durchführen zu können. Die Datenmenge wird also reduziert, weil Freiräume in für das Anwendungsgebiet bzw. Fahrerassistenzsystem unbeachtlichen Sichtfeldern bzw. Teilen der Fahrzeugumgebung nicht bestimmt werden. Insbesondere kann vorgesehen sein, dass anhand des zumindest eines Freiraums ein freier Parkplatz ermittelt wird. Hierzu kann ein Abgleich zwischen dem zumindest einen bestimmten Freiraum und der für ein Einparken erforderlichen Größe (und Geometrie) eines freien Parkplatzes erfolgen. Wenn der zumindest eine bestimmte Freiraum den freien Parkplatz bzw. seine Größe (und Geometrie) enthält bzw. ein Parken ermöglicht, dann kann der freie Parkplatz ermittelt werden. Entsprechend kann der ermittelte freie Parkplatz in einem Anwendungsgebiet des Verfahrens bzw. Fahrerassistenzsystem zum automatisierten Einparken verwendet werden, um das (Ego-)Fahrzeug darin sicher zu parken.
Die Ermittlung des freien Parkplatzes ist gleichwohl nur ein mögliches Anwendungsgebiet des erfindungsgemäßen Verfahrens. Der bestimmte Freiraum kann auch für andere Anwendungsgebiete bzw. Fahrerassistenzsysteme wie (einzelne Stufen) autonomes Fahrens, Bordsteinerkennung, sowie für die im Rahmen der Beschreibung weiteren Genannten genutzt werden.
Außerdem kann vorgesehen sein, dass für Zeilen ohne zugewiesenen Konturpunkt die Konturpunkte der nächstgelegenen benachbarten Zellen bestimmt werden, welche miteinander mittels einer Verbindungslinie verbunden werden, sodass ein Punkt auf der Verbindungslinie innerhalb der Zeile ohne zugewiesenen Konturpunkt mit der geringsten Konturpunkt-Distanz als Minimum-Konturpunkt ermittelt wird. Dieser Punkt auf der Verbindungslinie befindet sich typischerweise an einer von zwei Zeilenlinien der jeweiligen Zeile, welche die Zeile mit den benachbarten Zeilen teilt. Der Punkt kann also auch als Schnittpunkt der Linie mit einer der Zeilenlinien betrachtet werden. Damit wird eine näherungsweise Bestimmung eines Minimum-Konturpunkts in einer Zeile ohne zugewiesenen Konturpunkt ermöglicht. Dies kann, wie zuvor bereits erläutert worden ist, bei einer sehr geringen Auflösung förderlich sein.
Darüber hinaus kann vorgesehen sein, dass in Fällen, in denen eine Verbindungslinie eines einer Zelle zugewiesenen Konturpunkts zu einem Konturpunkt einer benachbarten Zelle einen Punkt innerhalb der Zelle aufweist, der eine geringere Konturpunkt-Distanz als ein dieser Zelle zugewiesener Konturpunkt aufweist, der Punkt auf der Verbindungslinie mit der geringeren Konturpunkt-Distanz als Minimum-Konturpunkt ermittelt wird. Dies ermöglicht insbesondere bei geringer Auflösung und/oder bei wenigen Konturpunkten innerhalb der Zeile, dass der ermittelte Freiraum zugunsten einer genauen Erkennung aufgrund einer fehlerhaften Bestimmung des Minimum-Konturpunkts verkleinert wird. Mit anderen Worten wird die Verbindungslinie als Vergleichsgröße dafür herangezogen, ob ein Konturpunkt innerhalb der Zeile tatsächlich einen Minimum-Konturpunkt darstellt oder nicht ein Schnittpunkt der Verbindungslinie mit einer der beiden Zeilenlinien dieser Zeile tatsächlich einen wahrscheinlicheren bzw. zumindest hinsichtlich einer genauen Erkennung sichereren Minimum-Konturpunkt angibt.
Im Übrigen kann vorgesehen sein, dass eine Zeilenhöhe der Mehrzahl von Zeilen eines betrachteten Sichtfelds und/oder eine Position des zumindest einen betrachteten Sichtfelds innerhalb der Fahrzeugumgebung in Abhängigkeit von zumindest einem Fahrparameter, insbesondere einer Geschwindigkeit, festgelegt wird. Dabei kann selbstverständlich auch die Anzahl der Mehrzahl von Zeilen verändert werden. Dies ermöglicht die Verbesserung des Verfahrens durch die Anpassung des Sichtfelds an zumindest einen Fahrparameter, wie die Geschwindigkeit. Dadurch kann die Datenmenge in Abhängigkeit von Erfordernissen, die durch den zumindest einen Fahrparameter indiziert werden, reduziert oder vergrößert werden. Selbstverständlich ist es auch möglich, dass die Größe des Sichtfelds insgesamt, also etwa mittels der Wahl der Zeilenbreite und/oder der Anzahl der Zeilen, in Abhängigkeit von dem zumindest einen Fahrparameter festgelegt wird.
Ferner kann vorgesehen sein, dass unterschiedliche Zeilen der Mehrzahl von Zeilen eines betrachteten Sichtfelds mit unterschiedlicher Zeilenhöhe festgelegt werden. Dies ermöglicht eine lokal verbesserte Auflösung in kritischen Bereichen des betrachteten Sichtfelds. Wiederum in unkritischen Bereichen des betrachteten Sichtfelds kann die Auflösung verringert werden, um die Datenmenge zu reduzieren. Gemäß einem zweiten Aspekt der Erfindung wird die eingangs erwähnte Aufgabe gelöst durch ein Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Computerprogrammprodukts durch einen Computer diesen veranlassen, das Verfahren nach dem ersten Aspekt der Erfindung auszuführen.
Als ein Computer wird dabei insbesondere auch ein Steuergerät eines Fahrzeugs verstanden oder zumindest, dass solche Steuergeräte einen Computer, der auch als Recheneinheit bezeichnet werden kann, umfassen.
Gemäß einem dritten Aspekt der Erfindung wird die eingangs erwähnte Aufgabe gelöst durch ein Steuergerät für ein Fahrzeug, wobei das Steuergerät zum Durchführen des Verfahrens nach dem ersten Aspekt der Erfindung eingerichtet ist.
Das Steuergerät kann einen Computer bzw. eine Recheneinheit aufweisen. Ferner kann das Steuergerät ein Speichermedium aufweisen. Auf dem Speichermedium kann das Computerprogrammprodukt gemäß dem zweiten Aspekt der Erfindung gespeichert sein. Von dem Computer des Steuergeräts können die in dem Computerprogrammprodukt umfassten Befehle schließlich ausgeführt werden, um das Verfahren nach dem ersten Aspekt der Erfindung auszuführen.
Gemäß einem vierten Aspekt der Erfindung wird die eingangs erwähnte Aufgabe gelöst durch ein Fahrerassistenzsystem mit einem Steuergerät nach dem dritten Aspekt der Erfindung und einem Fahrzeugsensor zum Erfassen der Konturpunkte der Objekte in der Fahrzeugumgebung.
Der Fahrzeugsensor kann entsprechend zum Übertragen der erfassten Konturpunkte an das Steuergerät eingerichtet sein, welches dann wiederum die Konturpunkte empfängt. Insbesondere kann das Fahrerassistenzsystem mehrere Fahrzeugsensoren zum Erfassen der Konturpunkte der Objekte in der Fahrzeugumgebung aufweisen. Diese Fahrzeugsensoren können vom gleichen Typ oder unterschiedlichen Typs sein. Möglich ist beispielsweise, dass die Fahrzeugsensoren Ultraschallsensoren, Kamerasensoren, Laserscannern und/oder Radarsensoren sind.
Gemäß einem fünften Aspekt der Erfindung wird die eingangs erwähnte Aufgabe gelöst durch ein Fahrzeug mit einem Fahrerassistenzsystem gemäß dem vierten Aspekt der Erfindung.
Selbstverständlich kann das Fahrerassistenzsystem unterschiedliche Anwendungsgebiete bzw. Assistenzfunktionen wie automatisiertes Einparken oder elektronische Abstandserkennung bieten bzw. kann das Fahrzeug mehrere Fahrerassistenzsysteme für unterschiedliche Anwendungsgebiete umfassen. In dem Falle unterschiedlicher Fahrerassistenzsysteme können diese ein gemeinsames Steuergerät oder unterschiedliche Steuergeräte aufweisen, die gemäß dem dritten Aspekt der Erfindung eingerichtet sind. Außerdem kann vorgesehen sein, dass Fahrerassistenzsysteme auf dieselben Fahrzeugsensoren zugreifen können bzw. diese enthalten.
Weitere, die Erfindung verbessernde Maßnahmen ergeben sich aus der nachfolgenden Beschreibung zu verschiedenen Ausführungsbeispielen der Erfindung, welche in den Figuren schematisch dargestellt sind. Sämtliche aus den Ansprüchen, der Beschreibung oder den Figuren hervorgehende Merkmale und/oder Vorteile, einschließlich konstruktiver Einzelheiten und räumlicher Anordnungen können sowohl für sich als auch in den verschiedenen Kombinationen erfindungswesentlich sein.
Anhand der beigefügten Zeichnungen wird die Erfindung nachfolgend näher erläutert. Dabei zeigt:
Fig. 1 eine schematische Draufsicht auf eine erste graphische Repräsentation im Zusammenhang mit einem erfindungsgemäßen Verfahren gemäß einem Ausführungsbeispiel; Fig. 2 eine schematische Draufsicht auf eine zweite graphische Repräsentation im Zusammenhang mit einem beispielhaften Anwendungsgebiet des erfindungsgemäßen Verfahrens;
Fig. 3 eine schematische Draufsicht auf eine dritte graphische Repräsentation im Zusammenhang mit dem erfindungsgemäßen Verfahren;
Fig. 4 eine schematische Draufsicht auf eine vierte graphische Repräsentation im Zusammenhang mit einem weiteren beispielhaften Anwendungsgebiet des erfindungsgemäßen Verfahrens;
Fig. 5 eine schematische Darstellung des in Zeilen unterteilten Sichtfelds der Figuren 1 bis 4;
Fig. 6 eine schematische graphische Repräsentation von Verfahrensschritten in dem erfindungsgemäßen Verfahren;
Fig. 7 eine seitliche Ansicht auf ein erfindungsgemäßes Fahrzeug gemäß einem Ausführungsbeispiel;
Fig. 8 eine schematische Darstellung von Verfahrensschritten des erfindungsgemäßen Verfahrens; und
Fig. 9 eine schematische Darstellung des Steuergeräts in dem erfindungsgemäßen Fahrzeug von Fig. 7.
Elemente mit gleicher Funktion und Wirkungsweise sind in den Figuren 1 bis 9 jeweils mit denselben Bezugszeichen versehen. Soweit ein gleiches Element häufiger als einmal in einer der Figuren dargestellt bzw. vorhanden ist, werden die Elemente lediglich zur besseren Unterscheidung voneinander und zur eindeutigen Referenzierung fortlaufend nummeriert. Die fortlaufende Nummerierung ist hinter dem Bezugszeichen vergeben und vom Bezugszeichen durch einen Punkt getrennt.
Fig. 1 zeigt eine erste graphische Repräsentation im Zusammenhang mit einem erfindungsgemäßen Verfahren 30 (siehe Fig. 8) gemäß einem Ausführungsbeispiel der Erfindung. Ein Fahrzeug 1 bzw. Ego-Fahrzeug verfügt über ein Bezugssystem 2, 3. Vorliegend wird das Bezugssystem durch eine Fahrzeuglängsachse 2 sowie durch eine Fahrzeugquerachse 3 gebildet. In der Fahrzeugumgebung des Fahrzeugs 1 wird im Rahmen des Verfahrens 30 ein Sichtfeld 4 betrachtet. Für dieses Sichtfeld 4 wird im Folgenden nur die Fahrzeuglängsachse 2 als Bezugssystem herangezogen. Mittels des Verfahrens 30 soll ein Freiraum 6 (siehe Figuren 2, 4, 6) in dem betrachteten Sichtfeld 4 erkannt bzw. bestimmt werden. Der bestimmte Freiraum 6 kann für verschiedene Anwendungsgebiete des Fahrzeugs 1 bzw. für verschiedene Fahrerassistenzsysteme 20 (siehe Fig. 7) oder ein Fahrerassistenzsystem 20 mit verschiedenen Anwendungsgebieten des Fahrzeugs 1 genutzt werden.
Beispielhaft ist in Fig. 2 eine zweite graphische Repräsentation im Zusammenhang mit dem erfindungsgemäßen Verfahren 30 gezeigt, in dem ein Freiraum 6 für ein Parken des Fahrzeugs 1 sich innerhalb des betrachteten Sichtfeldes 4 befindet, in dem das Fahrzeug 1 geparkt werden kann. Mit anderen Worten handelt es sich um das Anwendungsgebiet eines seitlichen Einparkens des Fahrzeugs 1. Beispielsweise kann das Anwendungsgebiet ein Fahrerassistenzsystem 20 zum automatisierten Einparken oder einen elektronischen Abstandswarner betreffen. Dabei befindet sich der Freiraum 6, den es zu bestimmen gilt, zwischen zwei Objekten 5.1 , 5.2, die vorliegend wiederum andere Fahrzeuge sind.
Neben der Betrachtung nur eines Sichtfelds 4 gemäß der Figuren 1 , 2 ist in einer dritten graphischen Repräsentation gezeigt, dass auch mehr als nur ein Sichtfeld 4 im Rahmen des erfindungsgemäßen Verfahrens 30 betrachtet werden kann, in dem ein Freiraum 6 oder mehrere Freiräume 6 detektiert werden sollen. In Fig. 3 sind hier beispielhaft vier Sichtfelder 4.1 , 4.2, 4.3, 4.4 gezeigt.
In der graphischen Repräsentation von Fig. 4 ist hierzu erneut das beispielhafte Anwendungsgebiet mit dem Fahrerassistenzsystem 20 in Form eines automatisierten Einparksystems oder eines elektronischen Abstandswarners dargestellt, hier jedoch durch Erkennung von vier Sichtfeldern 4.1 , 4.2, 4.3, 4.4, welche die Fahrzeugumgebung des Fahrzeugs 1 vollständig abdecken bzw. das Fahrzeug 1 vollständig bzw. zu 360° umgeben. Innerhalb der Sichtfelder 4.1 , 4.2, 4.3, 4.4 befinden sich auch hier Objekte 5.1 , 5.2, 5.3, 5.4, 5.5, 5., 5.7, zwischen denen Freiräume 6.1 , 6.2 bestehen, die hinreichend groß sind, um als Parkplatz zu fungieren, und die im Rahmen des Verfahrens 30 bestimmt werden können. Die Sichtfelder 4.1 , 4.2, 4.3, 4.4 sind hier beispielhaft rechteckig gewählt und überlappen sich. Alternativ können die Sichtfelder 4.1 , 4.2, 4.3, 4.4 sich aber auch nicht überlappen oder eine andere Form bzw. Geometrie aufweisen, beispielsweise kreisförmig sein.
Fig. 5 stellt dar, wie die Sichtfelder 4 im Rahmen des Verfahrens 30 in eine Mehrzahl von Zeilen 8.1 - 8.N unterteilt werden, um mittels des Verfahrens 30 ausgewertet zu werden, wie im Folgenden näher erläutert wird. Jede der Zeilen 8.1 - 8.N weist dabei eine Zeilenhöhe 9a und eine Zeilenbreite 9b auf. So definiert die Mehrzahl der Zeilen 8.1 - 8.N die Größe des Sichtfelds 4.
Fig. 6 stellt nun eine graphische Repräsentation eines Teils des erfindungsgemäßen Verfahrens 30 dar, wie es in Fig. 8 schematisch gezeigt ist und im Hinblick auf Fig. 6 und 8 näher erläutert wird.
Figur 7 zeigt dabei schematisch das Fahrzeug 1 mit seinen hierfür genutzten Komponenten, nämlich einem Fahrerassistenzsystem 20 mit einem Steuergerät 21 , welches das Verfahren 30 ausführt, und zumindest einem Fahrzeugsensor 22. Die Darstellung von Fig. 7 ist dabei lediglich schematisch, sodass sich der Fahrzeugsensor 22 selbstverständlich an beliebiger Position befinden kann und auch durch mehrere Fahrzeugsensoren 22 gebildet sein kann.
In einem ersten Verfahrensschritt 31 (siehe Fig. 8) erfasst der Fahrzeugsensor 22 zunächst Konturpunkte 11 .1 - 11 .12, die die Konturen der (fremden) Objekte 5 in der Fahrzeugumgebung angeben, wie sie in Fig. 2 und 4 gezeigt sind. Diese sind graphisch in Fig. 6 wiedergegeben. Als Sichtfeld 4 wird der Einfachheit halber im vorliegenden Beispiel nur ein parallel zu der Fahrzeuglängsachse 2 gelegenes Sichtfeld 4 betrachtet. Dieses Sichtfeld 4 wurde zuvor hinsichtlich seiner Position und Größe festgelegt, was spezifisch für das Anwendungsgebiet, hier etwa seitliches Einparken, festgelegt worden ist. Neben den beispielhaft bereits erläuterten Anwendungsgebieten kann es sich hierbei beispielsweise um eine Bordsteindetektion handeln. Dabei kann das Sichtfeld 4 entsprechend auf eine Höhe im Bereich der Bordsteinkante gelegt werden. Die Konturpunkte 11 .1 - 11 .12 können zumindest zweidimensional sein, also durch zwei Koordinaten im Raum, vorliegend der Bildebene, festgelegt werden. Es ist gleichwohl auch möglich, dreidimensionale Konturpunkte 11 .1 - 11 .12 über verschiedene Höhen oder einen gesamten Höhenbereich zu erfassen. Dies kann spezifisch für das Anwendungsgebiet gewählt werden.
In einem zweiten Verfahrensschritt 32 werden die mittels des Fahrzeugsensors 22 erfassten Konturpunkte 11.1 — 11.12 der Objekte 5 in der Fahrzeugumgebung an das Steuergerät 21 übertragen und am Steuergerät 21 empfangen. Sie können auf einer Speichereinheit 41 des Steuergeräts 21 (siehe Fig. 9) gespeichert werden.
In einem dritten Verfahrensschritt 33 werden die empfangenen Konturpunkte 11.1 - 11.12 der vorliegenden endlichen Mehrzahl von Zeilen 8.1 - 8.8, die das in der Fahrzeugumgebung befindliche und im Rahmen des Verfahrens betrachtete Sichtfeld 4 zeilenweise unterteilen, zugewiesen. Es zeigt sich vorliegend dabei, dass beispielsweise die Konturpunkte 11.2, 11.3 der Zeile 8.1 zugewiesen werden. Ferner wird der Zeile 8.2 der Konturpunkt 11 .4 zugewiesen. Der Zeile 8.3 wird der Konturpunkt 11 .5 zugewiesen. Den Zeilen 8.4, 8,6, 8.7 werden jeweils die Konturpunkte 11 .6, 11 .7, 11 .8 zugewiesen. Der Konturpunkt 11 .9 wird beiden Zeilen 8.7, 8.8 zugeordnet. Der Zeile 8.5 wird vorliegend keiner der Konturpunkte 11 .1 - 11 .12 zugewiesen, weil innerhalb dieser Zeile 8.5 keiner der Konturpunkte 11 .1 - 11.12 liegt. Mit anderen Worten ist die Zuweisung die örtliche Zuordnung der Konturpunkte 11.1 - 11.12 zu den Zeilen 8.1 - 8.8 eines Sichtfelds 4. Die Konturpunkte 11 .1 , 11 .10, 11 .11 , 11 .12 liegen außerhalb des Sichtfelds 4 und werden somit keiner der Zeilen 8.1 - 8.8 zugewiesen. Diese empfangenen Konturpunkte 11 .1 , 11 .10, 11 .11 , 11 .12, die außerhalb des Sichtfelds 4 liegen, können aus der in dem Steuergerät 21 vorhandenen Speichereinheit 41 gelöscht werden, um die handzuhabende Datenmenge zu reduzieren und dadurch den Rechenaufwand des Verfahrens 30, welches computerimplementiert ist, zu verringern.
In einem vierten Verfahrensschritt 34 wird für jede der Zeilen 8.1 - 8.8 jeweils derjenige der verbliebenen bzw. den Zeilen 8.1 - 8.8 zugewiesenen Konturpunkte 11 .2 - 11 .9 ermittelt, der innerhalb der jeweiligen Zeile 8.1 - 8.8 die geringste Konturpunkt-Distanz 15 (hier ist die Messung dieser beispielhaft gezeigt) zu dem Bezugssystem 2, 3 aufweist. Das Bezugssystem 2, 3 ist vorliegend durch die Fahrzeuglängsachse 2 gegeben, da sich das Sichtfeld 4 parallel hierzu befindet. Die Konturpunkte 11 .2 - 11 .9 mit der geringsten Konturpunkt-Distanz 15 von der Fahrzeuglängsachse 2 werden im Folgenden als Minimum-Konturpunkte 13.1 - 13.3 (ersten Typs) bezeichnet.
Beispielhaft soll das Vorgehen im vierten Verfahrensschritt 34 an der Zeile 8.1 erläutert werden. Der Zeile 8.1 wurden zwei Konturpunkte 11.2, 11.3 zugewiesen. Der Konturpunkt 11 .3 liegt dabei näher zu der Fahrzeuglängsachse 2 als der Konturpunkt 11 .2. Mit anderen Worten weist der Konturpunkt 11 .3 eine geringere Konturpunkt-Distanz 15 auf als der Konturpunkt 11 .2. Entsprechend wird der Konturpunkt 11.3 als Minimum-Konturpunkt 13.1 bestimmt. Dasselbe wird nun für die restlichen Zeilen 8.2 - 8.8 wiederholt. Dabei werden die Minimum-Konturpunkte 13.2, 13.3 bestimmt.
Anders als gemäß dem beschriebenen obigen Vorgehen wird nun in der Zeile 8.2 jedoch der einzige Konturpunkt 11 .4, der dieser Zeile 8.2 zugewiesen worden ist, nicht als der Minimum-Konturpunkt 13 bestimmt. Der vierte Verfahrensschritt 34 kann nämlich durch eine Überprüfung ergänzt werden, die nach einer besseren Lösung für eine Erfassung der Kontur des Objekts 5 in dem Sichtfeld 4 in dieser Zeile 8.2 sucht bzw. zumindest überprüft, ob der Konturpunkt 11 .4 tatsächlich als ein Minimum- Konturpunkt 13 angenommen werden soll bzw. dies die beste Lösung darstellt. Dabei wird geprüft, ob eine Verbindungslinie des Konturpunkts 11 .4 dieser Zeile 8.2 zu einem der Konturpunkte 11 .2, 11 .3, 11 .5 (insbesondere, falls zuvor bestimmt, der Minimum-Konturpunkte 13) der benachbarten Zellen 8.1 , 8.3 einen Punkt innerhalb der Zelle 8.2 aufweist, der eine geringere Konturpunkt-Distanz 15 als der dieser Zelle 8.2 zugewiesene Konturpunkt 8.2 aufweist. Wenn dies der Fall ist, wird der Punkt auf der Verbindungslinie mit der geringeren Konturpunkt-Distanz 15 als Minimum-Konturpunkt 14 ermittelt. Dieser Minimum-Konturpunkt 14 kann auch als zweiter Typ bezeichnet werden, um diesen von dem gemäß der zuvor erläuterten unmittelbaren Bestimmung anhand der geringsten Konturpunkt-Distanz 15 ermittelten Minimum-Konturpunkt 13 zu unterscheiden, der auch als erster Typ bezeichnet werden kann.
Beispielhaft für die Zeile 8.2 soll das Vorgehen gemäß dieser optionalen Bestimmung eines Minimum-Konturpunkts 14.1 zweiten Typs statt eines Minimum-Konturpunkts 13 ersten Typs näher beschrieben werden. Die Zeile 8.2 enthält den einzigen Konturpunkt 11.4. Eine Verbindungslinie zum Minimum-Konturpunkt 13.1 der Zelle 8.1 hat nun einen Schnittpunkt mit der unteren Zeilenlinie der Zeile 8.2, die eine geringere Konturpunkt-Distanz 15 zur Fahrzeuglängsachse 2 aufweist. Die Verbindungslinie von dem Konturpunkt 11 .4 zum Konturpunkt 11 .5 der benachbarten Zeile 8.3 jedoch ergibt eine noch geringere Konturpunkt-Distanz 15 im Schnittpunkt mit der oberen Zeilenlinie dieser Zeile 8.2. Dieser Punkt wird nun als Minimum-Konturpunkt 14.1 zweiten Typs der Zeile 8.2 bestimmt.
Selbiges optionales Vorgehen zur Bestimmung eines Minimum-Konturpunkts 14.2, 14.4 zweiten Typs erfolgt auch in den Zeilen 8.3, 8.7. Eine Besonderheit ergibt sich jedoch in der Zeile 8.5, der kein Konturpunkt 11 zugewiesen worden ist. Hier kann vorgesehen sein, dass die Verbindungslinie der Konturpunkte 11 .6, 11 .7 der benachbarten Zeilen 8.4, 8.6 betrachtet wird. Die Schnittpunkte mit den Zeilenlinien 8.5 ergeben hier ebenfalls mögliche Minimum-Konturpunkte 14 zweiten Typs. Vorliegend ist der Schnittpunkt mit der unteren Zeilenlinie der Zeile 8.5 der Minimum-Konturpunkt 14.3 mit der geringsten Konturpunkt-Distanz 15 und wird daher für die Bildung einer Konturlinie 12 des Objekts oder der Objekte 5 in dem Sichtfeld 4 herangezogen.
Alle anderen Konturpunkte 11 .2, 11 .4, 11 .7, 11 .9, also diejenigen, die nicht auch Minimum-Konturpunkte 13 sind, können nun aus der Speichereinheit 41 gelöscht werden, um die Datenmenge für das weitere Verfahren 30 zu reduzieren.
In einem fünften Schritt 35 werden nun die Minimum-Konturpunkte 13, 14 (also ersten und zweiten Typs) verbunden, um die Konturlinie 12 des Objekts 5 zu bilden, wie zuvor erläutert worden ist. Gleichzeitig bildet diese Konturlinie 1 die Freiraumgrenze des Freiraums 6 innerhalb des Sichtfelds 4. Mit anderen Worten wird der Freiraum 6 als freie Fläche vom Fahrzeug 1 aus bis zu der Konturlinie 12 des Objekts 5 in dem Sichtfeld 4 gewonnen. Der derart ermittelte Freiraum 6 kann nun für das Fahrerassistenzsystem 20 bzw. ein Anwendungsgebiet eines solchen, hier etwa das automatisierte Einparken, genutzt werden, da das Fahrzeug 1 dadurch die Information hat, wie weit es seitlich verfahren werden kann, ohne an die im Sichtfeld 4 befindlichen Objekte 5 zu treffen.
Fig. 9 zeigt rein schematisch die Details des Steuergeräts 21 mit einem Computer 42 bzw. einer Recheneinheit und einer Speichereinheit 41 . Auf der Speichereinheit 41 ist ein Computerprogrammprodukt 40 gespeichert, welches bei Ausführung des Computerprogrammprodukts durch den Computer 41 diesen veranlasst, das Verfahren 30 gemäß der Fig. 8 auszuführen.
Bezugszeichenliste
1 Fahrzeug
2 Fahrzeuglängsachse
3 Fahrzeugquerachse
4 Sichtfeld
5 Objekt
6 Freiraum
8 Zeile
9a Zeilenhöhe
9b Zeilenbreite
10 Kontur des Objekts
11 Konturpunkt
12 Konturlinie
13 Minimum-Konturpunkt (erster Typ)
14 Minimum-Konturpunkt (zweiter Typ)
15 Konturpunkt-Distanz
20 Fahrerassistenzsystem
21 Steuergerät
22 Fahrzeugsensor
30 Verfahren
31 erster Verfahrensschritt
32 zweiter Verfahrensschritt
33 dritter Verfahrensschritt
34 vierter Verfahrensschritt
35 fünfter Verfahrensschritt
40 Computerprogrammprodukt
41 Speichereinheit
42 Computer

Claims

Patentansprüche
1 . Verfahren (30) zum Bestimmen zumindest eines Freiraums (6) in einer Fahrzeugumgebung eines Fahrzeugs (1 ), wobei das Verfahren (30) die folgenden Schritte aufweist:
(a) Empfangen zumindest zweidimensionaler Konturpunkte (1 1 ) von Objekten (5) in der Fahrzeugumgebung,
(b) Zuweisen der empfangenen Konturpunkte (1 1 ) zu einer Mehrzahl von Zeilen (8), die zumindest ein in der Fahrzeugumgebung befindliches und im Rahmen des Verfahrens betrachtetes Sichtfeld (4) zeilenweise unterteilen,
(c) Ermitteln jeweils desjenigen Konturpunkts (11 ) innerhalb einer Zeile (8) für zumindest einen Teil der Mehrzahl von Zeilen (8) als Minimum-Konturpunkte (13), welcher innerhalb der jeweiligen Zeile (8) von allen dieser Zeile (8) zugewiesenen Konturpunkten (1 1 ) die geringste Konturpunkt-Distanz (15) zu einem Bezugssystem (2, 3) des Fahrzeugs (1 ) aufweist, und
(d) Verbinden der zuvor ermittelten Minimum-Konturpunkte (13) zu einem Freiraum (6) oder mehreren Freiräumen (6) innerhalb des zumindest einen betrachteten Sichtfelds (4).
2. Verfahren (30) nach Anspruch 1 , wobei das Bezugssystem (2, 3) eine Fahrzeuglängsachse (2) und/oder eine Fahrzeugquerachse (3) des Fahrzeugs (1 ) ist.
3. Verfahren (30) nach Anspruch 1 oder 2, wobei das Verfahren (30) ferner den Schritt eines Erfassens der Konturpunkte (11 ) der Objekte (5) in der Fahrzeugumgebung mittels eines Fahrzeugsensors (22) des Fahrzeugs (1 ) umfasst. Verfahren (30) nach einem der voranstehenden Ansprüche, wobei in dem Verfahren (30) zumindest zwei in der Fahrzeugumgebung befindliche Sichtfelder (4) betrachtet werden und die Verfahrensschritte (c) und (d) für zumindest zwei der zumindest zwei Sichtfelder (4) durchgeführt werden. Verfahren (30) nach Anspruch 4, wobei in dem Verfahren (30) vier in der Fahrzeugumgebung befindliche Sichtfelder (4) betrachtet werden, die gemeinsam eine vollständig das Fahrzeug (1 ) umgebende Fahrzeugumgebung abbilden, und die Verfahrensschritte (c) und (d) für zumindest zwei der vier Sichtfelder (4) durchgeführt werden. Verfahren (30) nach einem der voranstehenden Ansprüche, wobei für unterschiedliche Anwendungen in Fahrerassistenzsystem (20) jeweils zumindest ein Anwendung-Sichtfeld von zumindest zwei Sichtfeldern (4) bestimmt wird, welches für die Anwendung relevant ist, wobei das zumindest eine Anwendung-Sichtfeld in dem Verfahren (30) betrachtet wird und die Verfahrensschritte (c) und (d) für das zumindest eine Anwendung-Sichtfeld der zumindest zwei Sichtfelder (4) durchgeführt werden. Verfahren (30) nach einem der voranstehenden Ansprüche, wobei anhand des zumindest eines Freiraums (6) ein freier Parkplatz ermittelt wird. Verfahren (30) nach einem der voranstehenden Ansprüche, wobei für Zeilen (8) ohne zugewiesenen Konturpunkt (1 1 ) die Konturpunkte (11 ) der nächstgelegenen benachbarten Zellen (8) bestimmt werden, welche miteinander mittels einer Verbindungslinie verbunden werden, sodass ein Punkt auf der Verbindungslinie innerhalb der Zeile (8) ohne zugewiesenen Konturpunkt (1 1 ) mit der geringsten Konturpunkt-Distanz (15) als Minimum-Konturpunkt (14) ermittelt wird. Verfahren (30) nach einem der voranstehenden Ansprüche, wobei in Fällen, in denen eine Verbindungslinie eines einer Zelle (8) zugewiesenen Konturpunkts (1 1 ) zu einem Konturpunkt (11 ) einer benachbarten Zelle (8) einen Punkt innerhalb der Zelle (8) aufweist, der eine geringere Konturpunkt-Distanz (15) als ein dieser Zelle (8) zugewiesener Konturpunkt (1 1 ) aufweist, der Punkt auf der Verbindungslinie mit der geringeren Konturpunkt-Distanz (15) als Minimum-Konturpunkt (14) ermittelt wird. 0. Verfahren (30) nach einem der voranstehenden Ansprüche, wobei eine Zeilenhöhe (9a) der Mehrzahl von Zeilen (8) eines betrachteten Sichtfelds (4) und/oder eine Position des zumindest einen betrachteten Sichtfelds (4) innerhalb der Fahrzeugumgebung in Abhängigkeit von zumindest einem Fahrparameter, insbesondere einer Geschwindigkeit, festgelegt wird. 1 . Verfahren (30) nach einem der voranstehenden Ansprüche, wobei unterschiedliche Zeilen (8) der Mehrzahl von Zeilen (8) eines betrachteten Sichtfelds (4) mit unterschiedlicher Zeilenhöhe (9a) festgelegt werden. 2. Computerprogrammprodukt (40), umfassend Befehle, die bei der Ausführung des Computerprogrammprodukts (40) durch einen Computer (42) diesen veranlassen, das Verfahren (30) nach einem der voranstehenden Ansprüche auszuführen. 3. Steuergerät (21 ) für ein Fahrzeug, wobei das Steuergerät (21 ) zum Durchführen des Verfahrens (30) nach einem der Ansprüche 1 bis 1 1 eingerichtet ist. 4. Fahrerassistenzsystem (20) mit einem Steuergerät (21 ) nach Anspruch 13 und einem Fahrzeugsensor (22) zum Erfassen der Konturpunkte (1 1 ) der Objekte (5) in der Fahrzeugumgebung.
15. Fahrzeug (1 ) mit einem Fahrerassistenzsystem (20) gemäß Anspruch 14.
PCT/EP2021/084751 2020-12-21 2021-12-08 Verfahren zum bestimmen eines freiraums in einer fahrzeugumgebung WO2022135930A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180084349.6A CN116601680A (zh) 2020-12-21 2021-12-08 用于确定在车辆环境中的自由空间的方法
US18/211,730 US20230334875A1 (en) 2020-12-21 2023-06-20 Method for determining a free space in vehicle surroundings

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020134331.0A DE102020134331A1 (de) 2020-12-21 2020-12-21 Verfahren zum Bestimmen eines Freiraums in einer Fahrzeugumgebung
DE102020134331.0 2020-12-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/211,730 Continuation US20230334875A1 (en) 2020-12-21 2023-06-20 Method for determining a free space in vehicle surroundings

Publications (1)

Publication Number Publication Date
WO2022135930A1 true WO2022135930A1 (de) 2022-06-30

Family

ID=79164428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/084751 WO2022135930A1 (de) 2020-12-21 2021-12-08 Verfahren zum bestimmen eines freiraums in einer fahrzeugumgebung

Country Status (4)

Country Link
US (1) US20230334875A1 (de)
CN (1) CN116601680A (de)
DE (1) DE102020134331A1 (de)
WO (1) WO2022135930A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015115012A1 (de) * 2015-09-08 2017-03-09 Connaught Electronics Ltd. Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
US20200193189A1 (en) * 2018-12-14 2020-06-18 Denso Ten Limited Image processing device and image processing method
US20200380275A1 (en) * 2017-04-24 2020-12-03 Aisin Seiki Kabushiki Kaisha Parking assist apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017115475A1 (de) 2017-07-11 2019-01-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erkennen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015115012A1 (de) * 2015-09-08 2017-03-09 Connaught Electronics Ltd. Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
US20200380275A1 (en) * 2017-04-24 2020-12-03 Aisin Seiki Kabushiki Kaisha Parking assist apparatus
US20200193189A1 (en) * 2018-12-14 2020-06-18 Denso Ten Limited Image processing device and image processing method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Parking space detection with hierarchical dynamic occupancy grids", IEEE INTELLIGENT VEHICLES SYMPOSIUM, vol. IV, 2011, pages 254 - 259
M. SCHREIER ET AL.: "From Grid Maps to Parametric Free Space Maps - A Highly Compact, Generic Environment Representation for ADAS", IEEE INTELLIGENT VEHICLE SYMPOSIUM, vol. IV, 2013
SCHMID, M. R.ATES, S.DICKMANN, J.HUNDELSHAUSEN, F.WUENSCHE, H.-J., ARXIV PREPRINT ARXIV:1801.00600, June 2011 (2011-06-01)

Also Published As

Publication number Publication date
US20230334875A1 (en) 2023-10-19
DE102020134331A1 (de) 2022-06-23
CN116601680A (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
EP2943910B1 (de) Erstellung einer hinderniskarte
EP3008534B1 (de) Verfahren zum modellieren eines umfelds eines fahrzeugs
EP3142913B1 (de) Umfeldkarte für fahrflächen mit beliebigem höhenverlauf
WO2014177447A2 (de) Bereitstellen einer effizienten umfeldkarte für ein fahrzeug
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102010011629A1 (de) Verfahren zur Umgebungsrepräsentation eines Fahrzeugs
DE102019008093A1 (de) Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem
DE102018123393A1 (de) Erkennung von Parkflächen
DE102018122374A1 (de) Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug
EP2577614A2 (de) Vorrichtung zur darstellung von gelände auf einer anzeigevorrichtung eines flugkörpers
DE102020112825A1 (de) Verfahren zum Erfassen von relevanten statischen Objekten innerhalb einer Fahrspur sowie Recheneinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
WO2022078799A1 (de) Erkennungsverfahren zum erkennen von statischen objekten
DE102020213294A1 (de) Verfahren zur Überwachung eines Baustellenbereichs, Überwachungssystem, Computerprogramm und Speichermedium
WO2022135930A1 (de) Verfahren zum bestimmen eines freiraums in einer fahrzeugumgebung
WO2019141607A1 (de) Zuordnung von objekten in vektor-basierter darstellung in eine gitter-basierte repräsentation
DE102021005053A1 (de) Verfahren zum Fusionieren von einer Vielzahl von Sensordaten mittels einer elektronischen Recheneinrichtung, sowie ein Fahrerassistenzsystem
DE102017205782A1 (de) Steuervorrichtung und Verfahren
DE102019211459B4 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102019127322A1 (de) Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger
DE102019132151A1 (de) Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs anhand von Daten eines Referenz-Umfeldsensors unter Berücksichtigung von Belegungskarten, Recheneinrichtung sowie Sensorsystem
DE102011108468B4 (de) Verfahren und Vorrichtung zur Generierung von dreidimensionalen Umfeldinformationen
DE102020119498A1 (de) Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs anhand von Messungen eines Lidar-Sensors sowie Recheneinrichtung
DE102006051091B4 (de) Verfahren zur Objekterkennung von Fahrzeugen mittels Nahbereichsdetektion
DE102017126183A1 (de) Verfahren zum Erfassen und zur Klassifizierung eines Objekts mittels zumindest einer Sensorvorrichtung auf Basis einer Belegungskarte, Fahrerassistenzsystem und Kraftfahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21834771

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202180084349.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21834771

Country of ref document: EP

Kind code of ref document: A1