DE102023001652B4 - Method for detecting and tracking objects in a vehicle environment - Google Patents
Method for detecting and tracking objects in a vehicle environment Download PDFInfo
- Publication number
- DE102023001652B4 DE102023001652B4 DE102023001652.7A DE102023001652A DE102023001652B4 DE 102023001652 B4 DE102023001652 B4 DE 102023001652B4 DE 102023001652 A DE102023001652 A DE 102023001652A DE 102023001652 B4 DE102023001652 B4 DE 102023001652B4
- Authority
- DE
- Germany
- Prior art keywords
- reflections
- detected
- objects
- tracked
- assigned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000005259 measurement Methods 0.000 claims abstract description 56
- 230000007613 environmental effect Effects 0.000 claims abstract description 33
- 230000002123 temporal effect Effects 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 33
- 239000013598 vector Substances 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 3
- 239000000428 dust Substances 0.000 description 4
- 239000004576 sand Substances 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 239000007789 gas Substances 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000003517 fume Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Verfahren zur Erkennung und Verfolgung von Objekten (O) in einer Umgebung eines Fahrzeugs (1), wobei- mittels zumindest eines Lidarsensors (2) in mehreren aufeinanderfolgenden Messungen Lichtsignale (LS) ausgesendet und von Objekten (O) zurückgesendete Reflexionen (R1 bis Rm) der Lichtsignale (LS) erfasst werden,- anhand der Reflexionen (R1 bis Rm) zu jeder Messung eine Punktewolke (PW1 bis PW4) erzeugt wird und- mittels der in den aufeinanderfolgenden Messungen erzeugten Punktewolken (PW1 bis PW4) Objekte (O) in der Umgebung erkannt und verfolgt werden,wobei- die Reflexionen (R1 bis Rm) einer Messung mit Reflexionen (R1 bis Rm) vorheriger Messungen verglichen werden und- Reflexionen (R1 bis Rm) innerhalb einer Messung, welche nicht einem in den vorherigen Messungen erkannten und verfolgten Objekt (O) zugeordnet werden können, als nicht zu dem Objekt (O) gehörige Umgebungseinflüsse (UE) erkannt und gefiltert werdenund wobeizur Erzeugung einer Punktewolke (PW1 bis PW4) jeweils eine Reflexionskurve gebildet wird, welche einen zeitlichen Verlauf einer Leistung (PRx) der Reflexionen (R1 bis Rm) nach dem Aussenden eines Lichtsignals (LS) darstellt,- anhand einer Impulslänge (IL1, IL2) und/oder einer Impulshöhe (IH1, IH2) von Reflexionen (R1 bis Rm) in der Reflexionskurve zwischen zu intransparenten Objekten (O) gehörigen Reflexionen (R1 bis Rm) und zumindest teilweise transparenten Objekten unterschieden wird und- die zumindest teilweise transparenten Objekte als nicht zu einem in den vorherigen Messungen erkannten und verfolgten intransparenten Objekt (O) gehörige Umgebungseinflüsse (UE) erkannt werden,dadurch gekennzeichnet, dasseine zeitliche Verschiebung zwischen zumindest zwei zu unterschiedlichen Zeitpunkten erfassten Reflexionskurven ermittelt wird,- anhand der ermittelten zeitlichen Verschiebung eine eindimensionale Bestimmung einer jeweiligen Geschwindigkeit der Reflexionen (R1 bis Rm) durchgeführt wird,- die bestimmten Geschwindigkeiten den intransparenten Objekten (O) und zumindest teilweise transparenten Objekten (O) zugeordnet werden und- anhand der zugeordneten Geschwindigkeiten die Unterscheidung zwischen den intransparenten Objekten (O) und zumindest teilweise transparenten Objekten plausibilisiert wird.Method for detecting and tracking objects (O) in the environment of a vehicle (1), wherein- by means of at least one lidar sensor (2) in several consecutive measurements, light signals (LS) are emitted and reflections (R1 to Rm) of the light signals (LS) sent back by objects (O) are detected,- a point cloud (PW1 to PW4) is generated for each measurement based on the reflections (R1 to Rm), and- objects (O) in the environment are detected and tracked using the point clouds (PW1 to PW4) generated in the consecutive measurements,wherein- the reflections (R1 to Rm) of a measurement are compared with reflections (R1 to Rm) of previous measurements, and- reflections (R1 to Rm) within a measurement which cannot be assigned to an object (O) detected and tracked in the previous measurements are detected and filtered as environmental influences (UE) not belonging to the object (O),and wherein to generate a point cloud (PW1 to PW4) a reflection curve is formed which represents a temporal progression of a power (PRx) of the reflections (R1 to Rm) after the emission of a light signal (LS),- based on a pulse length (IL1, IL2) and/or a pulse height (IH1, IH2) of reflections (R1 to Rm) in the reflection curve, a distinction is made between reflections (R1 to Rm) belonging to non-transparent objects (O) and at least partially transparent objects, and- the at least partially transparent objects are recognized as environmental influences (UE) not belonging to an non-transparent object (O) recognized and tracked in the previous measurements,characterized in thata temporal shift between at least two reflection curves recorded at different points in time is determined,- based on the determined temporal shift, a one-dimensional determination of a respective speed of the reflections (R1 to Rm) is carried out,- the determined speeds are assigned to the non-transparent objects (O) and at least partially transparent objects (O), and- based on the The distinction between the non-transparent objects (O) and at least partially transparent objects is made plausible by means of the speeds assigned to them.
Description
Die Erfindung betrifft ein Verfahren zur Erkennung und Verfolgung von Objekten in einer Umgebung eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for detecting and tracking objects in an environment of a vehicle according to the preamble of
Die Erfindung betrifft weiterhin ein Verfahren zum automatisierten Betrieb eines Fahrzeugs.The invention further relates to a method for the automated operation of a vehicle.
Für einen automatisierten, beispielsweise hochautomatisierten oder autonomen Fahrbetrieb eines Fahrzeugs ist eine Erfassung einer Umgebung des Fahrzeugs erforderlich, welche mittels Kameras, Radarsensoren und Lidarsensoren durchgeführt wird. Lidarsensoren vermessen dabei ihre Umgebung durch Aussenden von Lichtsignalen im Infrarotbereich und durch eine Erfassung von an Objekten reflektierten Lichtsignalen. Die so mittels eines Lidarsensors erfassten Daten können die Erfassung der Umgebung zusätzlich zu mittels einer Kamera und Radarsensoren erfassten Daten komplettieren und bieten eine erhöhte Redundanz. Auf Lidardaten basierte Objekterkennungsalgorithmen verarbeiten mittels Lidarsensoren erzeugte Punktewolken, welche Rohdaten von Lidarsensoren darstellen, und erkennen auf Basis von Punkten dieser Punktewolken Objekte. Jeder Punkt enthält dabei neben geometrischen Koordinaten, das heißt kartesischen oder Polarkoordinaten, weitere Metainformationen über eine Lidarmessung, wie zum Beispiel eine Intensität, eine Echo-Pulsweite und Detektionsinformationen. Auf Basis geometrischer Informationen der Punktewolke werden Objekte erkannt, indem räumlich naheliegende Punkte zu einem durchgehenden Objekt verbunden werden.For automated, for example highly automated or autonomous driving of a vehicle, the vehicle's surroundings must be recorded, which is carried out using cameras, radar sensors and lidar sensors. Lidar sensors measure their surroundings by emitting light signals in the infrared range and by recording light signals reflected from objects. The data recorded in this way using a lidar sensor can complete the recording of the environment in addition to data recorded using a camera and radar sensors and offer increased redundancy. Object detection algorithms based on lidar data process point clouds generated using lidar sensors, which represent raw data from lidar sensors, and detect objects based on points in these point clouds. In addition to geometric coordinates, i.e. Cartesian or polar coordinates, each point contains further meta information about a lidar measurement, such as intensity, echo pulse width and detection information. Objects are detected based on geometric information from the point cloud by connecting spatially close points to form a continuous object.
Lidarsensoren können durch Umgebungseinflüsse wie Staub, Wasserdampf oder Sandwolken in ihrer Wahrnehmung und Objektdetektion beeinträchtigt werden. Klassische Objektalgorithmen, welche auf Basis einer mittels eines Lidarsensors erzeugten Punktewolke Objekte detektieren, können aufgrund solcher Umgebungseinflüsse beeinträchtigt werden. Dadurch können Objekte als falsch-positive Objekte falsch oder in einer fehlerhaften geometrischen Ausdehnung erkannt werden. Erkennt der Lidarsensor beispielsweise eine Abgaswolke eines Fahrzeugs, kann dies dazu führen, dass ein Fahrzeug falsch positioniert oder falsch in seinen geometrischen Ausdehnungen erkannt wird.Lidar sensors can be impaired in their perception and object detection by environmental influences such as dust, water vapor or sand clouds. Classic object algorithms, which detect objects based on a point cloud generated by a lidar sensor, can be impaired due to such environmental influences. As a result, objects can be incorrectly recognized as false positive objects or with an incorrect geometric dimension. If the lidar sensor detects a cloud of exhaust gases from a vehicle, for example, this can lead to a vehicle being incorrectly positioned or incorrectly recognized in its geometric dimensions.
Aus der
- - Empfangen von für eine Umgebung des Fahrzeugs erfassten Laserdaten, wobei die Laserdaten mehrere Laserdatenpunkte umfassen, in mehreren Scans;
- - Zuordnen von Laserdatenpunkten zu einem Objekt in der Umgebung durch ein Computergerät;
- - Verfolgen des Objekts in der Umgebung, während sich das Fahrzeug durch die Umgebung bewegt, basierend auf Laserdaten, die in den Scans der Umgebung empfangen werden,
- - Bestimmen gegebener Laserdatenpunkte, die nicht mit dem Objekt in der Umgebung verknüpft sind, als repräsentativ für ein nicht verfolgtes Objekt;
- - Bestimmen von Laserdatenpunkten, die nicht mit dem Objekt in der durch zusätzliche Daten beschriebenen Umgebung verknüpft sind;
- - Identifizieren einer Angabe einer Wetterbedingung in der Umgebung durch das Computergerät auf der Grundlage von Laserdatenpunkten, die nicht mit dem Objekt in der Umgebung verknüpft sind; und
- - Steuern des Fahrzeugs in einem autonomen Modus basierend auf der Angabe der Wetterbedingung.
- - Receiving laser data acquired for an environment of the vehicle, the laser data comprising a plurality of laser data points, in a plurality of scans;
- - Assigning laser data points to an object in the environment by a computing device;
- - Tracking the object in the environment as the vehicle moves through the environment based on laser data received in the scans of the environment,
- - Determining given laser data points not associated with the object in the environment as representative of an untracked object;
- - Determining laser data points that are not associated with the object in the environment described by additional data;
- - identifying, by the computing device, an indication of a weather condition in the environment based on laser data points that are not associated with the object in the environment; and
- - Controlling the vehicle in an autonomous mode based on the weather condition indication.
Aus der
Aus der
Aus der
Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Erkennung und Verfolgung von Objekten in einer Umgebung eines Fahrzeugs und ein neuartiges Verfahren zum automatisierten Betrieb eines Fahrzeugs anzugeben.The invention is based on the object of specifying a novel method for detecting and tracking objects in the environment of a vehicle and a novel method for the automated operation of a vehicle.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Erkennung und Verfolgung von Objekten, welches die im Anspruch 1 angegebenen Merkmale aufweist, und durch ein Verfahren zum automatisierten Betrieb eines Fahrzeugs, welches die im Anspruch 5 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method for detecting and tracking objects, which has the features specified in
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
In einem Verfahren zur Erkennung und Verfolgung von Objekten in einer Umgebung eines Fahrzeugs werden mittels zumindest eines Lidarsensors in mehreren aufeinanderfolgenden Messungen Lichtsignale ausgesendet und von Objekten zurückgesendete Reflexionen der Lichtsignale erfasst. Anhand der Reflexionen wird zu jeder Messung eine Punktewolke erzeugt und mittels der in den aufeinanderfolgenden Messungen erzeugten Punktewolken werden Objekte in der Umgebung erkannt und verfolgt.In a method for detecting and tracking objects in the environment of a vehicle, light signals are emitted in several consecutive measurements using at least one lidar sensor and reflections of the light signals sent back by objects are recorded. Based on the reflections, a a point cloud is generated and objects in the environment are detected and tracked using the point clouds generated in the successive measurements.
Erfindungsgemäß werden die Reflexionen einer Messung mit Reflexionen vorheriger Messungen verglichen und Reflexionen innerhalb einer Messung, welche nicht einem in den vorherigen Messungen erkannten und verfolgten Objekt zugeordnet werden können, als nicht zu dem Objekt gehörige Umgebungseinflüsse erkannt und gefiltert.According to the invention, the reflections of a measurement are compared with reflections of previous measurements and reflections within a measurement which cannot be assigned to an object detected and tracked in the previous measurements are detected and filtered as environmental influences not belonging to the object.
Innerhalb einer Messung eines Lidarsensors, das heißt dem Aussenden eines Lichtsignals und einem Erfassen von dem Objekt zugehörigen Reflexionen, können weitere Reflexionen auftreten, wenn welche durch zwischen dem Lidarsensor und dem verfolgten Objekt, auch als getracktes Objekt bezeichnet, auftretende Umgebungseinflüsse wie beispielsweise Regen, Gischt, Abgase, Staub, Wasserdampf, Sandwolken und andere Einflüsse auftreten können. Das Verfahren ermöglicht in einfacher und zuverlässiger Weise die Erkennung und Filterung dieser zu Umgebungseinflüssen gehörigen Reflexionen, damit das verfolgte Objekt und insbesondere dessen Konturen sicher erkannt werden können. Insbesondere können mittels des Verfahrens Umgebungseinflüsse erkannt werden, welche spontan auftreten, wie beispielsweise ein Ablassen von Flüssigkeit aus dem verfolgten Objekt.During a measurement by a lidar sensor, i.e. the emission of a light signal and the detection of reflections associated with the object, further reflections can occur if they are caused by environmental influences such as rain, spray, exhaust fumes, dust, water vapor, sand clouds and other influences that occur between the lidar sensor and the tracked object, also known as the tracked object. The method enables these reflections associated with environmental influences to be detected and filtered in a simple and reliable manner so that the tracked object and in particular its contours can be reliably recognized. In particular, the method can be used to detect environmental influences that occur spontaneously, such as liquid draining from the tracked object.
Somit ermöglicht das vorliegende Verfahren eine Optimierung eines anhand von Lidardaten durchgeführten Objekterkennungsalgorithmus und eine Erhöhung einer Robustheit desselben gegenüber Umgebungseinflüsse. Dadurch kann eine Erkennung falsch-positiver Objekte oder fehlerhafter geometrischer Abmessungen verhindert werden. Thus, the present method enables optimization of an object detection algorithm based on lidar data and increases its robustness against environmental influences. This can prevent detection of false-positive objects or incorrect geometric dimensions.
Gemäß einer möglichen Ausgestaltung des Verfahrens werden als Reflexionen, welche nicht einem in den vorherigen Messungen erkannten und verfolgten Objekt zugeordnet werden können, solche Reflexionen verwendet, welche eine Kontur eines in den vorherigen Messungen erkannten und verfolgten Objekts beeinflussen und/oder ein weiteres Objekt in den Punktewolken erzeugen. Hierdurch können eine besonders zuverlässige Erkennung der Umgebungseinflüsse und daraus folgend eine besonders zuverlässige Filterung solcher erzielt werden.According to a possible embodiment of the method, reflections that cannot be assigned to an object detected and tracked in the previous measurements are reflections that influence a contour of an object detected and tracked in the previous measurements and/or create another object in the point clouds. This makes it possible to achieve particularly reliable detection of environmental influences and, as a result, particularly reliable filtering of such influences.
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens werden die Reflexionen, welche nicht einem in den vorherigen Messungen erkannten und verfolgten Objekt zugeordnet werden können, anhand von sekundären Punkten in einer Punktewolke erkannt, die in einer Messung zwischen der Aussendung eines Lichtsignals und einer Erfassung primäre Punkte bildender Reflexionen, die dem in den vorherigen Messungen erkannten und verfolgten Objekt zugeordnet werden können, erkannt werden. Eine solche Erkennung der Umgebungseinflüsse ist besonders einfach und zuverlässig durchführbar.According to another possible embodiment of the method, the reflections that cannot be assigned to an object detected and tracked in the previous measurements are detected using secondary points in a point cloud that are detected in a measurement between the emission of a light signal and the detection of primary points forming reflections that can be assigned to the object detected and tracked in the previous measurements. Such detection of environmental influences can be carried out particularly easily and reliably.
Erfindungsgemäß wird bei dem Verfahren zur Erzeugung einer Punktewolke jeweils eine Reflexionskurve gebildet, welche einen zeitlichen Verlauf einer Leistung der Reflexionen nach dem Aussenden eines Lichtsignals darstellt. Anhand einer Impulslänge und/oder einer Impulshöhe von Reflexionen in der Reflexionskurve wird zwischen zu intransparenten Objekten gehörigen Reflexionen und zumindest teilweise transparenten Objekten unterschieden, wobei die zumindest teilweise transparenten Objekte als nicht zu einem in den vorherigen Messungen erkannten und verfolgten intransparenten Objekt gehörigen Umgebungseinflüsse erkannt werden. Dies ermöglicht eine zuverlässige und einfach durchführbare Unterscheidung zwischen einem verfolgten Objekt und Umgebungseinflüssen.According to the invention, in the method for generating a point cloud, a reflection curve is formed which represents a temporal progression of the power of the reflections after the emission of a light signal. Based on a pulse length and/or a pulse height of reflections in the reflection curve, a distinction is made between reflections belonging to non-transparent objects and at least partially transparent objects, with the at least partially transparent objects being recognized as environmental influences not belonging to an non-transparent object recognized and tracked in the previous measurements. This enables a reliable and easy-to-implement distinction to be made between a tracked object and environmental influences.
Erfindungsgemäß wird bei dem Verfahren
- eine zeitliche Verschiebung zwischen zumindest zwei zu unterschiedlichen Zeitpunkten erfassten Reflexionskurven ermittelt, wobei anhand der erfassten zeitlichen Verschiebung eine eindimensionale Bestimmung einer jeweiligen Geschwindigkeit der Reflexionen durchgeführt wird. Die bestimmten Geschwindigkeiten werden den intransparenten Objekten und zumindest teilweise transparenten Objekten zugeordnet, wobei anhand der zugeordneten Geschwindigkeiten die Unterscheidung zwischen den intransparenten Objekten und zumindest teilweise transparenten Objekten plausibilisiert wird. Durch eine solche Plausibilisierung kann die Zuverlässigkeit der Unterscheidung zwischen einem verfolgten Objekt und Umgebungseinflüssen weiter erhöht werden.
- a temporal shift between at least two reflection curves recorded at different times is determined, whereby a one-dimensional determination of a respective speed of the reflections is carried out on the basis of the recorded temporal shift. The determined speeds are assigned to the non-transparent objects and at least partially transparent objects, whereby the distinction between the non-transparent objects and at least partially transparent objects is made plausible on the basis of the assigned speeds. Such plausibility can further increase the reliability of the distinction between a tracked object and environmental influences.
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird eine zeitliche Verschiebung zwischen zumindest zwei zu unterschiedlichen Zeitpunkten erfassten Reflexionskurven ermittelt, wobei anhand der ermittelten zeitlichen Verschiebung eine eindimensionale Bestimmung einer jeweiligen Geschwindigkeit der Reflexionen durchgeführt wird. Anhand einer bekannten Senderichtung des Lidarsensors und den eindimensional bestimmten Geschwindigkeiten werden jeweils dreidimensionale Geschwindigkeitsvektoren bestimmt, wobei anhand unterschiedlicher Beträge und Richtungen der Geschwindigkeitsvektoren zwischen dem in den vorherigen Messungen erkannten und verfolgten Objekt und den Umgebungseinflüssen unterschieden wird. Auch dies ermöglicht eine zuverlässige und einfach durchführbare Unterscheidung zwischen einem verfolgten Objekt und Umgebungseinflüssen.According to another possible embodiment of the method, a temporal shift between at least two reflection curves recorded at different times is determined, with a one-dimensional determination of the respective speed of the reflections being carried out on the basis of the temporal shift determined. Three-dimensional speed vectors are determined on the basis of a known transmission direction of the lidar sensor and the one-dimensionally determined speeds, with a distinction being made between the object detected and tracked in the previous measurements and the environmental influences on the basis of different amounts and directions of the speed vectors. This also enables a reliable and easy-to-implement distinction to be made between a tracked object and environmental influences.
In einem Verfahren zum automatisierten, insbesondere hochautomatisierten oder autonomen Betrieb eines Fahrzeugs in Abhängigkeit von in einer Umgebungserfassung erfassten Daten werden in der Umgebungserfassung eine Erkennung und Verfolgung von Objekten in der Umgebung des Fahrzeugs mittels eines vorgenannten Verfahrens durchgeführt.In a method for the automated, in particular highly automated or autonomous operation of a vehicle depending on data recorded in an environmental detection, a detection and tracking of objects in the environment of the vehicle is carried out in the environmental detection by means of an aforementioned method.
Durch die zuverlässige Unterscheidung von verfolgten Objekten und Umgebungseinflüssen kann auch eine Zuverlässigkeit eines automatisierten Fahrbetriebs erreicht, insbesondere eine Erkennung falsch-positiver Objekte oder fehlerhafter geometrischer Abmessungen verhindert werden. Ein falsch-positiv erkanntes Objekt kann beispielsweise zu einer Falschbremsung oder zu einem falschen Lenkeingriff führen, so dass aufgrund der zuverlässigen Vermeidung der Erkennung falsch-positiver Objekte oder fehlerhafter geometrischer Abmessungen falsche Manöver in lateraler und longitudinaler Richtung des Fahrzeugs während des automatisierten Fahrbetriebs vermieden werden können.By reliably distinguishing between tracked objects and environmental influences, the reliability of automated driving can also be achieved, in particular the detection of false-positive objects or incorrect geometric dimensions can be prevented. An object detected as false-positive can, for example, lead to incorrect braking or incorrect steering intervention, so that incorrect maneuvers in the lateral and longitudinal direction of the vehicle can be avoided during automated driving due to the reliable avoidance of the detection of false-positive objects or incorrect geometric dimensions.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch ein mittels einer Kamera erfasstes Bild einer Umgebung eines Fahrzeugs und eine mittels eines Lidarsensors erzeugte Punktewolke dieser Umgebung zu einem ersten Zeitpunkt, -
2 schematisch ein mittels einer Kamera erfasstes Bild einer Umgebung eines Fahrzeugs, einen vergrößerten Ausschnitt des Bilds und eine mittels eines Lidarsensors erzeugte Punktewolke dieser Umgebung zu einem zweiten Zeitpunkt, -
3 schematisch eine mittels eines Lidarsensors aus sekundären Reflexionen erzeugte Punktewolke einer Umgebung eines Fahrzeugs zu einem Zeitpunkt und eine mittels des Lidarsensors aus primären Reflexionen erzeugte Punktewolke der Umgebung des Fahrzeugs zum gleichen Zeitpunkt, -
4 schematisch ein Fahrzeug mit einem Lidarsensor während einer Erfassung einer Umgebung des Fahrzeugs und -
5 schematisch eine Reflexionskurve, welche einen zeitlichen Verlauf einer Leistung von mittels eines Lidarsensors erfassten Reflexionen nach einem Aussenden eines Lichtsignals darstellt.
-
1 schematically an image of the surroundings of a vehicle captured by a camera and a point cloud of this surroundings generated by a lidar sensor at a first point in time, -
2 schematically an image of the surroundings of a vehicle captured by a camera, an enlarged section of the image and a point cloud of this surroundings generated by a lidar sensor at a second point in time, -
3 schematically a point cloud of the surroundings of a vehicle at a point in time generated by a lidar sensor from secondary reflections and a point cloud of the surroundings of the vehicle at the same point in time generated by the lidar sensor from primary reflections, -
4 schematically a vehicle with a lidar sensor during a detection of an environment of the vehicle and -
5 schematically a reflection curve which represents a temporal course of a power of reflections detected by a lidar sensor after a light signal has been emitted.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numerals in all figures.
In
Zur Erkennung und Verfolgung von Objekten O in einer Umgebung eines Fahrzeugs 1 werden mittels zumindest eines Lidarsensors 2 in mehreren aufeinanderfolgenden Messungen in
Bei dem dargestellten Objekt O handelt es sich um ein solches, bereits über mehrere Messungen verfolgtes Objekt O, welches sich in einer rechten Nachbarspur vor dem Fahrzeug 1 befindet und dessen mittels des Lidarsensors 2 erfasste links- und rückseitige Kontur in der Punktewolke PW1 im Wesentlichen L-förmig dargestellt ist.The object O shown is such an object O that has already been tracked over several measurements, which is located in a right-hand neighboring lane in front of the
Die Punktewolke PW1 bildenden Punkte P1 bis Pn basieren dabei auf erfassten primären Reflexionen R1 bis Rm und sekundären Reflexionen R1 bis Rm. Dies resultiert daraus, dass Lidarsensoren 2 mehrere Detektionen bzw. Reflexionen R1 bis Rm pro ausgesendetem Lichtsignal LS erkennen. Diese Detektionen werden beispielsweise nach ihrer Distanz zum Lidarsensor 2 sortiert und beispielsweise als erstes und zweites Echo bzw. primäre und sekundäre Reflexionen R1 bis Rm benannt. Dabei hat das erste Echo bzw. die primäre Reflexion R1 bis Rm eine größere radiale Entfernung zum Lidarsensor 2 als das zweite Echo bzw. die sekundäre Reflexion R1 bis Rm.The points P1 to Pn forming the point cloud PW1 are based on recorded primary reflections R1 to Rm and secondary reflections R1 to Rm. This results from the fact that
Wie der Bildausschnitt BA zeigt, stößt das als Lastkraftwagen ausgebildete Objekt O zu diesem zweiten Zeitpunkt Kondensat aus, welches in der Punktewolke PW2 durch linkseitig neben der Kontur des Objekts O befindliche Punkte P1 bis Pn wiedergegeben ist. Da dieses Kondensat nicht zum verfolgten Objekt O gehört, wird dieses im Weiteren als Umgebungseinfluss UE bezeichnet.As the image section BA shows, the object O, designed as a truck, joins this At the second point in time, condensate forms, which is represented in the point cloud PW2 by points P1 to Pn located to the left of the contour of the object O. Since this condensate does not belong to the tracked object O, it is referred to below as environmental influence UE.
Derartige Umgebungseinflüsse UE, welche beispielsweise auch durch Regen, Gischt, Abgase, Staub, Wasserdampf, Sandwolken und andere Einflüsse gebildet werden, können die durch Auswertung der Punktewolken PW1, PW2 durchgeführte Erkennung und Verfolgung von Objekten O in der Umgebung des Fahrzeugs 1 beeinträchtigen.Such environmental influences UE, which are also caused, for example, by rain, spray, exhaust gases, dust, water vapor, sand clouds and other influences, can impair the detection and tracking of objects O in the vicinity of the
Um solche Beeinträchtigungen zu vermeiden, ist vorgesehen, dass die Reflexionen R1 bis Rm einer Messung, beispielsweise der Messung gemäß
Solche nicht dem Objekt O zuordbare Reflexionen R1 bis Rm sind beispielsweise durch die durch das Kondensat in der Punktewolke PW2 verursachten Punkte P1 bis Pn wiedergegeben, welche sich linkseitig neben der Kontur des Objekts O befinden und somit die Kontur des in den vorherigen Messungen erkannten und verfolgten Objekts O beeinflussen und/oder ein weiteres Objekt in der Punktewolke PW2 erzeugen.Such reflections R1 to Rm that cannot be assigned to the object O are represented, for example, by the points P1 to Pn caused by the condensate in the point cloud PW2, which are located to the left of the contour of the object O and thus influence the contour of the object O detected and tracked in the previous measurements and/or create another object in the point cloud PW2.
Die Erkennung solcher Reflexionen R1 bis Rm kann beispielsweise durch Erkennung von durch die genannten sekundären Reflexionen R1 bis Rm in der Punktewolke PW2 erzeugten sekundären Punkten P1 bis Pn erfolgen, die in einer Messung zwischen der Aussendung eines Lichtsignals LS und einer Erfassung primäre Punkte P1 bis Pn bildender Reflexionen R1 bis Rm, die dem in den vorherigen Messungen erkannten und verfolgten Objekt O zugeordnet werden können, erkannt werden.The detection of such reflections R1 to Rm can be carried out, for example, by detecting secondary points P1 to Pn generated by said secondary reflections R1 to Rm in the point cloud PW2, which are detected in a measurement between the emission of a light signal LS and a detection of reflections R1 to Rm forming primary points P1 to Pn, which can be assigned to the object O detected and tracked in the previous measurements.
Wie dargestellt, ist das Objekt O ein über mehrere Zeitzyklen bzw. Messungen verfolgtes Objekt O. Entstehen im Folgenden Detektionen mit mehreren sekundären Reflexionen R1 bis Rm, welche die konturgebende Form des Objekts O beeinflussen oder ein weiteres Objekt hervorrufen, kann zur Erkennung des Objekts O die Verwendung von sekundären Reflexionen R1 bis Rm ausgeschlossen werden. Dadurch werden die geometrischen Eigenschaften des Objekts O in der Lidarmessung stabilisiert und die Erkennung einer falsch-positiven Objektgeometrie kann verhindert werden. Besteht ein in der Lidarmessung erfasstes Objekt primär aus sekundären Reflexionen R1 bis Rm bzw. sekundären Punkten P1 bis Pn, handelt es sich mit großer Wahrscheinlichkeit um einen Umgebungseinfluss UE. Eine Information hierüber kann an nachfolgende Algorithmen weitergeleitet werden, um eine Erkennung falsch-positiver Objekte oder falsch-positiver Objektgeometrien zu verhindern.As shown, the object O is an object O tracked over several time cycles or measurements. If detections with several secondary reflections R1 to Rm arise subsequently, which influence the contour-giving shape of the object O or cause another object, the use of secondary reflections R1 to Rm can be excluded for the detection of the object O. This stabilizes the geometric properties of the object O in the lidar measurement and the detection of a false-positive object geometry can be prevented. If an object detected in the lidar measurement consists primarily of secondary reflections R1 to Rm or secondary points P1 to Pn, it is very likely that there is an environmental influence UE. Information about this can be passed on to subsequent algorithms in order to prevent the detection of false-positive objects or false-positive object geometries.
Um dies zu veranschaulichen, zeigt
Anhand der Unterscheidung der beiden Punktewolken PW3, PW4 wird deutlich, dass die zuvor störungsfrei getrackte Kontur des als Lastkraftwagen ausgebildeten Objekts O weiterhin über die aus primären Reflexionen R1 bis Rm gebildeten primären Punkte P1 bis Pn erkannt wird. Werden für die Objektbildung die aus sekundären Reflexionen R1 bis Rm gebildeten primären Punkte P1 bis Pn nicht verwendet, so können die Umgebungseinflüsse UE, wie hier im Beispiel das Kondensat, ignoriert werden.By distinguishing between the two point clouds PW3, PW4, it becomes clear that the contour of the object O, which was previously tracked without interference and is designed as a truck, is still recognized via the primary points P1 to Pn formed from primary reflections R1 to Rm. If the primary points P1 to Pn formed from secondary reflections R1 to Rm are not used to form the object, the environmental influences UE, such as the condensate in this example, can be ignored.
Somit kann eine Objekterkennung realisiert werden, welche robust gegenüber Umgebungseinflüssen UE ist, indem die sekundären Reflexionen R1 bis Rm für die Objektbildung ausgeschlossen werden.Thus, object detection can be realized which is robust against environmental influences UE by excluding the secondary reflections R1 to Rm for object formation.
Im Erfassungsbereich des Lidarsensors 2 befindet sich rechts vor dem Fahrzeug 1 ein Objekt O, beispielsweise ein Lastkraftwagen gemäß den
Die Erkennung von sekundären Reflexionen R1 bis R3 und primären Reflexionen R4 bis Rm kann beispielsweise durch Auswertung einer in
In
Erfasst ein Lidarsensor 2 die gesamte Reflexionskurve über dem zeitlichen Verlauf, so ist neben der Erkennung von Objekten O anhand der charakteristischen Reflexionskurve eine Extraktion über die Eigenschaften der erfassten Objekte O möglich. So ist beispielsweise über eine Impulslänge IL1, IL2 und Impulshöhe IH1, IH2 eine Unterscheidung zwischen festen und teilweise transparenten Objekten O möglich.If a
Gemäß der dargestellten Reflexionskurve wird zu einem Zeitpunkt t0 ein Lichtsignal LS als Lichtimpuls ausgesendet. Zwischen einem Zeitpunkt t1 und einem weiteren Zeitpunkt t2 erfolgt eine Erfassung einer ersten Reflexion R1 mit einer relativ großen Impulslänge IL1 und einer relativen geringen Impulshöhe IH1, welche sich zwischen Amplituden der Reflexion R1 und einem vorgegebenen Leistungsschwellwert Pth ergibt.According to the reflection curve shown, a light signal LS is emitted as a light pulse at a time t 0 . Between a time t 1 and a further time t 2 , a first reflection R1 is detected with a relatively long pulse length IL1 and a relatively low pulse height IH1, which results between the amplitude of the reflection R1 and a predetermined power threshold value P th .
Zwischen einem Zeitpunkt t3 und einem Zeitpunkt t4 erfolgt eine Erfassung einer weiteren Reflexion R2 mit einer relativ geringen Impulslänge IL2 und einer relativ großen Impulshöhe IH2, welche sich zwischen Amplituden der Reflexion R2 und dem vorgegebenen Leistungsschwellwert Pth ergibt. Nach dem Zeitpunkt t4 ist das erfasste Signal durch Rauschen gekennzeichnet.Between a time t 3 and a time t 4 , a further reflection R2 is detected with a relatively short pulse length IL2 and a relatively large pulse height IH2, which results between the amplitude of the reflection R2 and the predetermined power threshold value P th . After the time t 4 , the detected signal is characterized by noise.
Hierbei wird ersichtlich, dass es sich bei der zeitlich nach der Reflexion R1 erfassten Reflexion R2 mit vergleichsweise geringer Impulslänge IL2 und großer Impulshöhe IH2 um eine primäre Reflexion R2 eines verfolgten intransparenten Objekts O und bei der Reflexion R1 mit vergleichsweise großer Impulslänge IL1 und geringer Impulshöhe IH1 um eine sekundäre Reflexion R1 eines zumindest teilweise transparent ausgebildeten Umgebungseinflusses UE, beispielsweise Staub, handelt. Somit kann anhand der Impulslänge IL1, IL2 und Impulshöhe IH1, IH2 zwischen festen bzw. intransparenten Gegenständen und zumindest teilweise transparent ausgebildeten Gegenständen unterschieden werden.It can be seen that the reflection R2 recorded after the reflection R1 with a comparatively short pulse length IL2 and a large pulse height IH2 is a primary reflection R2 of a tracked opaque object O and the reflection R1 with a comparatively long pulse length IL1 and a low pulse height IH1 is a secondary reflection R1 of an at least partially transparent environmental influence UE, for example dust. Thus, based on the pulse length IL1, IL2 and pulse height IH1, IH2, a distinction can be made between solid or opaque objects and at least partially transparent objects.
Weiterhin ist es möglich, anhand von Reflexionskurven zweier Messungen, welche zu unterschiedlichen Zeitpunkten erfasst wurden, eine eindimensionale Geschwindigkeit der erfassten Reflexionen R1 bis Rm auf Basis einer zeitlichen Verschiebung der beiden Messungen zu bestimmen. Durch die Charakteristik der Reflexionskurven ist dann eine Zuordnung der unterschiedlichen Reflexionen R1 bis Rm möglich. Durch eine bekannte Senderichtung des Lidarsensors 2 sind weiterhin dreidimensionale Geschwindigkeitsvektoren bestimmbar. Damit können die beschriebenen Objekte O und Umgebungseinflüsse UE aufgrund der unterschiedlichen Beträge und Richtungen der Geschwindigkeitsvektoren separiert werden.Furthermore, it is possible to use reflection curves from two measurements that were recorded at different times to determine a one-dimensional speed of the recorded reflections R1 to Rm based on a time shift of the two measurements. The characteristics of the reflection curves then make it possible to assign the different reflections R1 to Rm. Three-dimensional speed vectors can also be determined using a known transmission direction of the
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023001652.7A DE102023001652B4 (en) | 2023-04-24 | 2023-04-24 | Method for detecting and tracking objects in a vehicle environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023001652.7A DE102023001652B4 (en) | 2023-04-24 | 2023-04-24 | Method for detecting and tracking objects in a vehicle environment |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102023001652A1 DE102023001652A1 (en) | 2023-06-22 |
DE102023001652B4 true DE102023001652B4 (en) | 2024-06-20 |
Family
ID=86606661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102023001652.7A Active DE102023001652B4 (en) | 2023-04-24 | 2023-04-24 | Method for detecting and tracking objects in a vehicle environment |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102023001652B4 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010062378A1 (en) | 2010-12-03 | 2012-06-06 | Robert Bosch Gmbh | Method for environmental detection, involves scanning coverage area of environment with scanning beam of light detecting and ranging sensor and detecting radiation reflecting at objects in environment |
US20190179052A1 (en) | 2013-05-07 | 2019-06-13 | Waymo Llc | Methods and Systems for Detecting Weather Conditions Using Vehicle Onboard Sensors |
EP3715908A1 (en) | 2019-03-27 | 2020-09-30 | Ibeo Automotive Systems GmbH | Method and device for optically measuring distances |
DE102020119498A1 (en) | 2020-07-23 | 2022-01-27 | Bayerische Motoren Werke Aktiengesellschaft | Method for estimating a vehicle's own motion based on measurements from a lidar sensor and computing device |
-
2023
- 2023-04-24 DE DE102023001652.7A patent/DE102023001652B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010062378A1 (en) | 2010-12-03 | 2012-06-06 | Robert Bosch Gmbh | Method for environmental detection, involves scanning coverage area of environment with scanning beam of light detecting and ranging sensor and detecting radiation reflecting at objects in environment |
US20190179052A1 (en) | 2013-05-07 | 2019-06-13 | Waymo Llc | Methods and Systems for Detecting Weather Conditions Using Vehicle Onboard Sensors |
EP3715908A1 (en) | 2019-03-27 | 2020-09-30 | Ibeo Automotive Systems GmbH | Method and device for optically measuring distances |
DE102020119498A1 (en) | 2020-07-23 | 2022-01-27 | Bayerische Motoren Werke Aktiengesellschaft | Method for estimating a vehicle's own motion based on measurements from a lidar sensor and computing device |
Also Published As
Publication number | Publication date |
---|---|
DE102023001652A1 (en) | 2023-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014005688B4 (en) | TRACK ESTIMATE DEVICE AND METHOD | |
EP0286910B1 (en) | Traffic surveillance device | |
EP1531343B1 (en) | Method for tracking objects | |
DE102008013366B4 (en) | Method for providing information for driver assistance systems | |
DE102017102506B4 (en) | METHOD FOR DETECTING OTHER VEHICLES RELATIVE TO A CARRIER VEHICLE USING WHEEL DETECTION | |
DE19629775A1 (en) | Method and device for monitoring the surroundings of a vehicle and for detecting a failure of the monitoring device | |
DE19537129A1 (en) | Obstacle detecting system for cars | |
DE102017117593A1 (en) | Vehicle driving assistance device | |
DE102020124236A1 (en) | REUSABLE GHOST IMAGE IN THE VEHICLE RADAR SYSTEM | |
DE102011105074A1 (en) | Method for determining visual range for vehicle, involves determining surrounding of vehicle by camera, where contrast dimensions are determined for object depicted in images, where visual range is determined from contrast dimensions | |
EP1298012B1 (en) | Method for recognizing and tracking objects | |
DE102023001652B4 (en) | Method for detecting and tracking objects in a vehicle environment | |
DE102020105192B4 (en) | Method for detecting moving objects in a vehicle environment and motor vehicle | |
DE102022000257A1 (en) | Method for detecting the surroundings of a vehicle | |
DE102018117516B3 (en) | Detection and elimination of interference signals by coded ultrasonic emissions on an ultrasonic sensor | |
DE112020001528T5 (en) | DETECTION DEVICE AND DETECTION METHOD | |
DE102021000359A1 (en) | Method for determining false-positive detections by a lidar sensor | |
DE102019116960A1 (en) | Method for classifying objects in the surroundings of a vehicle by means of an optoelectronic sensor, taking into account a free space, computing device and sensor device | |
EP2287630B1 (en) | Optoelectronic recording device | |
DE102022000734A1 (en) | Method for detecting ghost objects in lidar point clouds | |
WO2022258444A1 (en) | Method and device for determining a range of a sensor | |
DE102022117001A1 (en) | Lane detection device for detecting a lane of a road in the vicinity of a motor vehicle, and method | |
DE102016202526A1 (en) | Method and device for detecting a control gesture of a user, in particular in a motor vehicle | |
DE102022206123A1 (en) | Method for determining an approximate object position of a dynamic object, computer program, device and vehicle | |
DE102021004525A1 (en) | Method for a virtual object-modeled lane recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R230 | Request for early publication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |