DE10141055A1 - Verfahren zur Bestimmung von Bewegungsinformationen - Google Patents
Verfahren zur Bestimmung von BewegungsinformationenInfo
- Publication number
- DE10141055A1 DE10141055A1 DE10141055A DE10141055A DE10141055A1 DE 10141055 A1 DE10141055 A1 DE 10141055A1 DE 10141055 A DE10141055 A DE 10141055A DE 10141055 A DE10141055 A DE 10141055A DE 10141055 A1 DE10141055 A1 DE 10141055A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- reference points
- images
- evaluation algorithm
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/932—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Bestimmung von Bewegungsinformationen zumindest eines innerhalb eines Überwachungsbereichs befindlichen Objektes, bei dem in zeitlicher Abfolge eine Anzahl von n Bildern i (mit i = 1, 2, 3, ..., x-2, x-1, x, x+1, ...n) des Überwachungsbereichs erfaßt, die Positionen signifikanter Referenzpunkte des Objektes innerhalb der erfaßten Bilder bestimmt und aus diesen, jeweils einem Bild zugeordneten Referenzpunkt-Positionen mittels eines Auswertealgorithmus eine auf das Objekt bezogene Bewegungsinformation abgeleitet wird, bei dem entweder DOLLAR A - bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die den überdeckten Referenzpunkten entsprechenden Referenzpunkte im Bild x-1 in demjenigen Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in dem die Bilder x und x-1 verarbeitet werden, oder bei dem DOLLAR A - bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die Positionen der überdeckten Referenzpunkte im Bild x rechnerisch aus den nicht überdeckten Referenzpunkten dieses Bildes ermittelt und im Auswertealgorithmus berücksichtigt werden.
Description
- Die Erfindung betrifft ein Verfahren zur Bestimmung von Bewegungsinformationen zumindest eines innerhalb eines Überwachungsbereichs befindlichen Objektes, bei dem in zeitlicher Abfolge eine Anzahl von n Bildern i (mit i = 1, 2, 3, . . ., x-2, x-1, x, x+1, . . . n) des Überwachungsbereichs erfaßt, die Positionen signifikanter Referenzpunkte des Objektes innerhalb der erfaßten Bilder bestimmt und aus diesen, jeweils einem Bild zugeordneten Referenzpunkt-Positionen mittels eines Auswertealgorithmus eine auf das Objekt bezogene Bewegungsinformation abgeleitet wird.
- Derartige Verfahren sind bekannt und werden beispielsweise dazu verwendet, die Geschwindigkeit von Objekten zu berechnen. Dabei geht in den Berechnungsalgorithmus zum einen die zwischen der Aufnahme eines ersten und eines zweiten Bildes zurückgelegte Wegstrecke des Objektes ein, die aus der Posititonsänderung des Objektes im zweiten Bild gegenüber dem ersten Bild ableitbar ist. Zum anderen geht die Zeit, die zwischen der Aufnahme des ersten und des zweiten Bildes verstrichen ist, in die genannte Berechnung ein.
- Mit geeigneten weiteren Algorithmen sind neben der Geschwindigkeit beispielsweise auch die Bewegungsrichtung sowie die Beschleunigung von Objekten bestimmbar.
- Problematisch bei Verfahren der bekannten Art sind Situationen, in denen das zu verfolgende Objekt bei der Aufnahme zumindest eines Bildes durch ein Vordergrundobjekt teilweise verdeckt wird. In diesem Fall bereitet es Probleme, das nur teilweise auf dem aufgenommenen Bild dargestellte Objekt mit vollständigen Aufnahmen des Objektes in anderen Bildern zu vergleichen, da letztlich sich voneinander unterscheidende Bilder ein und desselben Objekts miteinander verglichen werden müssen. Ein Vergleich ist besonders schwierig, wenn bei dem teilverdeckten Objektbild wichtige Referenzpunkte des Objektes, die für dessen Positionsbestimmung benötigt werden, nicht zu sehen sind.
- Eine der Erfindung zugrunde liegende Aufgabe besteht dementsprechend darin, ein Verfahren der eingangs genannten Art derart weiterzubilden, daß auch bei einer Verarbeitung von Bildern mit teilverdeckten Objekten eine Bewegungsinformation des verfolgten Objekts zuverlässig und korrekt abgeleitet werden kann.
- Diese Aufgabe wird gemäß einer ersten Alternative der vorliegenden Erfindung dadurch gelöst, daß bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die den überdeckten Referenzpunkten entsprechenden Referenzpunkte im Bild x-1 in demjenigen Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in dem die Bilder x und x-1 verarbeitet werden.
- Wenn also erfindungsgemäß zwei Bilder x-1 und x miteinander verglichen werden, um aus den Positionen der Referenzpunkte des verfolgten Objekts Bewegungsinformationen bezüglich dieses Objekts abzuleiten, wird untersucht, welche Referenzpunkte des Objektes im Bild x durch ein Vordergrundobjekt verdeckt sind, woraufhin dann das Bild x-1 im Auswertealgorithmus so behandelt wird, als ob im Bild x-1 diese Referenzpunkte ebenfalls nicht vorhanden gewesen wären. Diese, auch beim Bild x-1 unterbleibende Berücksichtigung der im Bild x verdeckten Referenzpunkte führt dann dazu, daß beim Vergleich der beiden Bilder x und x-1 jeweils nur Referenzpunkte miteinander verglichen werden, die in beiden Bildern vorhanden sind, was - anschaulich formuliert - bedeutet, daß letztlich nur Objekte miteinander verglichen werden, die untereinander gleich aussehen. Dieser erfindungsgemäß auch bei im Bild x teilverdeckten Objekten mögliche Vergleich untereinander gleicher Objekte bedingt somit auf vorteilhafte Weise, daß in den Auswertealgorithmus nur solche Referenzpunkte eingehen, die in beiden Bildern x und x-1 vorhanden sind, weshalb mittels des Auswertealgorithmus die gewünschten Bewegungsinformationen des Objektes problemlos zu ermitteln sind.
- In diesem Zusammenhang sei bemerkt, daß im Rahmen der Erfindung unter "Referenzpunkten" alle objektspezifischen Daten verstanden werden, die in den Auswertealgorithmus eingehen, also nicht nur Positionen signifikanter Stellen des Objektes im Bild, sondern auch dynamische Parameter der Objekte, wie z. B. Geschwindigkeit, Beschleunigung und Bewegungsrichtung oder objektklassenspezifische Parameter, die nachstehend im Rahmen der Erläuterung einer erfindungsgemäßen Objektklassifizierung noch erklärt werden.
- Im Rahmen der ersten Alternative der Erfindung ist es möglich, nicht nur die genannten Referenzpunkte im Bild x-1 unberücksichtigt zu lassen, sondern zusätzlich auch die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte in einem oder mehreren Bildern nicht zu berücksichtigen, die vor dem Bild x-1 erfaßt wurden. So wird sichergestellt, daß auch bei Verarbeitung derjenigen Bilder, die vor dem Bild x-1 erfaßt wurden, immer nur Referenzpunkte in die jeweiligen Berechnungszyklen des Auswertealgorithmus eingehen, die in allen im jeweiligen Berechnungszyklus verarbeiteten Bildern vorhanden sind.
- Alternativ können die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte in denjenigen Bildern, die vor dem Bild x-1 erfaßt wurden, im Auswertealgorithmus jedoch auch berücksichtigt werden. In diesem Fall müssen im Rahmen desjenigen Berechnungszyklus, in dem das Bild x-1 und Bilder die vor diesem Bild x-1 erfaßt wurden, verarbeitet werden, alle Referenzpunkte des Bildes x-1 berücksichtigt werden, also auch diejenigen, die im Bild x überdeckt waren.
- Im Rahmen der ersten Alternative der Erfindung ist es weiterhin möglich, daß auch die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte des Bildes x+1 in demjenigen Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in dem die Bilder x und x+1 verarbeitet werden. Die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte des Bildes x+1 werden dann jedoch in demjenigen Berechnungszyklus wieder berücksichtigt, in dem die Bilder x+1 und x+2 verarbeitet werden. So wird sichergestellt, daß in jedem Berechnungszyklus des Auswertealgorithmus immer nur Bilder miteinander vollständig entsprechenden Referenzpunkten verarbeitet werden.
- Gemäß einer zweiten Alternative der Erindung wird die eingangs genannte Aufgabe dadurch gelöst, daß bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die Positionen der überdeckten Referenzpunkte im Bild x rechnerisch aus den nicht überdeckten Referenzpunkten dieses Bildes ermittelt und im Auswertealgorithmus berücksichtigt werden.
- Auch durch diese erfindungsgemäße Alternative wird der vorstehend bereits erläuterte Vorteil erreicht, daß im Auswertealgorithmus nur solche Referenzpunkte verarbeitet werden, die in allen Bildern vorhanden sind, die im Rahmen eines Berechnungszyklus des Auswertealgorithmus verarbeitet werden.
- Bevorzugt ist es dabei, wenn die Positionen der überdeckten Referenzpunkte im Bild x nicht nur aus den nicht überdeckten Referenzpunkten dieses Bildes, sondern zusätzlich auch aus objektbezogenen Informationen vorhergehender Bilder ermittelt werden. So kann zur Rekonstruktion von teilverdeckten Objekten im Bild x auch Information aus Bildern herangezogen werden, die vor dem Bild x erfaßt wurden und in denen das im Bild x teilverdeckte Objekt vollständig dargestellt war.
- Die nachfolgend erläuterten bevorzugten Ausführungsformen der Erfindung beziehen sich sowohl auf die erste als auch auf die zweite erfindungsgemäße Lösungsalternative.
- Mittels des Auswertealgorithmus können im Rahmen eines Berechnungszyklus immer zwei aufeinanderfolgend erfaßte Bilder verarbeitet werden. Alternativ ist es jedoch auch möglich, mehr als zwei Bilder in einem Berechnungszyklus zu verarbeiten, wobei dann im Rahmen des erfindungsgemäßen Verfahrens sicherzustellen ist, daß alle in einem Berechnungszyklus verarbeiteten Bilder mit jeweils einander entsprechenden Referenzpunkten in den Berechnungszyklus eingehen.
- Besonders bevorzugt ist es, wenn die zu erfassenden Objekte jeweils einer von mehreren Objektklassen zugeordnet werden, wobei jede Objektklasse durch objektklassenspezifische Parameter gekennzeichnet ist. Diese Klassifizierung ermöglicht ein verbessertes Erkennen von Objekten, da es nicht mehr nötig ist, ein Objekt genau zu erkennen, sondern lediglich festgestellt werden muß, zu welcher Objektklasse ein erfaßtes Objekt gehört. In den Auswertealgorithmus können dann zusätzlich zu den Positionen signifikanter Bereiche des Objektes auch noch objektklassespezifische Parameter eingehen. Insbesondere können in den Auswertealgorithmus die genannten Referenzpunkt-Positionen, aus diesen Referenzpunkt- Positionen abgeleitete Zusatzinformationen, wie z. B. Bewegungsrichtung und Geschwindigkeit und/oder objektklassenspezifische Parameter eingehen.
- Es kann beispielsweise je eine Objektklasse für zwei oder mehr der folgenden sechs Objekttypen vorgesehen werden:
Zweirad-Fahrer, Person, Bus/Lkw, Pkw, Pfahl, Mauer/Leitplanke. Insbesondere bei Anwendung des erfindungsgemäßen Verfahrens im Straßenverkehr können diese sechs Objekttypen bereits ausreichen, um den jeweiligen Überwachungsbereich ausreichend genau zu erfassen und Bewegungsinformationen jeweils interessierender, den Objektklassen zugeordneter Objekte zu ermitteln. - Jeder Objektklasse können typische geometrische Parameter, wie insbesondere die Objekthöhe, ein Objekthöhenbereich, die Objektkontur und/oder ein Objektkonturbereich zugeordnet werden. Bei Zuordnung der genannten Bereiche wird es möglich, im Rahmen der Klassifizierung erfaßter Objekte bestimmte Objektklassen von vornherein auszuschließen. Wenn beispielsweise bezüglich eines erfaßten Objekts entschieden werden muß, ob es der Objektklasse "Zweirad-Fahrer" oder der Objektklasse "Bus/Lkw" zugeordnet werden muß, kann die Objektklasse "Zweirad- Fahrer" ausgeschlossen werden, wenn das erfaßte Objekt eine Höhe aufweist, die größer ist, als es der für die Objektklasse "Zweirad-Fahrer" geltende Objekthöhenbereich zuläßt.
- Jeder Objektklasse können weiterhin typische dynamische Parameter, wie insbesondere eine Geschwindigkeit, ein Geschwindigkeitsbereich, eine Beschleunigung und/oder ein Beschleunigungsbereich zugeordnet werden. Auch durch diese Bereiche lassen sich bei zweifelhafter Zuordnung eines Objekts zu bestimmten Objektklassen wiederum Ausschlußkriterien formulieren.
- Zudem können zumindest bestimmten Objektklassen typische, jeweils auf andere Objektklassen bezogenen Relationsparameter zugeordnet werden, die insbesondere dazu dienen, bei der Zuordnung von Objekten zu Objektklassen bestimmte Objektklassen auszuschließen. Wenn sich beispielsweise ein zu klassifizierendes Objekt mittig zwischen zwei Leitplanken befindet, die eine Fahrbahn begrenzen, kann es sich dabei nicht um einen Pfahl handeln, da Pfähle in der Fahrbahnmitte nicht vorkommen. Vielmehr ist es dann bei einer hohen und schmalen Form des Objektes wahrscheinlich, daß es sich hierbei um eine Person handelt. Insofern wird hier also der Objektklasse "Pfahl" ein Relationsparameter zugeordnet, gemäß dem es nicht zulässig ist, daß sich ein Objekt dieser Objektklasse in etwa mittig zwischen zwei Objekten der Klasse "Mauer/Leitplanke" befindet. Es lassen sich hier beliebige weitere Relationsparameter und Ausschlußkriterien formulieren.
- Die ermittelten Bilder bestehen jeweils aus einzelnen Bildpunkten. Als Objektpunkte können dabei solche Bildpunkte verwendet werden, die auf der Konturlinie der erfaßten Objekte liegen. Besonders bevorzugt ist es, wenn die Objektpunkte auf der gesamten Konturlinie des Objekts verteilt sind.
- Die mittels des Auswertealgorithmus zu verarbeitenden Bilder können mittels eines Scanners, insbesondere mittels eines Laserscanners ermittelt werden. Ein solcher Laserscanner kann den Überwachungsbereich zeilenweise oder aber auch flächig abtasten. Ein solcher, flächig abtastender Laserscanner ist beispielsweise in der deutschen Patentanmeldung DE 101 10 420.0 beschrieben.
- Als Bewegungsinformation kann die Bewegungsrichtung, die Geschwindigkeit und/oder die Beschleunigung eines Objektes ermittelt werden.
- Besonders bevorzugt ist die Verwendung des erfindungsgemäßen Verfahrens bei der Erfassung der Umgebung eines Fahrzeugs, wobei insbesondere auch die Fahrzeuggeschwindigkeit, die Fahrzeugbeschleunigung, Lenkwinkel, Lenkwinkeländerung, Gierrate, Gierratenänderung und/ oder die Bewegungsrichtung des Fahrzeugs, in dem das erfindungsgemäße Verfahren durchgeführt wird, in den Auswertealgorithmus eingehen.
- Weitere bevorzugte Ausführungsformen der Erfindung sind in den Unteransprüchen angegeben.
- Die Erfindung wird nachfolgend anhand zweier möglicher Ausführungsbeispiele unter Bezugnahme auf die Figuren erläutert; in diesen zeigen:
- Fig. 1 ein Bild x-1 gemäß Stand der Technik,
- Fig. 2 ein Bild x gemäß Stand der Technik,
- Fig. 3 ein Bild x+1 gemäß Stand der Technik,
- Fig. 4 ein Bild x-1 gemäß einer ersten Alternative der Erfindung,
- Fig. 5 ein Bild x+1 gemäß einer ersten Alternative der Erindung,
- Fig. 6 ein Bild x gemäß einer zweiten Alternative der Erfindung, und
- Fig. 7 bis 12 Bilder eines Laserscanners mit ermittelten Meßpunkten, berechneten und prädizierten Punkten.
- Das Bild x-1 gemäß Fig. 1 zeigt schematisiert eine Fahrbahn 1, auf der sich in Pfeilrichtung ein Lkw 2 bewegt, welcher vereinfacht als Kontur eines Quaders dargestellt ist. Am Rand der Fahrbahn 1, außerhalb dieser Fahrbahn 1, befindet sich ein stationär angeordneter Pfahl 3, beispielsweise ein Straßenlaterne. Lkw 2 und Pfahl 3 sind gemäß Fig. 1 relativ zueinander so angeordnet, daß der Pfahl 3 die Konturlinie des Lkw 2 nicht verdeckt, so daß die gesamte Kontur des Lkw 2 mittels eines Scanners oder einer Kamera erfaßt werden kann.
- In dem zeitlich nach dem Bild x-1 gemäß Fig. 1 aufgenommenen Bild x gemäß Fig. 2 hat sich der Lkw 2 auf der Fahrbahn 1 in Pfeilrichtung soweit vorwärts bewegt, daß ein Bereich seiner Konturlinie durch den Pfahl 3 verdeckt wird. Bei Aufnahme des Bildes x gemäß Fig. 2 mittels eines Scanners oder einer Kamera kann also nicht die gesamte Konturlinie des Lkw 2 erfaßt werden, was bedeutet, daß sich die Konturlinien des Bildes x-1 und des Bildes x hinsichtlich ihrer Vollständigkeit voneinander unterscheiden.
- Das Bild x+1 gemäß Fig. 3 wurde wiederum nach dem Bild x gemäß Fig. 2 aufgenommen. In diesem Bild gemäß Fig. 3 hat sich der Lkw 2 gegenüber der Position gemäß Fig. 2 wiederum in Pfeilrichtung weiterbewegt, und zwar soweit, daß seine Konturlinie nicht mehr durch den Pfahl 3 verdeckt ist. Insofern unterscheidet sich also die Konturlinie gemäß Fig. 3 bezüglich ihrer Vollständigkeit nicht von der Konturlinie gemäß Fig. 1.
- Wenn nun ein Auswertealgorithmus eingesetzt wird, bei dem im Rahmen eines Berechnungszyklus immer zwei aufeinanderfolgende Bilder verarbeitet werden, stellen sich Probleme ein, wenn zum einen die Bilder x-1 und x und zum anderen die Bilder x und x+1 verarbeitet werden, da in beiden Bildern jeweils Konturlinien des Lkw 2 vorliegen, die sich hinsichtlich ihrer Vollständigkeit voneinander unterscheiden und die somit nicht ohne weiteres verarbeitet und verglichen werden können.
- Gemäß Fig. 4 wird gemäß der ersten Alternative der Erfindung das Bild x-1 derart modifiziert, daß dort derjenige Bereich der Konturlinie des Lkw 2 gestrichen wird, der im Bild x (Fig. 2) durch den Pfahl 3 verdeckt ist. Durch diese Streichung können dann in einem Berechnungszyklus des Auswertealgorithmus, in den die Bilder x-1 (Fig. 4) und x (Fig. 2) eingehen, jeweils in gleicher Weise unvollständige Konturlinien des Lkw 2 verarbeitet und verglichen werden, was eine fehlerfreie Berechnung seiner Geschwindigkeit oder seiner Bewegungsrichtung ermöglicht.
- Ebenso kann gemäß Fig. 5 im Bild x+1 derjenige Bereich der Konturlinie des Lkw 2 gestrichen werden, der gemäß Fig. 2 im Bild x durch den Pfahl 3 verdeckt ist. So läßt sich der erfindungsgemäße Vorteil auch in demjenigen Berechnungszyklus des Auswertealgorithmus verwirklichen, in dem das Bild x (Fig. 2) und das Bild x+1 (Fig. 5) verarbeitet wird.
- Gemäß der zweiten Alternative der Erfindung wird der fehlende Konturbereich im Bild x gemäß Fig. 2 aus den im Bild x vorhandenen Informationen sowie aus eventuell vorhandenen Zusatzinformationen vorhergehender Bilder rechnerisch ermittelt, so daß die Konturlinie des Bildes x gemäß Fig. 6 zu einer vollständigen Konturlinie ergänzt werden kann. Somit liegen dann ausschließlich vollständige Konturlinien vor, so daß sowohl die Verarbeitung der Bilder x-1 (Fig. 1) und x (Fig. 6) als auch die Verarbeitung der Bilder x (Fig. 6) und x+1 (Fig. 3) problemlos erfolgen kann.
- Die vorstehend erläuterten Ausführungsbeispiele stellen vereinfachte Versionen des erfindungsgemäßen Verfahrens dar. Das erfindungsgemäße Verfahren kann ohne weiteres auch auf solche Bilder angewandt werden, in denen die Objektverdeckung größer ausfällt als in Fig. 2 dargestellt.
- Nachfolgend wird ein konkretes Anwendungsbeispiel gemäß der zweiten Alternative der Erindung einschließlich der für dessen Verständnis notwendigen Grundlagen erläutert. Dieses Anwendungsbeispiel bezieht sich auf die Geschwindigkeitsbestimmung von Fahrzeugen mittels Laserscannern.
- Die Geschwindigkeit eines Objekts kann mittels Kalman-Filter, hauptsächlich beruhend auf dem Vergleich der Schwerpunkte zweier aufeinanderfolger Scans bzw. zweier aufeinanderfolgender Bilder n-1 und n, wie folgt ermittelt werden:
ν (o,n)|x: x-Koordinate der Geschwindigkeit des o-ten Objekts im n-ten Scan.
ν (o,n)|y: Koordinate der Geschwindigkeit des o-ten Objekts im n-ten Scan.
αn: Wichtungsfaktor der Geschwindigkeit des n-ten Scan (Σαn = 1).
TScan: Zeitdauer für die Aufnahme eines Scans.
S (o,n)|x: x-Koordinate des Schwerpunkts des o-ten Objekts im n-ten Scan.
S (o,n)|y: y-Koordinate des Schwerpunkts des o-ten Objekts im n-ten Scan. - Der einzelne Objektschwerpunkt kann aus dem geometrischen Mittelwert der zugehörigen Meßpunkte wie folgt berechnet werden:
N: Anzahl der Meßpunkte des o-ten Objekts.
x (o,n)|i: Koordinate des i-ten Meßpunkts des o-ten Objekts.
y (o,n)|i: y-Koordinate des i-ten Meßpunkts des o-ten Objekts. - Wird ein Objekt von einem Scan zum nächsten teilweise verdeckt, ändert sich die Position des Schwerpunkts relativ zum Objekt, wodurch dem Objekt eine zusätzliche Geschwindigkeitskomponente addiert werden würde. Es würde somit eine Objektgeschwindigkeit berechnet, die nicht der realen Objektgeschwindigkeit entspricht. Um dies zu unterbinden, können erfindungsgemäß Teilverdeckungen von Objekten zunächst erkannt und - wenn erkannt - das Objekt rekonstruiert werden.
- Um ein Objekt rekonstruieren zu können, müssen jedoch seine vorherige Form und seine Abmessungen bekannt sein. Dies kann über eine Klassifikation der Objekte erreicht werden.
- Typische Grobklassifikationsformen, die bei der Umgebungserfassung mit Laserscannern auftreten, sind Winkelobjekte, Geradenobjekte, kleine Objekte und Sonstige. Fig. 7a zeigt die von einem Laserscanner 4 aufgenommenen Meßpunkte 5 der Umgebung des Laserscanners 4 in einer parallel zu einer Fahrbahn verlaufenden Ebene. In Fig. 7b sind die Meßpunkte 5 mittels geeigneter Algorithmen zu zusammenhängenden Linien ergänzt worden, so daß eine Objektklassifizierung möglich wird. Jede zusammenhängende Linie stellt letztlich ein Objekt dar.
- Ein Winkelobjekt 6 besteht aus zwei Vektoren, wobei sich ein Vektor von dem am nächsten am Laserscanner 4 liegenden Punkt 7 zu dem am weitesten links liegenden Punkt 8 (im folgenden auch "linker Punkt") und der zweite Vektor von dem am nächsten am Laserscanner 4 liegenden Punkt 7 zu dem am weitesten rechts liegenden Punkt 9 (im folgenden auch "rechter Punkt") erstreckt. Die beiden Vektoren schließen zwischen sich einen Winkel ein, der ca. 90° beträgt.
- Die in Fig. 7b dargestellten Winkelobjekte 6 repräsentieren Fahrzeuge, die sich jeweils schräg vor dem Laserscanner 4 befinden.
- Ein Geradenobjekt 10 ist u. a. dadurch gekennzeichnet, daß der am nächsten am Laserscanner 4 liegende Punkt 7 und der Schwerpunkt zwischen dem am weitesten links 8 und dem am weitesten rechts 9 liegenden Punkt angeordnet sind. Das in Fig. 7b dargestellte Geradenobjekt 10 repräsentiert ein Fahrzeug, bzw. dessen Heck, das sich im wesentlichen gerade vor dem Laserscanner 4 befindet.
- Alle anderen Objekte 11, die gemäß Fig. 7b z. B. einen Fußgänger repräsentieren, werden der Objektklasse Sonstige zugeordnet.
- Eine feinere Klassifikation ist mit Hilfe zusätzlicher Objektparameter möglich.
- Im folgenden wird ein als Winkelobjekt klassifiziertes Objekt genauer betrachtet, um die Vorgehensweise bei der Klassifikation, Verdeckungserkennung und der Rekonstruktion genauer zu beschreiben.
- Fig. 8 zeigt ein ein Fahrzeug repräsentierendes Winkelobjekt 6 sowie ein einen Fußgänger repräsentierendes sonstiges Objekt 11, wobei das Winkelobjekt 6 weiter vom Laserscanner 4 entfernt ist als das sonstige Objekt 11. In der folgenden Tabelle sind einige Objekt-Parameter des in Fig. 8 gezeigten Winkelobjekts 6 zum Zeitpunkt t = 1,3 s aufgelistet:
- Unter dem "dichtesten" Punkt wird in vorstehender Tabelle sowie im nachstehenden Text derjenige Meßpunkt eines Objekts verstanden, welcher sich am nächsten am Laserscanner 4 befindet.
- Dem Winkelobjekt 6 (Objekt-Nr. 21) ist das Segment 36 zugeordnet, das aus 92 einzelnen Meßpunkten besteht. Das Objekt wurde schon seit 13 Scans getrackt bzw. verfolgt (Objektalter 13 Scans) und als Winkelobjekt (Klassifikation) in den letzten 13 Scans klassifiziert (Klassifikationsalter 13 Scans).
- Die Position des in den Gleichungen 1.3 und 1.4 beschriebenen Schwerpunkts 12 wurde bestimmt (x = 0,84 m; y = 8,11 m) und zusätzlich der aus dem vorherigen Scan resultierende Schwerpunkt des Objekts - wenn das Objekt wiedererkannt wurde - gespeichert.
- Wichtig für die - nachfolgend noch erläuterte - Rekonstruktion eines Winkelobjekts ist das Speichern der maximalen Länge des linken bzw. rechten Schenkels (Vektors), die jemals in den vergangenen Scans, während derer das Objekt verfolgt wurde, berechnet wurde.
- Außerdem wird die Position des linken 8, dichtesten 7 und rechten 9 Punktes und - wenn Verdeckungen vorliegen - die Position der entsprechend prädizierten Punkte, die auf dem Prädiktionsvektor des Schwerpunkts und dem alten linken (prädizierten) Punkt beruhen, ermittelt. Der Prädiktionsvektor wird nach Durchlaufen der Objektrekonstruktion mit dem aktuellen Schwerpunkt unter Berücksichtigung der Rekonstruktion neu berechnet, wodurch die Prädiktion verbessert werden kann.
- Die Teilverdeckung eines klassifizierten Objekts wird für den linken, dichtesten und rechten Punkt jeweils einzeln geprüft.
- Eine Verdeckung des linken Punktes liegt gemäß Fig. 9 vor, wenn drei der nächsten fünf links des linken Objektpunktes 8' liegenden Punkte dichter als der linke Objektpunkt 8' zum Scanner 4 liegen und nicht zum detektierten Objekt 6, sondern wie in Fig. 9 z. B. zum Objekt 11 gehören. Fig. 9 zeigt eine Darstellung gemäß Fig. 8 zum Zeitpunkt t = 1,4 s, was bedeutet, daß sich der Fußgänger 11 in den 0,1 s zwischen Aufnahme des Bildes gemäß Fig. 8 und Aufnahme des Bildes gemäß Fig. 9 etwas nach rechts bewegt hat, so daß er gemäß Fig. 9 nun den linken äußeren Bereich des linken Schenkels des Winkelobjekts 6 verdeckt. Durch eine geeignete Prädiktion kann jedoch die Position des verdeckten linken Punkts 8" berechnet werden.
- Eine Verdeckung des rechten Objektpunktes 9 läge vor, wenn drei der nächsten fünf rechts des rechten Objektpunktes liegenden Punkte dichter als der rechte Objektpunkt zum Scanner 4 liegen würden.
- Bei dichtesten Punkt wird in gleicher Weise sowohl in linker als auch in rechter Richtung geprüft.
- Eine Verdeckung zwischen linkem, dichtesten und rechten Punkt wird detektiert und liegt vor, wenn eine Lücke zwischen zwei Meßpunkten des Objekts durch nähere bzw. dichtere Punkte entsteht.
- Fig. 10 zeigt ein Bild, welches zum Zeitpunkt t = 1,7 s drei Scans später aufgenommen wurde als das Bild gemäß Fig. 9. Der Fußgänger 11 verdeckt nun einen größeren Teil des linken Schenkels des Fahrzeugs 6, die nachstehende Tabelle zeigt die dazugehörigen Objektparameter.
- Zum Zeitpunkt t = 2,4 s werden gemäß Fig. 11 zwar nicht mehr der linke Punkt 8, aber sowohl der dichteste als auch der rechte Punkt verdeckt, da sich der Fußgänger 11 noch weiter nach rechts bewegt hat. Deswegen wird eine Prädiktion des dichtesten 7' und des rechten 9' Punktes vorgenommen. Nachstehende Tabelle zeigt die Objektparameter zum Zeitpunkt t = 2,4 s.
- Ein weiterer, im Rahmen der Erfindung zu berücksichtigender Aspekt besteht darin, daß die Verdeckung von Teilbereichen von Objekten dergestalt sein kann, daß das verdeckte Objekt in mehrere Teilobjekte zerfällt. Diese können erfindungsgemäß als zusammengehörig erkannt und anschließend fusioniert werden, wie nachfolgend in Verbindung mit Fig. 12 noch beschrieben.
- Fig. 12a und b zeigen ein Fahrzeug 13 sowie ein Fahrrad 14. In Fig. 12a verdeckt das Fahrrad 14 das Fahrzeug 13 nicht, so daß letzteres vom Laserscanner 4 vollständig erfaßt werden kann. In Fig. 12b wird das Fahrzeug 13 vom Fahrrad 14 derart verdeckt, daß das Fahrzeug 13 in fünf Segmente 15 zerfallen ist. Beim Zerfall eines Objektes 13 wird das Tracking für die fünf neuen Objekte, die jeweils aus einem Segment bestehen und die nicht vorherigen Objekten zugeordnet wurden, neu begonnen, die Geschwindigkeit für diese neuen Objekte wird mit einem Startwert belegt (hier 0 km/h: ungenaue Annahme).
- Um auch mehrere Segmente dem Objekt zuordnen zu können, wird ein Suchraum aufgespannt, der den Abmessungen desjenigen Objekts entspricht, das in den vorherigen Scans ermittelt wurde. Alle Segmente, die sich in diesem Suchraum befinden, können dem Objekt zugeordnet werden (siehe Fig. 12c), wodurch nicht nur die Entstehung virtueller Objekte vermieden wird, sondern auch die eigentliche Geschwindigkeit des Objekts ermittelt werden kann.
- Für die in Verbindung mit den Fig. 9 bis 12 erwähnte, eigentliche Rekonstruktion der Objekte wird mit Hilfe der Prädiktionen die Richtung der Schenkel der Winkelobjekte bestimmt. Die Schenkel können dann bis zu ihrer bekannten maximalen Länge mit einer der Winkelschrittweite des Laserscanners entsprechenden Punktanzahl aufgefüllt werden. Dabei ergeben sich für den neu zu berechnenden Objektschwerpunkt folgende Gleichungen:
S (o,n)|x: x-Koordinate des Schwerpunkts des o-ten Objekts im n-ten Scan.
S (o,n)|y: y-Koordinate des Schwerpunkts des o-ten Objekts im n-ten Scan.
N: Anzahl der Meßpunkte des o-ten Objekts im n-ten Scan.
M: Anzahl der möglichen Meßpunkte in der Lücke des o-ten Objekts im n-ten Scan.
x (o,n)|i: x-Koordinate des i-ten Meßpunkts des o-ten Objekts im n-ten Scan.
y (o,n)|i: y Koordinate des i-ten Meßpunkts des o-ten Objekts im n-ten Scan.
M.x (o,n)|Lücke: x-Koordinate des gewichteten Schwerpunkts der Lücke des o-ten Objekts im n-ten Scan.
M.y (o,n)|Lücke: y-Koordinate des gewichteten Schwerpunkts der Lücke des o-ten Objekts im n-ten Scan.
Claims (21)
1. Verfahren zur Bestimmung von Bewegungsinformationen zumindest
eines innerhalb eines Überwachungsbereichs befindlichen Objektes
(2, 3), bei dem in zeitlicher Abfolge eine Anzahl von n Bildern i (mit i
= 1, 2, 3, . . ., x-2, x-1, x, x+1, . . . n) des Überwachungsbereichs
erfaßt, die Positionen signifikanter Referenzpunkte des Objektes (2, 3)
innerhalb der erfaßten Bilder bestimmt und aus diesen, jeweils
einem Bild zugeordneten Referenzpunkt-Positionen mittels eines
Auswertealgorithmus eine auf das Objekt (2, 3) bezogene
Bewegungsinformation abgeleitet wird,
dadurch gekennzeichnet,
daß bei Überdeckung zu erfassender Referenzpunkte in einem Bild x
durch ein Vordergrundobjekt die den überdeckten Referenzpunkten
entsprechenden Referenzpunkte im Bild x-1 in demjenigen
Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in
dem die Bilder x und x-1 verarbeitet werden.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß auch die den überdeckten Referenzpunkten des Bildes x
entsprechenden Referenzpunkte in einem oder mehreren Bildern, die
vor dem Bild x-1 erfaßt wurden, in denjenigen Berechnungszyklen
des Auswertealgorithmus unberücksichtigt bleiben, in denen diese
Bilder verarbeitet werden.
3. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß auch die den überdeckten Referenzpunkten des Bildes x
entsprechenden Referenzpunkte des Bildes x+1 in demjenigen
Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in
dem die Bilder x und x+ 1 verarbeitet werden.
4. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß die den überdeckten Referenzpunkten des Bildes x
entsprechenden Referenzpunkte des Bildes x+1 in demjenigen
Berechnungszyklus des Auswertealgorithmus wieder berücksichtigt
werden, in dem die Bilder x+1 und x+2 verarbeitet werden.
5. Verfahren zur Bestimmung von Bewegungsinformationen zumindest
eines innerhalb eines Überwachungsbereichs befindlichen Objektes
2, 3, bei dem in zeitlicher Abfolge eine Anzahl von n Bildern i (mit i =
1, 2, 3, . . ., x-2, x-1, x, x+1, . . . n) des Überwachungsbereichs erfaßt,
die Positionen signifikanter Referenzpunkte des Objektes (2, 3)
innerhalb der erfaßten Bilder bestimmt und aus diesen, jeweils einem
Bild zugeordneten Referenzpunkt-Positionen mittels eines
Auswertealgorithmus eine auf das Objekt (2, 3) bezogene
Bewegungsinformation abgeleitet wird,
dadurchgekennzeichnet,
daß bei Überdeckung zu erfassender Referenzpunkte in einem Bild x
durch ein Vordergrundobjekt die Positionen der überdeckten
Referenzpunkte im Bild x rechnerisch aus den nicht überdeckten
Referenzpunkten dieses Bildes ermittelt und im Auswertealgorithmus
berücksichtigt werden.
6. Verfahren nach Anspruch 5,
dadurch gekennzeichnet,
daß die Positionen der überdeckten Referenzpunkte im Bild x
rechnerisch aus den nicht überdeckten Referenzpunkten dieses Bildes
und zusätzlich aus objektbezogenen Informationen vorhergehender
Bilder ermittelt werden.
7. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß mittels des Auswertealgorithmus im Rahmen eines
Berechnungszyklus immer zwei aufeinanderfolgend erfaßte Bilder
verarbeitet werden.
8. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß die zu erfassenden Objekte (2, 3) jeweils einer von mehreren
Objektklassen zugeordnet werden, wobei jede Objektklasse durch
objektklassenspezifische Parameter gekennzeichnet ist.
9. Verfahren nach Anspruch 8,
dadurch gekennzeichnet,
daß mittels des Auswertealgorithmus Referenzpunkt-Positionen, aus
diesen Referenzpunkt-Positionen abgeleitete Zusatzinformationen,
wie z. B. Bewegungsrichtung und Geschwindigkeit, und/oder
objektklassenspezifische Parameter verarbeitet werden.
10. Verfahren nach einem der Ansprüche 8 oder 9,
dadurch gekennzeichnet,
daß je eine Objektklasse für zwei oder mehr der folgenden sechs
Objekttypen vorgesehen ist:
2-Rad-Fahrer, Person, Bus/LKW, PKW, Pfahl, Mauer/Leitplanke.
2-Rad-Fahrer, Person, Bus/LKW, PKW, Pfahl, Mauer/Leitplanke.
11. Verfahren nach einem der Ansprüche 8 bis 10,
dadurch gekennzeichnet,
daß jeder Objektklasse typische geometrische Parameter, wie
insbesondere die Objekthöhe, ein Objekthöhenbereich, die Objektkontur
und/oder ein Objektkonturbereich zugeordnet werden.
12. Verfahren nach einem der Ansprüche 8 bis 11,
dadurch gekennzeichnet,
daß jeder Objektklasse typische dynamische Parameter, wie
insbesondere die Geschwindigkeit, ein Geschwindigkeitsbereich, eine
Beschleunigung und/oder ein Beschleunigungsbereich zugeordnet
werden.
13. Verfahren nach einem der Ansprüche 8 bis 12,
dadurch gekennzeichnet,
daß zumindest bestimmten Objektklassen typische, jeweils auf
andere Objektklassen bezogene Relationsparameter zugeordnet
werden, die insbesondere dazu dienen, bei der Zuordnung von Objekten
zu Objektklassen bestimmte Objektklassen auszuschließen.
14. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß die ermittelten Bilder jeweils aus einer Anzahl von Bildpunkten
bestehen.
15. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß Objekte (2, 3) in Form einer Anzahl von Objektpunkten erfaßt
werden.
16. Verfahren nach Anspruch 15,
dadurch gekennzeichnet,
daß als Objektpunkte solche Punkte verwendet werden, die auf der
Konturlinie der Objekte liegen.
17. Verfahren nach Anspruch 16,
dadurch gekennzeichnet,
daß die Objektpunkte auf der gesamten Konturlinie des Objektes (2,
3) verteilt sind.
18. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß die Bilder mittels eines Scanners, insbesondere mittels eines
Laserscanners ermittelt werden.
19. Verfahren nach Anspruch 18,
dadurch gekennzeichnet,
daß der Laserscanner den Überwachungsbereich zeilenweise oder
flächig abtastet.
20. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß als Bewegungsinformation die Bewegungsrichtung, die
Geschwindigkeit und/oder die Beschleunigung eines Objektes (2, 3)
ermittelt wird.
21. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
daß die Verwendung eines Verfahrens nach einem der
vorhergehenden Ansprüche zur Erfassung der Umgebung eines Fahrzeugs,
wobei insbesondere auch die Fahrzeuggeschwindigkeit, die
Fahrzeugbeschleunigung, der Lenkwinkel, die Lenkwinkeländerung, die
Gierrate, die Gierratenänderung und/oder die Bewegungsrichtung des
Fahrzeugs in den Auswertealgorithmus eingehen.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10141055A DE10141055B4 (de) | 2001-08-22 | 2001-08-22 | Verfahren zur Bestimmung von Bewegungsinformationen |
DE50206591T DE50206591D1 (de) | 2001-08-22 | 2002-08-21 | Verfahren zur erkennung und verfolgung von objekten |
AT02796260T ATE324597T1 (de) | 2001-08-22 | 2002-08-21 | Verfahren zur erkennung und verfolgung von objekten |
PCT/EP2002/009362 WO2003019234A1 (de) | 2001-08-22 | 2002-08-21 | Verfahren zur erkennung und verfolgung von objekten |
EP02796260A EP1419402B1 (de) | 2001-08-22 | 2002-08-21 | Verfahren zur erkennung und verfolgung von objekten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10141055A DE10141055B4 (de) | 2001-08-22 | 2001-08-22 | Verfahren zur Bestimmung von Bewegungsinformationen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10141055A1 true DE10141055A1 (de) | 2003-03-06 |
DE10141055B4 DE10141055B4 (de) | 2013-09-05 |
Family
ID=7696198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10141055A Expired - Lifetime DE10141055B4 (de) | 2001-08-22 | 2001-08-22 | Verfahren zur Bestimmung von Bewegungsinformationen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10141055B4 (de) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008068088A1 (de) * | 2006-12-05 | 2008-06-12 | Robert Bosch Gmbh | Verfahren zum betrieb eines radarsystems bei möglicher zielobjektverdeckung sowie radarsystem zur durchführung des verfahrens |
US7408462B2 (en) | 2004-09-16 | 2008-08-05 | Sick Ag | Control of monitored zone |
CN102472817A (zh) * | 2009-07-31 | 2012-05-23 | 本田技研工业株式会社 | 车用物体探测装置和车用物体探测方法 |
CN103543477A (zh) * | 2013-10-30 | 2014-01-29 | 昆山奥德鲁自动化技术有限公司 | 全自动缺针影像检测机 |
DE102016105536A1 (de) * | 2016-03-24 | 2017-09-28 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Erfassung von wenigstens einem Objekt, Vorrichtung einer Sensoreinrichtung, Sensoreinrichtung und Fahrerassistenzsystem mit wenigstens einer Sensoreinrichtung |
USRE48490E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
US10983218B2 (en) | 2016-06-01 | 2021-04-20 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US11073617B2 (en) | 2016-03-19 | 2021-07-27 | Velodyne Lidar Usa, Inc. | Integrated illumination and detection for LIDAR based 3-D imaging |
US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
US11137480B2 (en) | 2016-01-31 | 2021-10-05 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US11294041B2 (en) | 2017-12-08 | 2022-04-05 | Velodyne Lidar Usa, Inc. | Systems and methods for improving detection of a return signal in a light ranging and detection system |
US11703569B2 (en) | 2017-05-08 | 2023-07-18 | Velodyne Lidar Usa, Inc. | LIDAR data acquisition and control |
US11796648B2 (en) | 2018-09-18 | 2023-10-24 | Velodyne Lidar Usa, Inc. | Multi-channel lidar illumination driver |
US11808891B2 (en) | 2017-03-31 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Integrated LIDAR illumination power control |
US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
US11933967B2 (en) | 2019-08-22 | 2024-03-19 | Red Creamery, LLC | Distally actuated scanning mirror |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4411179A1 (de) * | 1993-03-31 | 1994-10-06 | Mitsubishi Electric Corp | Bildeinfangvorrichtung |
US5590217A (en) * | 1991-04-08 | 1996-12-31 | Matsushita Electric Industrial Co., Ltd. | Vehicle activity measuring apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9019538D0 (en) * | 1990-09-07 | 1990-10-24 | Philips Electronic Associated | Tracking a moving object |
JPH0883392A (ja) * | 1994-09-14 | 1996-03-26 | Toshiba Corp | 車両検出方法及び車両検出装置 |
DE10110420A1 (de) * | 2001-03-05 | 2002-09-12 | Sick Ag | Vorrichtung zur Bestimmung eines Abstandsprofils |
-
2001
- 2001-08-22 DE DE10141055A patent/DE10141055B4/de not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5590217A (en) * | 1991-04-08 | 1996-12-31 | Matsushita Electric Industrial Co., Ltd. | Vehicle activity measuring apparatus |
DE4411179A1 (de) * | 1993-03-31 | 1994-10-06 | Mitsubishi Electric Corp | Bildeinfangvorrichtung |
Non-Patent Citations (1)
Title |
---|
JP 08083392 A., In: Patent Abstracts of Japan * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7408462B2 (en) | 2004-09-16 | 2008-08-05 | Sick Ag | Control of monitored zone |
USRE48490E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48688E1 (en) | 2006-07-13 | 2021-08-17 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48666E1 (en) | 2006-07-13 | 2021-08-03 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48503E1 (en) | 2006-07-13 | 2021-04-06 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48504E1 (en) | 2006-07-13 | 2021-04-06 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48491E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition lidar system |
US8514124B2 (en) | 2006-12-05 | 2013-08-20 | Robert Bosch Gmbh | Method for operating a radar system in the event of possible concealment of the target object and radar system for performing the method |
WO2008068088A1 (de) * | 2006-12-05 | 2008-06-12 | Robert Bosch Gmbh | Verfahren zum betrieb eines radarsystems bei möglicher zielobjektverdeckung sowie radarsystem zur durchführung des verfahrens |
US8717225B2 (en) | 2009-07-31 | 2014-05-06 | Honda Motor Co., Ltd. | Object detection device for vehicle and object detection method for vehicle |
CN102472817B (zh) * | 2009-07-31 | 2014-02-26 | 本田技研工业株式会社 | 车用物体探测装置和车用物体探测方法 |
EP2461179A4 (de) * | 2009-07-31 | 2012-06-06 | Honda Motor Co Ltd | Objektserkennungsvorrichtung für fahrzeuge und objekterkennungsverfahren für fahrzeuge |
EP2461179A1 (de) * | 2009-07-31 | 2012-06-06 | Honda Motor Co., Ltd. | Objektserkennungsvorrichtung für fahrzeuge und objekterkennungsverfahren für fahrzeuge |
CN102472817A (zh) * | 2009-07-31 | 2012-05-23 | 本田技研工业株式会社 | 车用物体探测装置和车用物体探测方法 |
CN103543477A (zh) * | 2013-10-30 | 2014-01-29 | 昆山奥德鲁自动化技术有限公司 | 全自动缺针影像检测机 |
US11822012B2 (en) | 2016-01-31 | 2023-11-21 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US11698443B2 (en) | 2016-01-31 | 2023-07-11 | Velodyne Lidar Usa, Inc. | Multiple pulse, lidar based 3-D imaging |
US11137480B2 (en) | 2016-01-31 | 2021-10-05 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US11550036B2 (en) | 2016-01-31 | 2023-01-10 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US11073617B2 (en) | 2016-03-19 | 2021-07-27 | Velodyne Lidar Usa, Inc. | Integrated illumination and detection for LIDAR based 3-D imaging |
DE102016105536A1 (de) * | 2016-03-24 | 2017-09-28 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Erfassung von wenigstens einem Objekt, Vorrichtung einer Sensoreinrichtung, Sensoreinrichtung und Fahrerassistenzsystem mit wenigstens einer Sensoreinrichtung |
US11567172B2 (en) | 2016-03-24 | 2023-01-31 | Valeo Schalter Und Sensoren Gmbh | Method for capturing at least one object, device of a sensor apparatus, sensor apparatus and driver assistance system with at least one sensor apparatus |
US11550056B2 (en) | 2016-06-01 | 2023-01-10 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning lidar |
US11561305B2 (en) | 2016-06-01 | 2023-01-24 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US11808854B2 (en) | 2016-06-01 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US10983218B2 (en) | 2016-06-01 | 2021-04-20 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US11874377B2 (en) | 2016-06-01 | 2024-01-16 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US11808891B2 (en) | 2017-03-31 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Integrated LIDAR illumination power control |
US11703569B2 (en) | 2017-05-08 | 2023-07-18 | Velodyne Lidar Usa, Inc. | LIDAR data acquisition and control |
US11294041B2 (en) | 2017-12-08 | 2022-04-05 | Velodyne Lidar Usa, Inc. | Systems and methods for improving detection of a return signal in a light ranging and detection system |
US11796648B2 (en) | 2018-09-18 | 2023-10-24 | Velodyne Lidar Usa, Inc. | Multi-channel lidar illumination driver |
US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
US11933967B2 (en) | 2019-08-22 | 2024-03-19 | Red Creamery, LLC | Distally actuated scanning mirror |
Also Published As
Publication number | Publication date |
---|---|
DE10141055B4 (de) | 2013-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19636028C1 (de) | Verfahren zur Stereobild-Objektdetektion | |
EP1589484B1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
DE102009023326B4 (de) | Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben | |
DE10141055B4 (de) | Verfahren zur Bestimmung von Bewegungsinformationen | |
DE19831413C2 (de) | Bildverarbeitungsverfahren und Vorrichtungen zur Erkennung von Objekten im Verkehr | |
DE10324895A1 (de) | Verfahren und Vorrichtung zur Objektortung für Kraftfahrzeuge | |
EP2005361A1 (de) | Multisensorieller hypothesen-basierter objektdetektor und objektverfolger | |
EP3782117A1 (de) | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten | |
WO2020094170A1 (de) | Verfahren und verarbeitungseinheit zur ermittlung von information in bezug auf ein objekt in einem umfeld eines fahrzeugs | |
EP1460454B1 (de) | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern | |
DE102007013664A1 (de) | Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger | |
EP1306690A2 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
DE102006039104A1 (de) | Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems | |
DE102020004690A1 (de) | Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung | |
DE102012023060A1 (de) | Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug | |
DE112009003648T5 (de) | Verfahren und Vorrichtung zur Barrierentrennung | |
EP1298012B1 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
EP1419402A1 (de) | Verfahren zur erkennung und verfolgung von objekten | |
EP2387017A2 (de) | Verfahren und Vorrichtung zur Erfassung von Verkehrsdaten aus digitalen Luftbildsequenzen | |
DE102006037600B4 (de) | Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs | |
EP1646008A1 (de) | Verfahren zur Erkennung von Hindernissen im Fahrweg eines Kraftfahrzeugs | |
DE102008036219A1 (de) | Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs | |
DE102013012778A1 (de) | Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug | |
DE102019209473A1 (de) | Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene | |
DE102020208080A1 (de) | Erkennung von Objekten in Bildern unter Äquivarianz oder Invarianz gegenüber der Objektgröße |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8110 | Request for examination paragraph 44 | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |
Effective date: 20131206 |
|
R082 | Change of representative | ||
R081 | Change of applicant/patentee |
Owner name: SICK AG, DE Free format text: FORMER OWNER: IBEO AUTOMOBILE SENSOR GMBH, 22143 HAMBURG, DE Effective date: 20140821 |
|
R081 | Change of applicant/patentee |
Owner name: IBEO AUTOMOTIVE SYSTEMS GMBH, DE Free format text: FORMER OWNER: SICK AG, 79183 WALDKIRCH, DE |
|
R082 | Change of representative |
Representative=s name: RGTH RICHTER GERBAULET THIELEMANN HOFMANN PATE, DE |
|
R071 | Expiry of right |