DE10141055A1 - Verfahren zur Bestimmung von Bewegungsinformationen - Google Patents

Verfahren zur Bestimmung von Bewegungsinformationen

Info

Publication number
DE10141055A1
DE10141055A1 DE10141055A DE10141055A DE10141055A1 DE 10141055 A1 DE10141055 A1 DE 10141055A1 DE 10141055 A DE10141055 A DE 10141055A DE 10141055 A DE10141055 A DE 10141055A DE 10141055 A1 DE10141055 A1 DE 10141055A1
Authority
DE
Germany
Prior art keywords
image
reference points
images
evaluation algorithm
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10141055A
Other languages
English (en)
Other versions
DE10141055B4 (de
Inventor
Ulrich Lages
Kay Fuerstenberg
Volker Willhoeft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ibeo Automotive Systems GmbH
Original Assignee
Ibeo Automobile Sensor GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ibeo Automobile Sensor GmbH filed Critical Ibeo Automobile Sensor GmbH
Priority to DE10141055A priority Critical patent/DE10141055B4/de
Priority to DE50206591T priority patent/DE50206591D1/de
Priority to AT02796260T priority patent/ATE324597T1/de
Priority to PCT/EP2002/009362 priority patent/WO2003019234A1/de
Priority to EP02796260A priority patent/EP1419402B1/de
Publication of DE10141055A1 publication Critical patent/DE10141055A1/de
Application granted granted Critical
Publication of DE10141055B4 publication Critical patent/DE10141055B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bestimmung von Bewegungsinformationen zumindest eines innerhalb eines Überwachungsbereichs befindlichen Objektes, bei dem in zeitlicher Abfolge eine Anzahl von n Bildern i (mit i = 1, 2, 3, ..., x-2, x-1, x, x+1, ...n) des Überwachungsbereichs erfaßt, die Positionen signifikanter Referenzpunkte des Objektes innerhalb der erfaßten Bilder bestimmt und aus diesen, jeweils einem Bild zugeordneten Referenzpunkt-Positionen mittels eines Auswertealgorithmus eine auf das Objekt bezogene Bewegungsinformation abgeleitet wird, bei dem entweder DOLLAR A - bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die den überdeckten Referenzpunkten entsprechenden Referenzpunkte im Bild x-1 in demjenigen Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in dem die Bilder x und x-1 verarbeitet werden, oder bei dem DOLLAR A - bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die Positionen der überdeckten Referenzpunkte im Bild x rechnerisch aus den nicht überdeckten Referenzpunkten dieses Bildes ermittelt und im Auswertealgorithmus berücksichtigt werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung von Bewegungsinformationen zumindest eines innerhalb eines Überwachungsbereichs befindlichen Objektes, bei dem in zeitlicher Abfolge eine Anzahl von n Bildern i (mit i = 1, 2, 3, . . ., x-2, x-1, x, x+1, . . . n) des Überwachungsbereichs erfaßt, die Positionen signifikanter Referenzpunkte des Objektes innerhalb der erfaßten Bilder bestimmt und aus diesen, jeweils einem Bild zugeordneten Referenzpunkt-Positionen mittels eines Auswertealgorithmus eine auf das Objekt bezogene Bewegungsinformation abgeleitet wird.
  • Derartige Verfahren sind bekannt und werden beispielsweise dazu verwendet, die Geschwindigkeit von Objekten zu berechnen. Dabei geht in den Berechnungsalgorithmus zum einen die zwischen der Aufnahme eines ersten und eines zweiten Bildes zurückgelegte Wegstrecke des Objektes ein, die aus der Posititonsänderung des Objektes im zweiten Bild gegenüber dem ersten Bild ableitbar ist. Zum anderen geht die Zeit, die zwischen der Aufnahme des ersten und des zweiten Bildes verstrichen ist, in die genannte Berechnung ein.
  • Mit geeigneten weiteren Algorithmen sind neben der Geschwindigkeit beispielsweise auch die Bewegungsrichtung sowie die Beschleunigung von Objekten bestimmbar.
  • Problematisch bei Verfahren der bekannten Art sind Situationen, in denen das zu verfolgende Objekt bei der Aufnahme zumindest eines Bildes durch ein Vordergrundobjekt teilweise verdeckt wird. In diesem Fall bereitet es Probleme, das nur teilweise auf dem aufgenommenen Bild dargestellte Objekt mit vollständigen Aufnahmen des Objektes in anderen Bildern zu vergleichen, da letztlich sich voneinander unterscheidende Bilder ein und desselben Objekts miteinander verglichen werden müssen. Ein Vergleich ist besonders schwierig, wenn bei dem teilverdeckten Objektbild wichtige Referenzpunkte des Objektes, die für dessen Positionsbestimmung benötigt werden, nicht zu sehen sind.
  • Eine der Erfindung zugrunde liegende Aufgabe besteht dementsprechend darin, ein Verfahren der eingangs genannten Art derart weiterzubilden, daß auch bei einer Verarbeitung von Bildern mit teilverdeckten Objekten eine Bewegungsinformation des verfolgten Objekts zuverlässig und korrekt abgeleitet werden kann.
  • Diese Aufgabe wird gemäß einer ersten Alternative der vorliegenden Erfindung dadurch gelöst, daß bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die den überdeckten Referenzpunkten entsprechenden Referenzpunkte im Bild x-1 in demjenigen Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in dem die Bilder x und x-1 verarbeitet werden.
  • Wenn also erfindungsgemäß zwei Bilder x-1 und x miteinander verglichen werden, um aus den Positionen der Referenzpunkte des verfolgten Objekts Bewegungsinformationen bezüglich dieses Objekts abzuleiten, wird untersucht, welche Referenzpunkte des Objektes im Bild x durch ein Vordergrundobjekt verdeckt sind, woraufhin dann das Bild x-1 im Auswertealgorithmus so behandelt wird, als ob im Bild x-1 diese Referenzpunkte ebenfalls nicht vorhanden gewesen wären. Diese, auch beim Bild x-1 unterbleibende Berücksichtigung der im Bild x verdeckten Referenzpunkte führt dann dazu, daß beim Vergleich der beiden Bilder x und x-1 jeweils nur Referenzpunkte miteinander verglichen werden, die in beiden Bildern vorhanden sind, was - anschaulich formuliert - bedeutet, daß letztlich nur Objekte miteinander verglichen werden, die untereinander gleich aussehen. Dieser erfindungsgemäß auch bei im Bild x teilverdeckten Objekten mögliche Vergleich untereinander gleicher Objekte bedingt somit auf vorteilhafte Weise, daß in den Auswertealgorithmus nur solche Referenzpunkte eingehen, die in beiden Bildern x und x-1 vorhanden sind, weshalb mittels des Auswertealgorithmus die gewünschten Bewegungsinformationen des Objektes problemlos zu ermitteln sind.
  • In diesem Zusammenhang sei bemerkt, daß im Rahmen der Erfindung unter "Referenzpunkten" alle objektspezifischen Daten verstanden werden, die in den Auswertealgorithmus eingehen, also nicht nur Positionen signifikanter Stellen des Objektes im Bild, sondern auch dynamische Parameter der Objekte, wie z. B. Geschwindigkeit, Beschleunigung und Bewegungsrichtung oder objektklassenspezifische Parameter, die nachstehend im Rahmen der Erläuterung einer erfindungsgemäßen Objektklassifizierung noch erklärt werden.
  • Im Rahmen der ersten Alternative der Erfindung ist es möglich, nicht nur die genannten Referenzpunkte im Bild x-1 unberücksichtigt zu lassen, sondern zusätzlich auch die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte in einem oder mehreren Bildern nicht zu berücksichtigen, die vor dem Bild x-1 erfaßt wurden. So wird sichergestellt, daß auch bei Verarbeitung derjenigen Bilder, die vor dem Bild x-1 erfaßt wurden, immer nur Referenzpunkte in die jeweiligen Berechnungszyklen des Auswertealgorithmus eingehen, die in allen im jeweiligen Berechnungszyklus verarbeiteten Bildern vorhanden sind.
  • Alternativ können die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte in denjenigen Bildern, die vor dem Bild x-1 erfaßt wurden, im Auswertealgorithmus jedoch auch berücksichtigt werden. In diesem Fall müssen im Rahmen desjenigen Berechnungszyklus, in dem das Bild x-1 und Bilder die vor diesem Bild x-1 erfaßt wurden, verarbeitet werden, alle Referenzpunkte des Bildes x-1 berücksichtigt werden, also auch diejenigen, die im Bild x überdeckt waren.
  • Im Rahmen der ersten Alternative der Erfindung ist es weiterhin möglich, daß auch die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte des Bildes x+1 in demjenigen Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in dem die Bilder x und x+1 verarbeitet werden. Die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte des Bildes x+1 werden dann jedoch in demjenigen Berechnungszyklus wieder berücksichtigt, in dem die Bilder x+1 und x+2 verarbeitet werden. So wird sichergestellt, daß in jedem Berechnungszyklus des Auswertealgorithmus immer nur Bilder miteinander vollständig entsprechenden Referenzpunkten verarbeitet werden.
  • Gemäß einer zweiten Alternative der Erindung wird die eingangs genannte Aufgabe dadurch gelöst, daß bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die Positionen der überdeckten Referenzpunkte im Bild x rechnerisch aus den nicht überdeckten Referenzpunkten dieses Bildes ermittelt und im Auswertealgorithmus berücksichtigt werden.
  • Auch durch diese erfindungsgemäße Alternative wird der vorstehend bereits erläuterte Vorteil erreicht, daß im Auswertealgorithmus nur solche Referenzpunkte verarbeitet werden, die in allen Bildern vorhanden sind, die im Rahmen eines Berechnungszyklus des Auswertealgorithmus verarbeitet werden.
  • Bevorzugt ist es dabei, wenn die Positionen der überdeckten Referenzpunkte im Bild x nicht nur aus den nicht überdeckten Referenzpunkten dieses Bildes, sondern zusätzlich auch aus objektbezogenen Informationen vorhergehender Bilder ermittelt werden. So kann zur Rekonstruktion von teilverdeckten Objekten im Bild x auch Information aus Bildern herangezogen werden, die vor dem Bild x erfaßt wurden und in denen das im Bild x teilverdeckte Objekt vollständig dargestellt war.
  • Die nachfolgend erläuterten bevorzugten Ausführungsformen der Erfindung beziehen sich sowohl auf die erste als auch auf die zweite erfindungsgemäße Lösungsalternative.
  • Mittels des Auswertealgorithmus können im Rahmen eines Berechnungszyklus immer zwei aufeinanderfolgend erfaßte Bilder verarbeitet werden. Alternativ ist es jedoch auch möglich, mehr als zwei Bilder in einem Berechnungszyklus zu verarbeiten, wobei dann im Rahmen des erfindungsgemäßen Verfahrens sicherzustellen ist, daß alle in einem Berechnungszyklus verarbeiteten Bilder mit jeweils einander entsprechenden Referenzpunkten in den Berechnungszyklus eingehen.
  • Besonders bevorzugt ist es, wenn die zu erfassenden Objekte jeweils einer von mehreren Objektklassen zugeordnet werden, wobei jede Objektklasse durch objektklassenspezifische Parameter gekennzeichnet ist. Diese Klassifizierung ermöglicht ein verbessertes Erkennen von Objekten, da es nicht mehr nötig ist, ein Objekt genau zu erkennen, sondern lediglich festgestellt werden muß, zu welcher Objektklasse ein erfaßtes Objekt gehört. In den Auswertealgorithmus können dann zusätzlich zu den Positionen signifikanter Bereiche des Objektes auch noch objektklassespezifische Parameter eingehen. Insbesondere können in den Auswertealgorithmus die genannten Referenzpunkt-Positionen, aus diesen Referenzpunkt- Positionen abgeleitete Zusatzinformationen, wie z. B. Bewegungsrichtung und Geschwindigkeit und/oder objektklassenspezifische Parameter eingehen.
  • Es kann beispielsweise je eine Objektklasse für zwei oder mehr der folgenden sechs Objekttypen vorgesehen werden:
    Zweirad-Fahrer, Person, Bus/Lkw, Pkw, Pfahl, Mauer/Leitplanke. Insbesondere bei Anwendung des erfindungsgemäßen Verfahrens im Straßenverkehr können diese sechs Objekttypen bereits ausreichen, um den jeweiligen Überwachungsbereich ausreichend genau zu erfassen und Bewegungsinformationen jeweils interessierender, den Objektklassen zugeordneter Objekte zu ermitteln.
  • Jeder Objektklasse können typische geometrische Parameter, wie insbesondere die Objekthöhe, ein Objekthöhenbereich, die Objektkontur und/oder ein Objektkonturbereich zugeordnet werden. Bei Zuordnung der genannten Bereiche wird es möglich, im Rahmen der Klassifizierung erfaßter Objekte bestimmte Objektklassen von vornherein auszuschließen. Wenn beispielsweise bezüglich eines erfaßten Objekts entschieden werden muß, ob es der Objektklasse "Zweirad-Fahrer" oder der Objektklasse "Bus/Lkw" zugeordnet werden muß, kann die Objektklasse "Zweirad- Fahrer" ausgeschlossen werden, wenn das erfaßte Objekt eine Höhe aufweist, die größer ist, als es der für die Objektklasse "Zweirad-Fahrer" geltende Objekthöhenbereich zuläßt.
  • Jeder Objektklasse können weiterhin typische dynamische Parameter, wie insbesondere eine Geschwindigkeit, ein Geschwindigkeitsbereich, eine Beschleunigung und/oder ein Beschleunigungsbereich zugeordnet werden. Auch durch diese Bereiche lassen sich bei zweifelhafter Zuordnung eines Objekts zu bestimmten Objektklassen wiederum Ausschlußkriterien formulieren.
  • Zudem können zumindest bestimmten Objektklassen typische, jeweils auf andere Objektklassen bezogenen Relationsparameter zugeordnet werden, die insbesondere dazu dienen, bei der Zuordnung von Objekten zu Objektklassen bestimmte Objektklassen auszuschließen. Wenn sich beispielsweise ein zu klassifizierendes Objekt mittig zwischen zwei Leitplanken befindet, die eine Fahrbahn begrenzen, kann es sich dabei nicht um einen Pfahl handeln, da Pfähle in der Fahrbahnmitte nicht vorkommen. Vielmehr ist es dann bei einer hohen und schmalen Form des Objektes wahrscheinlich, daß es sich hierbei um eine Person handelt. Insofern wird hier also der Objektklasse "Pfahl" ein Relationsparameter zugeordnet, gemäß dem es nicht zulässig ist, daß sich ein Objekt dieser Objektklasse in etwa mittig zwischen zwei Objekten der Klasse "Mauer/Leitplanke" befindet. Es lassen sich hier beliebige weitere Relationsparameter und Ausschlußkriterien formulieren.
  • Die ermittelten Bilder bestehen jeweils aus einzelnen Bildpunkten. Als Objektpunkte können dabei solche Bildpunkte verwendet werden, die auf der Konturlinie der erfaßten Objekte liegen. Besonders bevorzugt ist es, wenn die Objektpunkte auf der gesamten Konturlinie des Objekts verteilt sind.
  • Die mittels des Auswertealgorithmus zu verarbeitenden Bilder können mittels eines Scanners, insbesondere mittels eines Laserscanners ermittelt werden. Ein solcher Laserscanner kann den Überwachungsbereich zeilenweise oder aber auch flächig abtasten. Ein solcher, flächig abtastender Laserscanner ist beispielsweise in der deutschen Patentanmeldung DE 101 10 420.0 beschrieben.
  • Als Bewegungsinformation kann die Bewegungsrichtung, die Geschwindigkeit und/oder die Beschleunigung eines Objektes ermittelt werden.
  • Besonders bevorzugt ist die Verwendung des erfindungsgemäßen Verfahrens bei der Erfassung der Umgebung eines Fahrzeugs, wobei insbesondere auch die Fahrzeuggeschwindigkeit, die Fahrzeugbeschleunigung, Lenkwinkel, Lenkwinkeländerung, Gierrate, Gierratenänderung und/ oder die Bewegungsrichtung des Fahrzeugs, in dem das erfindungsgemäße Verfahren durchgeführt wird, in den Auswertealgorithmus eingehen.
  • Weitere bevorzugte Ausführungsformen der Erfindung sind in den Unteransprüchen angegeben.
  • Die Erfindung wird nachfolgend anhand zweier möglicher Ausführungsbeispiele unter Bezugnahme auf die Figuren erläutert; in diesen zeigen:
  • Fig. 1 ein Bild x-1 gemäß Stand der Technik,
  • Fig. 2 ein Bild x gemäß Stand der Technik,
  • Fig. 3 ein Bild x+1 gemäß Stand der Technik,
  • Fig. 4 ein Bild x-1 gemäß einer ersten Alternative der Erfindung,
  • Fig. 5 ein Bild x+1 gemäß einer ersten Alternative der Erindung,
  • Fig. 6 ein Bild x gemäß einer zweiten Alternative der Erfindung, und
  • Fig. 7 bis 12 Bilder eines Laserscanners mit ermittelten Meßpunkten, berechneten und prädizierten Punkten.
  • Das Bild x-1 gemäß Fig. 1 zeigt schematisiert eine Fahrbahn 1, auf der sich in Pfeilrichtung ein Lkw 2 bewegt, welcher vereinfacht als Kontur eines Quaders dargestellt ist. Am Rand der Fahrbahn 1, außerhalb dieser Fahrbahn 1, befindet sich ein stationär angeordneter Pfahl 3, beispielsweise ein Straßenlaterne. Lkw 2 und Pfahl 3 sind gemäß Fig. 1 relativ zueinander so angeordnet, daß der Pfahl 3 die Konturlinie des Lkw 2 nicht verdeckt, so daß die gesamte Kontur des Lkw 2 mittels eines Scanners oder einer Kamera erfaßt werden kann.
  • In dem zeitlich nach dem Bild x-1 gemäß Fig. 1 aufgenommenen Bild x gemäß Fig. 2 hat sich der Lkw 2 auf der Fahrbahn 1 in Pfeilrichtung soweit vorwärts bewegt, daß ein Bereich seiner Konturlinie durch den Pfahl 3 verdeckt wird. Bei Aufnahme des Bildes x gemäß Fig. 2 mittels eines Scanners oder einer Kamera kann also nicht die gesamte Konturlinie des Lkw 2 erfaßt werden, was bedeutet, daß sich die Konturlinien des Bildes x-1 und des Bildes x hinsichtlich ihrer Vollständigkeit voneinander unterscheiden.
  • Das Bild x+1 gemäß Fig. 3 wurde wiederum nach dem Bild x gemäß Fig. 2 aufgenommen. In diesem Bild gemäß Fig. 3 hat sich der Lkw 2 gegenüber der Position gemäß Fig. 2 wiederum in Pfeilrichtung weiterbewegt, und zwar soweit, daß seine Konturlinie nicht mehr durch den Pfahl 3 verdeckt ist. Insofern unterscheidet sich also die Konturlinie gemäß Fig. 3 bezüglich ihrer Vollständigkeit nicht von der Konturlinie gemäß Fig. 1.
  • Wenn nun ein Auswertealgorithmus eingesetzt wird, bei dem im Rahmen eines Berechnungszyklus immer zwei aufeinanderfolgende Bilder verarbeitet werden, stellen sich Probleme ein, wenn zum einen die Bilder x-1 und x und zum anderen die Bilder x und x+1 verarbeitet werden, da in beiden Bildern jeweils Konturlinien des Lkw 2 vorliegen, die sich hinsichtlich ihrer Vollständigkeit voneinander unterscheiden und die somit nicht ohne weiteres verarbeitet und verglichen werden können.
  • Gemäß Fig. 4 wird gemäß der ersten Alternative der Erfindung das Bild x-1 derart modifiziert, daß dort derjenige Bereich der Konturlinie des Lkw 2 gestrichen wird, der im Bild x (Fig. 2) durch den Pfahl 3 verdeckt ist. Durch diese Streichung können dann in einem Berechnungszyklus des Auswertealgorithmus, in den die Bilder x-1 (Fig. 4) und x (Fig. 2) eingehen, jeweils in gleicher Weise unvollständige Konturlinien des Lkw 2 verarbeitet und verglichen werden, was eine fehlerfreie Berechnung seiner Geschwindigkeit oder seiner Bewegungsrichtung ermöglicht.
  • Ebenso kann gemäß Fig. 5 im Bild x+1 derjenige Bereich der Konturlinie des Lkw 2 gestrichen werden, der gemäß Fig. 2 im Bild x durch den Pfahl 3 verdeckt ist. So läßt sich der erfindungsgemäße Vorteil auch in demjenigen Berechnungszyklus des Auswertealgorithmus verwirklichen, in dem das Bild x (Fig. 2) und das Bild x+1 (Fig. 5) verarbeitet wird.
  • Gemäß der zweiten Alternative der Erfindung wird der fehlende Konturbereich im Bild x gemäß Fig. 2 aus den im Bild x vorhandenen Informationen sowie aus eventuell vorhandenen Zusatzinformationen vorhergehender Bilder rechnerisch ermittelt, so daß die Konturlinie des Bildes x gemäß Fig. 6 zu einer vollständigen Konturlinie ergänzt werden kann. Somit liegen dann ausschließlich vollständige Konturlinien vor, so daß sowohl die Verarbeitung der Bilder x-1 (Fig. 1) und x (Fig. 6) als auch die Verarbeitung der Bilder x (Fig. 6) und x+1 (Fig. 3) problemlos erfolgen kann.
  • Die vorstehend erläuterten Ausführungsbeispiele stellen vereinfachte Versionen des erfindungsgemäßen Verfahrens dar. Das erfindungsgemäße Verfahren kann ohne weiteres auch auf solche Bilder angewandt werden, in denen die Objektverdeckung größer ausfällt als in Fig. 2 dargestellt.
  • Nachfolgend wird ein konkretes Anwendungsbeispiel gemäß der zweiten Alternative der Erindung einschließlich der für dessen Verständnis notwendigen Grundlagen erläutert. Dieses Anwendungsbeispiel bezieht sich auf die Geschwindigkeitsbestimmung von Fahrzeugen mittels Laserscannern.
  • Die Geschwindigkeit eines Objekts kann mittels Kalman-Filter, hauptsächlich beruhend auf dem Vergleich der Schwerpunkte zweier aufeinanderfolger Scans bzw. zweier aufeinanderfolgender Bilder n-1 und n, wie folgt ermittelt werden:


    ν (o,n)|x: x-Koordinate der Geschwindigkeit des o-ten Objekts im n-ten Scan.
    ν (o,n)|y: Koordinate der Geschwindigkeit des o-ten Objekts im n-ten Scan.
    αn: Wichtungsfaktor der Geschwindigkeit des n-ten Scan (Σαn = 1).
    TScan: Zeitdauer für die Aufnahme eines Scans.
    S (o,n)|x: x-Koordinate des Schwerpunkts des o-ten Objekts im n-ten Scan.
    S (o,n)|y: y-Koordinate des Schwerpunkts des o-ten Objekts im n-ten Scan.
  • Der einzelne Objektschwerpunkt kann aus dem geometrischen Mittelwert der zugehörigen Meßpunkte wie folgt berechnet werden:


    N: Anzahl der Meßpunkte des o-ten Objekts.
    x (o,n)|i: Koordinate des i-ten Meßpunkts des o-ten Objekts.
    y (o,n)|i: y-Koordinate des i-ten Meßpunkts des o-ten Objekts.
  • Wird ein Objekt von einem Scan zum nächsten teilweise verdeckt, ändert sich die Position des Schwerpunkts relativ zum Objekt, wodurch dem Objekt eine zusätzliche Geschwindigkeitskomponente addiert werden würde. Es würde somit eine Objektgeschwindigkeit berechnet, die nicht der realen Objektgeschwindigkeit entspricht. Um dies zu unterbinden, können erfindungsgemäß Teilverdeckungen von Objekten zunächst erkannt und - wenn erkannt - das Objekt rekonstruiert werden.
  • Um ein Objekt rekonstruieren zu können, müssen jedoch seine vorherige Form und seine Abmessungen bekannt sein. Dies kann über eine Klassifikation der Objekte erreicht werden.
  • Typische Grobklassifikationsformen, die bei der Umgebungserfassung mit Laserscannern auftreten, sind Winkelobjekte, Geradenobjekte, kleine Objekte und Sonstige. Fig. 7a zeigt die von einem Laserscanner 4 aufgenommenen Meßpunkte 5 der Umgebung des Laserscanners 4 in einer parallel zu einer Fahrbahn verlaufenden Ebene. In Fig. 7b sind die Meßpunkte 5 mittels geeigneter Algorithmen zu zusammenhängenden Linien ergänzt worden, so daß eine Objektklassifizierung möglich wird. Jede zusammenhängende Linie stellt letztlich ein Objekt dar.
  • Ein Winkelobjekt 6 besteht aus zwei Vektoren, wobei sich ein Vektor von dem am nächsten am Laserscanner 4 liegenden Punkt 7 zu dem am weitesten links liegenden Punkt 8 (im folgenden auch "linker Punkt") und der zweite Vektor von dem am nächsten am Laserscanner 4 liegenden Punkt 7 zu dem am weitesten rechts liegenden Punkt 9 (im folgenden auch "rechter Punkt") erstreckt. Die beiden Vektoren schließen zwischen sich einen Winkel ein, der ca. 90° beträgt.
  • Die in Fig. 7b dargestellten Winkelobjekte 6 repräsentieren Fahrzeuge, die sich jeweils schräg vor dem Laserscanner 4 befinden.
  • Ein Geradenobjekt 10 ist u. a. dadurch gekennzeichnet, daß der am nächsten am Laserscanner 4 liegende Punkt 7 und der Schwerpunkt zwischen dem am weitesten links 8 und dem am weitesten rechts 9 liegenden Punkt angeordnet sind. Das in Fig. 7b dargestellte Geradenobjekt 10 repräsentiert ein Fahrzeug, bzw. dessen Heck, das sich im wesentlichen gerade vor dem Laserscanner 4 befindet.
  • Alle anderen Objekte 11, die gemäß Fig. 7b z. B. einen Fußgänger repräsentieren, werden der Objektklasse Sonstige zugeordnet.
  • Eine feinere Klassifikation ist mit Hilfe zusätzlicher Objektparameter möglich.
  • Im folgenden wird ein als Winkelobjekt klassifiziertes Objekt genauer betrachtet, um die Vorgehensweise bei der Klassifikation, Verdeckungserkennung und der Rekonstruktion genauer zu beschreiben.
  • Fig. 8 zeigt ein ein Fahrzeug repräsentierendes Winkelobjekt 6 sowie ein einen Fußgänger repräsentierendes sonstiges Objekt 11, wobei das Winkelobjekt 6 weiter vom Laserscanner 4 entfernt ist als das sonstige Objekt 11. In der folgenden Tabelle sind einige Objekt-Parameter des in Fig. 8 gezeigten Winkelobjekts 6 zum Zeitpunkt t = 1,3 s aufgelistet:


  • Unter dem "dichtesten" Punkt wird in vorstehender Tabelle sowie im nachstehenden Text derjenige Meßpunkt eines Objekts verstanden, welcher sich am nächsten am Laserscanner 4 befindet.
  • Dem Winkelobjekt 6 (Objekt-Nr. 21) ist das Segment 36 zugeordnet, das aus 92 einzelnen Meßpunkten besteht. Das Objekt wurde schon seit 13 Scans getrackt bzw. verfolgt (Objektalter 13 Scans) und als Winkelobjekt (Klassifikation) in den letzten 13 Scans klassifiziert (Klassifikationsalter 13 Scans).
  • Die Position des in den Gleichungen 1.3 und 1.4 beschriebenen Schwerpunkts 12 wurde bestimmt (x = 0,84 m; y = 8,11 m) und zusätzlich der aus dem vorherigen Scan resultierende Schwerpunkt des Objekts - wenn das Objekt wiedererkannt wurde - gespeichert.
  • Wichtig für die - nachfolgend noch erläuterte - Rekonstruktion eines Winkelobjekts ist das Speichern der maximalen Länge des linken bzw. rechten Schenkels (Vektors), die jemals in den vergangenen Scans, während derer das Objekt verfolgt wurde, berechnet wurde.
  • Außerdem wird die Position des linken 8, dichtesten 7 und rechten 9 Punktes und - wenn Verdeckungen vorliegen - die Position der entsprechend prädizierten Punkte, die auf dem Prädiktionsvektor des Schwerpunkts und dem alten linken (prädizierten) Punkt beruhen, ermittelt. Der Prädiktionsvektor wird nach Durchlaufen der Objektrekonstruktion mit dem aktuellen Schwerpunkt unter Berücksichtigung der Rekonstruktion neu berechnet, wodurch die Prädiktion verbessert werden kann.
  • Die Teilverdeckung eines klassifizierten Objekts wird für den linken, dichtesten und rechten Punkt jeweils einzeln geprüft.
  • Eine Verdeckung des linken Punktes liegt gemäß Fig. 9 vor, wenn drei der nächsten fünf links des linken Objektpunktes 8' liegenden Punkte dichter als der linke Objektpunkt 8' zum Scanner 4 liegen und nicht zum detektierten Objekt 6, sondern wie in Fig. 9 z. B. zum Objekt 11 gehören. Fig. 9 zeigt eine Darstellung gemäß Fig. 8 zum Zeitpunkt t = 1,4 s, was bedeutet, daß sich der Fußgänger 11 in den 0,1 s zwischen Aufnahme des Bildes gemäß Fig. 8 und Aufnahme des Bildes gemäß Fig. 9 etwas nach rechts bewegt hat, so daß er gemäß Fig. 9 nun den linken äußeren Bereich des linken Schenkels des Winkelobjekts 6 verdeckt. Durch eine geeignete Prädiktion kann jedoch die Position des verdeckten linken Punkts 8" berechnet werden.
  • Eine Verdeckung des rechten Objektpunktes 9 läge vor, wenn drei der nächsten fünf rechts des rechten Objektpunktes liegenden Punkte dichter als der rechte Objektpunkt zum Scanner 4 liegen würden.
  • Bei dichtesten Punkt wird in gleicher Weise sowohl in linker als auch in rechter Richtung geprüft.
  • Eine Verdeckung zwischen linkem, dichtesten und rechten Punkt wird detektiert und liegt vor, wenn eine Lücke zwischen zwei Meßpunkten des Objekts durch nähere bzw. dichtere Punkte entsteht.
  • Fig. 10 zeigt ein Bild, welches zum Zeitpunkt t = 1,7 s drei Scans später aufgenommen wurde als das Bild gemäß Fig. 9. Der Fußgänger 11 verdeckt nun einen größeren Teil des linken Schenkels des Fahrzeugs 6, die nachstehende Tabelle zeigt die dazugehörigen Objektparameter.


  • Zum Zeitpunkt t = 2,4 s werden gemäß Fig. 11 zwar nicht mehr der linke Punkt 8, aber sowohl der dichteste als auch der rechte Punkt verdeckt, da sich der Fußgänger 11 noch weiter nach rechts bewegt hat. Deswegen wird eine Prädiktion des dichtesten 7' und des rechten 9' Punktes vorgenommen. Nachstehende Tabelle zeigt die Objektparameter zum Zeitpunkt t = 2,4 s.


  • Ein weiterer, im Rahmen der Erfindung zu berücksichtigender Aspekt besteht darin, daß die Verdeckung von Teilbereichen von Objekten dergestalt sein kann, daß das verdeckte Objekt in mehrere Teilobjekte zerfällt. Diese können erfindungsgemäß als zusammengehörig erkannt und anschließend fusioniert werden, wie nachfolgend in Verbindung mit Fig. 12 noch beschrieben.
  • Fig. 12a und b zeigen ein Fahrzeug 13 sowie ein Fahrrad 14. In Fig. 12a verdeckt das Fahrrad 14 das Fahrzeug 13 nicht, so daß letzteres vom Laserscanner 4 vollständig erfaßt werden kann. In Fig. 12b wird das Fahrzeug 13 vom Fahrrad 14 derart verdeckt, daß das Fahrzeug 13 in fünf Segmente 15 zerfallen ist. Beim Zerfall eines Objektes 13 wird das Tracking für die fünf neuen Objekte, die jeweils aus einem Segment bestehen und die nicht vorherigen Objekten zugeordnet wurden, neu begonnen, die Geschwindigkeit für diese neuen Objekte wird mit einem Startwert belegt (hier 0 km/h: ungenaue Annahme).
  • Um auch mehrere Segmente dem Objekt zuordnen zu können, wird ein Suchraum aufgespannt, der den Abmessungen desjenigen Objekts entspricht, das in den vorherigen Scans ermittelt wurde. Alle Segmente, die sich in diesem Suchraum befinden, können dem Objekt zugeordnet werden (siehe Fig. 12c), wodurch nicht nur die Entstehung virtueller Objekte vermieden wird, sondern auch die eigentliche Geschwindigkeit des Objekts ermittelt werden kann.
  • Für die in Verbindung mit den Fig. 9 bis 12 erwähnte, eigentliche Rekonstruktion der Objekte wird mit Hilfe der Prädiktionen die Richtung der Schenkel der Winkelobjekte bestimmt. Die Schenkel können dann bis zu ihrer bekannten maximalen Länge mit einer der Winkelschrittweite des Laserscanners entsprechenden Punktanzahl aufgefüllt werden. Dabei ergeben sich für den neu zu berechnenden Objektschwerpunkt folgende Gleichungen:


    S (o,n)|x: x-Koordinate des Schwerpunkts des o-ten Objekts im n-ten Scan.
    S (o,n)|y: y-Koordinate des Schwerpunkts des o-ten Objekts im n-ten Scan.
    N: Anzahl der Meßpunkte des o-ten Objekts im n-ten Scan.
    M: Anzahl der möglichen Meßpunkte in der Lücke des o-ten Objekts im n-ten Scan.
    x (o,n)|i: x-Koordinate des i-ten Meßpunkts des o-ten Objekts im n-ten Scan.
    y (o,n)|i: y Koordinate des i-ten Meßpunkts des o-ten Objekts im n-ten Scan.
    M.x (o,n)|Lücke: x-Koordinate des gewichteten Schwerpunkts der Lücke des o-ten Objekts im n-ten Scan.
    M.y (o,n)|Lücke: y-Koordinate des gewichteten Schwerpunkts der Lücke des o-ten Objekts im n-ten Scan.

Claims (21)

1. Verfahren zur Bestimmung von Bewegungsinformationen zumindest eines innerhalb eines Überwachungsbereichs befindlichen Objektes (2, 3), bei dem in zeitlicher Abfolge eine Anzahl von n Bildern i (mit i = 1, 2, 3, . . ., x-2, x-1, x, x+1, . . . n) des Überwachungsbereichs erfaßt, die Positionen signifikanter Referenzpunkte des Objektes (2, 3) innerhalb der erfaßten Bilder bestimmt und aus diesen, jeweils einem Bild zugeordneten Referenzpunkt-Positionen mittels eines Auswertealgorithmus eine auf das Objekt (2, 3) bezogene Bewegungsinformation abgeleitet wird, dadurch gekennzeichnet, daß bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die den überdeckten Referenzpunkten entsprechenden Referenzpunkte im Bild x-1 in demjenigen Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in dem die Bilder x und x-1 verarbeitet werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß auch die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte in einem oder mehreren Bildern, die vor dem Bild x-1 erfaßt wurden, in denjenigen Berechnungszyklen des Auswertealgorithmus unberücksichtigt bleiben, in denen diese Bilder verarbeitet werden.
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß auch die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte des Bildes x+1 in demjenigen Berechnungszyklus des Auswertealgorithmus unberücksichtigt bleiben, in dem die Bilder x und x+ 1 verarbeitet werden.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die den überdeckten Referenzpunkten des Bildes x entsprechenden Referenzpunkte des Bildes x+1 in demjenigen Berechnungszyklus des Auswertealgorithmus wieder berücksichtigt werden, in dem die Bilder x+1 und x+2 verarbeitet werden.
5. Verfahren zur Bestimmung von Bewegungsinformationen zumindest eines innerhalb eines Überwachungsbereichs befindlichen Objektes 2, 3, bei dem in zeitlicher Abfolge eine Anzahl von n Bildern i (mit i = 1, 2, 3, . . ., x-2, x-1, x, x+1, . . . n) des Überwachungsbereichs erfaßt, die Positionen signifikanter Referenzpunkte des Objektes (2, 3) innerhalb der erfaßten Bilder bestimmt und aus diesen, jeweils einem Bild zugeordneten Referenzpunkt-Positionen mittels eines Auswertealgorithmus eine auf das Objekt (2, 3) bezogene Bewegungsinformation abgeleitet wird, dadurchgekennzeichnet, daß bei Überdeckung zu erfassender Referenzpunkte in einem Bild x durch ein Vordergrundobjekt die Positionen der überdeckten Referenzpunkte im Bild x rechnerisch aus den nicht überdeckten Referenzpunkten dieses Bildes ermittelt und im Auswertealgorithmus berücksichtigt werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die Positionen der überdeckten Referenzpunkte im Bild x rechnerisch aus den nicht überdeckten Referenzpunkten dieses Bildes und zusätzlich aus objektbezogenen Informationen vorhergehender Bilder ermittelt werden.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß mittels des Auswertealgorithmus im Rahmen eines Berechnungszyklus immer zwei aufeinanderfolgend erfaßte Bilder verarbeitet werden.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die zu erfassenden Objekte (2, 3) jeweils einer von mehreren Objektklassen zugeordnet werden, wobei jede Objektklasse durch objektklassenspezifische Parameter gekennzeichnet ist.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß mittels des Auswertealgorithmus Referenzpunkt-Positionen, aus diesen Referenzpunkt-Positionen abgeleitete Zusatzinformationen, wie z. B. Bewegungsrichtung und Geschwindigkeit, und/oder objektklassenspezifische Parameter verarbeitet werden.
10. Verfahren nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, daß je eine Objektklasse für zwei oder mehr der folgenden sechs Objekttypen vorgesehen ist:
2-Rad-Fahrer, Person, Bus/LKW, PKW, Pfahl, Mauer/Leitplanke.
11. Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, daß jeder Objektklasse typische geometrische Parameter, wie insbesondere die Objekthöhe, ein Objekthöhenbereich, die Objektkontur und/oder ein Objektkonturbereich zugeordnet werden.
12. Verfahren nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, daß jeder Objektklasse typische dynamische Parameter, wie insbesondere die Geschwindigkeit, ein Geschwindigkeitsbereich, eine Beschleunigung und/oder ein Beschleunigungsbereich zugeordnet werden.
13. Verfahren nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, daß zumindest bestimmten Objektklassen typische, jeweils auf andere Objektklassen bezogene Relationsparameter zugeordnet werden, die insbesondere dazu dienen, bei der Zuordnung von Objekten zu Objektklassen bestimmte Objektklassen auszuschließen.
14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die ermittelten Bilder jeweils aus einer Anzahl von Bildpunkten bestehen.
15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß Objekte (2, 3) in Form einer Anzahl von Objektpunkten erfaßt werden.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß als Objektpunkte solche Punkte verwendet werden, die auf der Konturlinie der Objekte liegen.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß die Objektpunkte auf der gesamten Konturlinie des Objektes (2, 3) verteilt sind.
18. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Bilder mittels eines Scanners, insbesondere mittels eines Laserscanners ermittelt werden.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß der Laserscanner den Überwachungsbereich zeilenweise oder flächig abtastet.
20. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß als Bewegungsinformation die Bewegungsrichtung, die Geschwindigkeit und/oder die Beschleunigung eines Objektes (2, 3) ermittelt wird.
21. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Verwendung eines Verfahrens nach einem der vorhergehenden Ansprüche zur Erfassung der Umgebung eines Fahrzeugs, wobei insbesondere auch die Fahrzeuggeschwindigkeit, die Fahrzeugbeschleunigung, der Lenkwinkel, die Lenkwinkeländerung, die Gierrate, die Gierratenänderung und/oder die Bewegungsrichtung des Fahrzeugs in den Auswertealgorithmus eingehen.
DE10141055A 2001-08-22 2001-08-22 Verfahren zur Bestimmung von Bewegungsinformationen Expired - Lifetime DE10141055B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10141055A DE10141055B4 (de) 2001-08-22 2001-08-22 Verfahren zur Bestimmung von Bewegungsinformationen
DE50206591T DE50206591D1 (de) 2001-08-22 2002-08-21 Verfahren zur erkennung und verfolgung von objekten
AT02796260T ATE324597T1 (de) 2001-08-22 2002-08-21 Verfahren zur erkennung und verfolgung von objekten
PCT/EP2002/009362 WO2003019234A1 (de) 2001-08-22 2002-08-21 Verfahren zur erkennung und verfolgung von objekten
EP02796260A EP1419402B1 (de) 2001-08-22 2002-08-21 Verfahren zur erkennung und verfolgung von objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10141055A DE10141055B4 (de) 2001-08-22 2001-08-22 Verfahren zur Bestimmung von Bewegungsinformationen

Publications (2)

Publication Number Publication Date
DE10141055A1 true DE10141055A1 (de) 2003-03-06
DE10141055B4 DE10141055B4 (de) 2013-09-05

Family

ID=7696198

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10141055A Expired - Lifetime DE10141055B4 (de) 2001-08-22 2001-08-22 Verfahren zur Bestimmung von Bewegungsinformationen

Country Status (1)

Country Link
DE (1) DE10141055B4 (de)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008068088A1 (de) * 2006-12-05 2008-06-12 Robert Bosch Gmbh Verfahren zum betrieb eines radarsystems bei möglicher zielobjektverdeckung sowie radarsystem zur durchführung des verfahrens
US7408462B2 (en) 2004-09-16 2008-08-05 Sick Ag Control of monitored zone
CN102472817A (zh) * 2009-07-31 2012-05-23 本田技研工业株式会社 车用物体探测装置和车用物体探测方法
CN103543477A (zh) * 2013-10-30 2014-01-29 昆山奥德鲁自动化技术有限公司 全自动缺针影像检测机
DE102016105536A1 (de) * 2016-03-24 2017-09-28 Valeo Schalter Und Sensoren Gmbh Verfahren zur Erfassung von wenigstens einem Objekt, Vorrichtung einer Sensoreinrichtung, Sensoreinrichtung und Fahrerassistenzsystem mit wenigstens einer Sensoreinrichtung
USRE48490E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition LiDAR system
US10983218B2 (en) 2016-06-01 2021-04-20 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11073617B2 (en) 2016-03-19 2021-07-27 Velodyne Lidar Usa, Inc. Integrated illumination and detection for LIDAR based 3-D imaging
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US11137480B2 (en) 2016-01-31 2021-10-05 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
US11703569B2 (en) 2017-05-08 2023-07-18 Velodyne Lidar Usa, Inc. LIDAR data acquisition and control
US11796648B2 (en) 2018-09-18 2023-10-24 Velodyne Lidar Usa, Inc. Multi-channel lidar illumination driver
US11808891B2 (en) 2017-03-31 2023-11-07 Velodyne Lidar Usa, Inc. Integrated LIDAR illumination power control
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
US11933967B2 (en) 2019-08-22 2024-03-19 Red Creamery, LLC Distally actuated scanning mirror

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4411179A1 (de) * 1993-03-31 1994-10-06 Mitsubishi Electric Corp Bildeinfangvorrichtung
US5590217A (en) * 1991-04-08 1996-12-31 Matsushita Electric Industrial Co., Ltd. Vehicle activity measuring apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JPH0883392A (ja) * 1994-09-14 1996-03-26 Toshiba Corp 車両検出方法及び車両検出装置
DE10110420A1 (de) * 2001-03-05 2002-09-12 Sick Ag Vorrichtung zur Bestimmung eines Abstandsprofils

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5590217A (en) * 1991-04-08 1996-12-31 Matsushita Electric Industrial Co., Ltd. Vehicle activity measuring apparatus
DE4411179A1 (de) * 1993-03-31 1994-10-06 Mitsubishi Electric Corp Bildeinfangvorrichtung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP 08083392 A., In: Patent Abstracts of Japan *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7408462B2 (en) 2004-09-16 2008-08-05 Sick Ag Control of monitored zone
USRE48490E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48688E1 (en) 2006-07-13 2021-08-17 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48666E1 (en) 2006-07-13 2021-08-03 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48503E1 (en) 2006-07-13 2021-04-06 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48504E1 (en) 2006-07-13 2021-04-06 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48491E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition lidar system
US8514124B2 (en) 2006-12-05 2013-08-20 Robert Bosch Gmbh Method for operating a radar system in the event of possible concealment of the target object and radar system for performing the method
WO2008068088A1 (de) * 2006-12-05 2008-06-12 Robert Bosch Gmbh Verfahren zum betrieb eines radarsystems bei möglicher zielobjektverdeckung sowie radarsystem zur durchführung des verfahrens
US8717225B2 (en) 2009-07-31 2014-05-06 Honda Motor Co., Ltd. Object detection device for vehicle and object detection method for vehicle
CN102472817B (zh) * 2009-07-31 2014-02-26 本田技研工业株式会社 车用物体探测装置和车用物体探测方法
EP2461179A4 (de) * 2009-07-31 2012-06-06 Honda Motor Co Ltd Objektserkennungsvorrichtung für fahrzeuge und objekterkennungsverfahren für fahrzeuge
EP2461179A1 (de) * 2009-07-31 2012-06-06 Honda Motor Co., Ltd. Objektserkennungsvorrichtung für fahrzeuge und objekterkennungsverfahren für fahrzeuge
CN102472817A (zh) * 2009-07-31 2012-05-23 本田技研工业株式会社 车用物体探测装置和车用物体探测方法
CN103543477A (zh) * 2013-10-30 2014-01-29 昆山奥德鲁自动化技术有限公司 全自动缺针影像检测机
US11822012B2 (en) 2016-01-31 2023-11-21 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11698443B2 (en) 2016-01-31 2023-07-11 Velodyne Lidar Usa, Inc. Multiple pulse, lidar based 3-D imaging
US11137480B2 (en) 2016-01-31 2021-10-05 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11550036B2 (en) 2016-01-31 2023-01-10 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11073617B2 (en) 2016-03-19 2021-07-27 Velodyne Lidar Usa, Inc. Integrated illumination and detection for LIDAR based 3-D imaging
DE102016105536A1 (de) * 2016-03-24 2017-09-28 Valeo Schalter Und Sensoren Gmbh Verfahren zur Erfassung von wenigstens einem Objekt, Vorrichtung einer Sensoreinrichtung, Sensoreinrichtung und Fahrerassistenzsystem mit wenigstens einer Sensoreinrichtung
US11567172B2 (en) 2016-03-24 2023-01-31 Valeo Schalter Und Sensoren Gmbh Method for capturing at least one object, device of a sensor apparatus, sensor apparatus and driver assistance system with at least one sensor apparatus
US11550056B2 (en) 2016-06-01 2023-01-10 Velodyne Lidar Usa, Inc. Multiple pixel scanning lidar
US11561305B2 (en) 2016-06-01 2023-01-24 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11808854B2 (en) 2016-06-01 2023-11-07 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US10983218B2 (en) 2016-06-01 2021-04-20 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11874377B2 (en) 2016-06-01 2024-01-16 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11808891B2 (en) 2017-03-31 2023-11-07 Velodyne Lidar Usa, Inc. Integrated LIDAR illumination power control
US11703569B2 (en) 2017-05-08 2023-07-18 Velodyne Lidar Usa, Inc. LIDAR data acquisition and control
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
US11796648B2 (en) 2018-09-18 2023-10-24 Velodyne Lidar Usa, Inc. Multi-channel lidar illumination driver
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
US11933967B2 (en) 2019-08-22 2024-03-19 Red Creamery, LLC Distally actuated scanning mirror

Also Published As

Publication number Publication date
DE10141055B4 (de) 2013-09-05

Similar Documents

Publication Publication Date Title
DE19636028C1 (de) Verfahren zur Stereobild-Objektdetektion
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102009023326B4 (de) Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben
DE10141055B4 (de) Verfahren zur Bestimmung von Bewegungsinformationen
DE19831413C2 (de) Bildverarbeitungsverfahren und Vorrichtungen zur Erkennung von Objekten im Verkehr
DE10324895A1 (de) Verfahren und Vorrichtung zur Objektortung für Kraftfahrzeuge
EP2005361A1 (de) Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
EP3782117A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten
WO2020094170A1 (de) Verfahren und verarbeitungseinheit zur ermittlung von information in bezug auf ein objekt in einem umfeld eines fahrzeugs
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
EP1306690A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
DE102020004690A1 (de) Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE112009003648T5 (de) Verfahren und Vorrichtung zur Barrierentrennung
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP1419402A1 (de) Verfahren zur erkennung und verfolgung von objekten
EP2387017A2 (de) Verfahren und Vorrichtung zur Erfassung von Verkehrsdaten aus digitalen Luftbildsequenzen
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
EP1646008A1 (de) Verfahren zur Erkennung von Hindernissen im Fahrweg eines Kraftfahrzeugs
DE102008036219A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
DE102013012778A1 (de) Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug
DE102019209473A1 (de) Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene
DE102020208080A1 (de) Erkennung von Objekten in Bildern unter Äquivarianz oder Invarianz gegenüber der Objektgröße

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20131206

R082 Change of representative
R081 Change of applicant/patentee

Owner name: SICK AG, DE

Free format text: FORMER OWNER: IBEO AUTOMOBILE SENSOR GMBH, 22143 HAMBURG, DE

Effective date: 20140821

R081 Change of applicant/patentee

Owner name: IBEO AUTOMOTIVE SYSTEMS GMBH, DE

Free format text: FORMER OWNER: SICK AG, 79183 WALDKIRCH, DE

R082 Change of representative

Representative=s name: RGTH RICHTER GERBAULET THIELEMANN HOFMANN PATE, DE

R071 Expiry of right