DE102011122458A1 - Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts, Kamerasystem und Kraftfahrzeug - Google Patents

Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts, Kamerasystem und Kraftfahrzeug Download PDF

Info

Publication number
DE102011122458A1
DE102011122458A1 DE102011122458A DE102011122458A DE102011122458A1 DE 102011122458 A1 DE102011122458 A1 DE 102011122458A1 DE 102011122458 A DE102011122458 A DE 102011122458A DE 102011122458 A DE102011122458 A DE 102011122458A DE 102011122458 A1 DE102011122458 A1 DE 102011122458A1
Authority
DE
Germany
Prior art keywords
image
points
characteristic points
motor vehicle
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102011122458A
Other languages
English (en)
Inventor
Lowik Chanussot
Amaury Breheret
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102011122458A priority Critical patent/DE102011122458A1/de
Priority to PCT/EP2012/076279 priority patent/WO2013092795A1/en
Publication of DE102011122458A1 publication Critical patent/DE102011122458A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Verfolgen eines in einer Umgebung (6) eines Kraftfahrzeugs (1) befindlichen Objektes (5) in einer Sequenz von nacheinander aufgenommenen Bildern (B0, BF) einer Kamera (4) des Kraftfahrzeugs (1), mit den Schritten: a) Identifizieren des Objektes (5) in einem ersten Bild (B0) der Sequenz von Bildern (B0, BF) und Bestimmen einer Vielzahl von charakteristischen Punkten (Pi 0) des Objektes (5) in dem ersten Bild (B0), b) Bestimmen einer Vielzahl von charakteristischen Punkten (Pi F) des Objektes (5) in einem zweiten Bild (BF) der Sequenz von Bildern (B0, BF) und c) Verfolgen des Objektes (5) durch Zuordnen der charakteristischen Punkte (Pi F) des Objektes (5) aus dem zweiten Bild (BF) zu jeweils korrespondierenden charakteristischen Punkten (Pi 0) des Objektes (5) aus dem ersten Bild (B0), gekennzeichnet durch d) Bestimmen eines ersten Wertes eines geometrischen Parameters (α, β) aus zumindest zwei charakteristischen Punkten (Pi F) des Objektes (5) aus dem zweiten Bild (BF), e) Bestimmen eines zweiten Wertes desselben geometrischen Parameters (α, β) aus korrespondierenden Punkten (Pi 0) des Objektes (5) aus dem ersten Bild (B0), und f) Überprüfen der Plausibilität der Zuordnung gemäß Schritt c) anhand eines Vergleiches des ersten Wertes mit dem zweiten Wert des geometrischen Parameters.

Description

  • Die Erfindung betrifft ein Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts in einer Sequenz von nacheinander aufgenommenen Bildern einer Kamera des Kraftfahrzeugs. In einem ersten Bild der Sequenz von Bildern wird das Objekt identifiziert, und es wird eine Vielzahl von charakteristischen Punkten des Objekts in dem ersten Bild bestimmt. Es wird auch eine Vielzahl von charakteristischen Punkten des Objekts in einem zweiten Bild der Sequenz von Bildern bestimmt, welches zeitlich nach dem ersten Bild aufgenommen wird. Das Objekt wird durch Zuordnen der charakteristischen Punkte des Objekts aus dem zweiten Bild zu jeweils korrespondierenden charakteristischen Punkten des Objekts aus dem ersten Bild verfolgt. Die Erfindung betrifft außerdem ein Kamerasystem, welches zum Durchführen eines derartigen Verfahrens ausgebildet ist, wie auch ein Kraftfahrzeug mit einem solchen Kamerasystem.
  • Das Interesse richtet sich vorliegend also auf die Verfolgung eines in der Umgebung eines Kraftfahrzeugs befindlichen Objekts mittels eines Kamerasystems des Kraftfahrzeugs. Das Objekt wird in der zeitlichen Sequenz von Bildern verfolgt, die mittels einer Kamera des Kamerasystems nacheinander aufgenommen werden. Es ist bereits Stand der Technik, im Rahmen der Verfolgung von Objekten die so genannte Zeit bis zur Kollision (time to collision; nachfolgend als TTC bezeichnet) einerseits sowie die relative Position des Objekts bezüglich des Kraftfahrzeugs andererseits anhand der erfassten Bilder zu ermitteln. Eine besondere Herausforderung besteht darin, die TTC anhand der zeitlichen Sequenz von Bildern besonders präzise zu ermitteln.
  • Die Verfolgung des Objekts anhand von charakteristischen Punkten des Objekts in den Bildern ist ebenfalls bereits aus dem Stand der Technik bekannt. Dabei werden die charakteristischen Punkte des Objekts zunächst in einem ersten Bild aufgefunden. Dann werden die charakteristischen Punkte auch in den nachfolgenden Bildern bestimmt und können dann den korrespondierenden Punkten aus dem ersten Bild zugeordnet werden. Diese Zuordnung erfolgt in der Regel anhand eines Verfolgungsalgorithmus, mittels welchem eine Vielzahl von Punktepaaren aus den charakteristischen Punkten des ersten Bildes einerseits und den korrespondierenden Punkten des weiteren Bildes andererseits bereitgestellt werden.
  • Ein derartiges Verfahren zum Verfolgen eines Objekts ist beispielsweise aus dem Dokument US 2006 0 276 964 A bekannt. Eine Recheneinrichtung bestimmt eine Vielzahl von charakteristischen Punkten des Objekts in den aufgenommenen Bildern. Die Recheneinrichtung bestimmt dann die Geschwindigkeit sowie die Bewegungsrichtung der charakteristischen Punkte in der Sequenz von Bildern. Dann wird zu jedem charakteristischen Punkt die jeweilige TTC berechnet, also die Zeit bis zur Kollision mit dem jeweiligen charakteristischen Punkt. Die berechneten Zeitwerte werden dann dazu genutzt, die verfolgten charakteristischen Punkte in Gruppen zusammenzufassen. Dabei werden die charakteristischen Punkte mit derselben TTC zu einer gemeinsamen Gruppe zusammengefasst. Somit können Objekte identifiziert werden, wie beispielsweise Bäume oder Wände oder dergleichen.
  • Des Weiteren beschreibt die EP 2 068 269 A1 ein Verfahren zum Bestimmen, ob ein Kraftfahrzeug und ein in seiner Umgebung befindliches Objekt sich auf einem Kollisionskurs befinden oder nicht. Zu diesem Zwecke werden die Bewegungen von zumindest zwei Merkmalen des Objekts erfasst und die TTC berechnet.
  • Wie bereits ausgeführt, erfolgt die Verfolgung des Objekts in den aufgenommenen Bildern durch Zuordnen der charakteristischen Punkte des ersten Bildes zu korrespondierenden charakteristischen Punkten des zweiten, nachfolgenden Bildes. Hier wird ein Verfolgungsalgorithmus – also ein Zuordnungsalgorithmus – angewendet, wie etwa die Lucas-Kanade-Methode (Pyramidal Lucas Kanade). Es kann vorkommen, dass der Verfolgungsalgorithmus falsche Punktepaare liefert, also dass ein charakteristischer Punkt des zweiten Bildes zu einem falschen Punkt des ersten Bildes zugeordnet wird.
  • Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei einem Verfahren der eingangs genannten Gattung die Präzision der Zuordnung der charakteristischen Punkte des Objekts aus dem zweiten Bild zu den korrespondierenden Punkten des Objekts aus dem ersten Bild im Vergleich zum Stand der Technik verbessert werden kann.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Kamerasystem, wie auch durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
  • Ein erfindungsgemäßes Verfahren dient zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts in einer Sequenz von nacheinander aufgenommenen Bildern. Die Bilder werden mittels einer Kamera des Kraftfahrzeugs erfasst. Bei dem Verfahren werden folgende Schritte durchgeführt:
    • a) Es wird ein Objekt in einem ersten Bild der Sequenz von Bildern identifiziert, und eine Vielzahl von charakteristischen Punkten des Objekts in dem ersten Bild wird bestimmt.
    • b) Auch in einem zweiten Bild der Sequenz von Bildern wird eine Vielzahl von charakteristischen Punkten des Objekts aufgefunden.
    • c) Das Objekt wird durch Zuordnen der charakteristischen Punkte des Objekts aus dem zweiten Bild zu jeweils korrespondierenden charakteristischen Punkten des Objekts aus dem ersten Bild verfolgt.
    • d) Es wird ein erster Wertes eines geometrischen Parameters aus zumindest zwei charakteristischen Punkten des Objekts aus dem zweiten Bild bestimmt.
    • e) Es wird auch ein zweiter Wert desselben geometrischen Parameters aus korrespondierenden (zumindest zwei) Punkten des Objekts aus dem ersten Bild bestimmt.
    • f) Dann wird die Plausibilität der Zuordnung gemäß Schritt c) anhand eines Vergleiches des ersten Wertes mit dem zweiten Wert des geometrischen Parameters überprüft.
  • Erfindungsgemäß ist somit vorgesehen, dass die Zuordnung der charakteristischen Punkte des Objekts in dem zweiten Bild zu den korrespondierenden charakteristischen Punkten des Objekts in dem ersten Bild auf ihre Plausibilität hin überprüft wird. Dabei wird ein geometrischer Parameter anhand von zumindest zwei charakteristischen Punkten desselben Bildes bestimmt: ein erster Wert dieses Parameters wird aus zumindest zwei charakteristischen Punkten des Objekts im zweiten Bild ermittelt; und ein zweiter Wert desselben Parameters wird aus den korrespondierenden (zugeordneten) Punkten des Objekts im ersten Bild ermittelt. Der erste Wert des Parameters wird dann mit dem zweiten Wert des Parameters verglichen, wobei ein Ergebnis dieses Vergleichs der Plausibilitätsprüfung zugrunde gelegt wird. Somit wird überprüft, ob die charakteristischen Punkte des ersten Bildes zu den Punkten des zweiten Bildes mittels des Verfolgungsalgorithmus präzise zugeordnet worden sind. Ergibt diese Überprüfung, dass ein charakteristischer Punkt des zweiten Bildes zu einem falschen Punkt des ersten Bildes zugeordnet wurde, so kann dieser Punkt verworfen und die weitere Verarbeitung der Bilddaten – etwa die Berechnung der TTC – ohne diesen Punkt vorgenommen werden. Insgesamt wird somit die Präzision der Zuordnung der charakteristischen Punkte und der Verfolgung des Objekts im Vergleich zum Stand der Technik verbessert.
  • Die Kamera, mittels welcher die zeitliche Sequenz von Bildern erfasst wird, ist bevorzugt ein Bestandteil eines Kamerasystems des Kraftfahrzeugs. Das Kamerasystem ist insbesondere ein Kollisionswarnungssystem, mittels welchem der Fahrer vor einer Kollision mit dem Objekt gewarnt wird. Die Kamera kann beispielsweise in einem vorderen Bereich des Kraftfahrzeugs angeordnet sein, sodass sie den Umgebungsbereich vor dem Kraftfahrzeug erfasst. Ergänzend oder alternativ kann eine Kamera auch im Heckbereich des Kraftfahrzeugs angebracht sein und den Umgebungsbereich hinter dem Kraftfahrzeug erfassen. Die Erfindung ist dabei nicht auf eine bestimmte Anordnung oder Anzahl von Kameras oder aber auf ein bestimmtes Fahrerassistenzsystem beschränkt.
  • Die Verarbeitung der Daten – also auch die Verfolgung des Objekts in den Bildern – erfolgt insbesondere mittels einer elektronischen Recheneinrichtung des Kamerasystems. Eine solche Recheneinrichtung kann zum Beispiel als ein digitaler Signalprozessor ausgebildet sein.
  • Es erweist sich als besonders vorteilhaft, wenn im Rahmen des Vergleichs der beiden Werte des geometrischen Parameters gemäß Schritt f) überprüft wird, ob eine Differenz zwischen dem ersten und dem zweiten Wert des Parameters einen vorgegebenen Grenzwert überschreitet oder nicht. Ergibt diese Überprüfung, dass ein Betrag dieser Differenz zwischen dem ersten und dem zweiten Wert des geometrischen Parameters den vorgegebenen Grenzwert überschreitet, so kann zumindest einer der zumindest zwei, in Schritt d) definierten charakteristischen Punkte beim Verfolgen des Objekts gemäß Schritt c) unberücksichtigt bleiben. Dies bedeutet insbesondere, dass dieser zumindest eine Punkt zur Berechnung der TTC nicht mehr herangezogen wird. Es werden somit auch Folgefehler vermieden, nämlich bei der Zuordnung der charakteristischen Punkte aus weiteren Bildern. Die Genauigkeit der Verfolgung des Objekts in den Bildern ist somit besonders hoch.
  • Hinsichtlich des geometrischen Parameters können unterschiedlichste Ausführungsformen vorgesehen sein:
    Als geometrischer Parameter kann beispielsweise eine Ausrichtung – also eine Orientierung – einer durch die zumindest zwei Punkte (definiert in Schritt d)) des jeweiligen Bildes verlaufenden Geraden bestimmt werden. Dies bedeutet, dass anhand der zumindest zwei charakteristischen Punkte im zweiten Bild eine Gerade bzw. Linie definiert wird, welche durch die beiden charakteristischen Punkte verläuft. Dann wird die Ausrichtung dieser Geraden bestimmt, also ein Winkel zwischen dieser Geraden und einer Referenzlinie, wie beispielsweise der Horizontalen. Entsprechend wird auch in dem ersten Bild eine Gerade durch die zwei korrespondierenden Punkte definiert, und es wird die Ausrichtung dieser Geraden bestimmt. Die beiden Ausrichtungswerte können dann miteinander verglichen werden, und es kann überprüft werden, ob die Differenz zwischen den Ausrichtungswerten einen Grenzwert überschreitet oder nicht. Diese Ausführungsform macht sich die Tatsache zunutze, dass bei einem starren Objekt – wie etwa einem anderen Fahrzeug – die durch zwei charakteristische Punkte verlaufende Gerade in allen Bildern der Sequenz im Wesentlichen die gleiche Ausrichtung besitzt. Diese Tatsache wird nun genutzt, um die Zuordnung der charakteristischen Punkte auf ihre Plausibilität hin zu überprüfen.
  • Ergänzend oder alternativ kann als geometrischer Parameter ein Verhältnis eines Abstands zwischen einem ersten Punktepaar des jeweiligen Bildes zu einem Abstand zwischen einem zweiten Punktepaar desselben Bildes bestimmt werden. Bei dieser Ausführungsform werden also mindestens jeweils drei charakteristische Punkte benötigt, nämlich mindestens drei Punkte im zweiten Bild sowie mindestens drei Punkte im ersten Bild. Dann wird ein Verhältnis des Abstands zwischen einem ersten und einem zweiten Punkt des zweiten Bildes zu einem Abstand zwischen dem zweiten Punkt und einem dritten Punkt des zweiten Bildes ermittelt; und dieses Verhältnis wird dann mit einem zweiten Verhältnis verglichen. Das zweite Verhältnis ist ein Verhältnis des Abstands zwischen einem ersten und einem zweiten Punkt des ersten Bildes zu dem Abstand zwischen dem zweiten Punkt und einem dritten Punkt des ersten Bildes. Diese Ausführungsform wiederum beruht auf der Tatsache, dass das Verhältnis der Abstände zwischen unterschiedlichen Punkten desselben Bildes in allen Bildern der Sequenz grundsätzlich konstant bleibt und sich lediglich die Skalierung des Objektes verändert. Eine Abweichung in dem Verhältnis deutet also darauf hin, dass die Zuordnung der Punkte des zweiten Bildes zu den Punkten des ersten Bildes falsch war.
  • Weiterhin ergänzend oder alternativ kann vorgesehen sein, dass als geometrischer Parameter ein Winkel bestimmt wird, welcher durch drei charakteristische Punkte des jeweiligen Bildes definiert wird. Ein erster Winkelwert ist also zwischen drei Punkten des zweiten Bildes definiert, während ein zweiter Winkelwert zwischen drei korrespondierenden Punkten des ersten Bildes definiert ist. Auch diese beiden Winkelwerte sollen gleich sein; dieser Winkel sollte in allen Bildern der Sequenz gleich sein. Diese Tatsache kann dazu genutzt werden, die Plausibilität der Zuordnung der charakteristischen Punkte zu überprüfen und die gegebenenfalls falsch zugewiesenen Punkte zu verwerfen.
  • Wie bereits ausgeführt, erfolgt die Zuordnung der charakteristischen Punkte des Objekts aus dem zweiten Bild zu den korrespondierenden Punkten des Objekts aus dem ersten Bild mithilfe eines Verfolgungsalgorithmus. Dieser Verfolgungsalgorithmus, wie er in Schritt c) durchgeführt wird, stellt Punktepaare jeweils aus einem charakteristischen Punkt des Objekts im ersten Bild und dem korrespondierenden Punkt des Objekts im zweiten Bild bereit. In einer Ausführungsform wird zu zumindest einem solchen Punktepaar ein Korrelationswert bestimmt, und dieses zumindest eine Punktepaar wird anhand seines Korrelationswerts auf seine Plausibilität hin überprüft. Es handelt sich dabei um eine zusätzliche Plausibilitätsprüfung zu der in Schritt f) bereits definierten Plausibilitätsprüfung. Der Korrelationswert beschreibt dabei die Ähnlichkeit der beiden charakteristischen Punkte eines Punktepaares und stellt somit ein Maß dafür dar, wie zutreffend die Zuordnung dieser beiden charakteristischen Punkte war. Wird nun festgestellt, dass der Korrelationswert einen vorgegebenen Grenzwert unterschreitet, so kann dieses Punktepaar verworfen werden. Dies bedeutet, dass dieses Punktepaar für die weitere Verfolgung des Objekts nicht mehr verwendet wird. Somit werden ausschließlich plausible Punktepaare verwendet.
  • Beim Identifizieren des Objekts gemäß Schritt a) wird bevorzugt eine Position des Objekts in dem ersten Bild ermittelt. Das Verfolgen des Objekts gemäß Schritt c) umfasst dann, dass eine Position des Objekts in dem zweiten Bild zumindest abhängig von der Position des Objekts in dem ersten Bild sowie anhand der charakteristischen Punkte bestimmt wird. Somit ist die Position des Objekts in jedem Bild bekannt, sodass auch die Information über die aktuelle relative Position des Objekts bezüglich des Kraftfahrzeugs vorliegt.
  • Beim Detektieren der charakteristischen Punkte im Bild können unterschiedlichste Algorithmen angewendet werden. Beispielsweise können so genannte Harris-Punkte und/oder FAST-Merkmale und/oder SIFT-Merkmale und/oder SURF-Merkmale detektiert werden. Es handelt sich somit bei den charakteristischen Punkten um beliebige Merkmale des Objekts, die mittels einer Bildverarbeitung aufgefunden werden können, so dass die Erfindung nicht auf bestimmte Merkmale des Objektes beschränkt ist.
  • Das Verfolgen des Objekts gemäß Schritt c) kann auch umfassen, dass eine Zeit bis zur Kollision (TTC) anhand der charakteristischen Punkte des zweiten und des ersten Bildes berechnet wird. Die TTC gibt dabei die Zeit an, welche verstreichen müsste, damit es zu einer Kollision zwischen dem Kraftfahrzeug und dem Objekt kommt. Somit wird auch die Gefahr einer Kollision mit dem Objekt quantitativ eingeschätzt, und es können entsprechende Sicherheitsmaßnahmen getroffen werden. Unterschreitet die TTC beispielsweise einen vorgegebenen Schwellwert, so kann ein Warnsignal ausgegeben werden, mit welchem der Fahrer über die mögliche Kollision mit dem Objekt informiert wird. Optional kann auch ein Bremssystem des Kraftfahrzeugs automatisch betätigt werden, sodass das Kraftfahrzeug automatisch abgebremst wird.
  • Die Position des Objekts in dem zweiten Bild und/oder die TTC kann/können in Abhängigkeit von einem Verhältnis eines Abstands zwischen zwei charakteristischen Punkten aus dem zweiten Bild zu einem Abstand zwischen zwei korrespondierenden (zugeordneten) Punkten aus dem ersten Bild bestimmt werden. Das Verhältnis der beiden Abstände liefert nämlich eine Information darüber, wie groß die relative Geschwindigkeit zwischen dem Kraftfahrzeug und dem Objekt ist. Ist der Abstand zwischen dem Kraftfahrzeug und dem Objekt bekannt, so kann auch die verbleibende Zeit bis zur Kollision bestimmt werden. Diese Ausführungsform sorgt also für eine höchst genaue Bestimmung der TTC und/oder der Position des Objekts im zweiten Bild.
  • Ergänzend oder alternativ kann die Position des Objekts im zweiten Bild und/oder die TTC auch in Abhängigkeit von einem Verhältnis einer durch zumindest drei charakteristische Punkte des zweiten Bildes definierten Fläche zu einer Fläche bestimmt werden, die durch drei korrespondierende Punkte des ersten Bildes definiert ist. Auch das Verhältnis der beiden Flächen ergibt eine eindeutige Aussage über die relative Geschwindigkeit zwischen dem Kraftfahrzeug und dem Objekt, wenn zusätzlich der zeitliche Abstand zwischen den Zeitpunkten der Aufnahme der beiden Bilder bekannt ist. Auch diese Ausführungsform ermöglicht somit eine präzise Bestimmung der TTC, wie auch der Position des Objekts im zweiten Bild.
  • Die Erfindung betrifft außerdem ein Kamerasystem für ein Kraftfahrzeug, wobei das Kamerasystem zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet ist.
  • Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Kamerasystem.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Kamerasystem, wie auch für das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.
  • Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels, wie auch unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 in schematischer Darstellung eine Seitenansicht eines Kraftfahrzeugs gemäß einer Ausführungsform der Erfindung mit einem Objekt, welches mittels eines Kamerasystems des Kraftfahrzeugs verfolgt wird; und
  • 2 bis 4 in schematischer Darstellung jeweils zwei nacheinander aufgenommene Bilder des Kamerasystems, wobei ein Verfahren gemäß einer Ausführungsform der Erfindung näher erläutert wird.
  • Ein in 1 in schematischer Darstellung gezeigtes Kraftfahrzeug 1 gemäß einer Ausführungsform der Erfindung ist ein Personenkraftwagen. Das Kraftfahrzeug 1 befindet sich auf einer Straße 2. Es weist ein Kamerasystem 3 auf, welches eine Kamera 4 aufweist, wie auch eine in den Figuren nicht dargestellte Recheneinrichtung. Diese Recheneinrichtung kann zum Beispiel ein digitaler Signalprozessor sein.
  • Das Kamerasystem 3 ist ein Kollisionswarnungssystem und dient zum Warnen des Fahrers vor bevorstehenden Kollisionen zwischen dem Kraftfahrzeug 1 und einem in seiner Umgebung befindlichen Objekt 5. Das Objekt 5 ist im Ausführungsbeispiel ein anderes Kraftfahrzeug, welches sich hinter dem Kraftfahrzeug 1 befindet, und zwar auf derselben Straße 2.
  • Im Ausführungsbeispiel ist die Kamera 4 des Kamerasystems 3 in einem Heckbereich des Kraftfahrzeugs 1 angeordnet. Die Kamera 4 erfasst dabei einen Umgebungsbereich 6 hinter dem Kraftfahrzeug 1. Die Erfindung ist jedoch nicht auf diese spezielle Ausführungsform beschränkt; die Kamera 4 kann auch in einem vorderen Bereich des Kraftfahrzeugs 1 angeordnet sein und beispielsweise den Umgebungsbereich vor dem Kraftfahrzeug 1 erfassen. Insgesamt kann die Kamera 4 also einen beliebigen Umgebungsbereich des Kraftfahrzeugs 1 erfassen.
  • Die Kamera 4 besitzt einen relativ breiten Erfassungswinkel γ, sodass insgesamt ein relativ breiter Umgebungsbereich 6 erfasst werden kann. Der Erfassungswinkel γ kann zum Beispiel in einem Wertebereich von 90° bis 200° liegen.
  • Das Kamerasystem 3 dient zum Verfolgen des Objekts 5 in den aufgenommenen Bildern der Kamera 4. Die Kamera 4 ist eine Video-Kamera und kann eine zeitliche Sequenz von Bildern aufnehmen. Diese Bilder werden eines nach dem anderen erfasst, sodass insgesamt eine zeitliche Abfolge von Einzelbildern entsteht, die insgesamt ein Video ergeben. Die Recheneinrichtung des Kamerasystems 3 kann diese Bilder einzeln verarbeiten und das Objekt 5 in den aufgenommenen Bildern verfolgen.
  • Ein Verfahren gemäß einer Ausführungsform der Erfindung wird nachfolgend unter Bezugnahme auf die 2 bis 4 näher erläutert:
    In 2 sind zwei Bilder der Kamera 4 schematisch dargestellt, welche zeitlich nacheinander aufgenommen werden. Es kann sich dabei um zwei unmittelbar nacheinander aufgenommene Bilder handeln; alternativ können zwischen den Bildern auch weitere Bilder erfasst werden, die in 2 nicht näher dargestellt sind. In 2 ist ein erstes Bild B0 sowie ein zweites Bild BF dargestellt, welches nach dem ersten Bild B0 aufgenommen wird.
  • Mittels eines Detektionsalgorithmus wird zunächst in dem ersten Bild B0 das Objekt 5 identifiziert. Diese Detektion erfolgt mithilfe eines beliebigen, bekannten Algorithmus. Mithilfe des Detektionsalgorithmus wird außerdem die Position des Objekts 5 im ersten Bild B0 ermittelt, welche insgesamt durch vier Werte definiert ist: (x0, y0 w0, h0), wobei x0, y0 die Koordinaten eines Referenzpunkts des Objekts 5 im Bild B0 (zum Beispiel die Koordinaten eines linken unteren Randes des Objekts 5 im Bild B0), w0 die Breite des Objekts 5 im Bild B0 und h0 die Höhe des Objekts 5 im Bild B0 bezeichnen.
  • Für die weitere Verarbeitung wird angenommen, dass das identifizierte Objekt 5 – also hier das andere Fahrzeug – ein starres Objekt ist, welches keiner flexiblen Deformation unterliegt und lediglich als gesamtes Objekt bewegt werden kann.
  • An dem Abbild des Objekts 5 im ersten Bild B0 werden dann charakteristische Punkte aufgefunden, die nachfolgend allgemein als Pi 0 bezeichnet werden. Im Ausführungsbeispiel werden die so genannten Harris-Punkte detektiert. Die Erfindung ist jedoch nicht auf diese spezifischen Punkte beschränkt; es können auch andere charakteristische Merkmale des Abbilds des Objekts 5 detektiert werden. Wie in 2 dargestellt ist, wird an dem Abbild des Objekts 5 im Bild B0 eine Vielzahl von charakteristischen Punkten (mit „+” gekennzeichnet) bestimmt, von denen einer mit P1 0 bezeichnet ist.
  • Dann wird ein Verfolgungsalgorithmus gestartet, mit welchem das Objekt 5 auch im zweiten Bild BF detektiert wird. Als Verfolgungsalgorithmus kann zum Beispiel die Lucas-Kanade-Methode (Pyramidal Lucas Kanade) angewendet werden. Mittels dieses Verfahrens werden die charakteristischen Punkte in den aufgenommenen Bildern verfolgt, sodass insgesamt auch das Objekt 5 verfolgt werden kann. Der Verfolgungsalgorithmus gibt eine Vielzahl von Punktepaaren (Pi 0, Pi F) aus, wobei Pi 0 die charakteristischen Punkte des Objekts 5 im ersten Bild B0 und Pi F die korrespondierenden charakteristischen Punkte im zweiten Bild BF bezeichnen. In 2 ist beispielsweise ein Punktepaar durch (Pi 0, Pi F) definiert. Der Verfolgungsalgorithmus liefert also eine Vielzahl von Punktepaaren jeweils aus einem charakteristischen Punkt des Objekts 5 im ersten Bild B0 und dem korrespondierenden charakteristischen Punkt des Objekts 5 im zweiten Bild BF. Es erfolgt also eine Zuordnung der charakteristischen Punkte des Objekts im zweiten Bild BF zu den korrespondierenden Punkten des Objekts 5 im ersten Bild B0. Auf diesem Wege wird das Objekt 5 in den aufgenommenen Bildern verfolgt.
  • Der Verfolgungsalgorithmus gibt außerdem zu jedem Punktepaar (Pi 0, Pi F) jeweils einen Korrelationswert aus, welcher die Ähnlichkeit der zugeordneten Punkte Pi 0 sowie Pi F beschreibt. Es kann hier eine erste Prüfung der Zuordnung auf ihre Plausibilität vorgenommen werden. Es kann nämlich überprüft werden, ob die Korrelationswerte einen vorgegebenen Grenzwert unterschreiten. Unterschreitet ein Korrelationswert den Grenzwert, so kann dieses Punktepaar verworfen werden, sodass dieses Punktepaar nicht mehr bei der Verfolgung des Objekts 5 berücksichtigt wird.
  • Sind einerseits die Position des Objekts 5 im ersten Bild B0 und andererseits auch die Punktepaare (Pi 0, Pi F) bekannt, so erfolgt die Verfolgung des Objekts 5. Diese Verfolgung beinhaltet, dass einerseits die Position und die Größe des Objekts 5 in dem neuen, zweiten Bild BF sowie andererseits auch die TTC bestimmt werden. Nachfolgend wird die Bestimmung der Position des Objekts 5 im zweiten Bild BF sowie die Berechnung der TTC näher erläutert.
  • Bezugnehmend auf 3 wird zunächst im ersten Bild B0 der jeweilige Abstand d0 i,k zwischen allen möglichen Punktepaaren (Pi 0, Pk 0) des ersten Bildes B0 ermittelt. In 3 ist beispielhaft der Abstand d0 2,3 zwischen zwei charakteristischen Punkten P2 0 und P3 0 des Objekts 5 im ersten Bild B0 dargestellt. Entsprechend wird auch der jeweilige Abstand dF i,k zwischen allen möglichen Punktepaaren (Pi F, Pk F) des zweiten Bildes BF ermittelt.
  • Ergänzend oder alternativ zu den Abständen di,k 0 und di,k F können auch Flächen a0 i,j,k sowie aF i,j,k bestimmt werden, die zwischen jeweils drei oder mehreren charakteristischen Punkten bestimmt werden. In 3 ist im ersten Bild B0 eine Fläche a0 0,1,2 eines zwischen den Punkten P0 0, P1 0, P2 0 definierten Dreiecks dargestellt, während im zweiten Bild BF die korrespondierende Fläche aF 0,1,2 gezeigt ist.
  • Dann können die Verhältnisse zwischen den Abständen di,k F im zweiten Bild BF und den korrespondierenden Abständen di,k 0 im ersten Bild B0 berechnet werden: Si,k = di,k F/di,k 0.
  • Ergänzend oder alternativ zu den Verhältnissen der Abstände können auch die Verhältnisse zwischen den Flächen berechnet werden: Ri,k = ai,k F/ai,k 0.
  • Anhand der Verhältnisse der Abstände Si,k und/oder anhand der Verhältnisse der Flächen Ri,k können dann die Position des Objekts 5 im zweiten Bild BF sowie die TTC ermittelt werden. Bevor diese Position und die TTC bestimmt werden, wird die Zuordnung der charakteristischen Punkte noch einmal auf die Plausibilität überprüft. Diese Überprüfung wird nachfolgend unter Bezugnahme auf 4 näher erläutert.
  • Die Plausibilitätsprüfung kann beispielsweise jeweils paarweise vorgenommen werden. Beispielsweise wird zunächst die Zuordnung der folgenden Punktepaare überprüft: (P1 0, P1 F) und (P2 0, P2 F). Zwischen den beiden Punkten P1 0 und P2 0 kann zunächst eine Gerade 7 definiert werden, und nachfolgend kann eine Ausrichtung dieser Geraden 7 im Bild B0 ermittelt werden. Dazu wird ein Winkel β0 12 zwischen der Geraden 7 und einer Horizontalen 8 berechnet, welcher die Orientierung der Geraden 7 im ersten Bild B0 angibt. Der Winkel β12 ist dabei ein geometrischer Parameter im Sinne der vorliegenden Erfindung.
  • Entsprechend wird dann die Orientierung einer Geraden 7' zwischen den korrespondierenden charakteristischen Punkten P1 F und P2 F des zweiten Bildes BF ermittelt. Auch die Orientierung der Geraden 7' wird durch einen Winkel βF 12 zwischen der Geraden 7' und der Horizontalen 8 definiert. Sind die beiden Winkel β12 0 und β12 F bekannt, so kann überprüft werden, ob die beiden Winkel gleich sind oder nicht. Dabei wird die folgende Differenz berechnet: 0 – βF| > T
  • Es wird also überprüft, ob der Betrag der Differenz zwischen den beiden Winkeln β0 und βF einen vorgegebenen Grenzwert T überschreitet. Wird dies bejaht, so bedeutet dies, dass eine Fehlzuordnung zumindest eines der Punktepaare (P1 0, P1 F) und (P2 0, P2 F) vorliegt. Diese Punktepaare werden dann verworfen und nicht mehr bei der Verfolgung des Objekts 5 berücksichtigt.
  • Eine solche fehlerhafte Zuordnung der Punkte P1 0 und P1 F ist beispielsweise in 4 dargestellt. Wie aus 4 hervorgeht, ist der Winkel βF 12 deutlich größer als der Winkel β0 12 des ersten Bildes B0. Dies deshalb, weil der Punkt P1 F des zweiten Bildes BF fälschlicherweise dem Punkt P1 0 des ersten Bildes B0 zugewiesen wurde. Tatsächlich sollte aber ein anderer Punkt P4 F dem Punkt P1 0 zugeordnet werden, wie dies in 4 schematisch dargestellt ist.
  • Als ein geometrischer Parameter zur Überprüfung der Plausibilität der Zuordnung kann auch ein Winkel αi,j,k verwendet werden, welcher zwischen drei unterschiedlichen Punkten definiert wird. In 4 sind dabei im ersten Bild B0 drei solche Winkel α201, α012 und α120 dargestellt, die zwischen drei Punkten P0 0, P1 0 sowie P2 0 definiert sind. Auch im zweiten Bild BF werden die entsprechenden Winkel α'012 zwischen den korrespondierenden Punkten P0 F, P1 F und P2F berechnet. Die Winkel α des zweiten Bildes BF können dann mit den korrespondierenden Winkeln α des ersten Bildes B0 verglichen werden. Auch hier kann für die Differenz zwischen zwei korrespondierenden Winkeln α ein Grenzwert vorgegeben werden. Wird dieser Grenzwert überschritten, so können die in 4 dargestellten charakteristischen Punkte des zweiten Bildes BF verworfen werden.
  • Wird also eine fehlerhafte Zuordnung der charakteristischen Punkte festgestellt, so wird das zugeordnete Verhältnis Si,k bzw. Ri,k verworfen. Der Rest der Verhältnisse Si,k bzw. Ri,k wird dann zur Berechnung der TTC sowie zur Berechnung der Position des Objekts 5 im zweiten Bild BF verwendet. Zunächst kann aber eine weiteren Prüfung der Werte Si,k bzw. Ri,k vorgenommen werden, und diejenigen Werte können ausgefiltert werden, die eine zu hohe Standardabweichung aufweisen. Dann wird ein Mittelwert S aus allen Werten Si,k bzw. ein Mittelwert R aus allen Werten Ri,k berechnet. Folglich kann die Breite wF sowie die Höhe hF des Objekts 5 im zweiten Bild BF berechnet werden: wF = w0S bzw. wF = w0R und hF = h0S bzw. hF = h0R,
  • Dann können die Koordinatenwerte xF und yF des Objekts 5 im zweiten Bild BF ermittelt werden. Dazu werden zunächst folgende Werte dxi sowie dyi berechnet, welche den normierten Abstand eines einzelnen Punktes Pi F zu einer oberen linken Ecke des Objekts darstellen:
    Figure 00130001
    wobei Pi,x 0 die x-Koordinate des Punktes Pi 0 und Pi,y 0 die y-Koordinate des Punktes Pi 0 bezeichnen. Weil angenommen wird, dass das Objekt 5 ein starres Objekt ist, sind die obigen Abstände unabhängig von der Position und der Größe des Objekts 5 im Bild, sodass gilt:
    Figure 00130002
    woraus sich die folgende Beziehung ergibt: xF i = Pi F – wF·dxi.
  • Entsprechendes ergibt sich auch für die y-Koordinate des Objekts 5 im zweiten Bild BF, also für yF i. Auch aus diesen Werten xF i und yF i können diejenigen Werte ausgefiltert werden, die eine zu hohe Standardabweichung besitzen. Aus dem Rest der Werte xF i und yF i werden dann jeweilige Mittelwerte xF und yF berechnet. Die Position und die Größe des Objekts 5 im neuen, zweiten Bild BF ist somit definiert durch:

    (xF, yF, wF, hF).
  • Oben wurde beschrieben, wie die Koordinatenwerte xF, yF aus zwei unterschiedlichen Punkten des Bildes BF berechnet werden können. Die Koordinatenwerte xF, yF können auch alternativ aus drei unterschiedlichen Punkten errechnet werden. Aus drei verfolgten Punkten P0 0, P0 1, P0 2 des Bildes B0 sowie aus einem definierten Punkt P0 C des detektierten Objektes – etwa der oberen linken Ecke des Objektes – können drei Koeffizienten a, b, c ermittelt werden. Hierzu kann folgendes Gleichungssystem definiert werden:
    Figure 00140001
  • Man erhält somit drei Gleichungen mit drei unterschiedlichen Unbekannten a, b, c, so dass dieses Gleichungssystem kann ohne viel Aufwand gelöst und die Unbekannten a, b, c kalkuliert werden. In einigen Fällen kann es vorkommen, dass dieses Gleichungssystem nicht gelöst werden kann, nämlich abhängig von den Werten xi und yi. In solchen Fällen ist vorgesehen, dass die Dreierkombination der Punkte P0 0, P0 1, P0 2 verworfen und nicht mehr zur Berechnung der TTC und der Position herangezogen wird.
  • Sind die Koeffizienten a, b, c bekannt, so kann die Position PF C im neuen Bild BF ermittelt werden:
    Figure 00140002
  • Diese Methode kann dann für alle möglichen Dreierkombinationen der Punkte angewendet werden, und es können unplausible Werte ausgefiltert werden. Dann wird ein Mittelwert der Position PC aus den verbleibenden Werten berechnet.
  • Nun wird die TTC aus der nachfolgenden Formel berechnet:
    Figure 00150001
    dt den zeitlichen Abstand zwischen den Zeitpunkten der Erfassung der beiden Bilder B0 und BF bezeichnet.
  • Üblicherweise wird jedoch eine Kamera verwendet, welche etwa 10 bis 30 Einzelbilder pro Sekunde liefert. Dies bedeutet, dass der mittlere zeitliche Abstand zwischen zwei benachbarten Einzelbildern zwischen 100 ms und 33 ms liegt. Auf der einen Seite kann der berechnete Wert der TTC unplausibel sein, wenn die TTC direkt zwischen zwei benachbarten Einzelbildern berechnet wird (bei F = 1). Tatsächlich wäre der zeitliche Abstand t(F)–t(0) zwischen zwei Einzelbildern relative klein (< 100 ms), so dass die Skalierungsänderung S01 und ein kleiner Fehler des Werts S01 und/oder des zeitlichen Abstands t(F)–t(0) zu einem grollen Fehler des berechneten Werts der TTC führen kann.
  • Wenn auf der anderen Seite die Skalierungsänderung S zwischen zwei Einzelbildern 0 und beispielsweise F = 5 berechnet wird (um einen größeren zeitlichen Abstand zu erhalten), dann kann ein Problem beim korrekten Verfolgen der charakteristischen Punkte auftreten, insbesondere wenn sich das Objekt schnell in den Bildern bewegt (die Position im Bild 0 wäre tatsächlich anders als im Bild 5, und die Verfolgung kann versagen).
  • Um dieses Problem umzugehen, wird vorgeschlagen, die Skalierungsänderung S zwischen jedem Paar von benachbarten Bildern (0, 1), (1, 2), ..., (F – 1, F) zu kalkulieren, um sicherzustellen, dass die Position des Objektes zwischen zwei Bildern nicht zu stark verändert wird. Somit gelingt die Verfolgung in jedem Fall. Um also einen präzisen und rauscharmen Wert der TTC zu erhalten, werden die Werte S (bzw. R) über einer Vielzahl von Einzelbildern der Kamera 4 bestimmt. Werden beispielsweise 0, 1, 2 ... F von Einzelbildern der Kamera 4 aufgenommen, so kann zwischen jeweils zwei benachbarten Bildern der jeweilige Wert S (bzw. R) berechnet werden: S0,1, S1,2, ..., SF-1,F. Dann kann die Skalierung des Objekts 5 über alle Einzelbilder 0, 1, 2 ... F berechnet werden: S0,F = S0,1 S1,2 ... SF-1,F.
  • Schließlich kann dann die TTC berechnet werden:
    Figure 00160001
  • Dabei bezeichnen t(F) den Zeitpunkt der Aufnahme des letzten Bildes F und t(0) den Zeitpunkt der Aufnahme des ersten Bildes B0. Dieser Ansatz verhindert auch kleines Rauschen der Werte der Skalierungsänderung S. Beispielsweise kann die Anzahl der verwendeten Einzelbilder gleich F ~ 5 sein, um sicherzustellen dass der zeitliche Abstand t(F)–t(0) groß genug ist (größer als 100 ms). Zum Beispiel kann der zeitliche Abstand t(F)–t(0) in einem Wertebereich von 100 ms bis 500 ms liegen und kann beispielsweise 300 ms betragen. Durch diesen Ansatz wird auch das Rauschen der Daten vermieden. Der endgültige Wert der TTC berechnet aus der oberen letzten Gleichung ist deutlich weniger verrauscht im Vergleich zu anderen Gleichungen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 20060276964 A [0004]
    • EP 2068269 A1 [0005]

Claims (13)

  1. Verfahren zum Verfolgen eines in einer Umgebung (6) eines Kraftfahrzeugs (1) befindlichen Objektes (5) in einer Sequenz von nacheinander aufgenommenen Bildern (B0, BF) einer Kamera (4) des Kraftfahrzeugs (1), mit den Schritten: a) Identifizieren des Objektes (5) in einem ersten Bild (B0) der Sequenz von Bildern (B0, BF) und Bestimmen einer Vielzahl von charakteristischen Punkten (Pi 0) des Objektes (5) in dem ersten Bild (B0), b) Bestimmen einer Vielzahl von charakteristischen Punkten (Pi F) des Objektes (5) in einem zweiten Bild (BF) der Sequenz von Bildern (B0, SF) und c) Verfolgen des Objektes (5) durch Zuordnen der charakteristischen Punkte (Pi F) des Objektes (5) aus dem zweiten Bild (BF) zu jeweils korrespondierenden charakteristischen Punkten (Pi 0) des Objektes (5) aus dem ersten Bild (B0), gekennzeichnet durch d) Bestimmen eines ersten Wertes eines geometrischen Parameters (α, β) aus zumindest zwei charakteristischen Punkten (Pi F) des Objektes (5) aus dem zweiten Bild (BF), e) Bestimmen eines zweiten Wertes desselben geometrischen Parameters (α, β) aus korrespondierenden Punkten (Pi 0) des Objektes (5) aus dem ersten Bild (B0), und f) Überprüfen der Plausibilität der Zuordnung gemäß Schritt c) anhand eines Vergleiches des ersten Wertes mit dem zweiten Wert des geometrischen Parameters.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass im Rahmen des Vergleiches gemäß Schritt f) überprüft wird, ob eine Differenz zwischen dem ersten und dem zweiten Wert des Parameters (α, β) einen vorgegebenen Grenzwert (T) überschreitet, und nach Feststellen des Überschreitens zumindest einer der zumindest zwei charakteristischen Punkte (Pi F) gemäß Schritt d) beim Verfolgen des Objektes (5) gemäß Schritt c) unberücksichtigt bleibt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als geometrischer Parameter (α, β) eine Ausrichtung (β) einer durch die zumindest zwei Punkte (Pi 0, Pi F) des jeweiligen Bilds (B0, BF) verlaufenden Geraden (7, 7') bestimmt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als geometrischer Parameter (α, β) ein Verhältnis eines Abstands zwischen einem ersten Punktepaar des jeweiligen Bilds (B0, BF) zu einem Abstand zwischen einem zweiten Punktepaar desselben Bilds (B0, BF) bestimmt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als geometrischer Parameter (α, β) ein Winkel (α) bestimmt wird, welcher durch drei charakteristische Punkte (Pi 0, Pi F) des jeweiligen Bilds (B0, BF) definiert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zuordnung gemäß Schritt c) umfasst, dass Punktepaare (Pi 0, Pi F) jeweils aus einem charakteristischen Punkt (Pi 0) des Objektes (5) im ersten Bild (B0) und dem korrespondierenden Punkt (Pi F) des Objektes (5) im zweiten Bild (BF) bereitgestellt werden, wobei zu zumindest einem Punktepaar (Pi 0, Pi F) ein Korrelationswert bestimmt wird und das zumindest eine Punktepaar (Pi 0, Pi F) anhand seines Korrelationswerts auf seine Plausibilität hin überprüft wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass falls der Korrelationswert einen vorgegebenen Grenzwert unterschreitet, das Punktepaar (Pi 0, Pi F) verworfen wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass beim Identifizieren des Objektes (5) gemäß Schritt a) eine Position des Objektes (5) in dem ersten Bild (B0) bestimmt wird und das Verfolgen des Objektes (5) gemäß Schritt c) umfasst, dass eine Position des Objektes (5) in dem zweiten Bild (BF) zumindest abhängig von der Position des Objektes (5) in dem ersten Bild (B0) und anhand der charakteristischen Punkte (Pi 0, Pi F) bestimmt wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfolgen des Objektes (5) gemäß Schritt c) umfasst, dass eine Zeit bis zur Kollision (TTC) anhand der charakteristischen Punkte berechnet wird.
  10. Verfahren nach Anspruch 8 und/oder 9, dadurch gekennzeichnet, dass die Position des Objektes (5) in dem zweiten Bild (BF) und/oder die Zeit bis zur Kollision (TTC) in Abhängigkeit von einem Verhältnis (S) eines Abstands (dF) zwischen zwei charakteristischen Punkten (Pi F) aus dem zweiten Bild (BF) zu einem Abstand (d0) zwischen zwei korrespondierenden Punkten (Pi 0) aus dem ersten Bild (B0) bestimmt wird.
  11. Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Position des Objektes (5) in dem zweiten Bild (BF) und/oder die Zeit bis zur Kollision (TTC) in Abhängigkeit von einem Verhältnis (R) einer durch zumindest drei charakteristische Punkte (Pi F) des zweiten Bilds (BF) definierten Fläche (aF) zu einer Fläche (a0) bestimmt wird, die durch die korrespondierenden Punkte (Pi 0) des ersten Bilds (B0) definiert wird.
  12. Kamerasystem (3) für ein Kraftfahrzeug (1), wobei das Kamerasystem (3) zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 11 ausgebildet ist.
  13. Kraftfahrzeug (1) mit einem Kamerasystem (3) nach Anspruch 12.
DE102011122458A 2011-12-24 2011-12-24 Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts, Kamerasystem und Kraftfahrzeug Ceased DE102011122458A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102011122458A DE102011122458A1 (de) 2011-12-24 2011-12-24 Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts, Kamerasystem und Kraftfahrzeug
PCT/EP2012/076279 WO2013092795A1 (en) 2011-12-24 2012-12-20 Method for tracking an object present in a surrounding of a motor vehicle, camera system and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011122458A DE102011122458A1 (de) 2011-12-24 2011-12-24 Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts, Kamerasystem und Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102011122458A1 true DE102011122458A1 (de) 2013-06-27

Family

ID=47553007

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011122458A Ceased DE102011122458A1 (de) 2011-12-24 2011-12-24 Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts, Kamerasystem und Kraftfahrzeug

Country Status (2)

Country Link
DE (1) DE102011122458A1 (de)
WO (1) WO2013092795A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060276964A1 (en) 2005-06-01 2006-12-07 Nissan Motor Co., Ltd. Behavior detector and behavior detection method for a vehicle
DE102005041633B4 (de) * 2005-08-26 2007-06-06 Adam Stanski Verfahren und Vorrichtung zur Positions- und Ähnlichkeitsbestimmung von Objektpunkten in Bildern
EP2068269A2 (de) 2004-04-08 2009-06-10 Mobileye Technologies Limited Kollisionswarnsystem

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5644097B2 (ja) * 2009-12-08 2014-12-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2068269A2 (de) 2004-04-08 2009-06-10 Mobileye Technologies Limited Kollisionswarnsystem
US20060276964A1 (en) 2005-06-01 2006-12-07 Nissan Motor Co., Ltd. Behavior detector and behavior detection method for a vehicle
DE102005041633B4 (de) * 2005-08-26 2007-06-06 Adam Stanski Verfahren und Vorrichtung zur Positions- und Ähnlichkeitsbestimmung von Objektpunkten in Bildern

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tucker, L.W.; Feynman, C.R.; Fritzsche, D.M.: "Object recognition using the Connection Machine," Computer Society Conference on Computer Vision and Pattern Recognition, 1988. Proceedings CVPR '88., pp.871-878, 5-9 Jun 1988; doi: 10.1109/CVPR.1988.196335 *

Also Published As

Publication number Publication date
WO2013092795A1 (en) 2013-06-27

Similar Documents

Publication Publication Date Title
DE102012216386A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102012001554A1 (de) Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102008001363A1 (de) Verfahren zum Erfassen einer Parkfläche unter Verwendung eines Entfernungssensors
DE102014209137A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
EP2856390A1 (de) Verfahren und vorrichtung zur verarbeitung stereoskopischer daten
DE102006060893A1 (de) Vorrichtung und Verfahren zum Bestimmen eines Freiraums vor einem Fahrzeug
DE102012223481A1 (de) Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE102012024878A1 (de) Verfahren zum Detektieren eines Zielobjekts anhand eines Kamerabilds durch Clusterbildung aus mehreren benachbarten Bildzellen, Kameraeinrichtung und Kraftfahrzeug
DE102013021840A1 (de) Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102017123228A1 (de) Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug
WO2016177508A1 (de) Verfahren zur darstellung einer fahrzeugumgebung eines fahrzeuges
DE102013012778A1 (de) Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug
WO2014009406A1 (de) VERFAHREN UND VORRICHTUNG ZUM BERECHNEN EINER VERÄNDERUNG EINES ABBILDUNGSMAßSTABS EINES OBJEKTS
DE102014201409B4 (de) Parkplatz - trackinggerät und verfahren desselben
EP3409541A1 (de) Vorrichtung zur fahrschlauchabsicherung
EP1944212B1 (de) Verfahren und Vorrichtung zum Ermitteln potentiell gefährdender Objekte für ein Fahrzeug
DE102008041761A1 (de) Verfahren und Vorrichtung zur Ermittlung eines relativen Gierwinkels
DE102014219428A1 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
DE102011122458A1 (de) Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts, Kamerasystem und Kraftfahrzeug
EP2565580B1 (de) Verfahren zur Bestimmung eines Ausmaßes eines Objekts in einer Umgebung eines Fahrzeugs sowie eine entsprechende Vorrichtung und ein Fahrzeug mit einer derartigen Vorrichtung
DE102010044112B4 (de) Fluchtpunktbestimmungsvorrichtung und Fluchtpunktbestimmungsprogramm
DE102009038906A1 (de) Verfahren und Vorrichtung zur Früherkennung einer Kollision eines Fahrzeuges
DE102012025463A1 (de) Verfahren zum Bestimmen eines Bewegungsparameters eines Kraftfahrzeugs durch Auffinden von invarianten Bildregionen in Bildern einer Kamera des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed

Effective date: 20140612

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final