DE102011111440A1 - Verfahren zur Umgebungsrepräsentation - Google Patents

Verfahren zur Umgebungsrepräsentation Download PDF

Info

Publication number
DE102011111440A1
DE102011111440A1 DE201110111440 DE102011111440A DE102011111440A1 DE 102011111440 A1 DE102011111440 A1 DE 102011111440A1 DE 201110111440 DE201110111440 DE 201110111440 DE 102011111440 A DE102011111440 A DE 102011111440A DE 102011111440 A1 DE102011111440 A1 DE 102011111440A1
Authority
DE
Germany
Prior art keywords
segments
image
environment
disparity
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201110111440
Other languages
English (en)
Other versions
DE102011111440A8 (de
Inventor
Dr.-Ing. Franke Uwe
Pfeiffer David
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE201110111440 priority Critical patent/DE102011111440A1/de
Publication of DE102011111440A1 publication Critical patent/DE102011111440A1/de
Priority to CN201280042239.4A priority patent/CN103765439B/zh
Priority to PCT/EP2012/003091 priority patent/WO2013029722A2/de
Priority to US14/237,590 priority patent/US9042639B2/en
Publication of DE102011111440A8 publication Critical patent/DE102011111440A8/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Umgebungsrepräsentation, bei dem jeweils zwei Bilder einer Umgebung (U) aufgenommen werden und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird. Erfindungsgemäßwird im Disparitätsbild ein hindernisfreier Freiraum (F) identifiziert, indem jeder Bildpunkt des Disparitatsbilds in Abhängigkeit von Disparitätswerten des jeweiligen Bildpunkts entweder einer hindernisfreien Bodenoberfläche (B) oder einem von mehreren Segmenten (S1 1bis Sn u) zugewiesen wird. Segmente (S1 1bis Sn u) gleicher Breite werden aus Bildpunkten gleicher oderähnlicher Entfernung zu einer Bildebene gebildet, wobei anhand eines Segments (S1 1bis Sn u) oder mehrerer Segmente (S1 1bis Sn u) ein außerhalb des Freiraums (F) befindliches Objekt (O1 bis Ok) in der Umgebung (U) modelliert wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Umgebungsrepräsentation, bei dem jeweils zwei Bilder einer Umgebung aufgenommen werden und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird.
  • Aus der DE 10 2009 009 047 A1 ist ein Verfahren zur Objektdetektion bekannt, bei dem jeweils zwei Bilder einer Umgebung aufgenommen und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird. Das Disparitätsbild wird auch als Entfernungsbild bezeichnet. Aus den ermittelten Disparitäten wird eine Tiefenkarte der Umgebung bestimmt, in der eine Freiraumbegrenzungslinie identifiziert wird, die einen hindernisfreien Bereich der Umgebung umgrenzt. Außerhalb und entlang der Freiraumbegrenzungslinie wird die Tiefenkarte segmentiert, indem Segmente einer geeigneten Breite aus Pixeln gleicher oder ähnlicher Entfernung zu einer Bildebene gebildet werden. Eine Höhe jedes Segments wird als Teil eines außerhalb des hindernisfreien Bereichs befindlichen Objekts geschätzt, so dass jedes Segment durch die zweidimensionale Position seines Fußpunkts, gegeben durch Entfernung und Winkel zur Fahrzeuglängsachse, und seine Höhe charakterisiert wird. Das Disparitätsbild und die Tiefenkarte beschreiben und repräsentieren die Umgebung dreidimensional.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Umgebungsrepräsentation anzugeben.
  • Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem Verfahren zur Umgebungsrepräsentation werden jeweils zwei Bilder einer Umgebung aufgenommen und mittels Stereobildverarbeitung wird ein Disparitätsbild ermittelt.
  • Erfindungsgemäß wird im Disparitätsbild ein hindernisfreier Freiraum identifiziert, indem jeder Bildpunkt des Disparitätsbilds in Abhängigkeit von Disparitätswerten des jeweiligen Bildpunkts entweder einer hindernisfreien Bodenoberfläche oder einem von mehreren Segmenten zugewiesen wird. Dabei werden Segmente gleicher Breite aus Bildpunkten gleicher oder ähnlicher Entfernung zu einer Ebene gebildet, wobei anhand eines Segments oder mehrerer Segmente ein außerhalb des Freiraums befindliches Objekt in der Umgebung modelliert wird.
  • Die durch das Disparitätsbild beschriebene dreidimensionale Umgebung wird durch den hindernisfreien Freiraum approximiert. Der Freiraum ist beispielsweise ein befahrbarer Bereich, der jedoch nicht zwingend planar sein muss. Der Freiraum wird begrenzt durch die stabartigen Segmente, die in ihrer Gesamtheit die den Freiraum umgebenden Objekte modellieren. Diese Segmente stehen im einfachsten Fall auf dem Boden und approximieren eine mittlere Höhe des Objekts im Bereich des jeweiligen Segments. Objekte mit variabler Höhe, beispielsweise Radfahrer von der Seite, werden so durch eine stückweise konstante Höhenfunktion beschrieben.
  • Die Segmente, welche auch als Stixel bezeichnet werden, stellen eine kompakte und robuste Repräsentation der Objekte dar und erfordern nur ein begrenztes Datenvolumen. Zu jedem Stixel sind Ort und Höhe gespeichert. Diese Repräsentation eignet sich in besonders vorteilhafter Weise für gegebenenfalls nachfolgende Schritte, wie eine Objektbildung und eine Szeneninterpretation. Die Stixel-Repräsentation stellt eine ideale Schnittstelle zwischen applikationsunabhängiger Stereoanalyse und applikationsspezifischen Auswertungen dar.
  • Die erfindungsgemäße Identifizierung des hindernisfreien Freiraums direkt aus dem Disparitätsbild ermöglicht es in besonders vorteilhafter Weise gegenüber dem Stand der Technik, dass eine zusätzliche Ermittlung einer Tiefenkarte zur Ermittlung des Freiraums nicht erforderlich ist. Somit ist ein Verarbeitungsaufwand verringert und verarbeitungsrelevante Ressourcen können eingespart werden. Weiterhin kann aufgrund der Identifizierung des Freiraums direkt aus dem Disparitätsbild eine optimale Repräsentation durch globale Optimierung anhand eines flexibel definierbaren Fehlermaßes ermittelt werden.
  • Weiterhin resultiert daraus, dass jeder Bildpunkt entweder der hindernisfreien Bodenoberfläche oder einem Segment zugeordnet wird, dass mehrere Objekte in einer Bildspalte oder einem Bildstreifen zugelassen werden, so dass die Repräsentation der Umgebung vollständig ohne Fehlstellen erfolgt. Somit ist es auch möglich, Objekte „in zweiter Reihe” zu repräsentieren. Mit anderen Worten: Da nicht nur das „wahrscheinlichste” Objekt gesucht wird, sondern alle Objekte berücksichtigt werden, besteht nicht die Gefahr, dass große Hintergrundobjekte kleinere und möglicherweise bedeutende Objekte im Disparitätsbild verdecken.
  • Auch wird durch das erfindungsgemäße Verfahren in seiner Gesamtheit eine Auftrittswahrscheinlichkeit von falsch positiven Stixeln signifikant reduziert und eine effektive Reichweite der Stereoanalyse, d. h. der Stereobildverarbeitung signifikant erhöht. Die Erhöhung liegt insbesondere in einem Bereich von 50% bis 100%. Ist eine Erhöhung der effektiven Reichweite nicht erforderlich, ist es in besonders vorteilhafter Weise möglich, dass eine Basisbreite zwischen den die zwei Bilder erfassenden Bilderfassungseinheiten verringerbar ist, so dass geringere Einbauräume erforderlich sind und Designvorteile erzielt werden können.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 schematisch eine zweidimensionale Darstellung einer Umgebung eines Fahrzeugs mit einem hindernisfreien Freiraum und einer Anzahl von Segmenten zur Modellierung von Objekten in der Umgebung nach dem Stand der Technik und
  • 2 schematisch eine zweidimensionale Darstellung einer Umgebung eines Fahrzeugs mit einem hindernisfreien Freiraum und einer Anzahl von Segmenten zur Modellierung von Objekten in der Umgebung nach dem erfindungsgemäßen Verfahren.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 ist eine zweidimensionale Darstellung einer Umgebung U eines nicht gezeigten Fahrzeugs mit einem hindernisfreien Freiraum F und einer Anzahl von Segmenten S1 bis Sm zur Modellierung von Objekten O1 bis Ok in der Umgebung U nach dem Stand der Technik dargestellt.
  • Die Segmente S1 bis Sm, auch als Stixel bezeichnet, modellieren die Objekte O1 bis Ok, welche den definierten hindernisfreien Freiraum F begrenzen. Zur Erstellung der gezeigten Darstellung kommt ein aus der DE 10 2009 009 047 A1 bekanntes Verfahren zur Objektdetektion zum Einsatz.
  • Dabei werden zunächst jeweils zwei Bilder der Umgebung U aufgenommen und mittels Stereobildverarbeitung wird ein Disparitätsbild ermittelt. Aus den ermittelten Disparitäten wird eine Tiefenkarte der Umgebung U bestimmt.
  • Es wird eine nicht näher dargestellte Freiraumbegrenzungslinie identifiziert, die den hindernisfreien Freiraum F der Umgebung U umgrenzt. Außerhalb und entlang der Freiraumbegrenzungslinie wird die Tiefenkarte segmentiert, indem die Segmente S1 bis Sm mit einer vorgegebenen Breite aus Bildpunkten, auch als Pixel bezeichnet, gleicher oder ähnlicher Entfernung zu einer Bildebene einer Bilderfassungserfassungseinheit oder mehrerer Bilderfassungseinheiten gebildet werden. Die Bilderfassungseinheiten sind Kameras.
  • Eine Approximation der gefundenen Freiraumbegrenzungslinie in die Segmente S1 bis Sm mit beliebig vorgegebener Breite, welche stabartig ausgebildet sind, liefert eine Entfernung der Segmente S1 bis Sm. Bei bekannter Orientierung der Bilderfassungseinheit zur Umgebung U, wie im dargestellten Beispiel einer Straße vor einem Fahrzeug, an dem die Bilderfassungseinheit angeordnet ist, und bekanntem dreidimensionalen Verlauf ergibt sich ein jeweiliger Fußpunkt der Segmente S1 bis Sm im Bild.
  • Anschließend wird eine Höhe jedes Segments S1 bis Sm geschätzt, so dass jedes Segment S1 bis Sm durch eine zweidimensionale Position eines Fußpunkts und seine Höhe charakterisiert wird.
  • Die Schätzung der Höhe erfolgt in einer dynamischem Programmierung mittels histogrammbasierter Auswertung aller dreidimensionalen Punkte im Bereich des jeweiligen Segments S1 bis Sm.
  • Bereiche, die keine Segmente S1 bis Sm aufweisen, sind solche, in denen von der Freiraumanalyse keine Objekte O1 bis Ok gefunden wurden.
  • Nachteilig ist, dass keine Segmente S1 bis Sm generiert werden, wenn kleine oder weiter entfernte Objekte O1 bis Ok bei der Analyse der Tiefenkarte nicht erfasst werden. Dies resultiert daraus, dass kleine Objekte O1 bis Ok mit einer geringen Zahl von Disparitäts-Messwerten nur eine geringe Signalstärke liefern durch das Rauschen überdeckt werden. Deshalb nimmt die Detektionswahrscheinlichkeit der Objekte O1 bis Ok mit der Entfernung ab und es entstehen „Löcher” in der so genannten Stixel-Welt, da nicht jeder Bildpunkt zugeordnet werden kann.
  • Falls es in einer Spalte der Tiefenkarte bei entsprechendem Blickwinkel mehrere Objekte O1 bis Ok gibt, entscheidet sich der Algorithmus für das nächstliegende der Objekte O1 bis Ok. Um eine Robustheit gegenüber Störungen zu erzielen, wird eine Evidenz der konkurrierenden Zellen mit bewertet. Dabei ist maximal ein Segment S1 bis Sm pro Spalte des Disparitätsbilds möglich, so dass in nachteiliger Weise eine Beschränkung auf eine Ebene pro Spalte vorliegt. In seltenen, aber in der Praxis relevanten Fällen kann beispielsweise ein Haus einen vor diesem befindlichen Zaun maskieren, so dass dieser nicht detektiert werden kann und somit nicht mehr sichtbar ist. Da nur das nächstliegende Objekt O1 bis Ok repräsentiert wird, können teilverdeckte Objekte O1 bis Ok, wie beispielsweise hinter einem Fahrzeug befindliche Fußgänger, nicht repräsentiert werden.
  • Weiterhin müssen die Segmente S1 bis Sm auf der Bodenoberfläche B stehen. Das kann bei mit der Höhe ausladenden Objekten zu falschen Interpretationen führen.
  • Zudem können Störungen in der Tiefenkarte zu falsch positiven Segmenten S1 bis Sm führen.
  • 2 zeigt eine zweidimensionale Darstellung der gleichen Umgebung U wie in 1 mit einem hindernisfreien Freiraum F und einer Anzahl von Segmenten S1 1 bis Sn u zur Modellierung der Objekte O1 bis Ok in der Umgebung U nach dem erfindungsgemäßen Verfahren.
  • Im Unterschied zu dem aus dem Stand der Technik bekannten Verfahren nach 1 gemäß der DE 10 2009 009 047 A1 wird gemäß des erfindungsgemäßen Verfahrens der Schritt über die Tiefenkarte nicht mehr benötigt.
  • Es werden zwar ebenfalls zunächst jeweils zwei Bilder der Umgebung U mittels der Bilderfassungseinheiten aufgenommen und mittels Stereobildverarbeitung wird ein Disparitätsbild ermittelt. Die Bilderfassungseinheiten sind Kameras, können jedoch auch als Photomischdetektor, dreidimensionale Kamera, Lidar und/oder Radar ausgebildet sein. Beispielsweise kann zur Stereobildverarbeitung das in „H. Hirschmüller: Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807–814” beschriebene Verfahren verwendet werden.
  • Jedoch wird der hindernisfreie Freiraum F direkt im Disparitätsbild identifiziert, indem jeder Bildpunkt des Disparitätsbilds in Abhängigkeit von Disparitätswerten des jeweiligen Bildpunkts entweder der hindernisfreien Bodenoberfläche B oder einem von mehreren Segmenten S1 1 bis Sn u zugewiesen wird. Die zugrunde liegende geometrische Annahme ist, dass in der Regel eine Tiefenstaffelung der Objekte O1 bis Ok in mehreren Ebenen E1 bis En existiert. Das heißt, es besteht die Möglichkeit, dass in einer Spalte des Disparitätsbilds mehrere Objekte O1 bis Ok dargestellt sein können. Um diese Tiefenstaffelung darstellen zu können, werden je nach Anzahl der Ebenen E1 bis En in der jeweiligen Spalte mehrere Segmente S1 1 bis Sn u in der betreffenden Spalte des Disparitätsbilds übereinander angeordnet. Dabei gibt der Index n eine Segmentnummer in der jeweiligen Spalte des Disparitätsbilds an und der Index u, der so genannte Bildspaltenindex, die Nummer der jeweiligen Spalte im Disparitätsbild. Im dargestellten Ausführungsbeispiel ist das Disparitätsbild in drei Ebenen E1 bis E3 unterteilt.
  • Der Freiraum F wird dabei von den die Objekte O1 bis Ok modellierenden Segmenten S1 1 bis Sn u begrenzt. Da jeder Bildpunkt zugeordnet wird, entstehen keine „Löcher” in der so genannten Stixel-Welt. Das heißt, wie im dargestellten Ausführungsbeispiel gezeigt, können alle Objekte O1 bis Ok in der Umgebung U repräsentiert werden, wobei eine effektive Reichweite der Stereobildverarbeitung signifikant erhöht wird, so dass auch weiter entfernte Objekte O1 bis Ok erfasst werden können.
  • Hierbei werden die Segmente S1 1 bis Sn u gleicher Breite aus Bildpunkten gleicher oder ähnlicher Entfernung zu einer Bildebene der Bilderfassungseinheit, mittels welcher die Bilder erfasst werden, gebildet. Mittels der Segmente S1 1 bis Sn u werden wiederum die Objekte O1 bis Ok außerhalb des Freiraums F modelliert. Jedes Segment S1 1 bis Sn u wird dabei durch eine zweidimensionale Position eines Fußpunkts und seine Höhe charakterisiert. Die Segmente S1 1 bis Sn u in nicht näher dargestellter Weise zusätzlich oder alternativ zu der gezeigten vertikalen Anordnung auch horizontal angeordnet sein.
  • Bei der dargestellten Anordnung mehrerer Segmente S1 1 bis Sn u in einer Spalte übereinander ist eine besonders genaue Analyse einer Unterkante und Oberkante des jeweiligen Segments S1 1 bis Sn u erforderlich. Das heißt, neben den vertikalen Grenzen der Segmente S1 1 bis Sn u werden auch deren horizontale Grenzen bestimmt.
  • Die horizontalen und vertikalen Grenzen der Segmente S1 1 bis Sn u werden mittels mathematischer Optimierung eines Energiefunktionals aus den Disparitätswerten der Bildpunkte bestimmt. Dabei wird vorzugsweise ein quadratisches Energiefunktional verwendet. Dies ist jedoch nicht zwingend erforderlich.
  • Besonders bevorzugt wird zur mathematischen Optimierung eine dynamische Programmierung verwendet, wobei bei der dynamischen Programmierung benachbarte Spalten unabhängig voneinander bestimmt werden. Aufgrund der voneinander unabhängigen Bestimmung der Segmente S1 1 bis Sn u handelt es sich um ein eindimensionales Problem, welches mittels der dynamischen Programmierung besonders effizient gelöst werden kann. Die dynamische Programmierung wird beispielsweise gemäß „David Gallup, Marc Pollefeys and Jan-Michael Frahm: 3d reconstruction using an n-layer heightmap; In: Proc. DAGM, pages 1–10, September 2010” durchgeführt.
  • Um eine besonders aussagekräftige Repräsentation der Umgebung U zu erzeugen, werden den Segmenten S1 1 bis Sn u vielfältige Attribute zugeordnet. Hierzu werden in dem zu optimierenden Funktional Bewegungsinformationen, die Zugehörigkeit zu bestimmten Objektklassen, Grauwertinformationen und Farbinformationen des jeweiligen Bildpunktes berücksichtigt. Weiterhin wird eine Zugehörigkeit der Segmente S1 1 bis Sn u zu einem oder mehreren Objekten O1 bis Ok bestimmt und die Segmente S1 1 bis Sn u werden mit Informationen über ihre Zugehörigkeit versehen.
  • Die Bewegungsinformationen, welche eine Bewegung im Raum wiedergeben, werden vorzugsweise durch Integration eines optischen Flusses des jeweiligen Bildpunkts ermittelt und jedem Segment S1 1 bis Sn u als Bewegungsvektor zugeordnet, wobei hierzu mehrere Disparitätsbilder sequentiell ermittelt und verarbeitet werden und der optische Fluss aus Veränderungen in aufeinanderfolgenden Disparitätsbildern ermittelt wird. Somit lässt sich für jedes der Segmente S1 1 bis Sn u eine reale Bewegung schätzen. Entsprechende Verfahren sind z. B. aus Arbeiten zur 6D-Vision, welche in der DE 10 2005 008 131 A1 veröffentlicht sind, bekannt. Diese Bewegungsinformation vereinfacht werter die Gruppierung zu Objekten O1 bis Ok, da auf kompatible Bewegungen geprüft werden kann.
  • Aufgrund der Kenntnis und der Möglichkeit der Verarbeitung von Bewegungsinformationen können auch bewegte Szenen repräsentiert werden und beispielsweise zur Prognose einer zu erwartenden Bewegung der Objekte O1 bis Ok verwendet werden. Diese Art von Bewegungsverfolgung ist auch als Tracking bekannt. Dabei wird zur Bestimmung der Bewegung der Segmente S1 1 bis Sn u eine Fahrzeug-Eigenbewegung ermittelt und zur Kompensation herangezogen. Die Kompaktheit und Robustheit der Segmente S1 bis Sm resultiert aus der Integration vieler Bildpunkte im Bereich des jeweiligen Segments S1 1 bis Sn u und – bei Verwendung des Trackings – aus der zusätzlichen Integration über die Zeit.
  • Die Position eines Fußpunkts des jeweiligen Segments S1 1 bis Sn u, die Höhe und die Bewegungsinformation des Segments S1 1 bis Sn u werden vorzugsweise mittels des so genannten Scene Flow ermittelt. Beim Scene Flow handelt es sich um eine Klasse von Verfahren, die aus mindestens zwei aufeinander folgenden Stereobildpaaren versucht, für möglichst jeden Bildpunkt eine korrekte Bewegung im Raum und seine dreidimensionale Position zu ermitteln.
  • Die Segmente S1 1 bis Sn u besitzen eindeutige Nachbarschaftsbeziehungen, wodurch sie sich sehr einfach zu Objekten O1 bis Ok gruppieren lassen. Im einfachsten Fall sind zu jedem Segment S1 1 bis Sn u nur Entfernung und Höhe zu übertragen, bei bekannter Breite des Segments S1 1 bis Sn u ergibt sich ein Winkel, d. h. die Spalten im Bild, aus einem Index.
  • Die dargestellte Stixel-Welt, welche eine so genannte Multi-Layer-Stixel-Welt ist, repräsentiert die geometrische Situation in der Umgebung U und eignet sich in besonderer Weise auch für weitere Verarbeitungsschritte.
  • Dabei können auf der Basis der identifizierten Segmente S1 1 bis Sn u Informationen für ein Fahrerassistenzsystem in einem Fahrzeug generiert werden, an welchem die Bilderfassungseinheiten zur Aufnahme der Bilder angeordnet sind.
  • Beispielsweise ist eine Anwendung zur Aufmerksamkeitssteuerung oder zur Planung bei automatisiert bewegten Fahrzeugen anhand des ermittelten Freiraums F möglich.
  • Auch kann eine verbleibende Zeit bis zur Kollision des Fahrzeugs mit einem durch die Segmente S1 1 bis Sn u repräsentierten Objekt O1 bis Ok geschätzt werden. Weiterhin kann ein Fahrkorridor in den hindernisfreien Freiraum F gelegt werden, der vom Fahrzeug benutzt werden soll, wobei ein seitlicher Abstand mindestens eines der Objekte O1 bis Ok zum Fahrkorridor ermittelt wird.
  • Ebenso werden kritische, insbesondere bewegte Objekte O1 bis Ok zur Unterstützung eines Abbiegeassistenzsystems, einer automatischen Fahrlichtschaltung, eines Fußgängerschutzsystems und eines Notbremssystems identifiziert.
  • Zudem werden Informationen weiterer Sensoren mit den Informationen zur Unterstützung des Fahrerassistenzsystems, die den Segmenten S1 1 bis Sn u zugeordnet sind, im Rahmen einer Sensorfusion kombiniert. Insbesondere kommen hierfür aktive Sensoren, wie zum Beispiel ein Lidar, in Frage.
  • B
    Bodenoberfläche
    E1
    Ebene
    E2
    Ebene
    E3
    Ebene
    F
    Freiraum
    O1 bis Ok
    Objekt
    S1 bis Sm
    Segment
    S1 1 bis Sn u
    Segment
    U
    Umgebung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102009009047 A1 [0002, 0019, 0031]
    • DE 102005008131 A1 [0040]
  • Zitierte Nicht-Patentliteratur
    • H. Hirschmüller: Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807–814 [0032]
    • David Gallup, Marc Pollefeys and Jan-Michael Frahm: 3d reconstruction using an n-layer heightmap; In: Proc. DAGM, pages 1–10, September 2010 [0038]

Claims (10)

  1. Verfahren zur Umgebungsrepräsentation, bei dem jeweils zwei Bilder einer Umgebung (U) aufgenommen werden und mittels Stereobildverarbeitung ein Disparitätsbild ermittelt wird, dadurch gekennzeichnet, dass im Disparitätsbild ein hindernisfreier Freiraum (F) identifiziert wird, indem jeder Bildpunkt des Disparitätsbilds in Abhängigkeit von Disparitätswerten des jeweiligen Bildpunkts entweder einer hindernisfreien Bodenoberfläche (B) oder einem von mehreren Segmenten (S1 1 bis Sn u) zugewiesen wird, wobei Segmente (S1 1 bis Sn u) gleicher Breite aus Bildpunkten gleicher oder ähnlicher Entfernung zu einer Bildebene gebildet werden, wobei anhand eines Segments (S1 1 bis Sn u) oder mehrerer Segmente (S1 1 bis Sn u) ein außerhalb des Freiraums (F) befindliches Objekt (O1 bis Ok) in der Umgebung (U) modelliert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mehrere Segmente (S1 1 bis Sn u) in jeweils einer Spalte des Disparitätsbilds übereinander angeordnet werden, wenn mehrere Objekte (O1 bis Ok in unterschiedlichen Ebenen (E1 bis E3) in einer Spalte des Disparitätsbilds dargestellt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als Grenzen der Segmente (S1 1 bis Sn u) jeweils seitliche Grenzen, eine untere Grenze und eine obere Grenze bestimmt werden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Grenzen der Segmente (S1 1 bis Sn u) mittels mathematischer Optimierung eines Energiefunktionals aus den Disparitätswerten der Bildpunkte bestimmt werden.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass ein quadratisches Energiefunktional verwendet wird.
  6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass zur mathematischen Optimierung eine dynamische Programmierung verwendet wird, wobei bei der dynamischen Programmierung benachbarte Spalten unabhängig voneinander bestimmt werden.
  7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass bei der Bestimmung der Grenzen der Segmente (S1 1 bis Sn u) Bewegungsinformationen, Grauwertinformationen und/oder Farbinformationen des jeweiligen Bildpunktes berücksichtigt werden.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass mehrere Disparitätsbilder sequentiell ermittelt und verarbeitet werden, wobei aus Veränderungen in aufeinanderfolgenden Disparitätsbildern die Bewegungsinformationen durch Integration eines optischen Flusses des jeweiligen Bildpunkts ermittelt und jedem Segment (S1 1 bis Sn u) als Bewegungsvektor zugeordnet werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Zugehörigkeit der Segmente (S1 1 bis Sn u) zu einem oder mehreren Objekten (O1 bis Ok) bestimmt und die Segmente (S1 1 bis Sn u) mit Informationen über ihre Zugehörigkeit versehen werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf der Basis der Segmente (S1 1 bis Sn u) Informationen für ein Fahrerassistenzsystem in einem Fahrzeug generiert werden, an welchem Bilderfassungseinheiten zur Aufnahme der Bilder angeordnet sind.
DE201110111440 2011-08-30 2011-08-30 Verfahren zur Umgebungsrepräsentation Withdrawn DE102011111440A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE201110111440 DE102011111440A1 (de) 2011-08-30 2011-08-30 Verfahren zur Umgebungsrepräsentation
CN201280042239.4A CN103765439B (zh) 2011-08-30 2012-07-21 用于环境表示的方法
PCT/EP2012/003091 WO2013029722A2 (de) 2011-08-30 2012-07-21 Verfahren zur umgebungsrepräsentation
US14/237,590 US9042639B2 (en) 2011-08-30 2012-07-21 Method for representing surroundings

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201110111440 DE102011111440A1 (de) 2011-08-30 2011-08-30 Verfahren zur Umgebungsrepräsentation

Publications (2)

Publication Number Publication Date
DE102011111440A1 true DE102011111440A1 (de) 2012-06-28
DE102011111440A8 DE102011111440A8 (de) 2013-04-04

Family

ID=46508910

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201110111440 Withdrawn DE102011111440A1 (de) 2011-08-30 2011-08-30 Verfahren zur Umgebungsrepräsentation

Country Status (4)

Country Link
US (1) US9042639B2 (de)
CN (1) CN103765439B (de)
DE (1) DE102011111440A1 (de)
WO (1) WO2013029722A2 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012021617A1 (de) 2012-11-06 2013-05-16 Daimler Ag Verfahren zur Objektdetektion
DE102014007994A1 (de) 2014-06-05 2014-11-27 Daimler Ag Verfahren zur Erkennung von Lichtsignalen von Verkehrsteilnehmern
DE102018202244A1 (de) 2018-02-14 2019-08-14 Robert Bosch Gmbh Verfahren zur Abbildung der Umgebung eines Fahrzeugs
DE102019211582A1 (de) * 2019-08-01 2021-02-04 Robert Bosch Gmbh Verfahren zum Erstellen einer Höhenkarte
DE102020208066B3 (de) 2020-06-30 2021-12-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren Objekterkennung Computerprogramm, Speichermedium und Steuereinrichtung
DE102020208068A1 (de) 2020-06-30 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Erkennung eines in einem Überwachungsbereich erscheinenden Objekts, Computerprogramm, Speichermedium und Steuereinrichtung
DE102021211764A1 (de) 2021-10-19 2023-04-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erkennen eines Hintergrunds einer Verkehrsszene

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013200409A1 (de) * 2013-01-14 2014-07-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung
US9928430B2 (en) * 2015-04-10 2018-03-27 GM Global Technology Operations LLC Dynamic stixel estimation using a single moving camera
JP6326641B2 (ja) * 2015-08-21 2018-05-23 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
JP6662388B2 (ja) * 2015-11-27 2020-03-11 株式会社リコー 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム
US11328822B2 (en) * 2017-02-01 2022-05-10 Conflu3Nce Ltd Multi-purpose interactive cognitive platform
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
KR102054926B1 (ko) * 2018-02-27 2019-12-12 주식회사 만도 Free Space 신호 기반 근거리 컷인 차량 검출 시스템 및 방법
US10678253B2 (en) * 2018-05-24 2020-06-09 GM Global Technology Operations LLC Control systems, control methods and controllers for an autonomous vehicle
CN112033351B (zh) * 2020-08-05 2023-03-24 青岛聚好联科技有限公司 基于单目摄像头的距离测定方法及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005008131A1 (de) 2005-01-31 2006-08-03 Daimlerchrysler Ag Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
DE102009009047A1 (de) 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8428305B2 (en) * 2008-04-24 2013-04-23 GM Global Technology Operations LLC Method for detecting a clear path through topographical variation analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005008131A1 (de) 2005-01-31 2006-08-03 Daimlerchrysler Ag Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
DE102009009047A1 (de) 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
David Gallup, Marc Pollefeys and Jan-Michael Frahm: 3d reconstruction using an n-layer heightmap; In: Proc. DAGM, pages 1-10, September 2010
H. Hirschmüller: Accurate and efficient stereo processing by semi-global matching and mutual information. CVPR 2005, San Diego, CA. Volume 2. (June 2005), pp. 807-814

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012021617A1 (de) 2012-11-06 2013-05-16 Daimler Ag Verfahren zur Objektdetektion
DE102014007994A1 (de) 2014-06-05 2014-11-27 Daimler Ag Verfahren zur Erkennung von Lichtsignalen von Verkehrsteilnehmern
DE102018202244A1 (de) 2018-02-14 2019-08-14 Robert Bosch Gmbh Verfahren zur Abbildung der Umgebung eines Fahrzeugs
WO2019158450A1 (de) 2018-02-14 2019-08-22 Robert Bosch Gmbh Verfahren zur abbildung der umgebung eines fahrzeugs
DE102019211582A1 (de) * 2019-08-01 2021-02-04 Robert Bosch Gmbh Verfahren zum Erstellen einer Höhenkarte
DE102020208066B3 (de) 2020-06-30 2021-12-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren Objekterkennung Computerprogramm, Speichermedium und Steuereinrichtung
DE102020208068A1 (de) 2020-06-30 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Erkennung eines in einem Überwachungsbereich erscheinenden Objekts, Computerprogramm, Speichermedium und Steuereinrichtung
WO2022002604A1 (de) 2020-06-30 2022-01-06 Robert Bosch Gmbh Vermeidung von fehldetektionen einer objekterkennung
DE102021211764A1 (de) 2021-10-19 2023-04-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erkennen eines Hintergrunds einer Verkehrsszene

Also Published As

Publication number Publication date
CN103765439A (zh) 2014-04-30
WO2013029722A2 (de) 2013-03-07
CN103765439B (zh) 2017-06-13
US20140205184A1 (en) 2014-07-24
WO2013029722A3 (de) 2013-06-20
US9042639B2 (en) 2015-05-26
DE102011111440A8 (de) 2013-04-04

Similar Documents

Publication Publication Date Title
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102009009047A1 (de) Verfahren zur Objektdetektion
DE102015209467A1 (de) Verfahren zur Schätzung von Fahrstreifen
EP3142913B1 (de) Umfeldkarte für fahrflächen mit beliebigem höhenverlauf
DE102012101014A1 (de) Fahrzeugdetektionsvorrichtung
DE102015203016A1 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102012000459A1 (de) Verfahren zur Objektdetektion
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102019125166A1 (de) Sensorverschmutzungserkennung
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102009022278A1 (de) Verfahren zur Ermittlung eines hindernisfreien Raums
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102015003666A1 (de) Verfahren zur Verarbeitung von erfassten Messdaten eines Sensors
EP2577614B1 (de) Vorrichtung zur darstellung von gelände auf einer anzeigevorrichtung eines flugkörpers
DE102014212866A1 (de) Verfahren zum Ermitteln eines Parkplatzes aus einer Anzahl von Messpunkten
DE102015211871A1 (de) Objekterkennungsvorrichtung
DE102015010514B4 (de) Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE102019209473A1 (de) Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen

Legal Events

Date Code Title Description
R230 Request for early publication
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE

R084 Declaration of willingness to licence
R016 Response to examination communication
R120 Application withdrawn or ip right abandoned