DE102012221777A1 - Spurverfolgungssystem - Google Patents

Spurverfolgungssystem Download PDF

Info

Publication number
DE102012221777A1
DE102012221777A1 DE102012221777A DE102012221777A DE102012221777A1 DE 102012221777 A1 DE102012221777 A1 DE 102012221777A1 DE 102012221777 A DE102012221777 A DE 102012221777A DE 102012221777 A DE102012221777 A DE 102012221777A DE 102012221777 A1 DE102012221777 A1 DE 102012221777A1
Authority
DE
Germany
Prior art keywords
lane
image
track
vehicle
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012221777A
Other languages
English (en)
Inventor
Wende Zhang
Bakhtiar Brian Litkouhi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102012221777A1 publication Critical patent/DE102012221777A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Ein Spurverfolgungssystem für ein Kraftfahrzeug umfasst eine Kamera und einen Spurverfolgungsprozessor. Die Kamera ist ausgestaltet, um ein Bild einer Straße von einem Weitwinkelsichtfeld zu empfangen und eine entsprechende digitale Darstellung des Bilds zu erzeugen. Der Spurverfolgungsprozessor ist ausgestaltet, um die digitale Darstellung des Bilds von der Kamera zu empfangen und um: eine oder mehrere Spurgrenzen zu detektieren, wobei jede Spurgrenze mehrere Spurgrenzpunkte umfasst; die mehreren Spurgrenzpunkte in ein kartesisches Fahrzeugkoordinatensystem umzuwandeln; und eine zuverlässigkeitsgewichtete Modellfahrspurlinie an die mehreren Punkte anzupassen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der vorläufigen US-Anmeldung Nr. 61/566,042, die am 02. Dezember 2011 eingereicht wurde und deren Offenbarungsgehalt hierin durch Bezugnahme vollständig mit eingeschlossen ist.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich allgemein auf Systeme zum Verbessern des Spurverfolgungsvermögens eines Kraftfahrzeugs.
  • HINTERGRUND
  • Fahrzeugspurverfolgungssysteme können eine visuelle Objekterkennung einsetzen, um begrenzende Fahrspurlinien zu identifizieren, die auf einer Straße als Markierung angebracht sind. Durch diese Systeme können visuelle Verarbeitungstechniken eine Position zwischen dem Fahrzeug und den jeweiligen Fahrspurlinien sowie eine Fahrtrichtung des Fahrzeugs relativ zur Spur schätzen.
  • Existierende Kraftfahrzeugsichtsysteme können nach vorn gerichtete Kameras verwenden, die im Wesentlichen auf den Horizont gerichtet sein können, um das mögliche Sichtfeld zu vergrößern. Wenn jedoch ein vorausfahrendes Fahrzeug dem betreffenden Fahrzeug zu nahe kommt, kann das vorausfahrende Fahrzeug die Kamerasicht auf jegliche Spurmarkierungen verdecken, was die Erkennung von begrenzenden Fahrspurlinien schwierig oder unmöglich macht.
  • ZUSAMMENFASSUNG
  • Ein Spurverfolgungssystem für ein Kraftfahrzeug umfasst eine Kamera und einen Spurverfolgungsprozessor. Die Kamera ist ausgestaltet, um ein Bild einer Straße von einem Weitwinkelsichtfeld zu empfangen und eine entsprechende digitale Darstellung des Bilds zu erzeugen. Bei einer Ausgestaltung kann die Kamera an einem hinteren Abschnitt des Fahrzeugs angeordnet sein und kann sie ein Sichtfeld umfassen, das größer als 130 Grad ist. Ferner kann die Kamera um einen Betrag, der größer als 25 Grad von der Horizontalen ist, nach unten geneigt sein.
  • Der Spurverfolgungsprozessor ist ausgestaltet, um die digitale Darstellung des Bilds von der Kamera zu empfangen und um: eine oder mehrere Spurgrenzen zu detektieren, wobei jede Spurgrenze mehrere Spurgrenzpunkte umfasst; die mehreren Spurgrenzpunkte in ein kartesisches Fahrzeugkoordinatensystem umzuwandeln; und eine zuverlässigkeitsgewichtete Modellfahrspurlinie an die mehreren Punkte anzupassen.
  • Beim Konstruieren der zuverlässigkeitsgewichteten Modellfahrspurlinie kann der Spurverfolgungsprozessor jedem Spurgrenzpunkt einen jeweiligen Zuverlässigkeitsgewichtungsfaktor zuordnen und dann die zuverlässigkeitsgesichtete Modellfahrspurlinie konstruieren, um die zugeordneten Zuverlässigkeitsgewichtungsfaktoren zu berücksichtigen. Somit kann die zuverlässigkeitsgesichtete Modellfahrspurlinie einem Punkt mit einem größeren Gewichtungsfaktor eine stärkere Gewichtung/einen stärkeren Einfluss verleihen als einem Punkt mit einem kleineren Gewichtungsfaktor. Die Zuverlässigkeitsgewichtungsfaktoren können stark von der Stelle abhängen, an der der Punkt in dem Bild-Frame erlangt wird. Beispielsweise kann der Spurverfolgungsprozessor bei einer Ausgestaltung ausgestaltet sein, um einem in einem zentralen Gebiet des Bilds identifizierten Spurgrenzpunkt einen größeren Zuverlässigkeitsgewichtungsfaktor zuzuordnen als einem in der Nähe eines Rands des Bilds identifizierten Punkt. Ähnlich ist der Spurverfolgungsprozessor ausgestaltet, um einem in der Nähe der Unterseite (Vordergrund) des Bilds identifizierten Spurgrenzpunkt einen größeren Zuverlässigkeitsgewichtungsfaktor zuzuordnen als einem in der Nähe der Mitte (Hintergrund) des Bilds identifizierten Punkt.
  • Der Spurverfolgungsprozessor kann ferner ausgestaltet sein, um einen Abstand zwischen dem Fahrzeug und der Modellfahrspurlinie zu ermitteln und eine Steuermaßnahme durchzuführen, wenn der Abstand unter einem Schwellenwert liegt.
  • Der Spurverfolgungsprozessor kann ausgestaltet sein, um beim Detektieren der Spurgrenzen aus dem Bild: einen Horizont in dem Bild zu identifizieren; mehrere Strahlen in dem Bild zu identifizieren; und eine oder mehrere Spurgrenzen aus den mehreren Strahlen in dem Bild zu detektieren, wobei die detektierten Spurgrenzen zu einem Fluchtgebiet in der Nähe des Horizonts zusammenlaufen. Des Weiteren kann der Spurverfolgungsprozessor ferner ausgestaltet sein, um einen Strahl der mehreren Strahlen abzulehnen, wenn der Strahl den Horizont kreuzt.
  • Auf ähnliche Weise umfasst ein Spurverfolgungsverfahren, das: ein Bild von einer an einem Fahrzeug angeordneten Kamera erlangt wird, wobei die Kamera ein Sichtfeld aufweist, das ausgestaltet ist, um einen Abschnitt einer Straße zu umfassen; eine Spurgrenze in dem Bild identifiziert wird, wobei die Spurgrenze mehrere Spurgrenzpunkte umfasst; die mehreren Spurgrenzpunkte in ein kartesisches Fahrzeugkoordinatensystem umgewandelt werden; und eine zuverlässigkeitsgewichtete Modellfahrspurlinie an die mehreren Punkte angepasst wird.
  • Die obigen Merkmale und Vorteile und andere Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung der geeignetsten Ausführungsformen zum Ausführen der Erfindung in Verbindung mit den begleitenden Zeichnungen leicht ersichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGNEN
  • 1 ist eine schematische Draufsicht auf ein Fahrzeug, das ein Spurverfolgungssystem umfasst.
  • 2 ist eine schematische Draufsicht auf ein Fahrzeug, das auf einer Spur einer Straße angeordnet ist.
  • 3 ist ein Flussdiagramm eines Verfahrens zum Berechnen von zuverlässigkeitsgewichteten Modellfahrspurlinien aus kontinuierlich erlangten Bilddaten.
  • 4 ist eine schematische Darstellung eines Bild-Frames, der durch eine an einem Fahrzeug angeordnete Weitwinkelkamera erlangt werden kann.
  • 5 ist ein Flussdiagramm eines Verfahrens zum Identifizieren von begrenzenden Fahrspurlinien in einem Bild.
  • 6 ist der Bild-Frame von 4, erweitert mit einer Information einer begrenzenden Fahrspurlinie.
  • 7 ist eine schematische Draufsicht auf ein Fahrzeugkoordinatensystem mit mehreren zuverlässigkeitsgewichteten Modellfahrspurlinien.
  • 8 ist ein schematischer Bild-Frame mit einer Skala zum Anpassen der Zuverlässigkeitsgewichtung einer Information einer wahrgenommenen Spur gemäß ihrem Abstand von dem unteren Rand.
  • 9 ist ein schematischer Bild-Frame mit einem begrenzenden Bereich zum Anpassen der Zuverlässigkeitsgewichtung einer Information einer wahrgenommenen Spur gemäß einem geschätzten Umfang an Fischaugenverzerrung.
  • DETAILLIERTE BESCHREIBUNG
  • Bezug nehmend auf die Zeichnungen, in denen gleiche Bezugszeichen verwendet werden, um ähnliche oder identische Komponenten in den verschiedenen Ansichten zu identifizieren, zeigt 1 schematisch ein Fahrzeug 10 mit einem Spurverfolgungssystem 11, das eine Kamera 12, einen Videoprozessor 14, einen Fahrzeugbewegungssensor 16 und einen Spurverfolgungsprozessor 18 umfasst. Wie es nachstehend ausführlicher beschrieben wird, kann der Spurverfolgungsprozessor 18 erlangte und/oder verbesserte Bilddaten 20 zusammen mit erfassten Fahrzeugbewegungsdaten 22 analysieren und/oder bewerten, um die Position des Fahrzeugs 10 auf einer Fahrspur 30 (allgemein in 2 dargestellt) zu ermitteln. Bei einer Ausgestaltung kann der Spurverfolgungsprozessor 18 nahezu in Echtzeit den Abstand 32 zwischen dem Fahrzeug 10 und einer rechten Fahrspurlinie 34, den Abstand 36 zwischen dem Fahrzeug 10 und einer linken Fahrspurlinie 38 und/oder die Fahrtrichtung 40 des Fahrzeugs 10 relativ zu der Spur 30 ermitteln.
  • Der Videoprozessor 14 und der Spurverfolgungsprozessor 18 können jeweils als ein(e) oder mehrere digitale Rechner oder Datenverarbeitungseinrichtungen ausgeführt sein, die jeweils einen oder mehrere Mikroprozessoren oder zentrale Verarbeitungseinheiten (CPU), einen Nurlesespeicher (ROM), einen Direktzugriffsspeicher (RAM), einen elektrisch löschbaren programmierbaren Nurlesespeicher (EEPROM), einen Hochgeschwindigkeitstakt, einen Analog-Digital-Schaltkreis (A/D-Schaltkreis), einen Digital-Analog-Schaltkreis (D/A-Schaltkreis), einen Eingabe/Ausgabe-Schaltkreis (I/O-Schaltkreis), Leistungselektronik/-transformatoren und/oder eine Signalkonditionierungs- und Pufferelektronik aufweisen. Die einzelnen Steuer-/Verarbeitungsroutinen, die sich in den Prozessoren 14, 18 befinden oder leicht für diese zugänglich sind, können in einem ROM oder an anderen geeigneten konkreten Speicherorten und/oder in Speichereinrichtungen gespeichert sein und können automatisch durch zugehörige Hardwarekomponenten der Prozessoren 14, 18 ausgeführt werden, um die jeweilige Verarbeitungsfunktionalität bereitzustellen. Bei einer anderen Ausgestaltung können der Videoprozessor 14 und der Spurverfolgungsprozessor 18 durch eine einzelne Einrichtung, wie beispielsweise einen Digitalrechner oder eine Datenverarbeitungseinrichtung, ausgeführt sein.
  • Wenn das Fahrzeug 10 die Straße 42 entlangfährt, können eine oder mehrere Kameras 12 visuell Markierungen 44 detektieren, die auf die Fahrbahn der Straße 42 gemalt oder in dieser eingebettet sein können, um die Spur 30 zu definieren. Die eine oder die mehreren Kameras 12 können jeweils ein(e) oder mehrere Linsen und/oder Filter umfassen, die geeignet sind, um Licht aus dem Sichtfeld 46 zu empfangen und/oder für einen Bildsensor zu formen. Der Bildsensor kann beispielsweise eine oder mehrere ladungsgekoppelte Einrichtungen (CCDs) umfassen, die ausgestaltet sind, um Lichtenergie in ein digitales Signal umzuwandeln. Die Kamera 12 kann ein Videosignal 48 ausgeben, das beispielsweise mehrere Standbild-Frames umfassen kann, die sequentiell mit einer festen Rate (d. h. Frame-Rate) erfasst werden. Bei einer Ausgestaltung kann die Frame-Rate des Videosignals 48 größer als 5 Hertz (Hz) sein, wobei die Frame-Rate des Videosignals 48 bei einer stärker bevorzugten Ausgestaltung jedoch größer als 10 Hertz (Hz) sein kann.
  • Die eine oder die mehreren Kameras 12 können in einer beliebigen geeigneten Orientierung/Ausrichtung mit dem Fahrzeug 10 positioniert sein, unter der Voraussetzung, dass sie das/die eine oder die mehreren Objekte oder Markierungen 44, die an oder entlang der Straße 42 angeordnet sind, vernünftig sehen können. Bei einer Ausgestaltung kann die Kamera 12, wie es allgemein in 1 und 2 gezeigt ist, an dem hinteren Abschnitt 50 des Fahrzeugs 10 angeordnet sein, so dass sie die Straße 42 unmittelbar hinter dem Fahrzeug 10 geeignet sehen kann. Auf diese Weise kann die Kamera 12 auch eine Rücksicht-Rückfahrunterstützung für einen Fahrer des Fahrzeugs 10 bereitstellen. Um den sichtbaren Bereich hinter dem Fahrzeug 10 zu maximieren, wie beispielsweise, wenn sie auch als Rückfahrunterstützungsfunktion dient, kann die Kamera 12 eine Weitwinkellinse umfassen, um ein Sichtfeld 46 zu ermöglichen, das beispielsweise größer als 130 Grad ist. Ferner kann die Kamera 12, um den sichtbaren Bereich unmittelbar in der Nähe des Fahrzeugs 10 weiter zu maximieren, um einen Betrag, der beispielsweise größer als 25 Grad von der Horizontalen ist, nach unten in Richtung der Straße 42 geneigt werden. Auf diese Weise kann die Kamera 12 die Straße 42 innerhalb einer Entfernung 52 von 0,1 m–20 m von dem Fahrzeug 10 wahrnehmen, wobei die beste Auflösung bei einer Entfernung von beispielsweise 0,1 m–1,5 m auftritt. Bei einer anderen Ausgestaltung kann die Kamera 12 ähnlich mit einem breiten Sichtfeld 46 und einer Abwärtsneigung ausgestaltet sein, jedoch an dem Kühlergrill des Fahrzeugs 10 angeordnet und im Wesentlichen in eine vorwärts gewandte Richtung ausgerichtet sein.
  • Der Videoprozessor 14 kann ausgestaltet sein, um mit der Kamera 12 gekoppelt zu sein, um die Erlangung einer Bildinformation von dem Sichtfeld 46 zu vereinfachen. Wie es beispielsweise in dem in 3 vorgesehenen Spurverfolgungsverfahren 60 dargestellt ist, kann der Videoprozessor 14 mit dem Verfahren 60 beginnen, in dem ein Bild 62 erlangt wird, das für eine Spurdetektion geeignet sein kann. Genauer gesagt kann das Erlangen eines Bilds 62 umfassen, dass die Kamera 12 angewiesen wird, ein Bild zu erfassen 64, der Betrieb der Kamera 12 dynamisch angepasst wird, um sich ändernde Beleuchtungsbedingungen zu berücksichtigen 66 und/oder das erlangte Bild korrigiert wird, um jegliche Fischaugenverzerrung zu reduzieren 68, die dem Weitwinkelsichtfeld 46 zugeordnet werden kann.
  • Bei einer Ausgestaltung kann das Beleuchtungsanpassungsmerkmal 66 visuelle Anpassungstechniken verwenden, die in der Technik bekannt sind, um ein Bild der Straße 42 mit so viel visueller Klarheit wie möglich zu erfassen. Die Beleuchtungsanpassung 66 kann beispielsweise Beleuchtungsnormierungstechniken, wie beispielsweise einen Histogrammausgleich, verwenden, um die Klarheit der Straße 42 bei Bedingungen eines schwachen Lichts (z. B. bei einem Szenario, bei dem die Straße 42 nur durch das Licht des Rücklichts des Fahrzeugs beleuchtet wird) zu erhöhen. Alternativ, wenn helle, auf einen Punkt konzentrierte Lichter vorhanden sind (z. B. wenn in dem Sichtfeld 46 die Sonne oder Frontscheinwerfer vorhanden sind), kann die Beleuchtungsanpassung 66 ermöglichen, dass die lokalisierten hellen Punkte in dem Bild gesättigt werden, wenn die Helligkeit eines Punkts über einer vorbestimmten Schwellenwerthelligkeit liegt. Auf diese Weise wird die Klarheit der Straße beim Versuch, die Helligkeit des Frames zu normieren, um die Punkthelligkeit einzubeziehen, nicht beeinträchtigt.
  • Das Fischaugenkorrekturmerkmal 68 kann Nachbearbeitungstechniken verwenden, um jede visuelle Verfälschung des Bilds zu normieren, die dem Weitwinkelsichtfeld 46 zugeordnet werden kann. Es ist anzumerken, dass diese Anpassungstechniken, während sie beim Reduzieren jeder Fischaugenverzerrung in einem zentralen Abschnitt des Bilds effektiv sein können, in Richtung der Ränder des Frames, an denen die Verfälschung stärker ist, weniger effektiv sein können.
  • Nach der Bilderlangung 62 kann der Videoprozessor 14 die erlangten/korrigierten Bilddaten 20 dem Spurverfolgungsprozessor 18 für eine weitere Berechnung und Analyse bereitstellen. Wie es in dem Verfahren 60 von 3 vorgesehen ist und nachstehend erläutert wird, kann der Spurverfolgungsprozessor 18 dann eine oder mehrere Spurgrenzen (z. B. die Grenzen 34, 38) in dem Bild identifizieren (Schritt 70); eine Kamerakalibrierung durchführen, um die Spurgrenzeninformation zu normieren und die Spurgrenzeninformation in ein Fahrzeugkoordinatensystem umzuwandeln (Schritt 72); zuverlässigkeitsgewichtete Modellfahrspurlinien gemäß der erlangten/ermittelten Spurgrenzeninformation konstruieren (Schritt 74); und schließlich kann der Prozessor 18 jede erlangte/ermittelte Spurgrenzeninformation auf der Grundlage einer erfassten Bewegung des Fahrzeugs ausgleichen/verschieben (Schritt 76), bevor die Bilderlangung 62 und die nachfolgende Analyse wiederholt werden. Ferner kann der Spurverfolgungsprozessor 18 in Abhängigkeit von der Fahrzeugposition relativ zu den Modellfahrspurlinien eine Steuermaßnahme ausführen (Schritt 78), um einem Fahrer des Fahrzeugs einen Alarm 90 bereitzustellen und/oder über ein Lenkmodul 92 (wie es schematisch in 1 gezeigt ist) eine Korrekturmaßnahme zu ergreifen.
  • 4 stellt einen Bild-Frame 100 dar, der durch den Spurverfolgungsprozessor 18 nach der Bilderlangung in Schritt 62 empfangen werden kann. Bei einer Ausgestaltung kann der Spurverfolgungsprozessor 18 eine oder mehrere Spurgrenzen unter Verwendung eines Verfahrens 110, das beispielsweise in 5 gezeigt ist (und graphisch durch den erweiterten Bild-Frame 100, der in 6 vorgesehen ist, dargestellt ist) identifizieren (Schritt 70). Wie es gezeigt ist, kann der Prozessor 18 beginnen, indem ein Horizont 120 in dem Bild-Frame 100 identifiziert wird (Schritt 112). Der Horizont 120 kann im Wesentlichen horizontaler Natur sein und kann ein Himmelgebiet 122 von einem Bodengebiet 124 trennen, die jeweils unterschiedliche Helligkeiten oder Kontraste aufweisen können.
  • Sobald der Horizont 120 detektiert wurde, kann der Prozessor 18 den Frame 100 prüfen, um alle stückweise linearen Linien oder Strahlen zu detektieren, die vorliegen können (Schritt 114). Alle solchen Linien/Strahlen, die sich quer über den Horizont 120 erstrecken, können in Schritt 116 als keine Fahrspurlinie abgelehnt werden. Wie es beispielsweise in 6 gezeigt ist, können in diesem Schritt Straßenlaternen 126, Verkehrsschilder 128 und/oder Blooming-Effekte 130 der Sonne abgelehnt werden. Nach dieser anfänglichen Artefaktablehnung kann der Prozessor 18 eine(n) oder mehrere Linien/Strahlen detektieren, die aus dem Vordergrund zu einem gemeinsamen Fluchtpunkt oder Fluchtgebiet 132 in der Nähe des Horizonts 120 zusammenlaufen (Schritt 118). Diejenigen dieser zusammenlaufenden Linien, die am Nächsten an einem Mittelpunkt 134 des Frames liegen, können dann als Spurgrenzen 34, 38 betrachtet werden.
  • Wie es in 6 weiter dargestellt ist, kann jede der Spurgrenzen 34, 38 durch jeweilige mehrere Punkte definiert sein. Beispielsweise kann die Spurgrenze 34 durch erste mehrere Punkte 140 definiert sein und kann die Spurgrenze 38 durch zweite mehrere Punkte 142 definiert sein. Jeder Punkt kann eine detektierte Straßenmarkierung, Bezugszeichen 44, oder einen anderen visuellen Übergangspunkt in dem Bild darstellen, der möglicherweise die Spurgrenze oder den Rand der Fahrbahn darstellen kann. Wieder auf das Verfahren 60, das in 3 gezeigt ist, Bezug nehmend, können dann in Schritt 72 die mehreren Grenzpunkte 140, 142, die die detektierten Grenzlinien 34, 38 definieren (d. h. Spurgrenzeninformation) in ein Fahrzeugkoordinatensystem 150 umgewandelt werden, wie es beispielsweise in 7 gezeigt ist. Wie es gezeigt ist kann jeder Punkt von dem perspektivischen Bild-Frame 100 (6) an einem kartesischen Koordinatensystem 150 mit einer Fahrzeugquerdimension 152 und einer Längsdimension 154 dargestellt werden.
  • In Schritt 74 von 3 kann der Prozessor 18 eine zuverlässigkeitsgewichtete Modellfahrspurlinie 160, 162 für jeden der jeweiligen mehreren (kartesischen) Punkte 140, 142 konstruieren, die aus dem Bild-Frame 100 erlangt/ermittelt wurden. Um die Modellfahrspurlinien 160, 162 zu konstruieren, kann jedem Punkt der jeweiligen mehreren Punkte 140, 142 ein jeweiliger Gewichtungsfaktor zugeordnet werden, der einem oder mehreren von mehreren Zuverlässigkeitsfaktoren entsprechen kann. Diese Zuverlässigkeitsfaktoren können einen Grad des Vertrauens angeben, das das System in Bezug auf jeden bestimmten Punkt entgegenbringen kann, und können Maße für beispielsweise Hardwarespielräume hinsichtlich Fehler und Veränderlichkeit, Umgebungssichtverhältnisse, Umgebungsbeleuchtungsbedingungen und/oder Auflösung des Bilds umfassen. Sobald jedem Punkt ein Gewichtungsfaktor zugeordnet wurde, kann gemäß der gewichteten Position der Punkte eine Modellfahrspurlinie an die Punkte angepasst werden.
  • 8 und 9 zeigen allgemein zwei Zuverlässigkeitsbewertungen, die den Gewichtungsfaktor für einen bestimmten Punkt beeinflussen können. Wie es in 8 gezeigt ist, können aufgrund der starken perspektivischen Sicht der geneigten Fischaugenkamera Objekte, die in dem unmittelbaren Vordergrund des Bild-Frames 100 gezeigt sind, mit einer größeren Auflösung bereitgestellt werden als Objekte in Richtung des Horizonts. Auf diese Weise kann eine Positionsermittlung stabiler sein und/oder einen geringeren Fehlerspielraum aufweisen, wenn sie in der Nähe der Unterseite 170 des Frames 100 (d. h. im Vordergrund) aufgezeichnet wird. Daher kann einem Punkt, der näher an der Unterseite 170 des Frames 100 aufgezeichnet wird, ein größeres Zuverlässigkeitsgewicht zugeordnet werden als einem Punkt, der näher an der Oberseite 172 aufgezeichnet wird. Bei einer Ausführungsform können die Gewichte als Exponentialfunktion des Abstands zu der Unterseite 170 des Frames reduziert werden (z. B. entlang der exponentiellen Skala 174).
  • Wie in 9 gezeigt können aufgrund der Fischaugenverzerrung Punkte, die unmittelbar benachbart zu dem Rand 180 des Frames 100 wahrgenommen werden, stärker verzerrt und/oder verfälscht sein als Punkte in der Mitte 182 des Frames. Dies kann trotz des Versuchs der Fischaugenkorrektur 68 durch den Videoprozessor 14 gelten. Daher kann einem Punkt, der in einem Band 184 in der Nähe des Rands aufgezeichnet wird, ein geringeres Zuverlässigkeitsgewicht zugeordnet werden als einem Punkt, der in einem zentraleren Gebiet 186 aufgezeichnet wird. Bei einer anderen Ausführungsform kann dieser Gewichtungsfaktor gemäß einer graduelleren Skala zugeordnet werden, die strahlenförmig von der Mitte des Frames 100 nach außen führen kann.
  • Gemäß weiteren Beispielen können die Umgebungsbeleuchtung und/oder Sichtverhältnisse die Zuverlässigkeitsgewichtung der aufgezeichneten Punkte beeinflussen und/oder dazu dienen, die Gewichtung anderer Zuverlässigkeitsanalysen anzupassen. Beispielsweise kann die Skala 174, die verwendet wird, um Punkte als Funktion des Abstands zu der Unterseite 170 des Bild-Frames 100 zu gewichten, in einer Umgebung mit schwachem Licht oder in einer Umgebung mit schlechten Sichtverhältnissen steiler gemacht werden, um wahrgenommene Punkte in der Ferne weniger zu berücksichtigen. Diese Abwandlung der Skala 174 kann Rauschen durch schwaches Licht und/oder schlechte Sichtverhältnisse, die eine genaue Positionsermittlung in der Ferne erschweren können, ausgleichen.
  • Sobald die Punktgewichte festgelegt wurden, kann der Prozessor 18 verschiedene Techniken verwenden, um eine gewichtete am besten angepasste Modellfahrspurlinie (z. B. die zuverlässigkeitsgewichteten Modellfahrspurlinien 160, 162) zu erzeugen. Beispielsweise kann der Prozessor 18 eine einfache gewichtete durchschnittliche beste Anpassung, eine gleitende beste Anpassung, die einer zu einem vorherigen Zeitpunkt berechneten Modellfahrspurlinie ein Gewicht verleiht, verwenden, oder kann er Kalman-Filtertechniken einsetzen, um neu erlangte Punktdaten in ältere erlangte Punktdaten zu integrieren. Alternativ können auf ähnliche Weise andere in der Technik bekannte Modellerstellungstechniken verwendet werden.
  • Sobald die zuverlässigkeitsgewichteten Fahrspurlinien 160, 162 festgelegt wurden, kann der Prozessor 18 in einer Längsrichtung 154 die Spurpunkte ausgleichen und/oder verschieben, um jede erfasste Vorwärtsbewegung des Fahrzeugs zu berücksichtigen (Schritt 76), bevor die Bilderlangung 62 und eine nachfolgende Analyse wiederholt werden. Der Prozessor 18 kann diese Verschiebung unter Verwendung von Fahrzeugbewegungsdaten 22 durchführen, die von den Fahrzeugbewegungssensoren 16 erhalten werden. Bei einer Ausgestaltung können diese Bewegungsdaten 22 die Winkelposition und/oder die Drehzahl eines oder mehrerer Fahrzeugräder 24 zusammen mit dem entsprechenden Richtungs-/Lenkwinkel des Rads 24 umfassen. Bei einer anderen Ausführungsform können die Bewegungsdaten 22 die Quer- und/oder Längsbeschleunigung des Fahrzeugs 10 zusammen mit der gemessenen Gierrate des Fahrzeugs 10 umfassen. Unter Verwendung dieser Bewegungsdaten 22 kann der Prozessor die zuvor überwachten Spurgrenzpunkte in Längsrichtung von dem Fahrzeug weg staffeln, wenn neu erlangte Punkte eingeführt werden. Beispielsweise und wie es allgemein in 7 gezeigt ist können die Punkte 140, 142 während einer aktuellen Iteration des Verfahrens 60 erlangt worden sein, während die Punkte 190, 192 während einer vorherigen Iteration des Verfahrens 60 erlangt worden sein können (d. h. wenn sich das Fahrzeug einen Abstand 194 im Wesentlichen vorwärts bewegt hat).
  • Beim Berechnen der Zuverlässigkeitsgewichte für jeden jeweiligen Punkt kann der Prozessor 18 ferner die Zuverlässigkeit der Bewegungsdaten 22 berücksichtigen, bevor die Modellfahrspurlinien 160, 162 angepasst werden. Anders ausgedrückt können die Fahrzeugbewegung und/oder eingesetzte Koppelnavigationsberechnungen durch bestimmte Annahmen und/oder Beschränkungen der Sensoren 16 beschränkt werden. Im Laufe der Zeit können sich Drift oder Fehler vermischen, was dazu führen kann, dass eine kompilierte Pfadinformation allmählich ungenauer wird. Daher kann sich, während jüngst erlangten Punkten ein hohes Zuverlässigkeitsgewicht verliehen werden kann, diese Gewichtung als Funktion der verstrichenen Zeit und/oder der vom Fahrzeug zurückgelegten Distanz verringern.
  • Zusätzlich zu der Tatsache, dass die zuverlässigkeitsgewichteten Fahrspurlinien 160, 162 am besten über die mehreren Punkte hinter dem Fahrzeug angepasst sind, können die Modellfahrspurlinien 160, 162 zum Zweck der Fahrzeugpositionsbestimmung und/oder -steuerung auch nach vorne extrapoliert werden (allgemein bei 200, 202). Diese Extrapolierung kann unter der Annahme durchgeführt werden, dass Fahrbahnen typischerweise eine maximale Krümmung aufweisen. Daher kann die Extrapolierung innerhalb eines vorbestimmten Abstands vor dem Fahrzeug 10 statistisch gültig sein. Bei einer anderen Ausgestaltung kann die Extrapolierung nach vorne zusammen mit Kartendaten, die von einem Echtzeit-Navigationssystem zur Verfügung stehen können, verbessert werden oder unter Verwendung von Echtzeit-GPS-Koordinatendaten weiter mit Informationen versehen werden. Auf diese Weise kann der Prozessor 18 die rohe Extrapolierung mit einer erwarteten Straßenkrümmung vereinigen, die aus der erfassten Position des Fahrzeugs in einer Straßenkarte abgeleitet werden kann. Diese Vereinigung kann beispielsweise über die Verwendung von Kalman-Filtertechniken oder andere bekannte Sensorvereinigungsalgorithmen erreicht werden.
  • Sobald die zuverlässigkeitsgewichteten Fahrspurlinien 160, 162 festgelegt und nach vorne extrapoliert wurden, kann der Spurverfolgungsprozessor 18 die Position des Fahrzeugs 10 in der Spur 30 bewerten (d. h. die Abstände 32, 36) und kann er eine Steuermaßnahme ausführen (Schritt 78), wenn sich das Fahrzeug (unabsichtlich) zu nahe an einer bestimmten Linie befindet. Beispielsweise kann der Prozessor 18 einen Alarm 90, wie beispielsweise eine Spurverlassenswarnung für einen Fahrer des Fahrzeugs, bereitstellen. Alternativ (oder zusätzlich) kann der Prozessor 18 eine Korrekturmaßnahme initiieren, um das Fahrzeug 10 auf der Spur 30 zu zentrieren, indem automatisch ein Lenkmodul 92 gesteuert wird.
  • Aufgrund der zeitlichen Staffelung bzw. Kaskadierung des vorliegenden Spurverfolgungssystems zusammen mit der dynamischen Gewichtung der erlangten Spurpositionspunkte können die modellierten zuverlässigkeitsgewichteten Fahrspurlinien 160, 162 bei sowohl niedrigen als auch hohen Geschwindigkeiten statistisch genau sein. Ferner kann die dynamische Gewichtung dem System ermöglichen, Einschränkungen der verschiedenen Hardwarekomponenten und/oder Umgebungsbedingungen beim Ermitteln der Position der Fahrspurlinien aus den erlangten Bilddaten zu berücksichtigen.
  • Während die geeignetsten Ausführungsformen zum Ausführen der Erfindung ausführlich beschrieben wurden, werden Fachleute, die diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen zum Ausführen der Erfindung innerhalb des Schutzumfangs der beigefügten Ansprüche erkennen. Alle in der obigen Beschreibung enthaltenen oder in den beigefügten Zeichnungen gezeigten Gegenstände sollen lediglich als erläuternd und nicht als einschränkend interpretiert werden.

Claims (10)

  1. Spurverfolgungssystem für ein Kraftfahrzeug, wobei das System umfasst: eine Kamera, die ausgestaltet ist, um ein Bild von einem Weitwinkelsichtfeld zu empfangen und eine entsprechende digitale Darstellung des Bilds zu erzeugen; einen Spurverfolgungsprozessor, der ausgestaltet ist, um die digitale Darstellung des Bilds zu empfangen, und weiter ausgestaltet ist, um: eine oder mehrere Spurgrenzen zu detektieren, wobei jede Spurgrenze mehrere Spurgrenzpunkte umfasst; die mehreren Spurgrenzpunkte in ein kartesisches Fahrzeugkoordinatensystem umzuwandeln; und eine zuverlässigkeitsgewichtete Modellfahrspurlinie an die mehreren Punkte anzupassen.
  2. System nach Anspruch 1, wobei der Spurverfolgungsprozessor ferner ausgestaltet ist, um: jedem Spurgrenzpunkt der mehreren Spurgrenzpunkte einen jeweiligen Zuverlässigkeitsgewichtungsfaktor zuzuordnen; eine zuverlässigkeitsgewichtete Modellfahrspurlinie an die mehreren Punkte anzupassen; und wobei die zuverlässigkeitsgewichtete Modellfahrspurlinie einem Punkt mit einem größeren Gewichtungsfaktor eine größere Gewichtung verleiht als einem Punkt mit einem kleineren Gewichtungsfaktor.
  3. System nach Anspruch 2, wobei der Spurverfolgungsprozessor ausgestaltet ist, um einem Spurgrenzpunkt, der in einem zentralen Gebiet des Bilds identifiziert wird, einen größeren Zuverlässigkeitsgewichtungsfaktor zuzuordnen als einem Punkt, der in der Nähe eines Rands des Bilds identifiziert wird.
  4. System nach Anspruch 2, wobei der Spurverfolgungsprozessor ausgestaltet ist, um einem Spurgrenzpunkt, der im Vordergrund des Bilds identifiziert wird, einen größeren Zuverlässigkeitsgewichtungsfaktor zuzuordnen als einem Punkt, der im Hintergrund des Bilds identifiziert wird.
  5. System nach Anspruch 1, wobei der Spurverfolgungsprozessor ferner ausgestaltet ist, um: einen Abstand zwischen dem Fahrzeug und der Modellfahrspurlinie zu ermitteln; und eine Steuermaßnahme durchzuführen, wenn der Abstand unter einem Schwellenwert liegt.
  6. System nach Anspruch 1, wobei die Kamera in einem hinteren Abschnitt des Fahrzeugs angeordnet ist; und wobei die Kamera ein Sichtfeld aufweist, das größer als 130 Grad ist.
  7. System nach Anspruch 6, wobei die Kamera um einen Betrag, der größer als 25 Grad von der Horizontalen ist, nach unten geneigt ist.
  8. System nach Anspruch 1, wobei der Spurverfolgungsprozessor ferner ausgestaltet ist, um: einen Horizont in dem Bild zu identifizieren; mehrere Strahlen in dem Bild zu identifizieren; und eine oder mehrere Spurgrenzen aus den mehreren Strahlen in dem Bild zu detektieren, wobei die eine oder die mehreren Spurgrenzen zu einem Fluchtgebiet in der Nähe des Horizonts zusammenlaufen.
  9. System nach Anspruch 8, wobei der Spurverfolgungsprozessor ferner ausgestaltet ist, um einen Strahl der mehreren Strahlen abzulehnen, wenn der Strahl den Horizont kreuzt.
  10. System nach Anspruch 1, ferner umfassend einen Videoprozessor, der ausgestaltet ist, um eine Helligkeit des Bilds anzupassen.
DE102012221777A 2011-12-02 2012-11-28 Spurverfolgungssystem Withdrawn DE102012221777A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161566042P 2011-12-02 2011-12-02
US61/566,042 2011-12-02
US13/589,214 2012-08-20
US13/589,214 US20130141520A1 (en) 2011-12-02 2012-08-20 Lane tracking system

Publications (1)

Publication Number Publication Date
DE102012221777A1 true DE102012221777A1 (de) 2013-06-06

Family

ID=48523713

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012221777A Withdrawn DE102012221777A1 (de) 2011-12-02 2012-11-28 Spurverfolgungssystem

Country Status (3)

Country Link
US (1) US20130141520A1 (de)
CN (2) CN103129555B (de)
DE (1) DE102012221777A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434621A (zh) * 2020-11-27 2021-03-02 武汉极目智能技术有限公司 车道线内侧边缘特征提取方法

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9538144B2 (en) * 2012-05-02 2017-01-03 GM Global Technology Operations LLC Full speed lane sensing using multiple cameras
DE102013103952B4 (de) 2012-05-02 2020-07-09 GM Global Technology Operations LLC Spurerkennung bei voller Fahrt mit einem Rundumsichtsystem
JP2014164426A (ja) * 2013-02-22 2014-09-08 Denso Corp 物体検出装置
US9000954B2 (en) * 2013-04-02 2015-04-07 Caterpillar Inc. Machine system having lane keeping functionality
US8996197B2 (en) * 2013-06-20 2015-03-31 Ford Global Technologies, Llc Lane monitoring with electronic horizon
JP5890803B2 (ja) * 2013-07-01 2016-03-22 富士重工業株式会社 車両の運転支援制御装置
CN103448724B (zh) * 2013-08-23 2016-12-28 奇瑞汽车股份有限公司 车道偏离预警方法和装置
KR20150044690A (ko) * 2013-10-17 2015-04-27 현대모비스 주식회사 Can 신호를 이용한 관심 영역 설정 장치 및 그 방법
US9212926B2 (en) * 2013-11-22 2015-12-15 Ford Global Technologies, Llc In-vehicle path verification
CN103996031A (zh) * 2014-05-23 2014-08-20 奇瑞汽车股份有限公司 一种自适应阈值分割的车道线检测***及其方法
US9794552B1 (en) * 2014-10-31 2017-10-17 Lytx, Inc. Calibration of advanced driver assistance system
JP6449627B2 (ja) * 2014-11-25 2019-01-09 株式会社Soken 走行区画線認識装置
FR3033912B1 (fr) * 2015-03-18 2018-06-15 Valeo Schalter Und Sensoren Gmbh Procede d'estimation de parametres geometriques representatifs de la forme d'une route, systeme d'estimation de tels parametres et vehicule automobile equipe d'un tel systeme
US10005367B2 (en) 2015-07-30 2018-06-26 Toyota Motor Engineering & Manufacturing North America, Inc. Wireless charging of a vehicle power source
JP6624758B2 (ja) * 2016-03-31 2019-12-25 本田技研工業株式会社 画像表示装置および画像表示方法
JP6293213B2 (ja) * 2016-08-01 2018-03-14 三菱電機株式会社 車線区画線検知補正装置、車線区画線検知補正方法、及び自動運転システム
CN106354135A (zh) * 2016-09-19 2017-01-25 武汉依迅电子信息技术有限公司 基于北斗高精度定位的车道保持***及方法
CN106347363A (zh) * 2016-10-12 2017-01-25 深圳市元征科技股份有限公司 车道保持方法及装置
WO2018077619A1 (en) 2016-10-24 2018-05-03 Starship Technologies Oü Sidewalk edge finder system and method
US10586122B1 (en) 2016-10-31 2020-03-10 United Services Automobile Association Systems and methods for determining likelihood of traffic incident information
KR20180050823A (ko) * 2016-11-07 2018-05-16 삼성전자주식회사 3차원의 도로 모델을 생성하는 방법 및 장치
US11112237B2 (en) * 2016-11-14 2021-09-07 Waymo Llc Using map information to smooth objects generated from sensor data
JP6693893B2 (ja) * 2017-01-16 2020-05-13 株式会社Soken 走路認識装置
US10331957B2 (en) * 2017-07-27 2019-06-25 Here Global B.V. Method, apparatus, and system for vanishing point/horizon estimation using lane models
US10140530B1 (en) 2017-08-09 2018-11-27 Wipro Limited Method and device for identifying path boundary for vehicle navigation
CN110120081B (zh) * 2018-02-07 2023-04-25 北京四维图新科技股份有限公司 一种生成电子地图车道标线的方法、装置及存储设备
US10748012B2 (en) * 2018-02-13 2020-08-18 Ford Global Technologies, Llc Methods and apparatus to facilitate environmental visibility determination
TWI662484B (zh) * 2018-03-01 2019-06-11 國立交通大學 物件偵測方法
DE102018112177A1 (de) * 2018-05-22 2019-11-28 Connaught Electronics Ltd. Fahrspurdetektion auf der Basis von Fahrspurmodellenn
US10778901B2 (en) 2018-06-27 2020-09-15 Aptiv Technologies Limited Camera adjustment system
CN110641464B (zh) * 2018-06-27 2023-06-06 德尔福技术有限公司 摄像头调节***
US20200062252A1 (en) * 2018-08-22 2020-02-27 GM Global Technology Operations LLC Method and apparatus for diagonal lane detection
JP6928917B2 (ja) * 2018-11-06 2021-09-01 パナソニックIpマネジメント株式会社 移動体管理システム、移動体、管理装置、制御方法、及びプログラム
CN111284496B (zh) * 2018-12-06 2021-06-29 财团法人车辆研究测试中心 用于自动驾驶车辆的车道追踪方法及***
CN112036220B (zh) * 2019-06-04 2024-04-05 宇通客车股份有限公司 一种车道线跟踪方法及***
CN110164179A (zh) * 2019-06-26 2019-08-23 湖北亿咖通科技有限公司 一种车库空闲车位的查找方法及装置
CN110287884B (zh) * 2019-06-26 2021-06-22 长安大学 一种辅助驾驶中压线检测方法
US20210155158A1 (en) * 2019-11-22 2021-05-27 Telenav, Inc. Navigation system with lane estimation mechanism and method of operation thereof
US11756312B2 (en) * 2020-09-17 2023-09-12 GM Global Technology Operations LLC Orientation-agnostic lane tracking in a vehicle
CN112434591B (zh) * 2020-11-19 2022-06-17 腾讯科技(深圳)有限公司 车道线确定方法、装置
CN112232330B (zh) * 2020-12-17 2021-02-23 中智行科技有限公司 车道连接线生成方法、装置、电子设备和存储介质
FR3127320B1 (fr) * 2021-09-21 2023-09-15 Continental Automotive Procédé de détermination de la position d’un objet par rapport à une ligne de marquage au sol d’une route
DE102022126922A1 (de) 2022-10-14 2024-04-25 Connaught Electronics Ltd. Verfahren zum Verfolgen einer Begrenzung einer Fahrspur für ein Fahrzeug
CN117036505B (zh) * 2023-08-23 2024-03-29 长和有盈电子科技(深圳)有限公司 车载摄像头在线标定方法及***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3424334B2 (ja) * 1994-06-21 2003-07-07 日産自動車株式会社 走行路検出装置
US20050149251A1 (en) * 2000-07-18 2005-07-07 University Of Minnesota Real time high accuracy geospatial database for onboard intelligent vehicle applications
JP3722486B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
CN101470801B (zh) * 2007-12-24 2011-06-01 财团法人车辆研究测试中心 车辆偏移的检知方法
JP5124875B2 (ja) * 2008-03-12 2013-01-23 本田技研工業株式会社 車両走行支援装置、車両、車両走行支援プログラム
KR100956858B1 (ko) * 2009-05-19 2010-05-11 주식회사 이미지넥스트 차량 주변 영상을 이용하는 차선 이탈 감지 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434621A (zh) * 2020-11-27 2021-03-02 武汉极目智能技术有限公司 车道线内侧边缘特征提取方法

Also Published As

Publication number Publication date
CN103129555B (zh) 2016-06-01
CN105835880A (zh) 2016-08-10
CN103129555A (zh) 2013-06-05
CN105835880B (zh) 2018-10-16
US20130141520A1 (en) 2013-06-06

Similar Documents

Publication Publication Date Title
DE102012221777A1 (de) Spurverfolgungssystem
EP2204771B1 (de) Verfahren und Vorrichtung zum Ermitteln einer Änderung des Nickwinkels einer Kamera eines Fahrzeugs
EP2057583B1 (de) Verfahren zur automatischen fernlichtsteuerung
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE212017000101U1 (de) Kamerabasiertes Scheinwerferlicht-Steuerungssystem
DE202016008786U1 (de) Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung
WO2016026568A1 (de) Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr
WO2012048795A1 (de) Verfahren zum justieren und/oder kalibrieren zumindest eines scheinwerfers eines fahrzeugs
DE102013100327A1 (de) Fahrzeugfahrtumgebungserkennungsvorrichtung
EP2062198B1 (de) Erkennung von fahrzeuglichtern mit einer kamera
EP2788224A1 (de) Verfahren und vorrichtung zur erkennung einer bremssituation
DE102009015824A1 (de) Blendfreibereich-Kartenprodukt und dieses verwendende System zur Bestimmung, ob eine Person geblendet wird
DE102009005184A1 (de) Fahrzeugabtastsystem
DE102021111794A1 (de) Vorrichtung und Verfahren zur Steuerung einer Aufhängung eines Fahrzeuges
DE102013103952B4 (de) Spurerkennung bei voller Fahrt mit einem Rundumsichtsystem
DE102013103953B4 (de) Spurerkennung bei voller Fahrt unter Verwendung mehrerer Kameras
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
WO2018059630A1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera
EP1787847A2 (de) Fahrerassistenzsystem mit Abstandserfassung
DE102018124979A1 (de) Fahrerassistenzsystem zur Bestimmung einer Entfernung zwischen zwei Fahrzeugen mit einer Kamera
WO2013026609A1 (de) VERFAHREN ZUR SCHÄTZUNG EINES STRAßENVERLAUFS UND VERFAHREN ZUR STEUERUNG EINER LICHTAUSSENDUNG ZUMINDEST EINES SCHEINWERFERS EINES FAHRZEUGS
EP2192550A1 (de) Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
EP2748759A1 (de) Verfahren und vorrichtung zum erkennen von störobjekten in der umgebungsluft eines fahrzeugs
DE102020124709A1 (de) Systeme und verfahren zur erkennung von flackern und streifenbildung von leds
DE102006055145B4 (de) On-Board-Nebelbestimmungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee