DE102011086512A1 - Verfahren zur Nebeldetektion - Google Patents

Verfahren zur Nebeldetektion Download PDF

Info

Publication number
DE102011086512A1
DE102011086512A1 DE102011086512A DE102011086512A DE102011086512A1 DE 102011086512 A1 DE102011086512 A1 DE 102011086512A1 DE 102011086512 A DE102011086512 A DE 102011086512A DE 102011086512 A DE102011086512 A DE 102011086512A DE 102011086512 A1 DE102011086512 A1 DE 102011086512A1
Authority
DE
Germany
Prior art keywords
fog
image
dimensional
function
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011086512A
Other languages
English (en)
Other versions
DE102011086512B4 (de
Inventor
Mario Pavlic
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102011086512.8A priority Critical patent/DE102011086512B4/de
Priority to PCT/EP2012/072024 priority patent/WO2013072231A1/de
Priority to CN201280062789.2A priority patent/CN104011737B/zh
Publication of DE102011086512A1 publication Critical patent/DE102011086512A1/de
Priority to US14/278,792 priority patent/US9384401B2/en
Application granted granted Critical
Publication of DE102011086512B4 publication Critical patent/DE102011086512B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Verfahren zur Detektion von Nebel mittels eines Kamerabildes oder eines Videobildes umfassend die Schritte: – Aufnahme eines zweidimensionalen Bildes mit zumindest einem Farbkanal oder mit mehreren Farbkanälen in Abhängigkeit von zwei unabhängigen Ortskoordinaten, – Bestimmung einer zweidimensionalen Graustufenfunktion für den zumindest einen Farbkanal oder für jeden der mehreren Farbkanäle, die den Wert der Graustufe in Abhängigkeit der zwei unabhängigen Ortskoordinaten des zweidimensionalen Bildes festlegt, – Zweidimensionale Fouriertransformation der zweidimensionalen Graustufenfunktion in Abhängigkeit von zwei unabhängigen Frequenzkoordinaten.

Description

  • Die Erfindung betrifft ein Verfahren zur Detektion von Nebel mittels eines Kamerabilds oder eines Videobilds.
  • Das Auftreten von Nebel stellt eine wesentliche Beeinträchtigung des Personen- und Güterverkehrs am Boden, in der Luft und zur See dar. Moderne Fahrzeuge können deshalb mit automatisierten videobasierten Nebeldetektionssystemen ausgestattet werden, die mit verschiedenen Fahrerassistenzsystemen gekoppelt sein können.
  • Beispielsweise ist bei N.Hautiere et al. in "Automatic fog detection and estimation of visibility distance through use of an onboard camera", Machine Vision and Applications, Vol. 17, No. 1, pp. 8–20, January 2006, ein Ansatz zur videobasierten Nebeldetektion und Sichtweitenschätzung im Fahrzeug bei Tag beschrieben, der auch Gegenstand der Schrift FR 2835911 B ist. Dabei wird ein mit einer Frontkamera aufgenommenes Bild verarbeitet. Mit einem Region-Growing Ansatz wird ein Bildbereich extrahiert, der sowohl Teile der Fahrbahn als auch Teile des Himmels enthält. Innerhalb dieses Bereichs wird ein Messbereich definiert, welcher für jede Bildzeile den Median der Intensitätswerte enthält. Der (Intensitäts-)Verlauf von der untersten zur obersten Bildzeile dieses Messbereichs wird Intensitätsfunktion genannt. Der Wendepunkt der Intensitätsfunktion definiert eine Sichtweite, d.h. diejenige Bildzeile, oberhalb derer für den Fahrer keine Objekte mehr wahrnehmbar sind. Der Wendepunkt der Intensitätsfunktion ist durch diejenige Bildzeile definiert, oberhalb derer der Fahrer keine Objekte mehr erkennen kann. Über die perspektivische Projektion und unter der Annahme einer flachen Topographie kann für diese Bildzeile auf eine korrespondierende Sichtweite in Metern geschlossen werden. Befindet sich die den Wendepunkt aufweisende Bildzeile oberhalb des Bildmittelpunkts, so ergibt sich eine Sichtweite von unendlich, wodurch über dieses Verfahren auch das Vorhandensein von Nebel erkannt werden kann.
  • Allerdings wurde durch Hautiere et al. in „Perception through Scattering Media for Autonomous Vehicles", Autonomous Robots Research Advances, Nova Science Publishers, pp. 223–267, April 2008, selbst festgestellt, dass der ursprünglich verwendete Region-Growing Ansatz zur Extraktion der zu untersuchenden Bildregion, welche sowohl Teile der Straße als auch Teile des Himmels enthält, in vielen Verkehrssituationen unzureichende Ergebnisse liefert. Es ist nicht immer gewährleistbar, dass der Horizont in Form eines Übergangs von Fahrbahn zu Himmel vorhanden ist wie z.B. bei vorausfahrendem Verkehr oder bei bestimmten landschaftlichen Gegebenheiten.
  • Ein alternativer Ansatz wird von Bronte et al. in „Fog Detection System Based on Computer Vision Techniques", IEEE Intelligent Transportation Systems, pp. 1–6, October 2009, mit einem System zur Detektion von Nebel und zur Sichtweitenschätzung thematisiert. Hierbei werden in einem Kamerabild zwei angrenzende Regionen, ein Fahrbahnbereich und ein Himmelbereich, über einen Region-Growing Algorithmus extrahiert. Ferner wird der aktuelle Fluchtpunkt über Bildmerkmale berechnet. Im Fall einer Nebel-Szene ist der Himmelbereich, gemessen von der obersten Bildzeile, höher als der Fluchtpunkt. Über die Bildzeile, in welcher sich die beiden Regionen berühren, lässt sich die Sichtweite über die perspektivische Projektion und der Annahme einer flachen Topographie ermitteln. Um Fehldetektionen zu vermeiden ist dem Algorithmus zudem ein schwellwertbasierter „Nicht-Nebel Detektor“ vorangestellt. Dieser erkennt anhand der Summe der auftretenden Gradientenbeträge innerhalb der oberen Bildhälfte, ob eine ausreichende Verunschärfung im Bild vorhanden ist, um eine Sichtweitenschätzung durchzuführen. Da die Sichtweitenschätzung basierend auf einem einzelnen Bild sehr unzuverlässig ist, d.h. zeitlich betrachtet über mehrere aufeinanderfolgende Bilder starken Schwankungen unterworfen ist, wird eine Median-Bildung über eine feste Zeitperiode durchgeführt.
  • Es ist eine Aufgabe der Erfindung, ein verbessertes Verfahren zur Detektion von Nebel mittels eines Kamerabilds oder eines Videobilds zu beschreiben.
  • Gelöst wird diese Aufgabe durch ein Verfahren gemäß Anspruch 1. Vorteilhafte Ausführungsformen und Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
  • Das erfindungsgemäße Verfahren umfasst die folgenden Schritte: Zunächst wird eine Aufnahme eines zweidimensionalen Bildes mit zumindest einem Farbkanal oder mehreren Farbkanälen erstellt und für den zumindest einen Farbkanal oder für jeden der mehreren Farbkanäle ein Grauwertbild erstellt, wobei der Wert der Graustufe von zwei unabhängigen Ortskoordinaten als zweidimensionale Graustufenfunktion abhängig ist.
  • Die Graustufenfunktion wird anschließend zweidimensional fouriertransformiert, wobei die Fouriertransformierte im Frequenzraum von zwei unabhängigen Frequenzkoordinaten abhängig ist.
  • Bei diesem Verfahren wird der Umstand genutzt, dass bei Aufnahme eines Grauwertbildes einer Szene bei Nebel die Intensitätsunterschiede bzw. Grauwertgradienten benachbarter Punkte mit zunehmend dichterem Nebel kleiner sind als bei Aufnahme eines Grauwertbildes der gleichen Szenerie ohne Nebel. Bei dem Bild ohne Nebel sind deutlich schärfere Kanten und höhere Kontraste erkennbar als bei der Einstellung mit Nebel. Beispielsweise verschwimmt eine weiße Fahrbahnmarkierung auf einer Asphaltdecke bei Nebel, während diese bei Sonnenschein scharf konturiert zu erkennen ist.
  • Eine Fouriertransformation beispielsweise einer eindimensionalen Stufenfunktion liefert im Frequenzraum auch bei hohen Frequenzen von Null verschiedene Beiträge, die beispielsweise bei der Fourieranalyse einer eindimensionalen Gauss’schen Glockenkurve verschwinden.
  • Die Fouriertransformation bietet also den Vorteil, dass im Frequenzraum der „Grad“ des Auftretens von Nebel skaliert ist: Bei Nebel ist der Betrag der Fouriertransformierten um den Nullpunkt der Frequenzkoordinaten konzentriert, bei Sonnenschein liefert die Fouriertransformation vermehrt Beiträge bei betragsmäßig hohen Werten der beiden Frequenzkoordinaten. Somit ist das erfindungsgemäße Verfahren besonders vorteilhaft, um Nebel anhand von Kamera- oder Videostandbildern zu detektieren.
  • Ein Bild in schwarz-weißer Darstellung basiert auf einem einzigen Farbkanal. Hingegen liegen einem Bild in Farbe üblicherweise drei Farbkanäle zugrunde – ein Rotkanal, ein Grünkanal und ein Blaukanal. Jedem Kanal des Bildes kommt eine Intensitätsverteilung zu, die als Grauwertbild darstellbar ist.
  • Nach einer bevorzugten Variante des Verfahrens wird das zweidimensionale Graustufenbild normiert.
  • Eine Normierung des Graustufenbildes bietet den Vorteil, dass lokale Bildregionen z.B. durch Beleuchtungs- und Belichtungseffekte möglichst egalisiert werden. Die Normierung kann durch geeignete Filter wie isotrope Hochpass- und Tiefpassfilter erreicht werden. Die Normierung beugt der Dominanz einiger Bildregionen im Leistungsspektrum vor. Als Beispiel ist etwa Schattenwurf auf einer an sich homogenen Fläche zu nennen, dessen Einfluss durch die Normierung reduzierbar ist.
  • Weiterhin wird das Betragsquadrat der Fouriertransformierten berechnet, das als Leistungsspektrum bezeichnet wird. Am Leistungsspektrum wird im zweidimensionalen Frequenzraum eine digitale Bildverarbeitung durchgeführt.
  • Nach einer bevorzugten Ausführungsform der Erfindung wird das Leistungsspektrum mit einer Schar von Gaborfiltern analysiert. Dabei wird das Leistungsspektrum mit jedem einzelnen Gaborfilter der Schar von Gaborfiltern über dem zweidimensionalen Frequenzraum gefiltert und das Ergebnis der Filterung wird als Gabormerkmal bezeichnet.
  • Das Leistungsspektrum wird mit einer punksymmetrischen Schar von Gaborfiltern im zweidimensionalen Frequenzraum „abgetastet“. Dies bedeutet, dass die Bildmenge des Leistungsspektrum auch als Bildmenge für die Schar der Gaborfilter dient. Jeder einzelne Gaborfilter, dessen Bildbereich und dessen Wertebereich im Frequenzraum durch seine Skalierung und Orientierung festgelegt ist, wird mit dem Leistungsspektrum gefaltet. Der Faltungswert wird als Gabormerkmal bezeichnet. Auf diese Weise wird jedem Gaborfilter ein Gabormerkmal zugeordnet und der Beitrag des Leistungsspektrums in verschiedenen Frequenzbereichen des Frequenzraumes quantitativ messbar gemacht.
  • Zusätzlich werden die Gabormerkmale mit einer vorbestimmten Gewichtungsfunktion multipliziert, um einen Nebelindikator zu berechnen. Der Nebelindikator wird mit einem vorbestimmten Schwellwert verglichen. Durch den Vergleich wird einer Binärvariable ein vorbestimmter Wert für „Nebel“ oder ein anderer vorbestimmter Wert für „Kein Nebel“ mit einem Konfidenzmaß zugeordnet.
  • Dies bedeutet, dass das Verfahren mit einem Vertrauensmaß die Information „Nebel“ oder „Kein Nebel“ bereitstellt.
  • Außerdem ist es vorteilhaft, wenn die vorbestimmte Gewichtsfunktion und der vorbestimmte Schwellwert anhand von empirischen Lerndaten ermittelt werden.
  • Daraus geht hervor, dass das Verfahren in der Entwicklung, d.h. bevor es der bestimmungsgemäßen Verwendung zugeführt ist, mit Lern- und Trainingsdaten empirisch validiert wird. Hierzu kann anhand von Testaufnahmen mit Sichtweitenschätzung eine objektivierte Nebelklassifikation der Aufnahmen vorgenommen werden, um das Verfahren anhand dieser Daten zu evaluieren.
  • Nach einer alternativen Variante der vorliegenden Erfindung kann anhand der Gabormerkmale eine Merkmalsreduktion mit einer Hauptkomponentenanalyse durchgeführt werden. Die reduzierten Merkmale werden als Hauptgabormerkmale bezeichnet.
  • Eine Hauptkomponentenanalyse bietet den Vorteil, dass die Gabormerkmale anhand von Trainingsdaten statistisch auf deren Relevanz untersuchbar sind. Dies ermöglicht ein ressourcenschonendes Management von Rechenleistung bei der bestimmungsgemäßen Verwendung des Verfahrens.
  • Nach einer weiteren Variante der vorliegenden Erfindung kann auf das Leistungsspektrum eine Merkmalsreduktion mit Hauptkomponentenanalyse unterzogen werden. Die reduzierten Merkmale werden als Hauptmerkmale bezeichnet.
  • Bei der digitalen Bildverarbeitungsmethode der Hauptkomponentenanalyse wird jeder Pixelwert des Leistungsspektrums im Frequenzraum als ein einzelnes Merkmal betrachtet. Auf Basis dieser Merkmale wird durch die Hauptkomponentenanalyse eine Merkmalsreduktion vorgenommen. Alternativ kann eine Stützvektorenmethode im Frequenzraum verwendet werden.
  • Nach einer weiteren Ausführungsform der Erfindung werden die Gabormerkmale, die Hauptgabormerkmale oder die Gabormerkmale klassifiziert. Die Klassifikation wird mit einem linearen Klassifikator oder einem nichtlinearen Klassifikator durchgeführt. Bei der Klassifikation werden der Klassifikationsvariablen, die mit dem Auftreten und optional zusätzlich der Dichte von Nebel korreliert, ein Wert und ein Konfidenzmaß zugeordnet.
  • Hier können beispielsweise die dem Fachmann für digitale Bildverarbeitung bekannte lineare Diskriminantenanalyse oder die Stützvektorenmethode eingesetzt werden. Letztlich gibt das Klassifikationsverfahren eine Klassenzugehörigkeit wie „Nebel“ oder „Kein Nebel“ als Information aus. Diese Klassenzugehörigkeit kann auch mit einem Konfidenzmaß versehen sein.
  • Besonders vorteilhaft ist es, wenn in einem Fahrzeug, das ein Steuergerät, ein Kamera- oder Videosystem und zumindest ein Fahrerassistenzsystem umfasst, das Verfahren zur Detektion von Nebel von dem Kamera- oder Videosystem und von dem Steuergerät in Echtzeit ausgeführt wird und die Klassenzugehörigkeit an das zumindest eine Fahrerassistenzsystem übermittelt wird. Das Fahrerassistenzsystem des Fahrzeugs kann dem Fahrer bei „Nebel“ eine Warnung ausgeben. Alternativ oder zusätzlich ist das Fahrerassistenzsystem in einer für „Nebel“ spezifizierten Konfiguration betreibbar. Dadurch kann ein direkter Beitrag zur aktiven Sicherheit im Straßenverkehr geleistet werden.
  • Echtzeit bedeutet in diesem Zusammenhang, dass die Information der Klassenzugehehörigkeit von dem Verfahren innerhalb eines Zeitfensters ermittelbar ist, das zeitlich kürzer ist als die inverse Aufnahmefrequenz der Grauwertbilder des Kamera- oder Videosystems.
  • Im Folgenden wird anhand der beigefügten Zeichnungen ein bevorzugtes Ausführungsbeispiel der Erfindung beschrieben. Daraus ergeben sich weitere Details, bevorzugte Ausführungsformen und Weiterbildungen der Erfindung. Im Einzelnen zeigen schematisch
  • 1 Verfahrensschritte zur Detektion von Nebel
  • 2a Grauwertbild bei freier Sicht
  • 2b Leistungsspektrum bei freier Sicht
  • 3a Grauwertbild bei Nebel
  • 3b Leistungsspektrum bei Nebel
  • Aus 1 sind einzelne Verfahrensschritte eines Verfahrens zur Detektion von Nebel in einem Fahrzeug dargestellt. Das Fahrzeug verfügt über ein Kamera- und/oder Videosystem, welches beispielsweise im Bereich des Fahrerrückspiegels in Fahrtrichtung des Fahrzeugs montiert ist. Zur Detektion von Nebel scheint ein kamera- bzw. videobasierte Ansatz sehr vielversprechend, da damit die menschliche Wahrnehmung im Fahrzeug sehr gut nachbildbar ist. So finden sich nach dem Stand der Technik häufig Kameras im Fahrzeug, welche im Bereich des Rückspiegels in Fahrtrichtung angebracht sind, um eine Fahrsituation möglichst so zu erfassen, wie sie der Fahrer erlebt. Das Kamera- und/oder Videosystem weist eine Datenschnittstelle zu einem Steuergerät des Fahrzeugs auf. Ferner umfasst das Fahrzeug mehrere Fahrerassistenzsysteme wie etwa ein Warnsystem, das den Fahrer auf eine bestehende Geschwindigkeitsbegrenzung hinweist, oder ein Schaltassistent zum automatischen Ein-/Ausschalten des Nebellichts oder der Nebelschlussleuchte. Die Fahrerassistenzsysteme verfügen ebenfalls über eine Datenschnittstelle zu dem Steuergerät.
  • In einem ersten Schritt wird zur Detektion von Nebel mit dem Kamera- oder Videosystem ein Bild von der äußeren Umgebung des Fahrzeugs erstellt. Idealerweise erfasst das Bild die auf das Fahrzeug zukommende Verkehrssituation während der Fahrt. Das Bild wird als zweidimensionales Graustufenbild in Abhängigkeit von zwei unabhängigen Ortskoordinaten x und y erfasst. Ohne Beschränkung der Allgemeinheit wird von einem schwarz-weiß Bild mit einem Farbkanal ausgegangen. Der Graustufenwert wird dabei als i(x, y) angegeben. Das Graustufenbild kann zusätzlich ein quadratischer Ausschnitt des aufgenommenen Kamerabildes sein, so dass die Anzahl der Pixel bezüglich der Bildbreite und der Bildhöhe des Graustufenbildes jeweils gleich sind.
  • Ein Graustufenbild geht beispielsweise aus 2a bei freier Sicht, d.h. bei nebelfreier Witterung, und aus 3a bei Nebel hervor. Die Bilder in 2a und 3a sind exemplarisch graphisch angegeben. Das Verfahren verarbeitet das Bild als einen Datensatz, der nicht notwendigerweise graphisch angezeigt werden muss.
  • Das Graustufenbild wird in einem weiteren Schritt, der als Vorfilterung oder Normierung bezeichnet wird, unterzogen. Das vorgefilterte Graustufenbild wird als i'(x, y) bezeichnet. Die Vorfilterung besteht aus einer lokalen Normierung der Varianz der Intensitätswerte:
    Figure 00070001
  • Dabei beschreibt g(x, y) einen isotropen Gauss’schen Tiefpassfilter und h(x, y) = 1 – g(x, y) einen entsprechenden Hochpassfilter. Der Operator * kennzeichnet den Faltungsoperator. Der Zähler ist ein Hochpassfilter, welcher das Bild mittelwertbefreit. Der Nenner verhält sich ähnlich einem lokalen Schätzer der Varianz im Eingangsbild. Der Parameter ε ist eine Konstante, welche eine Verstärkung des Rauschens in konstanten Bildregionen, wie z.B. der Fahrbahn oder dem Himmel abschwächt. Die Vorfilterung dient der Reduzierung von Beleuchtungseffekten und beugt der Dominanz mancher Bildregionen im Betragsspektrum vor. Der Effekt der Vorfilterung ist z.B. bei Sonneneinstrahlung wirkungsvoll. Bei Sonneneinstrahlung entstehen unterschiedliche Beleuchtungseffekte durch inhomogene Beleuchtung wie Schattenwurf und ein unterschiedlicher Grauwertverlauf auf ursprünglich homogegen Flächen. Durch die Vorfilterung werden solche Beleuchtungseffekte ausgeglichen.
  • In einem weiteren Schritt in 1 wird das Graustufenbild zweidimensional fouriertransformiert (FFT in 1). Das fouriertransformierte Bild, folgend auch Fouriertransformierte genannt, wird als I(fx, fy) bezeichnet. Der zweidimensionale Frequenzraum ist durch fx und fy gegeben.
  • Die Fouriertransformation ist als
    Figure 00080001
    gegeben.
  • Vor der Fouriertransformation kann das Bild optional mit einer zweidimensionalen Fensterfunktion multipliziert werden, um breitbandige Signalanteile entlang der Koordinatenachsen zu unterdrücken. Diese entstehen durch die implizite Annahme eines periodisch fortgesetzten Signals bei der folgenden Fouriertransformation nichtperiodischer Signale (sogenannter Leck-Effekt). Als Fensterfunktion kann z.B. das bekannte Hanning Fester verwendet werden.
  • Bei mehreren Farbkänalen wird in analoger Weise für jeden Farbkanal eine Fouriertransformierte erhalten.
  • In einem weiteren Schritt wird das Betragsquadrat Γ(fx, fy) der Fouriertransformierten nach Γ(fx, fy) = |I(fx, fy)|2 ebildet. Γ(fx, fy) wird als Leistungsspektrum bezeichnet.
  • 2b zeigt ein Leistungsspektrum in graphischer Ausgabe. Das Leistungsspektrum in 2b wurde nach dem geschilderten Verfahren aus 2a gebildet. Entsprechendes gilt für 3b, das aus 3a gebildet wurde. Beide Darstellungen sind derart gewählt, dass im Mittelpunkt des Bildes der Nullpunkt der beiden Frequenzachsen f x und fy liegt und die einzelnen Werte in logarithmischer Darstellung abgebildet sind. Diese Art der Darstellung dient ausschließlich der Visualisierung und einem eingängigen Verständnis des Verfahrens. Es ist deutlich erkennbar, dass das Spektrum bei Nebel (3b) im Frequenzraum überwiegend punksymmetrisch um den Mittelpunkt konzentriert ist. Dagegen liefert das Spektrum bei Nebelfreiheit (2b) deutlich mehr Beiträge im gesamten Frequenzraum, die durch Helligkeitseindrücke auch im Randbereich der Abbildung erkennbar sind.
  • Das Leistungsspektrum enthält eine Information über das Auftreten von Nebel und über die Dichte des Nebels. Dabei wird der Umstand zunutze gemacht, dass die Aufnahme eines Grauwertbildes einer Szene bei Nebel die Intensitätsunterschiede bzw. Grauwertgradienten benachbarter Punkte mit zunehmend dichterem Nebel kleiner sind als bei Aufnahme eines Grauwertbildes der gleichen Szenerie ohne Nebel. Bei dem Bild ohne Nebel sind deutlich schärfere Kanten und höhere Kontraste erkennbar als bei der Einstellung mit Nebel. Beispielsweise verschwimmt eine weiße Fahrbahnmarkierung auf einer Asphaltdecke bei Nebel, während diese bei Nebelfreiheit scharf konturiert zu erkennen ist.
  • Eine Fourieranalyse beispielsweise einer eindimensionalen Stufenfunktion liefert im Frequenzraum auch bei hohen Frequenzen von Null verschiedene Beiträge, die aber beispielsweise bei der Fourieranalyse einer eindimensionalen Gauss’schen Glockenkurve verschwinden. Dementsprechend ist das Graustufenbild bei Nebel im zweidimensionalen Frequenzraum auf niedrigere Werte der Frequenzparameter fx und fy beschränkt.
  • Die weiteren Schritte des Verfahrens nach 1 sind mit der Aufgabe verbunden, ein Leistungsspektrum mittels digitaler Bilderverarbeitungsmethoden zu modellieren, um anhand der unterschiedlichen Form bei Bildern aus Szenen mit und ohne Nebel eine Klassifizierung durchführen zu können. Zum Beispiel ist es möglich, einen linearen Klassifikator basierend auf der Linearen Diskriminantenanalyse zu verwenden. Die Bildmerkmale des Leistungsspektrums werden dabei einer zweistufigen Merkmalsreduktion mit einer „Abtastung“ über eine Gabor-Filterbank und anschließender Hauptkomponentenanalyse unterzogen.
  • Die zweistufige Merkmalsreduktion der Fouriertransformierten wird durch eine „Abtastung“ des Leistungsspektrums im Frequenzbereich mit Hilfe eine Gabor-Filterbank vorgenommen (Gabor-Filterbank in 1) nach: gi = ∑∑Γ(fx, fy)Gi(fxfy) i = 1,... K,
  • Die Gabor Filterbank besteht dabei aus K Gabor-Filtern, wobei ein Gabor-Filter als
    Figure 00100001
    einer spezifischen Skalierung (σx,i, σy,i) und spezifischen Orientierung θi ausgeführt ist. Bei einer Anzahl von beispielsweise K = 60 Gabor-Filtern gehen aus der Merkmalsreduktion 60 Merkmale gi hervor, die folgend als Gabormerkmale bezeichnet werden. Bei mehreren Farbkanälen gilt dies für jeden Farbkanal analog. Bei z.B. drei Farbkanälen würden somit 180 Gabormerkmale erzielt.
  • Die zweite Stufe der Merkmalsreduktion erfolgt anhand der Hauptkomponentenanalyse. Hierzu wird eine Auswahl von M Bildern als Trainingsdaten (siehe „Trainingsdaten“ in 1) benutzt, welche als Szenen mit Nebel oder als Szenen ohne Nebel bekannt sind und für welche die Gabormerkmale berechnet sind. Idealerweise werden dabei M/2 Bilder aus Szenen mit Nebel und M/2 Bilder aus Szenen ohne Nebel gewählt. Zunächst wird anhand der Gabormerkmale aller dieser M Bilder der mittlere Gabormerkmalsvektor berechnet:
    Figure 00100002
  • Ferner wird die Kovarianzmatrix C aus den mittelwertbefreiten Gabormerkmalsvektoren Φ → berechnet:
    Figure 00100003
  • Die Eigenvektoren der Kovarianzmatrix sind die Hauptkomponenten. Durch die Eigenwertanalyse V–1CV = D enthält die Diagonalmatrix D die Eigenwerte und in den Spalten der Matrix V = [v →1v →2... v →K] die korrespondierenden Eigenvektoren. Somit sind D und V derart sortierbar, dass die Eigenwerte auf der Hauptdiagonalen der Diagonalmatrix in absteigender Reihenfolge vorliegen. Zur Merkmalsreduktion werden die ersten N,N < K Eigenvektoren gewählt und in der Matrix W = [v →1v →2... v →N] zusammengefasst. N kann dabei etwa so gewählt werden, dass z.B.
    Figure 00110001
    gilt. Der reduzierte Merkmalsvektor ω → bestimmt sich schließlich über ω → = WT(g → – Ψ →) aus dem ursprünglichen, z.B. Gabor-Merkmalsvektor g → und dem mittleren Merkmalsvektor Ψ →. Die reduzierten Merkmalsvektoren der Leistungsspektren der Trainingsdaten sind also dazu nutzbar, einen Klassifikator zu trainieren (siehe Klassifikator in 1). Mittels des trainierten Klassifikators ist das Leistungsspektrum des Bildes einer Szene in eine Szene mit Nebel oder eine Szene ohne Nebel oder eine Szene mit Zwischenstufen zwischen Nebel und ohne Nebel kategorisierbar.
  • Ein Klassifikator wird beispielshaft als linearer Klassifikator, basierend auf der Linearen Diskriminantenanalyse, beschrieben:
    Beim linearen Klassifikator ist über das Skalarprodukt aus Merkmalsvektor ω → und Gewichtsvektor d → die Entscheidungsvariable u bestimmbar
    Figure 00110002
    Über einen Schwellwert c ist somit eine Klassenzugehörigkeit bestimmbar (siehe „Ausgabe“ in 1) zu
    Figure 00110003
    wobei 1 = „Nebel“ und 0 = „Kein Nebel“.
  • Hierbei steht z.B. „1“ für ein Bild aus einer Szene mit Nebel und „0“ für ein Bild aus einer Szene ohne Nebel. Neben der binären Klassifizierung liefert dieses Verfahren zudem ein Konfidenzmaß in Form einer Entscheidungsvariable. Mit steigendem Konfidenzmaß steigt die Genauigkeit der Ausgabe des Klassifikators über die Klassenzugehörigkeit. Auch der Gewichtsvektor als auch den Schwellwert sind anhand von Trainingsdaten (siehe „Trainingsdaten“ in 1) zu lernen.
  • Der Schritt „Trainingsdaten“ in 1 ist als besonderer Schritt dahingehend zu verstehen, dass das „Trainieren“ des Klassifikators zeitlich nicht während des Ablaufs des Verfahrens erfolgt (gestrichelte Darstellung in 1). Das Trainieren des Klassifikators dient der Konfiguration des Klassifikators und erfolgt zeitlich vor der Anwendung des Verfahrens, z.B. in der Entwicklung und Implementierung des Verfahrens.
  • Figure 00110003
  • Das Trainieren des Gewichtsvektors und des Schwellwerts kann mittels Linearer Diskriminantenanalyse erfolgen. Bei der Linearen Diskriminantenanalyse wird der Gewichtsvektor über die Kovarianzmatrix T der Merkmalsvektoren und die mittleren Merkmalsvektoren von Bildern aus Szenen mit Nebel und Bildern aus nebelfreien Szenen m →1 und m →2 gelernt mit d → = T–1(m →1 – m →2) und T = {ω → – m →)(ω → – m →)T}.
  • Dabei steht E{ } für den Erwartungswert-Operator und
    Figure 00120001
    für den mittleren Merkmalsvektor aller Trainingsdaten. Dabei wird vorausgesetzt, dass eine ausreichende Menge an Trainingsdaten M, d.h. Bildern mit Nebelszenen und Bildern mit nebelfreien Szenen, vorhanden sind. Idealerweise liegt für beide Klassen die gleiche Anzahl an Bildern vor. Anhand des so ermittelten Gewichtsvektors ist für jede Klasse die mittlere Entscheidungsvariable ( u 1, u 2) sowie deren Standardabweichung (σ1, σ2) ermittelbar und somit die Normalverteilung N( u , σ) der Entscheidungsvariablen einer Klasse aufstellbar. Der Schwellwert ist somit über den Schnittpunkt der Normalverteilungen bestimmbar c = N( u 1, σ1) ∩ N( u 2, σ2).
  • Das Verfahren nach 1 ist in Realzeit durchführbar. Liefert das zur Bildaufnahme verwendete Kamerasystem beispielsweise 15 Bilder pro Sekunde, steht pro Bild eine maximale Bearbeitungszeit von etwa 66 ms zur Verfügung. Die eine Verarbeitung von Daten betreffenden Schritte des Verfahrens sind mit einer gängigen Programmiersprache z.B. C++ auf einem Fahrzeugsteuergerät implementierbar. Realzeit des Verfahrens ist dann gegeben, wenn eine Abfolge der Schritte nach 1 von der Aufnahme des Bildes bis zur Ausgabe innerhalb der maximalen Bearbeitungszeit erfolgt.
  • Die von dem Verfahren ausgegebene Information kann ein Fahrerassistenzsystem übermittelt werden. Optional kann dem Fahrer bei erkanntem Nebel eine akustische, optische oder haptische Warnung ausgegeben werden.
  • Für verschiedene Anwendungen bei Fahrerassistenzsystemen kann eine Nebeldetektion nach dem beschriebenen Verfahren vorteilhaft sein. Anwendungen nach dem Stand der Technik, welche eine Frontkamera nutzen sind z.B. der Spurhalteassistent (Lane Departure Warning, LDW, die Speedlimit Information, SLI, oder der Fernlicht Assistent, FLA).
  • Es besteht die Möglichkeit, den Fahrer auf eine Geschwindigkeitsbegrenzung aufmerksam zu machen. Laut deutscher Straßen-Verkehrsordnung (StVO), §3, Abs. 1, hat der Fahrer seine Geschwindigkeit den Sichtverhältnissen anzupassen. Beträgt die Sichtweite durch Nebel, Schneefall oder Regen weniger als 50 m, so darf nach Straßenverkehrsordnung der BRD nicht schneller als 50 km/h gefahren werden. Diese Geschwindigkeitsbegrenzung ist aufgrund des zeitlich begrenzten und lokalen Charakters sowie aufgrund von infrastrukturellen Gegebenheiten nicht immer explizit in Form von Beschilderungen ausgewiesen. Aufgrund dieser gesetzlichen Regelung und der Tatsache, dass laut statistischem Bundesamt viele Verkehrsunfälle auf überhöhte Geschwindigkeit zurückzuführen sind, ist es vorteilhaft, den Fahrer auf die geltenden Geschwindigkeitsregelungen hinzuweisen. Dies könnte z.B. in Form einer Speedlimit Information (SLI) umgesetzt werden, wie es bei expliziten Geschwindigkeitsbegrenzungen heute bereits verfügbar ist. Damit der Fahrer den impliziten Charakter der Geschwindigkeitsbegrenzung erkennt, könnte zusätzlich zur Geschwindigkeitsbegrenzung auch das in Deutschland übliche Schild für den Hinweis auf Sichtbehinderung beispielsweise im Kombiinstrument eingeblendet werden. Ferner kann ein automatisches Ein-/Ausschalten des Nebellichts bzw. der Nebelschlussleuchte von der Ausgabe des Verfahrens zur Nebeldetektion abhängig gemacht werden. Laut StVO, §17, Abs. 3 dürfen nur bei Sichtbehinderung durch Nebel, Schneefall oder Regen Nebelscheinwerfer verwendet werden, die Nebelschlussleuchte darf zudem nur eingeschaltet werden, wenn die Sichtweite weniger als 50 m beträgt. Häufig vergessen Verkehrsteilnehmer jedoch die Nebelschlussleuchte wieder auszuschalten, worauf z.B. der deutsche Automobil-Verein ADAC hinweist. Dadurch können nachfolgende Verkehrsteilnehmer geblendet werden. Ist das Fahrzeug in der Lage, automatisiert dichten Nebel zu detektieren, so kann Abhilfe durch ein automatisches Ein- bzw. Ausschalten der Nebelscheinwerfer und der Nebelschlussleuchte geschaffen werden. Eine automatische Lichtschaltung ist nach dem Stand der Technik z.B. beim Abblendlicht in aktuellen Fahrzeugen vorzufinden.
  • Ein weiterer vorteilhafter Effekt ergibt sich bei Übermittlung der Ausgabe an einen automatischen Abstandstempomaten. Der automatische Abstandstempomat (ACC, Active Cruise Control) ist ein Fahrerassistenzsystem, das eine abstandsabhängige Geschwindigkeitsregelung durchführt. Bei Verwendung dieses Systems ist durch den Fahrer eine Wunschgeschwindigkeit und ein Abstand zu einem Zielobjekt einstellbar. Obwohl als Sensorsystem meist ein Radar eingesetzt wird, welches durch Nebel keinen Einschränkungen unterworfen ist, kann es sinnvoll sein, bei dichtem Nebel den minimal einstellbaren Abstand zu erhöhen.
  • Weiterhin kann die Ausgabe des Verfahrens zur Strategieanpassung des Fernlichtassistenten genutzt werden. Der Fernlichtassistent (FLA) ist ein kamerabasiertes Fahrerassistenzsystem, welches den Fahrer beim Ein- und Ausschalten des Fernlichts bei Nacht unterstützt. Erkennt das System, dass das Fahrzeug in einer nicht ausreichend beleuchteten Umgebung befindlich ist (z.B. außerhalb einer geschlossenen Ortschaft) und kein vorausfahrendes oder entgegenkommendes Fahrzeug vorhanden ist, so wird das Fernlicht eingeschaltet. Im Fall von dichtem Nebel wird der Fahrer jedoch beim Einschalten des Fernlichts durch die Reflektion der Lichtstrahlen an den Aerosolen geblendet. Mit der Information über das Vorhandensein von dichtem Nebel ist die Strategie des FLA insofern anpassbar, dass bei Nebel ausschließlich Abblendlicht einstellbar ist.
  • Die Ausgabe des Nebeldetektionsverfahrens ist für eine wetterbedingte Verkehrslageerfassung via xFCD (Extended Floating Car Data) nutzbar. Der abrupte Übergang von guten Sichtverhältnissen zu einer stark eingeschränkten Sichtweite durch Nebel stellt eine lokale Gefahr für den Fahrer dar. Zur Erhöhung der Verkehrssicherheit ist es wünschenswert, solche Ereignisse zu Erfassen und betroffene Verkehrsteilnehmer gezielt zu warnen. Dies ist jedoch aufgrund des dynamischen Charakters solcher Ereignisse, bezogen auf deren Ausprägung und Lokalität, mit stationären Messsystemen kaum zuverlässig möglich. Zur Lösung dieses Problems wird der Ansatz von xFCD zur Informationsgewinnung verfolgt. Dabei werden Fahrzeuge als mobile Messstationen eingesetzt. Eine Verkehrslageerfassung, welche neben infrastrukturellen Daten xFCDs als weitere Informationsquelle verwendet, liefert eine präzisere Darstellung des aktuellen Wettergeschehens. Dabei werden xFCD Meldungen zentral gesammelt, mit infrastrukturellen Informationen fusioniert und gegebenenfalls an betroffene Verkehrsteilnehmer, z.B. in Form von TPEG Meldungen, ausgegeben. Fahrzeuge mit Nebeldetektion können hier einen Beitrag zur Verbesserung der Erfassung des Wettergeschehens bezüglich des Auftretens von Nebel leisten.
  • Außerdem ist es vorteilhaft, die Ausgabe des Nebeldetektionsverfahrens mit weiteren videobasierten Systemen des Fahrzeugs, etwa ein Rückfahrkamerasystem, funktional zu verbinden. Durch das Auftreten von Nebel werden vor allem in videobasierten Systemen Degradationen der erfassten Datenqualität und des erfassten Informationsgehalts bedingt. Bei detektiertem Nebel sind an Nebel angepasste Bildverarbeitungsalgorithmen anwendbar, die Bildinformationen durch Bildrestaurierung oder Kontrasterhöhung vorverarbeiten, um dem Fahrer ein klareres Bild anzuzeigen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • FR 2835911 B [0003]
  • Zitierte Nicht-Patentliteratur
    • N.Hautiere et al. in “Automatic fog detection and estimation of visibility distance through use of an onboard camera”, Machine Vision and Applications, Vol. 17, No. 1, pp. 8–20, January 2006 [0003]
    • Hautiere et al. in „Perception through Scattering Media for Autonomous Vehicles“, Autonomous Robots Research Advances, Nova Science Publishers, pp. 223–267, April 2008 [0004]
    • Bronte et al. in „Fog Detection System Based on Computer Vision Techniques“, IEEE Intelligent Transportation Systems, pp. 1–6, October 2009 [0005]

Claims (11)

  1. Verfahren zur Detektion von Nebel mittels eines Kamerabildes oder eines Videobildes, umfassend die Schritte: – Aufnahme eines zweidimensionalen Bildes mit zumindest einem Farbkanal oder mit mehreren Farbkanälen in Abhängigkeit von zwei unabhängigen Ortskoordinaten, – Bestimmung einer zweidimensionalen Graustufenfunktion für den zumindest einen Farbkanal oder für jeden der mehreren Farbkanäle, die den Wert der Graustufe in Abhängigkeit der zwei unabhängigen Ortskoordinaten des zweidimensionalen Bildes festlegt, – Zweidimensionale Fouriertransformation der zweidimensionalen Graustufenfunktion in Abhängigkeit von zwei unabhängigen Frequenzkoordinaten.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass – das zweidimensionale Graustufenbild normiert wird, – die Normierung Intensitätsgradienten der Graustufen mittels eines Tiefpassfilters und mittels eines Hochpassfilters ausgleicht.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass – das Betragsquadrat der Fouriertransformierten, welches als Leistungsspektrum bezeichnet wird, berechnet wird, – das Leistungsspektrum mittels digitaler Bildverarbeitung ausgewertet wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass – das Leistungsspektrum mit einer Schar von Gaborfiltern analysiert wird, – das Leistungsspektrum mit jedem Gaborfilter der Schar von Gaborfiltern über dem zweidimensionalen Frequenzraum gefiltert wird und das Filterergebnis als Gabormerkmal für diesen Gaborfilter bezeichnet wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass – die Gabormerkmale merkmalsreduziert werden, – die Merkmalsreduzierung mittels einer Hauptkomponentenanalyse auf reduzierte Gabormerkmale durchgeführt wird.
  6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass – die Gabormerkmale oder die merkmalsreduzierten Gabormerkmale mit einer vorbestimmten Gewichtungsfunktion multipliziert werden, um einen Nebelindikator zu berechnen, – der Nebelindikator mit einem vorbestimmten Schwellwert verglichen wird, – das Verfahren einer Klassifikationsvariablen einen Wert für „Nebel“ oder den anderen Wert für „Kein Nebel“ mit einem Konfidenzmaß zuordnet.
  7. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass – die Gewichtsfunktion und der Schwellwert durch eine Evaluierung des Verfahrens anhand von Trainingsdaten vorbestimmt sind.
  8. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass – das Leistungsspektrum merkmalsreduziert wird, – die Merkmalsreduzierung mittels einer Hauptkomponentenanalyse im Frequenzraum auf reduzierte Merkmale durchgeführt wird.
  9. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass – das Leistungsspektrum merkmalsreduziert wird, – die Merkmalsreduzierung mittels einer Stützvektorenmethode im Frequenzraum auf reduzierte Merkmale durchgeführt wird.
  10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass – die reduzierten Merkmale klassifiziert werden, – die Klassifikation mit einem linearen Klassifikator oder einem nichtlinearen Klassifikator durchgeführt wird, – das Verfahren einer Klassifikationsvariablen einen Wert zuordnet, – der Klassifikationsvariablen ein Konfidenzmaß zugeordnet ist, – der Wert der Klassifikationsvariablen mit dem Auftreten von Nebel oder der Dichte von Nebel mit dem Konfidenzmaß skaliert.
  11. Fahrzeug mit einem Steuergerät, einem Kamera- oder Videosystem und zumindest einem Fahrerassistenzsystem, dadurch gekennzeichnet, dass – das Verfahren zur Detektion von Nebel nach einem der Ansprüche 6 oder 10 von dem Steuergerät und von dem Kamera- oder Videosystem in Echtzeit ausgeführt wird, – der Wert der Klassifikationsvariablen an das zumindest eine Fahrerassistenzsystem übermittelbar ist, und – das zumindest eine Fahrerassistenzsystem dem Fahrer bei auftretendem Nebel eine Warnung ausgibt und/oder das Fahrerassistenzsystem in einer für auftretendem Nebel spezifizierten Konfiguration betreibbar ist.
DE102011086512.8A 2011-11-16 2011-11-16 Nebeldetektion Active DE102011086512B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102011086512.8A DE102011086512B4 (de) 2011-11-16 2011-11-16 Nebeldetektion
PCT/EP2012/072024 WO2013072231A1 (de) 2011-11-16 2012-11-07 Verfahren zur nebeldetektion
CN201280062789.2A CN104011737B (zh) 2011-11-16 2012-11-07 用于探测雾的方法
US14/278,792 US9384401B2 (en) 2011-11-16 2014-05-15 Method for fog detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011086512.8A DE102011086512B4 (de) 2011-11-16 2011-11-16 Nebeldetektion

Publications (2)

Publication Number Publication Date
DE102011086512A1 true DE102011086512A1 (de) 2013-05-16
DE102011086512B4 DE102011086512B4 (de) 2022-12-01

Family

ID=47226125

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011086512.8A Active DE102011086512B4 (de) 2011-11-16 2011-11-16 Nebeldetektion

Country Status (4)

Country Link
US (1) US9384401B2 (de)
CN (1) CN104011737B (de)
DE (1) DE102011086512B4 (de)
WO (1) WO2013072231A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104228667A (zh) * 2013-06-19 2014-12-24 现代摩比斯株式会社 判断雾存在与否的方法及其装置
DE102015003960A1 (de) 2015-03-26 2015-08-20 Daimler Ag Verfahren zum Bestimmen einer Sichtweite für ein Fahrzeug bei Nebel
DE102015220666A1 (de) * 2015-10-22 2017-04-27 Volkswagen Aktiengesellschaft Verfahren und System zum Betreiben eines Lichtassistenten
CN113706889A (zh) * 2021-08-02 2021-11-26 浪潮天元通信信息***有限公司 基于目标检测分析的高速公路团雾测量***及方法
DE102021125844A1 (de) 2021-10-05 2023-04-06 Ford Global Technologies, Llc Verfahren und System zur Steuerung einer Fahrzeugbeleuchtung eines Kraftfahrzeugs bei eingeschränkten Sichtverhältnissen

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101445577B1 (ko) * 2013-03-11 2014-11-04 주식회사 브이아이티시스템 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템
US9514373B2 (en) 2013-08-28 2016-12-06 Gentex Corporation Imaging system and method for fog detection
KR102343519B1 (ko) 2014-01-10 2021-12-24 아비질론 코포레이션 내면 반사를 감소시키기 위한 카메라 하우징
US9734425B2 (en) * 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
US9846927B2 (en) * 2014-05-20 2017-12-19 Qualcomm Incorporated Systems and methods for haziness detection
US9870511B2 (en) 2015-10-14 2018-01-16 Here Global B.V. Method and apparatus for providing image classification based on opacity
CN106952310A (zh) * 2016-01-29 2017-07-14 法拉第未来公司 用于确定能见度状态的***及方法
US10269098B2 (en) * 2016-11-01 2019-04-23 Chun Ming Tsang Systems and methods for removing haze in digital photos
CN107220605B (zh) * 2017-05-19 2019-08-30 华中科技大学 一种基于图像结构相似度的烟雾浓度测量方法和***
CN108045370A (zh) * 2017-11-23 2018-05-18 李党 车道偏离预警***
US11194043B2 (en) 2018-01-18 2021-12-07 Analog Devices International Unlimited Company Radar for weather detection and dynamic control and actuation of vehicle systems
US11054502B2 (en) * 2018-07-26 2021-07-06 Mercury Systems, Inc. Method and system for intra-pulse frequency estimation against agile emitters
CN109598256B (zh) * 2018-12-25 2021-03-30 斑马网络技术有限公司 进出坡道判断方法、装置、车辆、存储介质及电子设备
CN110031823B (zh) * 2019-04-22 2020-03-24 上海禾赛光电科技有限公司 可用于激光雷达的噪点识别方法以及激光雷达***
CN110321855A (zh) * 2019-07-07 2019-10-11 徐梓恒 一种雾天检测预警装置
KR20210113464A (ko) * 2020-03-05 2021-09-16 삼성전자주식회사 이미징 장치 및 이를 포함하는 전자 기기
CN112329623A (zh) * 2020-11-05 2021-02-05 山东交通学院 雾天能见度检测与能见度安全等级划分预警方法
CN113076997B (zh) * 2021-03-31 2023-01-03 南昌欧菲光电技术有限公司 镜头带雾识别方法、摄像模组及终端设备
TWI832568B (zh) * 2022-11-18 2024-02-11 廣達電腦股份有限公司 霧氣判別方法、及光學設備

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2835911B1 (fr) 2002-02-14 2004-05-07 France Etat Ponts Chaussees Procede de determination de la distance de visisbilite et procede de determination de la presence d'un brouillard
DE102008003948A1 (de) * 2007-01-11 2008-07-17 Denso Corp., Kariya Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
US7505604B2 (en) * 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITTO20030770A1 (it) * 2003-10-02 2005-04-03 Fiat Ricerche Dispositivo di rilevamento installabile lungo una
JP4701383B2 (ja) 2005-02-10 2011-06-15 国立大学法人北海道大学 視界不良評価方法および視界不良評価装置
CN101382497B (zh) * 2008-10-06 2012-03-07 南京大学 基于路况监控视频的能见度检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2835911B1 (fr) 2002-02-14 2004-05-07 France Etat Ponts Chaussees Procede de determination de la distance de visisbilite et procede de determination de la presence d'un brouillard
US7505604B2 (en) * 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
DE102008003948A1 (de) * 2007-01-11 2008-07-17 Denso Corp., Kariya Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
Bronte et al. in "Fog Detection System Based on Computer Vision Techniques", IEEE Intelligent Transportation Systems, pp. 1-6, October 2009
BRONTE, 5. BERGASA, L. M, ALCANTARJLLA, P. F.: Fog detection system based on computerVision techniques. In: Intelligent Transportation Systems, 2009. ITSC \‘09. 12th International IEEEConference on. 2009, 5. 30-35. ISBN 978-1-4244-5519-5
BRONTE, 5. BERGASA, L. M, ALCANTARJLLA, P. F.: Fog detection system based on computerVision techniques. In: Intelligent Transportation Systems, 2009. ITSC \'09. 12th International IEEEConference on. 2009, 5. 30-35. ISBN 978-1-4244-5519-5 *
Hautiere et al. in "Perception through Scattering Media for Autonomous Vehicles", Autonomous Robots Research Advances, Nova Science Publishers, pp. 223-267, April 2008
HAUTIÈRE, Nicolas [et al.].: Automatic fog detection and estimation of visibility distance through use of an onboard camera. In: Machine vision and applications, Vol. 17, 2006, No. 1, S. 8-20. - ISSN 0932-8092 *
HAUTIÈRE, Nicolas [et al.]: Perception through scattering media for autonomous vehicles. In: Autonomous robots research advances, 2008 April 30, S. 223-267. *
HAUTIRE, Nicolas [u.a.]: Automatic fog detection and estimation of visibility distance through use of an onboard camera. In: Machine Vision and Applications. 2006, Bd. 17, H. 1, 5. 8-20. ISSN 0932 -809 2 *
HAUTIRE, Nicolas [u.a.]: Perception through scattering media tor autonomous vehicies. In:YANG, Weihua: Autonomous Robots Research Advances. 5. 223-267 (1-46). ISBN 978-1-60456-185-2URL: http://perso.lcpc.fr/tarel .jean-philippe/publis/jpt-nova08.pdt. *
N.Hautiere et al. in "Automatic fog detection and estimation of visibility distance through use of an onboard camera", Machine Vision and Applications, Vol. 17, No. 1, pp. 8-20, January 2006
ROSER, Martin ; MOOSMANN, Frank: Classification of weather situations on single color images. In: IEEE intelligent vehicles symposium, June 4-6 2008, S. 798-803. - ISBN 978-1-4244-2569-3 *
ROSER, Martin ; MOOSMANN, Frank: Classification of weather situations on single color images. In: IEEE intelligent vehicles symposium, June 4-6 2008, S. 798-803. – ISBN 978-1-4244-2569-3

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104228667A (zh) * 2013-06-19 2014-12-24 现代摩比斯株式会社 判断雾存在与否的方法及其装置
CN104228667B (zh) * 2013-06-19 2017-06-09 现代摩比斯株式会社 判断雾存在与否的方法及其装置
DE102015003960A1 (de) 2015-03-26 2015-08-20 Daimler Ag Verfahren zum Bestimmen einer Sichtweite für ein Fahrzeug bei Nebel
DE102015220666A1 (de) * 2015-10-22 2017-04-27 Volkswagen Aktiengesellschaft Verfahren und System zum Betreiben eines Lichtassistenten
DE102015220666B4 (de) * 2015-10-22 2021-01-14 Volkswagen Aktiengesellschaft Verfahren und System zum Betreiben eines Lichtassistenten
CN113706889A (zh) * 2021-08-02 2021-11-26 浪潮天元通信信息***有限公司 基于目标检测分析的高速公路团雾测量***及方法
DE102021125844A1 (de) 2021-10-05 2023-04-06 Ford Global Technologies, Llc Verfahren und System zur Steuerung einer Fahrzeugbeleuchtung eines Kraftfahrzeugs bei eingeschränkten Sichtverhältnissen

Also Published As

Publication number Publication date
DE102011086512B4 (de) 2022-12-01
CN104011737B (zh) 2018-03-30
CN104011737A (zh) 2014-08-27
US9384401B2 (en) 2016-07-05
WO2013072231A1 (de) 2013-05-23
US20140247968A1 (en) 2014-09-04

Similar Documents

Publication Publication Date Title
DE102011086512B4 (de) Nebeldetektion
DE102006057552B4 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
Pavlić et al. Image based fog detection in vehicles
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102018201054A1 (de) System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102014012285A1 (de) Verfahren und Achsenzähl-Vorrichtung zur berührungslosen Achsenzählung eines Fahrzeugs sowie Achsenzählsystem für den Straßenverkehr
DE102011055458A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mittels verlässlicher lokaler Modellkalibrierung
DE102008003947A1 (de) Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
DE102008003948A1 (de) Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102018008442A1 (de) Verfahren zur Wetter- und/oder Sichtweitenerkennung
DE102011055459A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mit zusätzlichen Klassifikatoren
DE102018129993A1 (de) Verfahren zur fahrzeugdetektion, verfahren zur fahrzeugdetektion bei nacht auf basis von dynamischer lichtintensität und system dafür
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102013205854A1 (de) Temporäre Koherenz bei Detektion eines freien Pfads
EP3815044B1 (de) Verfahren zu einer sensor- und speicherbasierten darstellung einer umgebung, anzeigevorrichtung und fahrzeug mit der anzeigevorrichtung
DE102009048739B3 (de) Verfahren und Vorrichtung zur automatischen Waldbranderkennung
DE10328814B3 (de) Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung
WO2016096446A1 (de) Vordergrund-hintergrund differenzierung im fahrzeug
DE102015200434A1 (de) Verfahren und Vorrichtung zur Verbesserung der Objekterkennung bei unterschiedlichenBeleuchtungssituationen
DE102018112171A1 (de) Verfahren zum Beurteilen von Objekten in einer Umgebung eines Kraftfahrzeugs anhand einer dreidimensionalen Fusionskarte, Steuereinrichtung; Fahrerassistenzsystem, Computerprogrammprodukt
DE102015200437A1 (de) Verfahren und Vorrichtung zur Ermittlung der Konfidenz einer Objekterkennung

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final