DE102012207620A1 - System und Verfahren für die Lichtsignaldetektierung - Google Patents

System und Verfahren für die Lichtsignaldetektierung Download PDF

Info

Publication number
DE102012207620A1
DE102012207620A1 DE102012207620A DE102012207620A DE102012207620A1 DE 102012207620 A1 DE102012207620 A1 DE 102012207620A1 DE 102012207620 A DE102012207620 A DE 102012207620A DE 102012207620 A DE102012207620 A DE 102012207620A DE 102012207620 A1 DE102012207620 A1 DE 102012207620A1
Authority
DE
Germany
Prior art keywords
location
vehicle
image
signal
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102012207620A
Other languages
English (en)
Other versions
DE102012207620B4 (de
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102012207620A1 publication Critical patent/DE102012207620A1/de
Application granted granted Critical
Publication of DE102012207620B4 publication Critical patent/DE102012207620B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Ein Verfahren und ein System können einen Ort eines Fahrzeugs bestimmen, unter Verwendung einer dem Fahrzeug zugeordneten Kamera ein Bild erheben, das Bild zusammen mit dem Ort des Fahrzeugs und/oder zuvor erhobenen Informationen über den Ort von Lichtsignalen oder anderen Objekten (z. B. Verkehrszeichen) analysieren und unter Verwendung dieser Analyse ein Bild eines Lichtsignals innerhalb des erhobenen Bilds ermitteln. Die Position (z. B. eine geographische Position) des Signals kann bestimmt und zur späteren Verwendung gespeichert werden. Die Identifizierung des Signals kann verwendet werden, um eine Ausgabe wie etwa den Status des Signals wie etwa grünes Licht bereitzustellen.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf die Detektierung verkehrsbezogener Objekte oder Signalvorrichtungen wie etwa Verkehrsampeln, die z. B. eine Kombination aus Ortskenntnis, Kenntnis zuvor detektierter Objekte und Bilderzeugung verwendet.
  • HINTERGRUND
  • Ein hoher Prozentsatz an Verkehrsunfällen (z. B. Kraftfahrzeugunfällen) tritt an Straßenkreuzungen auf, wobei sich ein Teil dieser Unfälle daraus ergibt, dass Fahrer Lichtsignale nicht beachten. Die Bereitstellung von Informationen hinsichtlich Lichtsignalen für Fahrer und die Tatsache, dass Fahrer vor oder zu der Zeit, zu der sich ein Fahrzeug solchen Signalen annähert, auf diese Signale aufmerksam gemacht werden, kann Fahrern solche Unfälle vermeiden helfen. Außerdem kann die Eingabe von Informationen hinsichtlich solcher Signale in Systeme wie etwa einen autonomen adaptiven Tempomat (ACC) der Leistung dieser Systeme helfen.
  • Informationen über Lichtsignale können durch automatisierte Computerbildanalyse von Bildern, die z. B. von einer in Fahrtrichtung weisenden Kamera erfasst werden, bereitgestellt werden. Allerdings kann diese Analyse ungenau sein und mehr Zeit brauchen, als in einem schnell bewegten Fahrzeug zur Verfügung steht.
  • ZUSAMMENFASSUNG
  • Ein Verfahren und ein System können einen Ort eines Fahrzeugs bestimmen, unter Verwendung einer dem Fahrzeug zugeordneten Kamera ein Bild erheben, das Bild zusammen mit dem Ort des Fahrzeugs und/oder zuvor erhobenen Informationen über den Ort von Lichtsignalen oder anderen Objekten (z. B. Verkehrszeichen) analysieren und unter Verwendung dieser Analyse ein Bild eines Lichtsignals innerhalb des erhobenen Bilds ermitteln. Die Position des Signals kann bestimmt und zur späteren Verwendung gespeichert werden. Die Identifizierung des Signals kann verwendet werden, um eine Ausgabe wie etwa den Status des Signals (z. B. grünes Licht) bereitzustellen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Der Gegenstand hinsichtlich der Erfindung ist insbesondere in dem abschließenden Abschnitt der Beschreibung dargelegt und charakteristisch beansprucht. Allerdings kann die Erfindung sowohl hinsichtlich der Organisation als auch des Betriebsverfahrens zusammen mit Aufgaben, Merkmalen und Vorteilen davon am besten verstanden werden mit Bezug auf die folgende ausführliche Beschreibung, wenn sie mit den beigefügten Zeichnungen gelesen wird, in denen:
  • 1 eine schematische Darstellung eines Fahrzeugs und eines Signaldetektierungssystems in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist;
  • 2 eine schematische Darstellung eines Signaldetektierungssystems in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist;
  • 3 ein Ablaufplan ist, der ein Verfahren in Übereinstimmung mit einer Ausführungsform der Erfindung zeigt;
  • 4 ein Ablaufplan ist, der ein Verfahren in Übereinstimmung mit einer Ausführungsform der Erfindung zeigt; und
  • 5 eine Ansicht von einer in einem Fahrzeug angebrachten Kamera mit hinzugefügten Kandidatenfenstern in Übereinstimmung mit einer Ausführungsform der Erfindung zeigt.
  • Um entsprechende oder analoge Elemente anzugeben, können Bezugszeichen unter den Zeichnungen wiederholt sein. Darüber hinaus können einige der in den Zeichnungen gezeigten Blöcke zu einer einzelnen Funktion kombiniert sein.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In der folgenden ausführlichen Beschreibung sind zahlreiche spezifische Einzelheiten dargelegt, um ein gründliches Verständnis der Erfindung zu schaffen. Allerdings ist für den Durchschnittsfachmann auf dem Gebiet selbstverständlich, dass die Ausführungsformen der vorliegenden Erfindung ohne diese spezifischen Einzelheiten verwirklicht werden können. In anderen Fällen sind gut bekannte Verfahren, Prozeduren, Komponenten und Schaltungen nicht ausführlich beschrieben worden, um die vorliegende Erfindung nicht zu verdecken.
  • Soweit nicht spezifisch etwas anderes angegeben ist, beziehen sich überall in der Beschreibung Diskussionen, die Begriffe wie etwa ”verarbeiten”, ”berechnen”, ”speichern”, ”bestimmen” oder dergleichen nutzen, wie aus den folgenden Diskussionen offensichtlich ist, auf die Aktion und/oder auf Prozesse eines Computers oder Computersystems oder einer ähnlichen elektronischen Computervorrichtung, der bzw. das bzw. die Daten, die als physikalische wie etwa elektronische Größen innerhalb der Register und/oder Speicher des Computersystems dargestellt sind, innerhalb des Computersystems in andere Daten, die ähnlich als physikalische Größen innerhalb der Speicher, Register oder anderer solcher Informationsablage-, Informationsübertragungs- oder Informationsanzeigevorrichtungen des Computersystems dargestellt sind, manipuliert und/oder transformiert.
  • Ausführungsformen der Erfindung können Ortsinformationen eines Fahrzeugs (und verwandte Informationen wie etwa die Richtung der Fahrt, die Geschwindigkeit, die Beschleunigung, die Fahrtrichtung, das Gieren usw.) und visuelle Informationen wie etwa von einer Kamera in dem Fahrzeug erfasste Bilder kombinieren, um Signalvorrichtungen wie etwa Lichtsignale zu ermitteln (z. B. einen absoluten Ort und/oder absolute Orte in Bildern zu bestimmen). Wenn ein Lichtsignal hier verwendet ist, kann es eine Verkehrsampel wie etwa eine herkömmliche Verkehrsampel mit drei oder einer anderen Anzahl von Lampen, z. B. rot, gelb und grün, oder andere Verkehrs-, Zug-, Fahrzeug- oder andere Signalisierungsvorrichtungen enthalten. Zuvor erhobene, erhaltene oder eingegebene Kenntnis z. B. hinsichtlich der Geometrie einer Straße oder Straßenkreuzung und des Orts von Lichtsignalen können verwendet werden, um Signale innerhalb eines Bilds zu ermitteln. Bilder können z. B. unter Verwendung einer Kamera wie etwa einer an dem Fahrzeug angebrachten Digitalkamera erhoben werden. Die Kamera weist üblicherweise nach vorn, in der typischen Fahrtrichtung, und kann z. B. vorn an einem Rückspiegel oder an einem anderen geeigneten Ort angebracht sein. Das Fahrzeug ist üblicherweise ein Kraftfahrzeug wie etwa ein PKW, ein Lieferwagen oder ein LKW, wobei aber Ausführungsformen der Erfindung mit anderen Fahrzeugen verwendet werden können. Ortsinformationen können von einem Fahrzeugortsdetektierungssystem wie etwa Informationen von einem globalen Positionsbestimmungssystem (GPS), Koppelnavigationsinformationen (z. B. Raddrehzahl, Beschleunigungsmesser usw.) oder andere Informationen kommen.
  • Obgleich Signale in der Weise beschrieben sind, dass sie detektiert werden, können unter Verwendung von Ausführungsformen der vorliegenden Erfindung andere straßen- oder verkehrsbezogene Objekte detektiert werden. Zum Beispiel können Verkehrszeichen, Brücken, Autobahnausfahrten, Anzahlen von Fahrspuren, Straßenränder oder andere Objekte detektiert werden.
  • Wenn die Position, die Perspektive, die Fahrtrichtung oder die Richtung und andere Positions- und Orientierungsdaten der Kamera hier diskutiert sind, sind sie üblicherweise mit denen des Fahrzeugs austauschbar. Da Bilder durch die an dem Fahrzeug angebrachte Kamera erfasst werden, sind die Entfernung und der Winkel von dem Fahrzeug, wenn sie hier verwendet werden, üblicherweise die Entfernung und der Winkel von der Kamera.
  • Die Ortsinformationen und die zuvor erhobenen oder erhaltenen Informationen können zum Mitteilen an die Bildanalyse verwendet werden. Vorbereitete, vorher vorhandene oder öffentlich verfügbare Karteninformationen wie etwa Navteq-Karten oder durch Google bereitgestellte Karten können ebenfalls verwendet werden. In einigen Ausführungsformen kann dies die Bildanalyse schneller und/oder genauer machen, obgleich andere oder verschiedene Vorteile verwirklicht werden können. Zum Beispiel können Informationen hinsichtlich eines Bereichs wie etwa einer Straßenkreuzung mit Lichtsignalen eingegeben oder erhalten werden. Diese Informationen können während der vorhergehenden Fahrt des Fahrzeugs über die Straßenkreuzung erhalten werden. Die Geometrie der Straßenkreuzung einschließlich des Orts bekannter Lichtsignale kann bekannt sein. Informationen über den Ort zuvor identifizierter Lichtsignale können mit den gegenwärtig bekannten Ortsinformationen des Fahrzeugs kombiniert werden, um innerhalb durch das Fahrzeug erhobener Bilder wahrscheinliche Gebiete zu identifizieren, um den Ort von Lichtsignalen zu bestimmen. Durch die Kamera erfasste Bilder können zusammen mit dem Ort des Fahrzeugs und bekannten Kartendaten oder Kenntnis über den Ort von Straßenkreuzungen und/oder zuvor erhobenen Informationen über den Ort von Signalen auf Signale analysiert werden, um ein Bild eines Lichtsignals innerhalb des erhobenen Bilds zu ermitteln.
  • In einigen Ausführungsformen können mit jeder Durchfahrt durch einen Bereich, einen Straßenabschnitt oder eine Straßenkreuzung mehr Informationen zusammengetragen werden, sodass mit jeder aufeinanderfolgenden Durchfahrt eine genauere und/oder schnellere Bildanalyse ausgeführt werden kann. Die Signalortsinformationen können gespeichert werden und die Menge dieser Informationen kann zunehmen, während mehr Signale detektiert werden.
  • Nachdem Signalvorrichtungen wie etwa Lichtsignale innerhalb von Bildern identifiziert worden sind, können sie analysiert werden, um ihren Status oder Zustand (z. B. Stopp, gelbes Licht, grünes Licht, Linksabbiegen verboten, Linksabbiegen zulässig usw.) zu bestimmen. Dieser Zustand kann einem Fahrer oder anderen Nutzer wie etwa über eine Anzeige, einen Alarm, einen hörbaren Ton usw. angezeigt oder bereitgestellt werden. Dieser Zustand kann für einen automatischen Prozess wie etwa einen ACC bereitgestellt werden, um zu veranlassen, dass das Fahrzeug automatisch verlangsamt.
  • 1 ist ein schematisches Diagramm eines Fahrzeugs und eines Signaldetektierungssystems in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das Fahrzeug 10 (z. B. ein PKW, ein LKW oder ein anderes Fahrzeug) kann ein Signaldetektierungssystem 100 enthalten. Eine Kamera 12 in dem Fahrzeug oder die dem Fahrzeug zugeordnet ist, z. B. eine Digitalkamera, die Video- und/oder Standbilder aufnehmen kann, kann Bilder erhalten und die Bilder z. B. über eine Drahtverbindung 14 oder eine drahtlose Verbindung zum Signaldetektierungssystem 100 übertragen. Die Kamera 12 ist üblicherweise nach vorn weisend, z. B. in der üblichen Fahrtrichtung weisend, erzeugt Bilder durch die Windschutzscheibe 22 und kann z. B. am Rückspiegel 24 angebracht sein, kann aber an einem anderen Ort, z. B. außerhalb des Fahrgastraums 18, positioniert sein. Es können mehr als eine Kamera verwendet werden, die Bilder aus unterschiedlichen Perspektiven erhalten.
  • In einer Ausführungsform ist oder enthält das Signaldetektierungssystem 100 eine Computervorrichtung, die an dem Armaturenbrett des Fahrzeugs im Fahrgastraum 18 oder im Kofferraum 20 angebracht ist und Teil eines herkömmlichen Fahrzeugortsdetektierungssystems wie etwa eines GPS sein, ihm zugeordnet sein, Ortsinformation von ihm annehmen oder es enthalten kann. In alternativen Ausführungsformen kann sich das Signaldetektierungssystem 100 in einem anderen Teil des Fahrzeugs befinden, kann es sich in mehreren Teilen des Fahrzeugs befinden oder kann sich seine gesamte Funktionalität oder ein Teil davon fern (z. B. in einem fernen Server) befinden.
  • 2 ist eine schematische Darstellung eines Signaldetektierungssystems in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das Signaldetektierungssystem 100 kann einen oder mehrere Prozessoren) oder Controller 110, Speicher 120, eine Langzeitablage 130, Eingabevorrichtung(en) oder -bereich(e) 140 und Ausgabevorrichtung(en)–-bereich(e) 150 enthalten: Die Eingabevorrichtung(en) oder -bereich(e) 140 können z. B. ein Touchscreen, eine Tastatur, ein Mikrofon, eine Zeigevorrichtung oder eine andere Vorrichtung sein. Die Ausgabevorrichtung(en) oder -bereich(e) 150 können z. B. eine Anzeige, ein Bildschirm, eine Audiovorrichtung wie etwa ein Lautsprecher oder Kopfhörer oder eine andere Vorrichtung sein. Die Eingabevorrichtung(en) oder -bereich(e) 140 und die Ausgabevorrichtung(en) oder -bereich(e) 150 können z. B. zu einer Touchscreenanzeige und -eingabe, die Teil des Systems 100 sein kann, kombiniert sein. Das Signaldetektierungssystem 100 kann das GPS-System 180 oder ein anderes System zum Empfangen oder Bestimmen von Ortsinformationen, z. B. für das Fahrzeug 10, enthalten, ihm zugeordnet sein oder mit ihm verbunden sein. Das GPS-System 180 kann sich in dem Fahrzeug an einem vom System 100 getrennten Ort befinden.
  • Das System 100 kann eine oder mehrere Datenbanken 170 enthalten, die z. B. Informationen über jedes zuvor festgestellte Signal (z. B. Lichtsignal oder andere Signal) einschließlich des geographischen oder dreidimensionalen Orts (3D-Orts) des Signals enthalten können. Der geographische Ort oder 3D-Ort eines Objekts wie etwa eines Signals, eines Fahrzeugs oder eines Objekts, das in einem Bild identifiziert worden ist, kann z. B. in einem in GPS-Systemen verwendeten Format oder Ort, ein x-, y-, z-Koordinatensatz oder andere geeignete Ortsinformationen sein. Es können andere Informationen über Signale wie etwa Bildausschnitte detektierter Lichtsignale, ein Vertrauenswert hinsichtlich der Existenz des Signals, eine Historie früherer Schätzwerte oder Messwerte für Signalorte oder Gauß-Verteilungen eines Signalorts oder geschätzten Orts in Bezug auf ein Signal gespeichert sein. Die Datenbanken 170 können alle oder teilweise im Speicher 120 und/oder in der Langzeitablage 130 oder in einer anderen Vorrichtung gespeichert sein. Das System 100 kann Kartendaten 175 enthalten, obgleich auf diese Daten fern zugegriffen werden kann und sie getrennt vom System 100 gespeichert sein können.
  • Der Prozessor oder Controller 110 kann z. B. eine Zentraleinheit (CPU), ein Chip oder irgendeine geeignete Computer- oder Rechenvorrichtung sein. Der Prozessor oder Controller 110 kann mehrere Prozessoren enthalten und kann Universalprozessoren und/oder dedizierte Prozessoren wie etwa Graphikverarbeitungschips enthalten. Der Prozessor 110 kann Code oder Anweisungen ausführen, die z. B. im Speicher 120 oder in der Langzeitablage 130 gespeichert sind, um Ausführungsformen der vorliegenden Erfindung auszuführen.
  • Der Speicher 120 kann z. B. ein Schreib-Lese-Speicher (RAM), ein Nur-Lese-Speicher (ROM), ein dynamischer RAM (DRAM), ein synchroner DRAM (SD-RAM), ein Speicherchip mit doppelter Datenrate (DDR), ein Flash-Speicher, ein flüchtiger Speicher, ein nicht flüchtiger Speicher, ein Cache-Speicher, ein Puffer, eine Kurzzeitspeichereinheit, eine Langzeitspeichereinheit oder andere geeignete Speichereinheiten oder Ablageeinheiten sein oder enthalten. Der Speicher 120 kann mehrere Speichereinheiten sein oder enthalten.
  • Die Langzeitablage 130 kann z. B. ein Festplattenlaufwerk, ein Diskettenlaufwerk, ein Kompakt-Disk-Laufwerk (CD-Laufwerk), ein CD-Recordable-Laufwerk (CD-R-Laufwerk), eine Universal-Serial-Bus-Vorrichtung (USB-Vorrichtung) oder eine andere geeignete Wechsel- und/oder Festablageeinheit sein oder enthalten und kann mehrere oder eine Kombination solcher Einheiten enthalten.
  • Der Speicher 120 und/oder die Langzeitablage 130 und/oder andere Speichervorrichtungen können die Geometrie von Straßenkreuzungen oder anderen Bereichen, die das Fahrzeug 10 besucht hat, die z. B die Ortskoordinaten (z. B. X/Y/Z-Koordinaten, GPS-Koordinaten) von Signalen enthalten können, speichern. Signalpositionen können z. B. als geographische Länge, geographische Breite und Höhe oder Elevation gespeichert sein. Die Fahrzeugortsdaten können eine Fahrtrichtung enthalten und können somit z. B. sechs Zahlen wie etwa die geographische Länge, die geographische Breite und die Höhe oder Elevation und Fahrtrichtungsdaten, die drei Zahlen enthalten können, enthalten. Es können andere Verfahren und Systeme zur Darstellung des Signalorts und des Fahrzeugorts und/oder der Fahrtrichtung verwendet werden. In einer Ausführungsform nimmt das System an, dass das Signal zu dem ankommenden Verkehr (z. B. zu dem Fahrzeug, das das System trägt) weist.
  • In einigen Ausführungsformen sind Signaldaten, die durch ein Fahrzeug erhoben werden, für das bestimmte Fahrzeug, das die Daten erhebt, nutzbar oder relevant, sodass sie durch ein bestimmtes Fahrzeug zur Verwendung durch ein System 100 in diesem bestimmten Fahrzeug ”entwickelt” oder erfasst werden.
  • 3 ist ein Ablaufplan, der ein Verfahren in Übereinstimmung mit einer Ausführungsform der Erfindung zeigt. Die Betriebe aus 3 können z. B. durch das anhand von 1 und 2 beschriebene System ausgeführt werden, können aber. durch andere Systeme und Vorrichtungen ausgeführt werden.
  • Im Betrieb 300 kann ein Fahrzeug fahren und kann es Bilder, üblicherweise in Vorwärtsrichtung, erfassen oder erheben. Bilder können in regelmäßigen Intervallen, z. B. alle 100 Millisekunden oder in anderen Intervallen, erhoben werden. Bilder können als Video erfasst werden. Zum Beispiel kann eine Kamera oder können Kameras in dem Fahrzeug oder die dem Fahrzeug zugeordnet sind, z. B. eine oder mehrere nach vorn weisende Kameras wie etwa die Kamera 12, Bilder erfassen.
  • Im Betrieb 310 kann der Ort des Fahrzeugs z. B. durch Annehmen eines Orts eines Fahrzeugs von einem Fahrzeugortsbestimmungssystem wie etwa einem GPS (z. B. einem System 180), durch Koppelnavigation oder durch eine Kombination von Systemen bestimmt werden.
  • Im Betrieb 320 kann ein erfasstes Bild analysiert werden, können Bilder von Signalvorrichtungen innerhalb des erfassten Bilds detektiert und ermittelt werden und kann der Ort (z. B. der geographische Ort) der detektierten Signale bestimmt werden. Dies kann z. B. durch bekannte Objekterkennungstechniken z. B. auf der Grundlage bekannter Schablonen oder Eigenschaften von Signalen wie etwa Lichtsignalen erfolgen. Da Signale in unterschiedlichen Gerichtsbarkeiten unterschiedlich aussehen können, können in unterschiedlichen Anwendungen, an unterschiedlichen Orten oder in unterschiedlichen Gerichtsbarkeiten andere spezifische Schablonen oder Eigenschaften verwendet werden. Die Bilder können analysiert werden, und mit oder zusammen mit einer Eingabe wie etwa einer Eingabe einer geographischen Karte, die durch Navteq oder Google bereitgestellt wird, kann eine Signaldetektierung erfolgen. Die Bilder können analysiert werden, und zusammen mit oder zusammen mit Straßenkreuzungsinformationen oder Signalortsinformationen, die zuvor durch ein System innerhalb des Fahrzeugs erhalten wurden, kann eine Signaldetektierung ausgeführt werden; diese Informationen können für das spezifische Fahrzeug relevant sein und innerhalb des oder für das spezifische Fahrzeug gespeichert sein. In 4 ist eine beispielhafte Prozedur für die Detektierung von Signalvorrichtungen innerhalb eines Bilds gegeben.
  • Das Ergebnis der Signaldetektierung kann z. B. ein Bild des Signals oder die Position des Signals innerhalb eines Bilds und den geographischen Ort des Signals enthalten.
  • Falls im Betrieb 330 ein Signal detektiert wird oder falls im Betrieb 320 eine positive Bestimmung vorgenommen wird, dass ein Lichtsignal vorhanden ist, können die in einem System in dem Fahrzeug gespeicherten Signalortsinformationen aktualisiert werden. Dieses Aktualisieren kann z. B. das Speichern eines Eintrags für das Signal und seines geographischen Orts in einer Datenbank (z. B. in der Datenbank 170) oder in einer anderen Datenstruktur oder in einem Speicher oder in einer Langzeitablagevorrichtung enthalten. Dieses Aktualisieren kann z. B. das Einstellen des zuvor gespeicherten geographischen Orts für ein Signal enthalten. Dieses Aktualisieren kann das Merken, dass ein Signal mehr als einmal bei oder nahe einem Ort detektiert wurde (oder die Anzahl, in der es detektiert wurde), enthalten. Dieses Aktualisieren kann das Speichern von Informationen über neu detektierte Lichtsignale enthalten. Signale, die für einen Standort wegen Bildqualitätsproblemen, Verarbeitungsbeschränkungen oder aus anderen Gründen zuvor nicht detektiert wurden, können zu einer Datenbank hinzugefügt werden. Der Ort von Signalen, deren Ort zuvor fehlerhaft berechnet wurde oder die bewegt worden sind, kann in der Datenbank geändert werden.
  • Die Signalpositionsinformationen können in GPS-Koordinaten x (z. B. geographische Breite, geographische Länge und Höhe) dargestellt werden und können eine entsprechende Kovarianzmatrix (P) enthalten. Eine neue oder aktualisierte Messposition z kann in demselben Koordinatensystem wie eine Kovarianzmatrix (M) sein.
  • Die Gauß-Verteilung N(x, P) für die Signalposition kann als [Rp, zp] mit P = R –1 / PRP –T / P und zP = RPx bezeichnet werden. Ähnlich kann die Gauß-Verteilung N(z, M) für den neuen Messwert z als [RM, zM] bezeichnet werden. Der kombinierte, aktualisierte oder neue Schätzwert für die Signalposition [R ^P, z ^P] kann als x^ = (R T / PRP + R T / MRM)–1(R T / PzP + R T / MzM) berechnet werden, wobei R ^P der Cholesky-Zerlegungsfaktor der Matrix R T / PRP + R T / MRM ist.
  • Um eine Signalposition auf der Grundlage neuer Informationen zu aktualisieren, können andere Berechnungen verwendet werden.
  • Im Betrieb 340 kann der Zustand oder Status des Signals bestimmt werden. Der Status kann z. B. rot (Halt), gelb (langsam), grün (Fahren), Rechtsabbiegen, Linksabbiegen, Rechtsabbiegen verboten, Linksabbiegen verboten, funktionsunfähig oder Fehler (z. B. im Fall eines Stromausfalls oder eines fehlerhaften Lichtsignals) oder andere Status oder Zustande sein. Unterschiedliche Gerichtsbarkeiten können unterschiedliche Eingaben oder Bilder aufweisen, die unterschiedlichem Status zugeordnet sind – z. B. bedeutet in einigen Gerichtsbarkeiten ein gelbes Licht langsam und bedeutet in anderen ein gelbes Licht, dass das Signal bald auf grün oder ”Fahren” wechselt. Der spezifische Ort des Bilds, in dem ein Signal detektiert wurde, kann auf bekannte Farben oder Formen (z. B. grün, rot, gelb), die auf spezifische Status für die relevante Gerichtsbarkeit oder für den relevanten Bereich relevant sind, analysiert werden.
  • Im Betrieb 350 kann eine Ausgabe erzeugt werden oder kann der Status verwendet werden. Der Status oder Zustand kann z. B. in Form einer Anzeige oder eines Signals, z. B. über Ausgabevorrichtung(en) oder -bereich(e) 150, einem Nutzer dargestellt werden (wobei z. B. ein Audiosignal von einem Lautsprecher im Armaturenbrett oder Fahrerraum ”Halt” sagt). Der Status kann eine Eingabe in ein automatisiertes System wie etwa einen ACC sein. Der Status kann veranlassen, dass ein solches automatisiertes System oder ein Fahrer das Fahrzeug verlangsamt oder anhält. Falls in dem Signal ein Rot oder Halt detektiert wird und der Fahrer nicht anhält oder anzuhalten beginnt, kann für den Nutzer eine Straßenkreuzungs-Verkehrsampel-Warnmeldung dargestellt werden.
  • Falls im Betrieb 360 keine Verkehrsampel detektiert wird oder im Betrieb 320 eine Negativbestimmung hinsichtlich des Vorhandenseins eines Lichtsignals erfolgt, können die in einem System in dem Fahrzeug gespeicherten Signalortsinformationen aktualisiert werden. In einer Ausführungsform kann jedem Signal in einer Datenbank ein Vertrauenswert zugeordnet sein. Falls das erwartete Signal nicht detektiert wird, kann der Vertrauenswert verringert werden. Falls der Vertrauenswert unter einem Schwellenwert liegt, kann der entsprechende Signaleintrag aus der Datenbank entfernt werden. Falls ein erwartetes Signal detektiert wird, kann der Vertrauenswert erhöht werden.
  • Es können andere Betriebe oder Reihen von Betrieben verwendet werden. Die Betriebe brauchen nicht in der dargestellten Reihenfolge stattzufinden; die dargestellte Reihenfolge dient nur zur Organisation dieser Beschreibung. Zum Beispiel können Fahrzeugortsinformationen auf ständiger oder periodischer Grundlage erhoben werden und kann eine Bilderhebung auf ständiger oder periodischer Grundlage stattfinden und braucht eine Fahrzeugortsinformationserhebung nicht nach der Bilderhebung und -analyse stattzufinden.
  • In einer Ausführungsform ist die Position der nach vorn weisenden Kamera in der Weise kalibriert, dass sie sich auf die Phasenmitte der dem Fahrzeug zugeordneten GPS-Antenne bezieht. Unter der Annahme, dass die Höhe des entsprechenden Punkts der realen Welt bekannt ist, kann jedes Pixel in dem Bild einer Relativposition z. B. von der Antennenposition (z. B. den Verlagerungen der geographischen Länge und Breite von der Position der GPS-Antenne) entsprechen. Falls die Höhe unbekannt ist, können mehrere Messwerte der Signalposition in einer Bildebene (z. B. die Zeile und die Spalte des Signals) von einer Folge von von dem Fahrzeug an bekannten Positionen erfassten Bildern verwendet werden, um die Höhe zu bestimmen.
  • Die Eingabe der geographischen Karte, das Definieren geographischer Merkmale wie etwa Straßen und Straßenkreuzungen (z. B. dort, wo sich zwei oder mehr Straßen treffen), kann mit Ortsinformationen des Fahrzeugs oder der abgebildeten Objekte kombiniert werden, um die Wahrscheinlichkeit des Auftretens eines Signals innerhalb eines Bilds zu gewichten und/oder um einen Detektierungsprozess zu gewichten. Die Ortsinformationen des Fahrzeugs können jedem Bild oder innerhalb des Bilds identifizierten Objekten zugewiesen werden. Die einem Bild zugewiesenen Ortsinformationen können die des Fahrzeugs zu der Zeit, zu der das Bild erfasst wurde, sein – die in dem Bild gezeigten Objekte können selbst andere Ortsinformationen besitzen. Falls die einem Bild zugewiesenen oder Objekten in dem Bild zugeordneten GPS-Informationen in Übereinstimmung mit einer Karte nicht einer Straßenkreuzung entsprechen, kann der Merkmalsextraktionsprozess gewichtet werden, um die Wahrscheinlichkeit der Detektierung eines Signals zu verringern (wobei die klare Erkennung eines Signals in dem Bild dies natürlich außer Kraft setzen kann). Falls die einem Bild zugewiesenen oder Objekten in dem Bild zugeordneten GPS-Informationen in Übereinstimmung mit einer Karte einer Straßenkreuzung entsprechen, kann der Merkmalsextraktionsprozess gewichtet werden, um die Wahrscheinlichkeit der Detektierung eines Signals zu erhöhen.
  • Informationen über den Ort durch ein System in dem Fahrzeug zuvor erhobener Signale können mit Ortsinformationen des Fahrzeugs oder von Objekten in erfassten Bildern kombiniert werden, um die Wahrscheinlichkeit des Auftretens eines Signals innerhalb eines Bilds und außerdem an spezifischen Orten innerhalb eines Bilds zu gewichten. Regionen eines zu analysierenden Bilds können auf der Grundlage des Orts des Fahrzeugs zur Zeit der Bilderfassung und der geschätzten Entfernung und des relativen Orts von dem Fahrzeug des Kandidatensignals einem geographischen Ort zugewiesen werden. Die Ortsdaten können mit einem zuvor erhobenen Signalort verglichen werden, um die Gewichtung für einen Bereich zu erhöhen oder zu verringern, um zu bestimmen, ob der Bereich in einem Signaldetektierungsprozess verwendet wird.
  • 4 ist ein Ablaufplan, der ein Verfahren zum Ermitteln, Auffinden oder Detektieren von Signalen innerhalb eines Bilds in Übereinstimmung mit einer Ausführungsform der Erfindung zeigt. Die Betriebe aus 4 können Teil des durch 3 beschriebenen Satzes von Betrieben sein oder können in anderen Verfahren verwendet werden.
  • Im Betrieb 400 kann für ein Bild (z. B. für ein im Betrieb 300 aus 3 erfasstes Bild) ein Satz von Kandidatenfenstern oder Kandidatenbereichen definiert oder identifiziert werden. Die Kandidatenfenster können z. B. Rechtecke oder Quadrate sein, wobei aber andere Formen verwendet werden können. In einer Ausführungsform sind die Kandidatenfenster virtuelle digitale Objekte, die im Speicher (z. B. im Speicher 120) gespeichert sind und nicht angezeigt werden.
  • In einer Ausführungsform wird in dem Bild durch bekannte Verfahren ein Horizont identifiziert. Es können Gebiete über dem Horizont, die eine Wahrscheinlichkeit besitzen, ein Bild eines Signals zu enthalten, wie etwa jene mit hoher Dichte von Gelb oder anderen Verkehrsampelkomponenten oder -rändern, identifiziert werden. In einer anderen Ausführungsform können Gebiete, die eine Wahrscheinlichkeit besitzen, ein Signal zu enthalten, auf der Grundlage früher bekannter oder detektierter Signale identifiziert werden. Es können eines oder mehrere Fenster zugewiesen werden, die jedes gewählte Gebiet umgeben. Zum Beispiel kann für dieselbe identifizierte Kandidatenposition ein Satz, z. B. von zehn, unterschiedlich großen und/oder geformten Schablonenfenstern zugewiesen werden, wobei das Bildgebiet, das durch jedes Fenster definiert oder von ihm umgeben ist, in Klassierer oder in einen Erkennungsbetrieb (in Erkennungsbetriebe) (z. B. in ein ”Brechstangen”-Verfahren) eingegeben werden kann. Es können andere Verfahren zum Definieren von Kandidatenfenstern verwendet werden. Außerdem können andere Verfahren zum Identifizieren von Gebieten, in denen nach Signalen zu suchen ist, verwendet werden.
  • Ob jedes mögliche Fenster oder jeder mögliche Bereich als ein Kandidatenfenster verwendet werden soll oder nicht, kann zusammen mit einem früheren Signalorts-Datensignal, wie es in einem System oder in einer Datenbank in dem Fahrzeug oder gesteuert durch das Fahrzeug (z. B. in der Datenbank 170) gespeichert ist, oder unter dessen Verwendung als eine positive und/oder negative Gewichtung bestimmt werden.
  • 5 zeigt ein Bild, das mit einer Kamera aufgenommen wurde, die in einem Fahrzeug angebracht ist, wobei Kandidatenbereiche oder -fenster in Übereinstimmung mit einer Ausführungsform hinzugefügt worden sind. Die gezeigten Kandidatenfenster 500 sind in einer Ausführungsform ein Teilsatz von zu dem Fenster hinzugefügten Kandidatenfenstern. Die Fenster 510 sind die Positionen von Lichtsignalen, deren Positionen zuvor durch ein dem Fahrzeug zugeordnetes System erhoben worden sind, und die Fenster oder Bereiche 510 können ein gewähltes Gebiet identifizieren, das zum Definieren von Kandidatenfenstern verwendet werden kann, oder die Grundlage dafür sein. Zum Beispiel kann für jedes Fenster oder für jeden Bereich 510, das bzw. der einem bekannten oder zuvor identifizierten Signal entspricht, ein Satz von Kandidatenfenstern veränderlicher Größe und Position erzeugt werden, wobei sich jedes Kandidatenfenster mit einem Fenster oder Bereich 510 überschneidet (wobei der Klarheit halber nur eine begrenzte Anzahl von Kandidatenfenstern gezeigt sind).
  • Zuvor durch ein System in dem oder gesteuert durch das Fahrzeug (z. B. das System 100) erhobene Informationen über den Ort von Signalen oder Informationen darüber, wohin die Signale projiziert werden, damit sie in Bildern sind, die auf früherer Erfahrung beruhen, können die Suche nach Signalen innerhalb von Bildern beschleunigen oder die Suche beschränken. In einem bewegten Fahrzeug, in dem die Reaktion eines Fahrers oder Fahrzeugs auf eine Verkehrsampel zeitsensibel ist, kann dies von Nutzen sein. Durch den geographischen Ort oder 3D-Ort des Signals, wie er in einem System oder in einer Datenbank in dem oder gesteuert durch das Fahrzeug gespeichert ist, können eine positive und eine negative Gewichtung oder Führung bereitgestellt werden.
  • Wenn Gebiete über dem Horizont, die eine Wahrscheinlichkeit besitzen, ein Bild eines Signals zu enthalten, identifiziert werden, kann der geographische Ort des identifizierten Objekts in jedem Gebiet dazu verwendet werden zu identifizieren, ob ein Signal bei dem oder in der Nähe des Orts für das Objekt (z. B. innerhalb einer bestimmten vorgegebenen Entfernung) identifiziert wurde oder nicht. Falls ein Signal zuvor als bei dem oder in der Nähe (z. B. innerhalb einer Schwellenentfernung) des Orts des Objekts in dem Gebiet identifiziert wurde, wird dieses Gebiet wahrscheinlicher als ein Kandidatengebiet identifiziert, das von einem oder mehreren Kandidatenbereichen oder -fenstern umgeben oder durch sie definiert ist. Falls ein Signal nicht zuvor als bei dem oder in der Nähe des Objekts in dem Gebiet identifiziert wurde, kann dieses Gebiet weniger wahrscheinlich als ein Kandidatengebiet, das von einem oder von mehreren Kandidatenfenstern umgeben ist, identifiziert werden.
  • Um die geographische Position von Kandidatengebieten mit dem Ort zuvor identifizierter Signale für jedes Kandidatenfenster zu vergleichen, kann die geographische Position von Objekten oder das in dem Fenster dargestellte oder abgebildete Hauptobjekt geschätzt und zugewiesen werden. Die gegenwärtige Fahrzeugposition (und möglicherweise die Fahrtrichtung oder Orientierung) und die geschätzte Entfernung und der geschätzte Winkel des Fensters relativ zu dem Fahrzeug können kombiniert werden, um diesen Schätzwert bereitzustellen. Zum Beispiel können die Fahrzeugposition und die Fahrtrichtung und ein geschätzter Winkel gegen die Horizontale auf die Bildebene projiziert werden. Es können andere Verfahren verwendet werden. Da es möglich ist, dass das Fahrzeug durch einen zuvor abgebildeten Bereich in einer anderen Position (z. B. in einer anderen Fahrspur) fährt, können die Bestimmung der absoluten (z. B. geographischen) Position von Objekten in dem Bild und der Vergleich mit der Position bekannter Signale bei der Signaldetektierung helfen.
  • Zum Beispiel können einer oder mehrere Merkmalspunkte innerhalb des Kandidatenfensters oder -bereichs identifiziert werden. Während sich das Fahrzeug in Richtung des in dem Fenster abgebildeten Objekts bewegt, kann an einem Satz oder einer Reihe spezifischer Fahrzeugpositionen eine Triangulation verwendet werden, um den geographischen Ort des Merkmalspunkts (der Merkmalspunkte) zu schätzen. Es wird/werden der Winkel oder die Winkel der Linie von der Kamera in dem Fahrzeug zu jedem Punkt berechnet (die spezifische Position und der spezifische Blickwinkel der Kamera relativ zu dem GPS-Zentrumspunkt des Fahrzeugs kann bekannt sein und für diese Berechnungen verwendet werden). In einer Ausführungsform werden zwei Winkel – die Elevation gegen die Horizontale und der linke/rechte Winkel gegen die Fahrtrichtung des Fahrzeugs und der Kamera (”das Gieren”) – verwendet. Während sich das Fahrzeug (und somit die Kamera) in Richtung des Objekts bewegt, ändert sich der berechnete Winkel oder ändern sich die berechneten Winkel (z. B. für jedes Bild, das zum Bestimmen des Orts des Objekts verwendet wird). Die Änderungen des Winkels oder der Winkel können mit den Änderungen der gefahrenen Entfernung kombiniert werden, um für irgendein gegebenes Bild unter Verwendung bekannter Bildverarbeitungstechniken wie etwa Triangulation die Entfernung zwischen der Kamera und den Punkten zu bestimmen. Die geschätzte Entfernung von dem Fahrzeug kann mit dem Winkel oder mit den Winkeln von dem Fahrzeug kombiniert werden, um die geschätzte Höhe über und die Entfernung von dem Fahrzeug und/oder den geographischen Ort – z. B. den dreidimensionalen Ort in absoluten Ausdrücken, üblicherweise eine Drei-Zahlen-Koordinate – des Zielobjekts in dem Kandidatenfenster zu bestimmen. Die Höhe über und die Entfernung zu dem Fahrzeug können relativ zu einem bekannten Referenzpunkt wie etwa der Kamera oder dem GPS-Ort des Fahrzeugs sein.
  • Im Betrieb 410 können Bereiche eines Bilds, die Bilder von Signalen (z. B. innerhalb von Kandidatenbereichen oder -fenstern) enthalten, identifiziert werden. In einer Ausführungsform werden Signale durch Analysieren von Abschnitten des Bilds, die z. B. von Kandidatenfenstern umgeben oder durch sie definiert sind, identifiziert. Für jedes Kandidatenfenster kann bestimmt werden, ob dieses Kandidatenfenster ein Signal enthält oder nicht, und kann daraufhin der Umriss oder können daraufhin die Pixel, die dem Signal innerhalb des Kandidatenfensters oder -bereichs entsprechen, bestimmt werden. In anderen Ausführungsformen brauchen keine Kandidatenfenster verwendet zu werden. In einer Ausführungsform werden Kandidatenfenster unter Verwendung des geographischen, GPS- oder 3D-Orts des Fahrzeugs zusammen mit bekannten Kartendaten, die den bekannten Ort von Straßenkreuzungen (da Signale wahrscheinlicher bei Straßenkreuzungen vorhanden sind) oder anderen Bereichen, die wahrscheinlich Signale enthalten, enthalten, als positive und/oder negative Gewichtung oder als Führung, als Signale umgebend oder nicht umgebend identifiziert. Obgleich in einer Ausführungsform Fahrzeugortsinformationen zum Gewichten oder zum Beeinflussen der Bestimmung, ob Kandidatenfenster Signale enthalten, verwendet werden und getrennt frühere Signaldaten verwendet werden, um bei der Bestimmung von Kandidatenfenstern selbst zu gewichten oder zu helfen, können in anderen Ausführungsformen Fahrzeugortsdaten verwendet werden, um Kandidatenfenster zu wählen, und Signalinformationen verwendet werden, um zu bestimmen, ob Kandidatenfenster Bilder von Signalen enthalten, oder kann in ihnen eine Kombination jeder Eingabe für jede Bestimmung verwendet werden.
  • Durch Straßenkreuzungsinformationen, die einer vorher vorhandenen oder vorbereiteten Karte entnommen werden, kann eine positive und negative Gewichtung oder Führung bereitgestellt werden. Die Straßenkreuzungen können in dieser Karte z. B. als der Treffpunkt zweier oder mehrerer Straßen identifiziert werden, wobei angenommen werden kann, dass in der Nähe von Straßenkreuzungen Signale vorhanden sind und dass dort, wo keine Straßenkreuzungen vorhanden sind, keine Signale vorhanden sind. Natürlich treten Ausnahmen auf, sodass eine Eingabe von diesen Karten die Form einer Gewichtung haben kann. In anderen Ausführungsformen können keine Gewichtungen verwendet werden (können z. B. Absolutwerte verwendet werden) und brauchen keine solchen Karteninformationen verwendet zu werden.
  • Jedes Kandidatenfenster kann durch eine Reihe oder Kaskade von Schritten oder Klassierern verarbeitet werden, wobei jedes unterschiedliche Bildmerkmale identifiziert und die Wahrscheinlichkeit des Vorhandenseins eines Bilds eines Signals in dem Bild oder Kandidatenfenster bestimmt. Zum Beispiel können eine Reihe von Baum-kaskadierten Klassierern verwendet werden. In einer Ausführungsform kann eine Haar-artige Histogrammorientierung von Gradientenmerkmalen (HOG-Merkmalen) berechnet werden und kann ein AdaBoost-Algorithmus (Adaptive-Boosting-Algorithmus) verwendet werden, um Merkmale auszuwählen, die Objekte am besten vom Hintergrund unterscheiden.
  • Zum Beispiel sei die binäre Größe fP definiert als
    Figure 00220001
    mit ps und pv der Position des Signals und des betreffenden Fahrzeugs und D einem Entfernungsschwellenwert. Ein Ensemble aus schwachen und effizienten Detektoren (somit effizient) kann kaskadiert oder in Kaskade ausgeführt werden. Zum Beispiel können AdaBoost-Klassierer verwendet werden, die als die folgende Entscheidungsfunktion konstruiert sind: F = sign(w1f1 + w2f2 + ... + wnfn + wPfP) wobei die Vorzeichenfunktion –1 (kein Objekt), falls die Zahl kleiner als 0 ist, und +1 (Objekt), falls die Zahl positiv ist, zurückgibt. Der binäre Merkmalswert fi kann z. B. wie folgt definiert werden:
    Figure 00230001
    wobei vi ein skalarer Merkmalsdeskriptor ist, vi > Ti das Objekt angibt und ein vi ≤ Ti kein Objekt angibt. wi repräsentiert die Stärke (z. B. Wichtigkeit) des Merkmals fi, das die Entscheidung über Objekt oder kein Objekt beeinflussen kann. Parameter (z. B. wi, wP und Ti) können z. B. aus einem markierten Trainingsdatensatz gelernt werden.
  • Der Klassierer jedes Knotens kann so abgestimmt werden, dass er auf Kosten vieler falscher Detektierungen eine sehr hohe Detektierungsrate besitzt. Zum Beispiel können bei jedem Knoten fast alle (99,9%) der Objekte ermittelt werden, wobei aber viele (50%) der Nicht-Objekte fehlerhaft detektiert werden können. Schließlich kann mit einem z. B. 20-Schichtkaskadierten Klassierer die Enddetektierungsrate 0,99920 = 98% mit einer Rate falscher Positivwerte von nur 0,520 = 0,0001% sein. Die letzte Stufe kann z. B. ein HOG-HSV-Klassierer sein, der auf der Grundlage einer Eingabe von den vorhergehenden Stufen bestimmt, ob ein Lichtsignal vorhanden ist.
  • Es können andere oder unterschiedliche Klassierer verwendet werden und es können unterschiedliche Reihenfolgen der Klassierer verwendet werden.
  • Die Eingabe in jeden Klassierer kann ein Satz von Kandidatenfenstern und Gewichtungsinformationen (wie etwa Fahrzeugortsinformationen) sein. Jeder Klassierer kann unter Verwendung seiner eigenen bestimmten Kriterien bestimmen, welche der Eingangskandidatenfenster wahrscheinlich Signale enthalten, und diesen Satz von Kandidatenfenstern (üblicherweise einen kleineren Satz als den Eingangssatz) ausgeben. Jeder Klassierer kann für jedes Fenster wahrscheinlicher bestimmen, dass das Fenster ein Signal enthält, falls die Fahrzeugpositionsdaten zusammen mit bekannten Kartendaten angeben, dass das Fahrzeug zur Zeit der Bilderfassung bei oder in der Nähe einer Straßenkreuzung ist oder falls eine den Objekten in dem Kandidatenfenster zugeschriebene Position (die üblicherweise von der Fahrzeugposition abgeleitet ist) zur Zeit der Bilderfassung bei oder in der Nähe einer Straßenkreuzung ist.
  • In einer Ausführungsform ist die Ausgabe der Reihe von Klassierern ein Satz von Kandidatenfenstern, die am wahrscheinlichsten Signale enthalten, bei denen am wahrscheinlichsten davon ausgegangen wird, dass sie Signale enthalten, oder von denen bestimmt worden ist, dass sie am wahrscheinlichsten Signale enthalten. In anderen Ausführungsformen kann die Ausgabe jedes Klassierers ein Zwischenwert von ja oder nein oder von eins oder null (oder einer anderen, ähnlichen Ausgabe) sein, der der Tatsache entspricht, ob vorhergesagt wird, dass in dem Fenster ein Signal detektiert wird, und kann die Ausgabe der Reihe entsprechend der Tatsache, ob in dem Rechteck ein Signal detektiert wird oder nicht, ja oder nein oder eins oder null (oder eine andere, ähnliche Ausgabe) sein. Es können andere Verfahren zum Identifizieren von Signalen in Bildern als Klassierer oder eine Reihe von Stufen verwendet werden.
  • Im Betrieb 420 kann innerhalb jedes Bereichs oder Kandidatenfensters, der bzw. das in der Weise identifiziert worden ist, dass er bzw. es ein Signal besitzt, oder bei dem davon ausgegangen wird, dass er bzw. es ein Signal besitzt, ein Signal identifiziert werden. Bekannte Objektdetektierungstechniken können innerhalb eines Kandidatenfensters definieren, wo sich das Signal befindet. Der geographische Ort des Signals kann z. B. aus geographischen Informationen, die für Fensterobjekte im Betrieb 410 berechnet wurden, bestimmt werden oder kann für das bestimmte Signal z. B. unter Verwendung der im Betrieb 410 diskutierten Technik bestimmt werden.
  • Im Betrieb 430 kann eine Ausgabe erzeugt werden. Die Ausgabe kann z. B. ein Bild jedes detektierten Signals oder die Position des Signals (der Signale) innerhalb eines Bilds oder von Bildern und den geographischen Ort des Signals (der Signale) enthalten.
  • Es können andere Betriebe oder Reihen von Betrieben verwendet werden. Während in dem in 4 gezeigten Beispiel Informationen wie etwa die Fahrzeugposition und zuvor erhobene Signalinformationen in den Suchprozess als ein Gewicht eingegeben werden, können Signale ohne frühere Signalinformationen detektiert werden, wo zuvor erhobene Informationen nicht vorhersagen, wo Signale sind, oder wo Fahrzeugortsinformationen nicht vorhersagen, wo Signale sind.
  • Obgleich in oben beschriebenen Ausführungsformen Signale detektiert werden, können durch Aufzeichnen der früheren Detektierung solcher Objekte andere Objekte in Bildern detektiert werden und können ihre Detektierungsgenauigkeit und -geschwindigkeit verbessert werden. Zum Beispiel können Verkehrsampeln, Brücken, Autobahnabfahrten, Nummern von Fahrspuren, Straßenränder oder andere Objekte detektiert werden.
  • Ausführungsformen der vorliegenden Erfindung können Vorrichtungen zum Ausführen der hier beschriebenen Betriebe enthalten. Diese Vorrichtungen können speziell für die gewünschten Zwecke konstruiert sein oder können Computer oder Prozessoren umfassen, die durch ein in den Computern gespeichertes Computerprogramm wahlweise aktiviert oder rekonfiguriert werden. Diese Computerprogramme können in einem computerlesbaren oder prozessorlesbaren nicht temporären Speichermedium, in irgendeiner Art Platte einschließlich Disketten, optischer Platten, CD-ROMs, magnetooptischer Platten, Nur-Lese-Speichern (ROMs), Schreib-Lese-Speichern (RAMs), elektrisch programmierbaren Nur-Lese-Speichern (EPROMs), elektrisch löschbaren und programmierbaren Nur-Lese-Speichern (EEPROMs), magnetischen oder optischen Karten oder irgendeinem anderen Typ eines zum Speichern elektronischer Anweisungen geeigneten Mediums, gespeichert sein. Es wird gewürdigt werden, dass zur Implementierung der wie hier beschriebenen Lehren der Erfindung eine Vielzahl von Programmiersprachen verwendet werden können. Ausführungsformen der Erfindung können einen Artikel wie etwa ein computer- oder prozessorlesbares Ablagemedium wie etwa z. B. einen Speicher, ein Plattenlaufwerk oder einen USB-Flash-Speicher, der (das) Anweisungen, z. B. durch einen Computer ausführbare Anweisungen, die, wenn sie durch einen Prozessor oder Controller ausgeführt werden, veranlassen, dass der Prozessor oder Controller hier offenbarte Verfahren ausführt, codiert, enthält oder speichert, enthalten. Die Anweisungen können veranlassen, dass der Prozessor oder Controller Prozesse ausführt, die hier offenbarte Verfahren ausführen.
  • Merkmale verschiedener hier diskutierter Ausführungsformen können mit anderen hier diskutierten Ausführungsformen verwendet werden. Die vorstehende Beschreibung der Ausführungsformen der Erfindung ist zu Veranschaulichungs- und Beschreibungszwecken dargestellt worden. Sie soll nicht erschöpfend sein oder die Erfindung auf die genaue offenbarte Form beschränken. Der Fachmann auf dem Gebiet wird würdigen, dass im Licht der obigen Lehre viele Abwandlungen, Veränderungen, Ersetzungen, Änderungen und Entsprechungen möglich sind. Selbstverständlich sollen die beigefügten Ansprüche somit alle solchen Abwandlungen und Änderungen, die im wahren Erfindungsgedanken liegen, enthalten.

Claims (10)

  1. Verfahren, das umfasst: Bestimmen eines Orts eines Fahrzeugs; Erheben eines Bilds unter Verwendung einer dem Fahrzeug zugeordneten Kamera; und Analysieren des Bilds zusammen mit dem Ort des Fahrzeugs und zuvor erhobenen Informationen über den Ort von Lichtsignalen zum Ermitteln eines Bilds eines Lichtsignals innerhalb des erhobenen Bilds.
  2. Verfahren nach Anspruch 1, das das Bestimmen des geographischen Orts des Lichtsignals umfasst.
  3. Verfahren nach Anspruch 1, wobei die zuvor erhobenen Informationen über den Ort von Lichtsignalen auf der Grundlage von Bildern erhoben werden, die durch die dem Fahrzeug zugeordnete Kamera erfasst werden.
  4. Verfahren nach Anspruch 1, das das Aktualisieren der zuvor erhobenen Informationen über den Ort von Lichtsignalen mit dem Ort des Lichtsignals umfasst.
  5. Verfahren nach Anspruch 1, das das Lokalisieren eines Bilds eines Lichtsignals durch Erzeugen eines Satzes von Kandidatenfenstern, die jeweils einen Abschnitt des Bilds umgeben, umfasst, wobei die Auswahl jedes Fensters durch zuvor erhobene Informationen über den Ort von Lichtsignalen gewichtet wird.
  6. Verfahren nach Anspruch 1, das das Lokalisieren eines Bilds eines Lichtsignals durch Analysieren von Abschnitten des Bilds umfasst, wobei die Analyse durch den Ort des Fahrzeugs zusammen mit bekannten Kartendaten gewichtet wird.
  7. System, das umfasst: eine Datenbank, die zuvor erhobene Informationen über den Ort von Lichtsignalen speichert; eine Kamera; ein Fahrzeugortsdetektierungssystem; und einen Controller zum: Annehmen eines Orts eines Fahrzeugs von dem Fahrzeugortsdetektierungssystem; Erheben eines Bilds unter Verwendung der Kamera; und Analysieren des Bilds zusammen mit dem Ort des Fahrzeugs und den zuvor erhobenen Informationen über den Ort von Lichtsignalen zum Lokalisieren eines Bilds eines Lichtsignals innerhalb des erhobenen Bilds.
  8. System nach Anspruch 7, wobei die zuvor erhobenen Informationen über den Ort von Lichtsignalen auf der Grundlage von durch die Kamera erfassten Bildern erhoben werden.
  9. Verfahren, das umfasst: Erfassen eines Bilds in einem Fahrzeug; Suchen nach einem Lichtsignal innerhalb mehrerer Kandidatenbereiche innerhalb des Bilds, wobei die Kandidatenbereiche unter Verwendung von Informationen über den Ort von Lichtsignalen als Eingabe bestimmt werden; und Bestimmen des Status des Lichtsignals innerhalb des Bilds.
  10. Verfahren nach Anspruch 9, wobei das Suchen nach einem Lichtsignal innerhalb des Bilds durch den Ort des Fahrzeugs gewichtet wird.
DE102012207620.4A 2011-05-10 2012-05-08 System und Verfahren für die Lichtsignaldetektierung Active DE102012207620B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/104,220 2011-05-10
US13/104,220 US8620032B2 (en) 2011-05-10 2011-05-10 System and method for traffic signal detection

Publications (2)

Publication Number Publication Date
DE102012207620A1 true DE102012207620A1 (de) 2012-12-06
DE102012207620B4 DE102012207620B4 (de) 2014-03-27

Family

ID=47141914

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012207620.4A Active DE102012207620B4 (de) 2011-05-10 2012-05-08 System und Verfahren für die Lichtsignaldetektierung

Country Status (3)

Country Link
US (1) US8620032B2 (de)
CN (1) CN102800207B (de)
DE (1) DE102012207620B4 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012110219A1 (de) * 2012-10-25 2014-04-30 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
DE102012111933A1 (de) * 2012-12-07 2014-06-12 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum automatischen erkennen und interpretieren von lichtsignalanlagen
DE102013019550B3 (de) * 2013-11-21 2015-01-08 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren zur Fahrerunterstützung bezüglich einer Ampelschaltung
DE102014216008A1 (de) * 2014-08-13 2016-02-18 Conti Temic Microelectronic Gmbh Steuervorrichtung, Serversystem und Fahrzeug
DE102017218932A1 (de) * 2017-10-24 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels
DE102019106844A1 (de) * 2019-03-18 2020-09-24 Daimler Ag Detektion von Fehlfunktionen der Schaltzustandserkennung von Lichtsignalanlagen
EP3770879A1 (de) * 2019-07-25 2021-01-27 Volkswagen Ag Verfahren, vorrichtung und computerprogramm zum aufbereiten von daten über eine ampelanlage
DE102019211098A1 (de) * 2019-07-25 2021-01-28 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und Computerprogramm zum Bestimmen einer Ampelphase einer Ampel einer Ampelanlage
WO2022002509A1 (de) * 2020-07-03 2022-01-06 Volkswagen Aktiengesellschaft Ampelspurzuordnung aus schwarmdaten
DE102018129066B4 (de) 2017-11-21 2023-06-22 GM Global Technology Operations LLC Systeme und verfahren für ungeschütztes linksabbiegen in situationen mit hohem verkehrsaufkommen in autonomen fahrzeugen
DE102018109366B4 (de) 2017-04-20 2024-01-18 GM Global Technology Operations LLC Verfahren zur lichtsignalanlagenerfassung

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8620032B2 (en) * 2011-05-10 2013-12-31 GM Global Technology Operations LLC System and method for traffic signal detection
US8831849B2 (en) 2012-02-13 2014-09-09 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for traffic signal recognition
US9145140B2 (en) 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
US9042872B1 (en) 2012-04-26 2015-05-26 Intelligent Technologies International, Inc. In-vehicle driver cell phone detector
US9990556B2 (en) * 2012-07-27 2018-06-05 Kyocera Corporation Image processing apparatus, imaging apparatus, movable object, program, and region setting method
TW201410076A (zh) * 2012-08-27 2014-03-01 Hon Hai Prec Ind Co Ltd 燈具狀態檢測系統及方法
US20140093131A1 (en) * 2012-10-01 2014-04-03 Xerox Corporation Visibility improvement in bad weather using enchanced reality
JP6106495B2 (ja) * 2013-04-01 2017-03-29 パイオニア株式会社 検出装置、制御方法、プログラム及び記憶媒体
US9928738B2 (en) * 2013-04-12 2018-03-27 Traffic Technology Services, Inc. Red light warning system based on predictive traffic signal state data
US10008113B2 (en) 2013-04-12 2018-06-26 Traffic Technology Services, Inc. Hybrid distributed prediction of traffic signal state changes
US9164511B1 (en) 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
CN103325258A (zh) * 2013-06-24 2013-09-25 武汉烽火众智数字技术有限责任公司 基于视频处理的闯红灯检测装置及其方法
CN103489323B (zh) * 2013-09-16 2016-07-06 安徽工程大学 一种红绿灯的识别装置
US9558408B2 (en) * 2013-10-15 2017-01-31 Ford Global Technologies, Llc Traffic signal prediction
EP3100206B1 (de) 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systeme und verfahren zur detektion des endes einer fahrspur
CN105023452B (zh) * 2014-04-24 2017-09-29 深圳市赛格导航科技股份有限公司 一种多路交通信号灯信号采集的方法及装置
EP2945138B1 (de) * 2014-05-15 2018-01-17 Continental Automotive GmbH Verfahren und Vorrichtung zur Bereitstellung von Informationsdaten über Einheiten entlang einer Fahrstrecke eines Fahrzeugs
US9707960B2 (en) 2014-07-31 2017-07-18 Waymo Llc Traffic signal response for autonomous vehicles
US9779314B1 (en) * 2014-08-21 2017-10-03 Waymo Llc Vision-based detection and classification of traffic lights
CN104766071B (zh) * 2015-04-28 2018-02-02 重庆邮电大学 一种应用于无人驾驶汽车的交通灯快速检测算法
MX363873B (es) * 2015-06-09 2019-04-05 Nissan Motor Dispositivo de deteccion de señales de trafico y metodo de deteccion de señales de trafico.
EP3314601A1 (de) * 2015-06-29 2018-05-02 Traffic Technology Services, Inc. Hybride verteilte vorhersage von verkehrssignalzustandsänderungen
JP5910903B1 (ja) * 2015-07-31 2016-04-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
US9834218B2 (en) 2015-10-28 2017-12-05 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for determining action at traffic signals
US10460600B2 (en) * 2016-01-11 2019-10-29 NetraDyne, Inc. Driver behavior monitoring
US9996080B2 (en) * 2016-02-26 2018-06-12 Ford Global Technologies, Llc Collision avoidance using auditory data
US9990548B2 (en) * 2016-03-09 2018-06-05 Uber Technologies, Inc. Traffic signal analysis system
US10325339B2 (en) * 2016-04-26 2019-06-18 Qualcomm Incorporated Method and device for capturing image of traffic sign
DE102016208621A1 (de) * 2016-05-19 2017-11-23 Continental Automotive Gmbh Verfahren zur Verifizierung von Inhalt und Aufstellort von Verkehrszeichen
WO2018026733A1 (en) 2016-07-31 2018-02-08 Netradyne Inc. Determining causation of traffic events and encouraging good driving behavior
FR3057693B1 (fr) * 2016-10-13 2022-04-15 Valeo Schalter & Sensoren Gmbh Dispositif de localisation et dispositif de production de donnees d'integrite
US10366286B2 (en) 2016-12-13 2019-07-30 Google Llc Detection of traffic light signal changes
US11126871B2 (en) * 2016-12-21 2021-09-21 Ford Motor Company Advanced warnings for drivers of vehicles for upcoming signs
CN107066933B (zh) * 2017-01-25 2020-06-05 武汉极目智能技术有限公司 一种道路标牌识别方法及***
US10139832B2 (en) * 2017-01-26 2018-11-27 Intel Corporation Computer-assisted or autonomous driving with region-of-interest determination for traffic light analysis
DE102017102593A1 (de) * 2017-02-09 2018-08-09 SMR Patents S.à.r.l. Verfahren und Vorrichtung zum Erkennen des Signalisierungszustands von mindestens einer Signalvorrichtung
WO2018223882A1 (en) * 2017-06-08 2018-12-13 Zhejiang Dahua Technology Co., Ltd. Methods and devices for processing images of traffic light
US10525903B2 (en) * 2017-06-30 2020-01-07 Aptiv Technologies Limited Moving traffic-light detection system for an automated vehicle
EP3687863A4 (de) 2017-09-29 2020-12-02 Netradyne, Inc. Bestimmung eines mehrfach-belichtungsereignisses
WO2019075341A1 (en) 2017-10-12 2019-04-18 Netradyne Inc. DETECTION OF DRIVING ACTIONS THAT MITIGATE RISK
CN111492366A (zh) * 2017-12-21 2020-08-04 华为技术有限公司 一种信息检测方法及移动设备
WO2019156916A1 (en) * 2018-02-07 2019-08-15 3M Innovative Properties Company Validating vehicle operation using pathway articles and blockchain
US10521913B2 (en) 2018-03-29 2019-12-31 Aurora Innovation, Inc. Relative atlas for autonomous vehicle and generation thereof
US11256729B2 (en) 2018-03-29 2022-02-22 Aurora Operations, Inc. Autonomous vehicle relative atlas incorporating hypergraph data structure
US10503760B2 (en) 2018-03-29 2019-12-10 Aurora Innovation, Inc. Use of relative atlas in an autonomous vehicle
US11334753B2 (en) 2018-04-30 2022-05-17 Uatc, Llc Traffic signal state classification for autonomous vehicles
CN109063195B (zh) * 2018-08-31 2019-10-29 北京诚志重科海图科技有限公司 一种信息检索方法和装置
US10685504B2 (en) * 2018-09-27 2020-06-16 Intel Corporation Systems, devices, and methods for vehicular communication
JP7040399B2 (ja) * 2018-10-23 2022-03-23 トヨタ自動車株式会社 情報処理システム及び情報処理方法
CN110097600B (zh) * 2019-05-17 2021-08-06 百度在线网络技术(北京)有限公司 用于识别交通标志牌的方法及装置
JP7088135B2 (ja) * 2019-07-23 2022-06-21 トヨタ自動車株式会社 信号表示推定システム
JP7088137B2 (ja) * 2019-07-26 2022-06-21 トヨタ自動車株式会社 信号機情報管理システム
DE102019128948A1 (de) * 2019-10-28 2021-04-29 Valeo Schalter Und Sensoren Gmbh Bestimmung eines Verkehrsampelleuchtzustands
US11521398B2 (en) * 2019-11-26 2022-12-06 GM Global Technology Operations LLC Method and apparatus for traffic light positioning and mapping using crowd-sensed data
CN111275011B (zh) * 2020-02-25 2023-12-19 阿波罗智能技术(北京)有限公司 移动红绿灯检测方法、装置、电子设备和存储介质
CN113761967A (zh) * 2020-06-01 2021-12-07 中移(苏州)软件技术有限公司 一种识别方法及装置
CN112580571A (zh) * 2020-12-25 2021-03-30 北京百度网讯科技有限公司 车辆行驶的控制方法、装置及电子设备
WO2022246412A1 (en) * 2021-05-21 2022-11-24 Magna Electronics Inc. Efficient detection of structure and status of traffic lights

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69628274T2 (de) * 1995-12-26 2004-03-25 Aisin AW Co., Ltd., Anjo Fahrzeugnavigationssystem
DE60106794T2 (de) * 2000-02-23 2005-11-03 Hitachi, Ltd. Vorrichtung zur Fahrzeuggeschwindigkeitsregelung
US7392155B2 (en) * 2003-10-31 2008-06-24 Fujitsu Limited Distance calculation device and calculation program
US20090303077A1 (en) * 2006-03-06 2009-12-10 Hirohisa Onome Image Processing System and Method
US20100033571A1 (en) * 2006-09-28 2010-02-11 Pioneer Corporation Traffic information detector, traffic information detecting method, traffic information detecting program, and recording medium

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7655894B2 (en) * 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
JPH1186182A (ja) * 1997-09-01 1999-03-30 Honda Motor Co Ltd 自動運転制御システム
DE29802953U1 (de) 1998-02-20 1998-05-28 Horstmann, Rainer, 33332 Gütersloh Elektronisches System zur Erkennung von Verkehrszeichen und deren Anzeige auf einem Display mit akustischer Ansage
DE19852631C2 (de) 1998-11-14 2001-09-06 Daimler Chrysler Ag Vorrichtung und Verfahren zur Verkehrszeichenerkennung
DE19952153A1 (de) 1999-10-29 2001-05-03 Volkswagen Ag Verfahren und Einrichtung zur elektronischen Erkennung von Verkehrszeichen
JP2001331893A (ja) 2000-05-22 2001-11-30 Matsushita Electric Ind Co Ltd 交通違反警告及び交通違反保存装置
US20030016143A1 (en) 2001-07-23 2003-01-23 Ohanes Ghazarian Intersection vehicle collision avoidance system
US6850170B2 (en) 2002-03-25 2005-02-01 Ryan A. Neff On-board vehicle system and method for receiving and indicating driving-related signals
US7696903B2 (en) 2003-03-20 2010-04-13 Gentex Corporation Imaging system for detecting vehicle and human movement
US6970102B2 (en) * 2003-05-05 2005-11-29 Transol Pty Ltd Traffic violation detection, recording and evidence processing system
ES2231001B1 (es) 2003-08-08 2006-07-01 Jeronimo Miron Gazquez Dispositivo de deteccion e identificacion de señales de trafico, en especial para vehiculos.
JP4253271B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
US7688224B2 (en) * 2003-10-14 2010-03-30 Siemens Industry, Inc. Method and system for collecting traffic data, monitoring traffic, and automated enforcement at a centralized station
JP4507815B2 (ja) 2004-07-09 2010-07-21 アイシン・エィ・ダブリュ株式会社 信号情報作成方法、信号案内情報提供方法及びナビゲーション装置
KR100689784B1 (ko) 2005-02-03 2007-03-08 주식회사 현대오토넷 적외선 통신을 이용한 교통신호 위반 방지 시스템 및 방법
US7382276B2 (en) 2006-02-21 2008-06-03 International Business Machine Corporation System and method for electronic road signs with in-car display capabilities
JP5022609B2 (ja) * 2006-02-27 2012-09-12 日立オートモティブシステムズ株式会社 撮像環境認識装置
GB2440958A (en) * 2006-08-15 2008-02-20 Tomtom Bv Method of correcting map data for use in navigation systems
JP4538468B2 (ja) * 2007-02-27 2010-09-08 日立オートモティブシステムズ株式会社 画像処理装置,画像処理方法、及び画像処理システム
US7646311B2 (en) * 2007-08-10 2010-01-12 Nitin Afzulpurkar Image processing for a traffic control system
US8254635B2 (en) * 2007-12-06 2012-08-28 Gideon Stein Bundling of driver assistance systems
US8031062B2 (en) 2008-01-04 2011-10-04 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
US8009061B2 (en) 2008-05-30 2011-08-30 Navteq North America, Llc Data mining for traffic signals or signs along road curves and enabling precautionary actions in a vehicle
JP5093602B2 (ja) * 2008-06-04 2012-12-12 アイシン精機株式会社 周辺認知支援装置
CN101414410A (zh) * 2008-10-03 2009-04-22 邓湘 交通信号图像化导航***
JP5057166B2 (ja) 2008-10-30 2012-10-24 アイシン・エィ・ダブリュ株式会社 安全運転評価システム及び安全運転評価プログラム
US8188887B2 (en) 2009-02-13 2012-05-29 Inthinc Technology Solutions, Inc. System and method for alerting drivers to road conditions
JP5462609B2 (ja) * 2009-12-09 2014-04-02 富士重工業株式会社 停止線認識装置
CN101807349A (zh) * 2010-01-08 2010-08-18 北京世纪高通科技有限公司 基于Web的路况发布***及方法
US8559673B2 (en) * 2010-01-22 2013-10-15 Google Inc. Traffic signal mapping and detection
TWI430212B (zh) * 2010-06-08 2014-03-11 Gorilla Technology Inc 利用多特徵自動集群法之異常行為偵測系統與方法
US8620032B2 (en) * 2011-05-10 2013-12-31 GM Global Technology Operations LLC System and method for traffic signal detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69628274T2 (de) * 1995-12-26 2004-03-25 Aisin AW Co., Ltd., Anjo Fahrzeugnavigationssystem
DE60106794T2 (de) * 2000-02-23 2005-11-03 Hitachi, Ltd. Vorrichtung zur Fahrzeuggeschwindigkeitsregelung
US7392155B2 (en) * 2003-10-31 2008-06-24 Fujitsu Limited Distance calculation device and calculation program
US20090303077A1 (en) * 2006-03-06 2009-12-10 Hirohisa Onome Image Processing System and Method
US20100033571A1 (en) * 2006-09-28 2010-02-11 Pioneer Corporation Traffic information detector, traffic information detecting method, traffic information detecting program, and recording medium

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148917B2 (en) 2012-10-25 2018-12-04 Conti Temic Microelectronics Gmbh Method and device for recognizing marked hazard areas and/or construction areas in the region of lanes
DE102012110219A1 (de) * 2012-10-25 2014-04-30 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
DE102012111933A1 (de) * 2012-12-07 2014-06-12 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum automatischen erkennen und interpretieren von lichtsignalanlagen
DE102013019550B3 (de) * 2013-11-21 2015-01-08 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren zur Fahrerunterstützung bezüglich einer Ampelschaltung
DE102014216008A1 (de) * 2014-08-13 2016-02-18 Conti Temic Microelectronic Gmbh Steuervorrichtung, Serversystem und Fahrzeug
US10705207B2 (en) 2014-08-13 2020-07-07 Vitesco Technologies Germany Gmbh Control device, server system and vehicle
DE102018109366B4 (de) 2017-04-20 2024-01-18 GM Global Technology Operations LLC Verfahren zur lichtsignalanlagenerfassung
DE102017218932A1 (de) * 2017-10-24 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels
DE102017218932B4 (de) 2017-10-24 2023-07-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels
DE102018129066B4 (de) 2017-11-21 2023-06-22 GM Global Technology Operations LLC Systeme und verfahren für ungeschütztes linksabbiegen in situationen mit hohem verkehrsaufkommen in autonomen fahrzeugen
DE102019106844A1 (de) * 2019-03-18 2020-09-24 Daimler Ag Detektion von Fehlfunktionen der Schaltzustandserkennung von Lichtsignalanlagen
EP3770879A1 (de) * 2019-07-25 2021-01-27 Volkswagen Ag Verfahren, vorrichtung und computerprogramm zum aufbereiten von daten über eine ampelanlage
DE102019211098B4 (de) * 2019-07-25 2021-06-17 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und Computerprogramm zum Bestimmen einer Ampelphase einer Ampel einer Ampelanlage
DE102019211100A1 (de) * 2019-07-25 2021-01-28 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und Computerprogramm zum Aufbereiten von Daten über eine Ampelanlage
DE102019211098A1 (de) * 2019-07-25 2021-01-28 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und Computerprogramm zum Bestimmen einer Ampelphase einer Ampel einer Ampelanlage
WO2022002509A1 (de) * 2020-07-03 2022-01-06 Volkswagen Aktiengesellschaft Ampelspurzuordnung aus schwarmdaten

Also Published As

Publication number Publication date
DE102012207620B4 (de) 2014-03-27
US20120288138A1 (en) 2012-11-15
CN102800207B (zh) 2015-11-25
US8620032B2 (en) 2013-12-31
CN102800207A (zh) 2012-11-28

Similar Documents

Publication Publication Date Title
DE102012207620B4 (de) System und Verfahren für die Lichtsignaldetektierung
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
EP2769373B1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE112020000821T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE112018007287T5 (de) Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
DE112018006665T5 (de) Verfahren zum zugreifen auf ergänzende wahrnehmungsdaten von anderen fahrzeugen
DE112014002019B4 (de) Kurvenformmodelliereinrichtung, Fahrzeuginformationsverarbeitungssystem, Kurvenformmodellierverfahren und Kurvenformmodellierprogramm
DE102016123887A1 (de) Virtuelle sensordatenerzeugung zur radanschlagdetektion
DE102014114939A1 (de) Bild- und kartenbasierte Erfassung von Fahrzeugen an Kreuzungen
DE102012208974A1 (de) System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells
DE102013208521A1 (de) Kollektives Erlernen eines hochgenauen Straßenmodells
DE102019115059A1 (de) System zum ableiten eines autonomen fahrzeugs, das eine fahrbare karte ermöglicht
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE112012002885T5 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE102009050502A1 (de) Detektion eines freien Pfads unter Verwendung eines hierarchischen Ansatzes
DE102017115197A1 (de) Erzeugung von virtuellen sensordaten für die erfassung von polleraufnahmen
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE102013205952A1 (de) Rekonfigurierbares System zur Detektion eines freien Pfads
DE102018108361A1 (de) Laubwerkerfassungstrainingssysteme und -verfahren
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018116036A1 (de) Training eines tiefen konvolutionellen neuronalen Netzwerks für individuelle Routen
DE102018111935A1 (de) Bildverarbeitungssystem, Bildverarbeitungsverfahren, Informationsverarbeitungsvorrichtung und Aufzeichnungsmedium
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102015225577A1 (de) Verbessertes Verfahren zum Ermitteln der Randbebauung einer Fahrbahn für die Lokalisierung von Kraftfahrzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R020 Patent grant now final

Effective date: 20141230