DE102014005688B4 - Spurenschätzvorrichtung und verfahren - Google Patents

Spurenschätzvorrichtung und verfahren Download PDF

Info

Publication number
DE102014005688B4
DE102014005688B4 DE102014005688.0A DE102014005688A DE102014005688B4 DE 102014005688 B4 DE102014005688 B4 DE 102014005688B4 DE 102014005688 A DE102014005688 A DE 102014005688A DE 102014005688 B4 DE102014005688 B4 DE 102014005688B4
Authority
DE
Germany
Prior art keywords
track
lane
imaginary
unit
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014005688.0A
Other languages
English (en)
Other versions
DE102014005688A1 (de
Inventor
Hyun Wook Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HL Klemove Corp
Original Assignee
Mando Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=51618506&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE102014005688(B4) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Mando Corp filed Critical Mando Corp
Publication of DE102014005688A1 publication Critical patent/DE102014005688A1/de
Application granted granted Critical
Publication of DE102014005688B4 publication Critical patent/DE102014005688B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Spurenschätzvorrichtung, welche aufweist:eine Kameraeinheit (10), die ein Bild vor einem Fahrzeug aufnimmt;eine Radareinheit (11), die mehrere stationäre Objekte vor dem Fahrzeug erfasst; undeine Spurenschätzeinheit (20), die eine Spur durch das von der Kameraeinheit (10) aufgenommene Bild erfasst, eine imaginäre Spur, die mehrere stationäre Objekte nahe einer Straße unter den von der Radareinheit (11) erfassten stationären Objekten verbindet, erzeugt, bestimmt, ob die erzeugte imaginäre Spur richtig ist, auf der Grundlage eines Abstands zwischen der erfassten Spur und der erzeugten imaginären Spur, wenn die imaginäre Spur gemäß dem bestimmten Ergebnis richtig ist, eine endgültige Spur auf der Grundlage der erfassten Spur und der imaginären Spur erzeugt, und die erzeugte endgültige Spur als eine Fahrspur des Fahrzeugs erkennt,wobei die Spurenschätzeinheit (20) aufweist:eine Spurenerfassungseinheit (21), die eine Spur durch das von der Kameraeinheit (10) aufgenommene Bild erfasst;eine Erzeugungseinheit (22) für eine imaginäre Spur, die eine imaginäre Spur erzeugt, die die mehreren stationären Objekte nahe der Straße unter den von der Radareinheit (11) erfassten stationären Objekten verbindet;eine Bestimmungseinheit (23) für die Richtigkeit der imaginären Spur, die eine Ähnlichkeit zwischen der erzeugten imaginären Spur und der erfassten Spur mit Bezug auf zumindest einen von Spurenbereichen, die in einen Nahdistanzbereich (30) und einen Ferndistanzbereich (40) geteilt sind, vergleicht auf der Grundlage eines Abstands zwischen dem Fahrzeug und jedem der mehreren stationären Objekte, und gemäß dem Vergleichsergebnis bestimmt, ob die erzeugte imaginäre Spur richtig ist;eine Erzeugungseinheit (24) für eine endgültige Spur, die, wenn die imaginäre Spur gemäß dem Bestimmungsergebnis richtig ist, eine endgültige Spur auf der Grundlage der erfassten Spur und der imaginären Spur erzeugt; undeine Spurenerkennungseinheit (25), die die erzeugte endgültige Spur als eine Fahrspur des Fahrzeugs erkennt.

Description

  • QUERVERWEIS AUF BEZOGENE ANMELDUNG
  • Diese Erfindung beansprucht den Nutzen der koreanischen Patentanmeldung Nr. 2013-0039681 , die am 11. April 2013 bei dem Koreanischen Amt für Geistiges Eigentum eingereicht wurde und deren Offenbarung hier einbezogen wird.
  • HINTERGRUND
  • Gebiet
  • Ausführungsbeispiele der vorliegenden Erfindung beziehen sich auf eine Spurenschätzvorrichtung und ein Verfahren, die in der Lage sind, eine Fahrspur genauer zu schätzen.
  • Beschreibung des Standes der Technik
  • Im Allgemeinen ist ein LKAS (Spurhalte-Unterstützungssystem) ein System, das ein unterstützendes Lenkdrehmoment erzeugt, wenn ein Fahrzeug von einer Spur während des Fahrens auf derselben abweicht, wobei durch eine Kamera erhaltene Spurinformationen so verwendet werden, dass die Fahrbequemlichkeit unterstützt wird.
  • Jedoch kann die Kamera einen unerkannten oder falsch erkannten Zustand der Spur aufgrund von direktem Sonnenlicht (Rücklicht), Staub auf einer Straße usw. bewirken und eine beschränkte Spurhalte-Unterstützungsfunktion aufgrund einer zeitlichen Verzögerung bei der Erkennung der Spur haben.
  • Zusätzlich reagiert das LKAS empfindlich auf eine Änderung zwischen einer Kurzstreckenspur und einer Langstreckenspur. Demgemäß hat, da das LKAS eine lange Zeit benötigt, um die Spur zu erkennen, das LKAS ein beschränktes Leistungsvermögen.
  • Die DE 10 2010 032 063 A1 beschreibt ein Verfahren zur Erfassung einer Umgebung eines Fahrzeuges. Außerdem betrifft die DE 10 2013 113 163 A1 eine Fahrzeugfahrtunterstüzungssteuerungsvorrichtung.
  • ZUSAMMENFASSUNG
  • Es ist daher ein Aspekt der vorliegenden Erfindung, eine Spurenschätzvorrichtung und ein Verfahren anzugeben, die die Fähigkeit und das Reaktionsvermögen zur Erkennung einer Spur mittels einer Kamera, die die Vorderseite eines Fahrzeugs erfasst, und Radarerfassung stationärer Objekte nahe eines Fahrwegs bei der Durchführung einer Spurhalte-Unterstützungssteuerung verbessern.
  • Zusätzliche Aspekte der Erfindung sind teilweise in der folgenden Beschreibung wiedergegeben und ergeben sich teilweise als offensichtlich aus der Beschreibung, oder sie können durch Ausüben der Erfindung erfahren werden.
  • Gemäß einem Aspekt der vorliegenden Erfindung enthält eine Spurenschätzvorrichtung eine Kameraeinheit, die ein Bild vor einem Fahrzeug erfasst, eine Radareinheit, die mehrere stationäre Objekte vor dem Fahrzeug erfasst, und eine Spurschätzeinheit, die eine Spur durch das von der Kameraeinheit erfasste Bild erfasst, eine imaginäre Spur erzeugt, die mehrere stationäre Objekte nahe einer Straße unter den von der Radareinheit erfassten stationären Objekten verbindet, bestimmt, ob die erzeugte imaginäre Spur richtig ist, auf der Grundlage eines Abstands zwischen der erfassten Spur und der erzeugten imaginären Spur, erzeugt, wenn die imaginäre Spur gemäß dem bestimmten Ergebnis richtig ist, eine endgültige Spur auf der Grundlage der erfassten Spur und der imaginären Spur, und erkennt die erzeugte endgültige Spur als eine Fahrspur des Fahrzeugs.
  • Die Spurenschätzeinheit enthält außerdem: eine Spurenerfassungseinheit, die eine Spur durch das von der Kameraeinheit aufgenommene Bild erfasst, eine Erzeugungseinheit für eine imaginäre Spur, die eine imaginäre Spur erzeugt, die mehrere stationäre Objekte nahe der Straße unter den von der Radareinheit erfassten stationären Objekten verbindet, eine Richtigkeitsbestimmungseinheit für die imaginäre Spur, die eine Ähnlichkeit zwischen der erzeugten imaginären Spur und der erfassten Spur vergleicht mit Bezug auf zumindest einen von Spurbereichen, die in einen Kurzstreckenbereich und einen Langstreckenbereich geteilt sind, auf der Grundlage eines Abstands zwischen dem Fahrzeug und jedem der mehreren stationären Objekte, und bestimmt, ob die erzeugte imaginäre Spur richtig ist gemäß dem Vergleichsergebnis, eine Erzeugungseinheit für eine endgültige Spur, die, wenn die imaginäre Spur gemäß dem Bestimmungsergebnis richtig ist, eine endgültige Spur auf der Grundlage der erfassten Spur und der imaginären Spur erzeugt, und eine Spurerkennungseinheit, die die erzeugte endgültige Spur als eine Fahrspur des Fahrzeugs erkennt.
  • Die Bestimmungseinheit für die Richtigkeit der imaginären Spur kann bestimmen, ob die imaginäre Spur richtig ist unter Verwendung der Ähnlichkeit zwischen der imaginären Spur und der erfassten Spur mit Bezug auf den Nahdistanzbereich.
  • Die Bestimmungseinheit für die Richtigkeit der imaginären Spur kann bestimmen, dass die beiden Spuren einander ähnlich sind, wenn ein seitlicher Abstandsfehler zwischen den beiden Spuren in dem Nahdistanzbereich kürzer als ein Bezugsfehler ist, so dass die imaginäre Spur als richtig bestimmt wird.
  • Wenn die imaginäre Spur in dem Nahdistanzbereich richtig ist, kann die Erzeugungseinheit für die endgültige Spur einen seitlichen Abstandsfehler zwischen der erfassten Spur und der imaginären Spur in dem Ferndistanzbereich berechnen und die endgültige Spur erzeugen, wenn der berechnete Fehler innerhalb eines voreingestellten Bereichs ist.
  • Die Erzeugungseinheit für die endgültige Spur kann die erfasste Spur mit Bezug auf den Nahdistanzbereich und die imaginäre Spur mit Bezug auf den Ferndistanzbereich auswählen und die endgültige Spur in Verbindung mit den ausgewählten Spuren erzeugen.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung enthält ein Spurschätzverfahren: Erfassen einer Spur durch ein von einer Kameraeinheit aufgenommenes Bild, die das Bild vor einem Fahrzeug erfasst, Erzeugen einer imaginären Spur, die mehrere stationäre Objekte nahe einer Straße unter mehreren stationären Objekten, die von einer Radareinheit, die die stationären Objekte vor dem Fahrzeug erfasst, erfasst wurden, verbindet, Vergleichen der Ähnlichkeit zwischen der erzeugten imaginären Spur und der erfassten Spur auf der Grundlage eines Abstands zwischen der erzeugten imaginären Spur und der erfassten Spur mit Bezug auf zumindest einen von Spurbereichen, die in einen Nahdistanzbereich und einen Ferndistanzbereich geteilt sind auf der Grundlage eines Abstands zwischen dem Fahrzeug und jedem der mehreren stationären Objekte, Bestimmen gemäß dem Vergleichsergebnis, ob die erzeugte imaginäre Spur richtig ist, Erzeugen, wenn die imaginäre Spur gemäß dem Bestimmungsergebnis richtig ist, einer endgültigen Spur auf der Grundlage der erfassten Spur und der imaginären Spur, und Erkennen der erzeugten endgültigen Spur als eine Fahrspur des Fahrzeugs.
  • Das Spurenschätzverfahren kann das Bestimmen, dass die beiden Spuren einander ähnlich sind, enthalten, wenn ein seitlicher Abstandsfehler zwischen den beiden Spuren in dem Nahdistanzbereich der Spurbereiche kleiner als ein Bezugsfehler ist und ein zeitlicher Abstandsfehler zwischen den beiden Spuren in dem Ferndistanzbereich innerhalb eines voreingestellten Bereichs ist, so dass die imaginäre Spur als richtig bestimmt wird.
  • Das Spurenschätzverfahren kann das Auswählen der erfassten Spur mit Bezug auf den Nahdistanzbereich und der imaginären Spur mit Bezug auf den Ferndistanzbereich und das Erzeugen der endgültigen Spur durch Kombination der ausgewählten Spuren enthalten.
  • Figurenliste
  • Diese und/oder andere Aspekte der Erfindung werden augenscheinlich und leichter verständlich anhand der folgenden Beschreibung der Ausführungsbeispiele, die in Verbindung mit den begleitenden Zeichnungen gegeben wird, von denen:
    • 1 ein Steuerblockschaltbild ist, das eine Spurenschätzvorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung illustriert;
    • 2 ein Blockschaltbild ist, das eine Konfiguration einer Spurenschätzeinheit der Spurenschätzvorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung illustriert;
    • 3 eine Ansicht zur Erläuterung einer Spur ist, die unter Verwendung einer Kameraeinheit aufgenommen wurde, und einer imaginären Spur, die unter Verwendung stationärer Objekte, die durch eine Radareinheit in der Spurenschätzvorrichtung erfasst wurden, erzeugt wurde, gemäß dem Ausführungsbeispiel der vorliegenden Erfindung;
    • 4 eine Ansicht zur Erläuterung einer endgültigen Spur, die durch Kombination einer unter Verwendung der Kameraeinheit mit Bezug auf einen Nahdistanzbereich aufgenommenen Spur und einer unter Verwendung stationärer Objekte, die von der Radareinheit mit Bezug auf einen Ferndistanzbereich erfasst wurden, erzeugt wurde, in der Spurenschätzvorrichtung nach dem Ausführungsbeispiel der vorliegenden Erfindung erzeugt wurde, ist; und
    • 5 ein Steuerflussdiagramm ist, das ein Spurenschätzverfahren nach einem Ausführungsbeispiel der vorliegenden Erfindung illustriert.
  • DETAILLIERTE BESCHREIBUNG
  • Es wird nun im Einzelnen auf die Ausführungsbeispiele der vorliegenden Erfindung Bezug genommen, die in den begleitenden Zeichnungen illustriert sind. Die vorliegende Erfindung kann jedoch in verschiedenen Formen verkörpert sein und sollte nicht als auf die hier beschriebenen Ausführungsbeispiele beschränkt ausgelegt werden. Diese Ausführungsbeispiele sind vielmehr so vorgesehen, dass diese Offenbarung gründlich und vollständig ist, und sie vermitteln dem Fachmann vollständig den Bereich der vorliegenden Erfindung. In den Zeichnungen können die Breite, Länge, Dicke oder dergleichen der Komponenten übertrieben dargestellt, weggelassen oder schematisch illustriert sein zur Vereinfachung der Beschreibung und zur Klarheit. In der gesamten Offenbarung beziehen sich die Bezugszahlen auf gleiche Teile in den verschiedenen Figuren und Ausführungsbeispielen der vorliegenden Erfindung.
  • Der hier verwendete Ausdruck „und/oder“ enthält sämtliche Kombinationen von einem oder mehreren der assoziierten aufgeführten Gegenstände. Zusätzlich ist darauf hinzuweisen, dass, wenn ein Element als mit einem anderen Element „gekoppelt/verbunden“ bezeichnet wird, es direkt mit dem anderen Element gekoppelt oder verbunden sein kann oder auch dazwischenliegende Elemente vorhanden sein können. Wie in der Beschreibung und den angefügten Ansprüchen verwendet, werden die singularen Formen „ein“, „eine“ und „der/die/das“ auch als die Pluralformen enthaltend angesehen, sofern der Kontext nicht deutlich etwas anderes anzeigt. Es ist weiterhin darauf hinzuweisen, dass die Begriffe „aufweist“ und/oder „aufweisend“, wenn sie in dieser Beschreibung verwendet werden, die Anwesenheit von festgestellten Merkmalen, Ganzheiten, Schritten, Operationen, Elementen und/oder Komponenten spezifizieren, aber das Vorhandensein oder die Hinzufügung von einem/einer oder mehreren anderen Merkmalen, Ganzheiten, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen hiervon ausschließen.
  • 1 ist ein Steuerblockschaltbild, das eine Spurenschätzvorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung illustriert.
  • Gemäß 1 kann eine Spurenschätzvorrichtung eine Kameraeinheit 10, eine Radareinheit 11 und eine Spurenschätzeinheit 20 enthalten.
  • Die Kameraeinheit 10 nimmt ein Straßenbild vor einem Fahrzeug auf. Die Kameraeinheit 10 kann einen CCD(ladungsgekoppelte Vorrichtung)- oder CMOS(komplementärer Metall-Oxid-Halbleiter)-Bildsensor enthalten. Zusätzlich kann die Kameraeinheit 10 eine Funktionsvorrichtung enthalten, die von dem CCD- oder CMOS-Bildsensor empfangene Signale verarbeitet und berechnet.
  • Die Kameraeinheit 10 ist an der Vorderseite des Fahrzeugs derart befestigt, dass eine optische Achsenrichtung von dieser mit einer Vorwärtsrichtung des Fahrzeugs übereinstimmt.
  • Die Kameraeinheit 10 kann einen weiten Abbildungsbereich in der linken und rechten Richtung haben und die Straße, auf der das Fahrzeug fährt, ausreichend aufnehmen. Die Kameraeinheit 10 nimmt die Straße vor dem Fahrzeug durch den Bildsensor auf und gibt das aufgenommene Bild zu der Funktionsvorrichtung aus.
  • Die Radareinheit 11 erfasst ein Objekt auf der Straße vor dem Fahrzeug. Die Radareinheit 11 erfasst stationäre Objekte, die vor dem Fahrzeug entlang der Straße angeordnet sind. Beispielsweise können die stationären Objekte Telefonmasten, Bäume, Leitplanken, Wände usw. enthalten, die entlang der Straße angeordnet sind.
  • Die Radareinheit 11 ist eine Vorrichtung, die Mikroradarsignale wie elektromagnetische Wellen zu einem Objekt projiziert und von dem Objekt reflektierte Radarsignale empfängt, um einen Abstand und eine Richtung zwischen dem Objekt und der Radareinheit zu identifizieren.
  • Die Radareinheit 11 kann in einer vorbestimmten Höhe auf der Vorderseite des Fahrzeugs befestigt sein. Die Radareinheit überträgt Radarsignale zu der Vorderseite des Fahrzeugs, während sie in der linken und rechten Richtung abtastende Radarsignale ausgibt und die reflektierten Radarsignale empfängt.
  • Ein Umlaufabstand zwischen der Radareinheit 11 und einem Objekt kann durch eine Zeit erhalten werden, in der die Radareinheit 11 Radarsignale sendet und die von dem Objekt reflektierten Radarsignale empfängt.
  • Das heißt, der Abstand zwischen der Radareinheit 11 und einem Objekt kann durch Messen einer Zeit, in der die Radareinheit 11 Radarsignale sendet und die von dem Objekt reflektierten Radarsignale erfasst, berechnet werden.
  • Die Spurenschätzeinheit 20 erfasst eine Spur durch ein von der Kameraeinheit 10 aufgenommenes Bild, erzeugt eine imaginäre Spur, die mehrere stationäre Objekte nahe einer Straße aus von der Radareinheit 11 erfassten stationären Objekten verbindet, vergleicht eine Ähnlichkeit zwischen der erzeugten imaginären Spur und einer mit Bezug auf einen Nahdistanzbereich aus Spurbereichen, die in den Nahdistanzbereich und einen Ferndistanzbereich geteilt sind, erfasst wurde, auf der Grundlage eines Abstands zwischen einem Fahrzeug und jedem der mehreren stationären Objekte, bestimmt entsprechend dem Vergleichsergebnis, ob die imaginäre Spur richtig ist, wählt, wenn die imaginäre Spur entsprechend dem Bestimmungsergebnis richtig ist, die erfasste Spur mit Bezug auf den Nahdistanzbereich und die imaginäre Spur mit Bezug auf den Ferndistanzbereich aus, erzeugt eine endgültige Spur durch Kombination der ausgewählten Spuren, und erkennt die erzeugte endgültige Spur als eine Fahrspur des Fahrzeugs.
  • Wie vorstehend beschrieben ist, wird die endgültige Spur mittels der durch das von der Kameraeinheit 10 aufgenommene Bild erfassten Spur und der unter Verwendung der von der Radareinheit 11 nahe der Straße erfassten, stationären Objekte erzeugte imaginären Spur erzeugt, und die erzeugte endgültige Spur wird als die Fahrspur erkannt. Daher kann es möglich sein, die Reaktionsfähigkeit und die Genauigkeit einer Spurenerkennung im Vergleich zu einem Spurenschätzverfahren, das nur eine Kamera verwendet, zu verbessern.
  • Die Spurenschätzeinheit 20 kann eine Spurenerfassungseinheit 21, eine Erzeugungseinheit 22 für eine imaginäre Spur, eine Bestimmungseinheit 23 für die Richtigkeit einer imaginären Spur, eine Erzeugungseinheit 24 für eine endgültige Spur und eine Spurerkennungseinheit 25 enthalten.
  • Die Spurenerfassungseinheit 21 ist eine Einheit zum Erfassen einer Spur durch ein von der Kameraeinheit 10 aufgenommenes Bild, und sie zieht eine durch einen hellen Bereich auf der Straße definierte Spur aus dem von der Kameraeinheit aufgenommenen Bild unter Verwendung eines Filteralgorithmus heraus. Die Spurenerfassungseinheit 21 kann ein Kantenfilter oder ein Spurenbetonungsfilter verwenden, um eine Spur zu erfassen. Das Kantenfilter erfasst einen Bereich, der eine Grenze bildet, in dem Bild unter Verwendung eines Helligkeitsunterschieds für jedes Pixel in einer X-Richtung und einer Y-Richtung in den Bildkoordinaten. Das Spurenbetonungsfilter betont eine Spur derart, dass eine helle Spur auffälliger ist, unter Verwendung eines Durchschnittswerts der Helligkeit im Vergleich zur umgebenden Helligkeit.
  • Die Erzeugungseinheit 22 für eine imaginäre Spur erzeugt eine imaginäre Spur auf der Grundlage von stationären Objekten an der Straße vor dem Fahrzeug, die von der Radareinheit 11 erfasst wurden. Die imaginäre Spur kann eine Linie enthalten, die die stationäre Objekte verbindet.
  • 3 ist eine Ansicht zur Erläuterung einer unter Verwendung der Kameraeinheit aufgenommenen Spur und einer unter Verwendung der von der Radareinheit erfassten, stationären Objekte erzeugten, imaginären Spur in der Spurenschätzvorrichtung nach dem Ausführungsbeispiel der vorliegenden Erfindung.
  • Gemäß 3 ist eine Kameraaufnahmespur eine durch die Spurerfassungseinheit 21 erfasste Spur, und eine imaginäre Spur ist eine durch die Erzeugungseinheit 22 für eine imaginäre Spur erzeugte Spur.
  • Spurenbereiche 30 und 40 werden in einen Nahdistanzbereich und einen Ferndistanzbereich geteilt auf der Grundlage eines Abstands zwischen einem Fahrzeug und jedem von mehreren stationären Objekten.
  • Hinsichtlich des Nahdistanzbereichs 30 ist die Kameraaufnahmespur nahezu gleich einer tatsächlichen Spur und ist nahezu ähnlich der imaginären Spur.
  • Jedoch ist hinsichtlich des Ferndistanzbereichs 40 die Kameraaufnahmespur stark unterschiedlich gegenüber der tatsächlichen Spur. Stattdessen hat die imaginäre Spur einen geringeren Unterschied als einen Unterschied zwischen der Kameraaufnahmespur und der tatsächlichen Spur.
  • Der Unterschied wird bewirkt, da die imaginäre Spur erzeugt wird unter Verwendung der stationären Objekte, die von der Radareinheit 11 erfasst werden, die eine ausgezeichnete Erfassungsgeschwindigkeit und ein ausgezeichnetes Leistungsvermögen in Bezug auf die Ferndistanz hat.
  • Da jedoch die imaginäre Spur lediglich eine die stationären Objekte nahe der Straße verbindende Linie ist, besteht die Notwendigkeit, zu prüfen, ob die imaginäre Spur richtig ist, um einen gültigen Wert zu bestimmen, der zum Schätzen einer Fahrspur des Fahrzeugs verwendet wird.
  • Gemäß 1 vergleicht die Bestimmungseinheit 23 für die Richtigkeit der imaginären Spur eine Ähnlichkeit zwischen der erzeugten imaginären Spur und einer Spur, die hinsichtlich zumindest eines, z.B. des Nahdistanzbereichs 30, von den Spurenbereichen, die in den Nahdistanzbereich 30 und/oder den Ferndistanzbereich 40 geteilt sind, erfasst wurde auf der Grundlage eines Abstands zwischen dem Fahrzeug und jedem der mehreren stationären Objekte, und bestimmt entsprechend dem Vergleichsergebnis, ob die erzeugte imaginäre Spur richtig ist.
  • Beispielsweise bestimmt die Bestimmungseinheit 23 für die Richtigkeit der imaginären Spur, dass die imaginäre Spur richtig ist, wenn die imaginäre Spur eine Spurform hat, die ähnlich der aufgenommenen Spur ist, unter Verwendung der Ähnlichkeit zwischen der erzeugten imaginären Spur und der mit Bezug auf den Nahdistanzbereich 30 erfassten Spur. Zwei Spuren können als die nicht ähnlich bestimmt werden, wenn der seitliche Abstandsfehler größer als ein Bezugsfehler ist, und zwei Spuren können als ähnlich bestimmt werden, wenn der seitliche Abstandsfehler kleiner als ein Bezugsfehler ist.
  • Wenn die imaginäre Spur als ein durch die Bestimmungseinheit 23 für die Richtigkeit der imaginären Spur bestimmtes Ergebnis richtig ist, wählt die Erzeugungseinheit 24 für die endgültige Spur die mit Bezug auf den Nahdistanzbereich 30 erfasste Spur und die imaginäre Spur mit Bezug auf den Ferndistanzbereich 40 aus und erzeugt eine endgültige Spur durch Kombination der ausgewählten Spuren.
  • Genauer gesagt, wenn die imaginäre Spur ähnlich der erfassten Spur in dem Nahdistanzbereich 30 ist und als richtig bestimmt ist, bestimmt die Erzeugungseinheit 24 für die endgültige Spur, ob ein seitlicher Unterschied zwischen der imaginären Spur und einer Spur die mit Bezug auf den Ferndistanzbereich 40 erfasst wurde, innerhalb eines voreingestellten Bereichs ist. Wenn der seitliche Unterschied zwischen der imaginären Spur und der in dem Ferndistanzbereich 40 erfassten Spur innerhalb eines voreingestellten Bereichs ist, wählt die Erzeugungseinheit 24 für die endgültige Spur die erfasste Spur mit Bezug auf den Nahdistanzbereich 30 und die imaginäre Spur mit Bezug auf den Ferndistanzbereich 40 aus und erzeugt eine endgültige Spur durch Kombination der ausgewählten Spuren.
  • 4 ist eine Ansicht zur Erläuterung einer neuen endgültigen Spur, die durch Kombination einer unter Verwendung der Kameraeinheit erfassten Spur und einer imaginären Spur, die unter Verwendung von durch die Radareinheit erfassten stationären Objekten erzeugt wurde, in der Spurenschätzvorrichtung nach dem Ausführungsbeispiel der vorliegenden Erfindung erzeugt wurde.
  • Gemäß 4 ist die endgültige Spur eine Spur aus der Kombination einer mit Bezug auf den Nahdistanzbereich 30 erfassten Spur und einer imaginären Spur mit Bezug auf den Ferndistanzbereich 40.
  • Gemäß 1 erkennt die Spurenerkennungseinheit 25 die durch die Erzeugungseinheit 24 für die endgültige Spur erzeugte Spur als eine Fahrspur.
  • Nachfolgend wird eine Spurhaltesteuerung auf der Grundlage der erkannten Fahrspur durchgeführt.
  • 5 ist ein Steuerflussdiagramm, das ein Spurenschätzverfahren nach einem Ausführungsbeispiel der vorliegenden Erfindung illustriert.
  • Gemäß 5 nimmt die Spurenschätzeinheit 20 zuerst ein Bild vor einem Fahrzeug unter Verwendung der Kameraeinheit 10 auf (Operationsmodus 100).
  • Nachdem das Bild vor dem Fahrzeug aufgenommen ist, analysiert die Spurenschätzeinheit 20 das von der Kameraeinheit 10 aufgenommene Bild vor dem Fahrzeug derart, dass eine Spur erfasst wird (Operationsmodus 110).
  • Nachdem die Spur erfasst wurde, erfasst die Spurenschätzeinheit 20 mehrere stationäre Objekte nahe einer Straße vor dem Fahrzeug unter Verwendung der Radareinheit 11 (Operationsmodus 120). In diesem Fall kann die Spurenschätzeinheit 20 die mehreren stationären Objekte nahe der Straße erfassen durch Kombination des von der Kameraeinheit 10 aufgenommenen Bildes vor dem Fahrzeug und der von der Radareinheit 11 erfassten stationären Objekte vor dem Fahrzeug.
  • Nachdem die mehreren stationären Objekte erfasst wurden, erzeugt die Spurenschätzeinheit 20 eine imaginäre Spur auf der Grundlage einer Linie, die die mehreren erfassten stationären Objekte verbindet (Operationsmodus 130).
  • Nachdem die imaginäre Spur erzeugt wurde, vergleich die Spurenschätzeinheit 20 eine Ähnlichkeit zwischen der im Operationsmodus 110 erfassten Spur und der im Operationsmodus 130 erzeugten imaginären Spur (Operationsmodus 140). In diesem Fall vergleicht die Spurenschätzeinheit 20 einen seitlichen Abstand zwischen der erfassten Spur und der imaginären Spur.
  • Es wird bestimmt, ob die imaginäre Spur in dem Nahdistanzbereich 30 ähnlich der erfassten Spur ist, unter Verwendung des Vergleichsergebnisses im Operationsmodus 140. In diesem Fall bestimmt, wenn ein seitlicher Abstandsfehler zwischen der erfassten Spur und der imaginären Spur kleiner als ein Bezugsfehler ist, die Spurenschätzeinheit 20, dass die beiden Spuren einander ähnlich sind (Operationsmodus 150).
  • Wenn in dem Operationsmodus 150 bestimmt wird, dass die imaginäre Spur in dem Nahdistanzbereich ähnlich der erfassten Spur ist, wird die imaginäre Spur als richtig bestimmt. Folglich berechnet die Spurenschätzeinheit 20 einen Unterschied (zum Beispiel einen seitlichen Abstandsfehler) zwischen der imaginären Spur und der erfassten Spur in dem Ferndistanzbereich 40 (Operationsmodus 160), und bestimmt, ob der berechnete Unterschied innerhalb eines voreingestellten Bereichs ist (Operationsmodus 170).
  • Wenn gemäß dem Bestimmungsergebnis im Operationsmodus 170 der Unterschied zwischen der imaginären Spur und der erfassten Spur in dem Ferndistanzbereich 40 innerhalb eines vorbestimmten Bereichs ist, wählt die Spurenschätzeinheit 20 die erfasste Spur mit Bezug auf den Nahdistanzbereich 30 und die imaginäre Spur mit Bezug auf den Ferndistanzbereich 40 aus und erzeugt eine endgültige Spur durch Kombination der ausgewählten Spuren (Operationsmodus 180).
  • Nachfolgend erkennt die Spurenschätzeinheit 20 die im Operationsmodus 180 erzeugte, endgültige Spur als eine Fahrspur (Operationsmodus 190).
  • Danach wird die Spurhaltesteuerung wie eine Spurabweichungsverhinderungssteuerung auf der Grundlage der erkannten Fahrspur durchgeführt.
  • Wie aus der vorstehenden Beschreibung ersichtlich ist, schätzen die Ausführungsbeispiele der vorliegenden Erfindung eine Fahrspur mittels einer über ein von einer Kamera aufgenommenes Bild erfassten Spur und einer unter Verwendung durch Radar erfasster, stationärer Objekte nahe einer Straße erzeugten imaginären Spur, indem eine Spurhalte-Unterstützungssteuerung durchgeführt wird. Folglich kann es möglich sein, die Reaktionsfähigkeit und die Genauigkeit der Spurenerkennung im Vergleich zu einem Spurenschätzverfahren, das nur eine Kamera verwendet, zu verbessern.
  • Obgleich wenige Ausführungsbeispiele der vorliegenden Erfindung gezeigt und beschrieben wurden, ist es für den Fachmann offensichtlich, dass Änderungen bei diesen Ausführungsbeispielen vorgenommen werden können, ohne die Prinzipien und den Geist der Erfindung zu verlassen, deren Bereich in den Ansprüchen und ihren Äquivalenten definiert ist.

Claims (8)

  1. Spurenschätzvorrichtung, welche aufweist: eine Kameraeinheit (10), die ein Bild vor einem Fahrzeug aufnimmt; eine Radareinheit (11), die mehrere stationäre Objekte vor dem Fahrzeug erfasst; und eine Spurenschätzeinheit (20), die eine Spur durch das von der Kameraeinheit (10) aufgenommene Bild erfasst, eine imaginäre Spur, die mehrere stationäre Objekte nahe einer Straße unter den von der Radareinheit (11) erfassten stationären Objekten verbindet, erzeugt, bestimmt, ob die erzeugte imaginäre Spur richtig ist, auf der Grundlage eines Abstands zwischen der erfassten Spur und der erzeugten imaginären Spur, wenn die imaginäre Spur gemäß dem bestimmten Ergebnis richtig ist, eine endgültige Spur auf der Grundlage der erfassten Spur und der imaginären Spur erzeugt, und die erzeugte endgültige Spur als eine Fahrspur des Fahrzeugs erkennt, wobei die Spurenschätzeinheit (20) aufweist: eine Spurenerfassungseinheit (21), die eine Spur durch das von der Kameraeinheit (10) aufgenommene Bild erfasst; eine Erzeugungseinheit (22) für eine imaginäre Spur, die eine imaginäre Spur erzeugt, die die mehreren stationären Objekte nahe der Straße unter den von der Radareinheit (11) erfassten stationären Objekten verbindet; eine Bestimmungseinheit (23) für die Richtigkeit der imaginären Spur, die eine Ähnlichkeit zwischen der erzeugten imaginären Spur und der erfassten Spur mit Bezug auf zumindest einen von Spurenbereichen, die in einen Nahdistanzbereich (30) und einen Ferndistanzbereich (40) geteilt sind, vergleicht auf der Grundlage eines Abstands zwischen dem Fahrzeug und jedem der mehreren stationären Objekte, und gemäß dem Vergleichsergebnis bestimmt, ob die erzeugte imaginäre Spur richtig ist; eine Erzeugungseinheit (24) für eine endgültige Spur, die, wenn die imaginäre Spur gemäß dem Bestimmungsergebnis richtig ist, eine endgültige Spur auf der Grundlage der erfassten Spur und der imaginären Spur erzeugt; und eine Spurenerkennungseinheit (25), die die erzeugte endgültige Spur als eine Fahrspur des Fahrzeugs erkennt.
  2. Spurenschätzvorrichtung nach Anspruch 1, bei der die Bestimmungseinheit (23) für die Richtigkeit der imaginären Spur bestimmt, ob die imaginäre Spur richtig ist, unter Verwendung der Ähnlichkeit zwischen der imaginären Spur und der erfassten Spur mit Bezug auf den Nahdistanzbereich (30).
  3. Spurenschätzvorrichtung nach einem der Ansprüche 1 oder 2, bei der die Bestimmungseinheit (23) für die Richtigkeit der imaginären Spur bestimmt, dass die beiden Spuren einander ähnlich sind, wenn ein seitlicher Abstandsfehler zwischen den beiden Spuren in dem Nahdistanzbereich (30) kleiner als ein Bezugsfehler ist, so dass die imaginäre Spur als richtig bestimmt wird.
  4. Spurenschätzvorrichtung nach einem der Ansprüche 1 bis 3, bei der, wenn die imaginäre Spur in dem Nahdistanzbereich (30) richtig ist, die Erzeugungseinheit (24) für die endgültige Spur einen seitlichen Abstandsfehler zwischen der erfassten Spur und der imaginären Spur in dem Ferndistanzbereich (40) berechnet und die endgültige Spur erzeugt, wenn der berechnete Fehler innerhalb eines vorbestimmten Bereichs ist.
  5. Spurenschätzvorrichtung nach einem der Ansprüche 1 bis 4, bei der die Erzeugungseinheit (24) für die endgültige Spur die erfasste Spur mit Bezug auf den Nahdistanzbereich (30) und die imaginäre Spur mit Bezug auf den Ferndistanzbereich (40) auswählt und die endgültige Spur durch Kombination der ausgewählten Spuren erzeugt.
  6. Spurenschätzverfahren, welches aufweist: Erfassen (110) einer Spur durch ein von einer Kameraeinheit (10), die ein Bild vor einem Fahrzeug aufnimmt, aufgenommenes Bild; Erzeugen (130) einer imaginären Spur, die mehrere stationäre Objekte nahe einer Straße unter mehreren von einer Radareinheit (11), die stationäre Objekte vor dem Fahrzeug erfasst, erfassten stationären Objekten verbindet; Vergleichen (140,) einer Ähnlichkeit zwischen der erzeugten imaginären Spur und der erfassten Spur auf der Grundlage eines Abstands zwischen der erzeugten imaginären Spur und der erfassten Spur mit Bezug auf zumindest einen von Spurenbereichen, die in einen Nahdistanzbereich (30) und einen Ferndistanzbereich (40) geteilt sind, auf der Grundlage eines Abstands zwischen dem Fahrzeug und jedem der mehreren stationären Objekte; Bestimmen entsprechend dem Vergleichsergebnis, ob die erzeugte imaginäre Spur richtig ist; Erzeugen (180), wenn die imaginäre Spur entsprechend dem Bestimmungsergebnis richtig ist, einer endgültigen Spur auf der Grundlage der erfassten Spur und der imaginären Spur; und Erkennen (190) der erzeugten endgültigen Spur als eine Fahrspur des Fahrzeugs.
  7. Spurenschätzverfahren nach Anspruch 6, aufweisend das Bestimmen (150), dass die zwei Spuren einander ähnlich sind, wenn ein seitlicher Abstandsfehler zwischen den beiden Spuren in dem Nahdistanzbereich (30) der Spurenbereiche kleiner als ein Bezugsfehler ist, und ein seitlicher Abstandsfehler zwischen den beiden Spuren in dem Ferndistanzbereich (40) innerhalb eines vorbestimmten Bereichs ist, so dass die imaginäre Spur als richtig bestimmt wird.
  8. Spurenschätzverfahren nach einem der Ansprüche 6 oder 7, aufweisend das Auswählen der erfassten Spur mit Bezug auf den Nahdistanzbereich (30) und der imaginären Spur mit Bezug auf den Ferndistanzbereich (40), und das Erzeugen der endgültigen Spur durch Kombination der ausgewählten Spuren.
DE102014005688.0A 2013-04-11 2014-04-11 Spurenschätzvorrichtung und verfahren Active DE102014005688B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0039681 2013-04-11
KR1020130039681A KR101787996B1 (ko) 2013-04-11 2013-04-11 차선 추정 장치 및 그 방법

Publications (2)

Publication Number Publication Date
DE102014005688A1 DE102014005688A1 (de) 2014-10-16
DE102014005688B4 true DE102014005688B4 (de) 2020-08-06

Family

ID=51618506

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014005688.0A Active DE102014005688B4 (de) 2013-04-11 2014-04-11 Spurenschätzvorrichtung und verfahren

Country Status (4)

Country Link
US (1) US9664787B2 (de)
KR (1) KR101787996B1 (de)
CN (1) CN104108392B (de)
DE (1) DE102014005688B4 (de)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101502510B1 (ko) * 2013-11-26 2015-03-13 현대모비스 주식회사 차량의 차선 유지 제어 장치 및 방법
KR101558786B1 (ko) * 2014-06-30 2015-10-07 현대자동차주식회사 차량의 주행차로 인식장치 및 방법
US20160210775A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual sensor testbed
JP6456761B2 (ja) * 2015-04-21 2019-01-23 本田技研工業株式会社 道路環境認識装置、車両制御装置及び車両制御方法
WO2017029734A1 (ja) * 2015-08-19 2017-02-23 三菱電機株式会社 車線認識装置および車線認識方法
KR102420409B1 (ko) * 2015-09-03 2022-07-14 주식회사 에이치엘클레무브 차선 이탈 판단 방법 및 그 장치
US20170160744A1 (en) * 2015-12-08 2017-06-08 Delphi Technologies, Inc. Lane Extension Of Lane-Keeping System By Ranging-Sensor For Automated Vehicle
KR102456626B1 (ko) * 2016-01-15 2022-10-18 현대자동차주식회사 자율 주행 차량의 차선 인지 방법 및 장치
CN105667518B (zh) * 2016-02-25 2018-07-24 福州华鹰重工机械有限公司 车道检测的方法及装置
EP3236212B1 (de) * 2016-04-22 2023-01-25 Volvo Car Corporation Verfahren zur erzeugung von navigationsdaten und navigationsvorrichtung zur durchführung des verfahrens
US20180067496A1 (en) * 2016-09-06 2018-03-08 Delphi Technologies, Inc. Automated vehicle lane change control system
KR20180051836A (ko) * 2016-11-09 2018-05-17 삼성전자주식회사 주행 차량을 위한 가상의 주행 차선을 생성하는 방법 및 장치
KR102568114B1 (ko) * 2016-11-30 2023-08-18 현대오토에버 주식회사 자율 주행 제어 장치 및 방법
KR20180090610A (ko) * 2017-02-03 2018-08-13 삼성전자주식회사 차선 정보를 출력하는 방법 및 장치.
CN106991389B (zh) * 2017-03-29 2021-04-27 蔚来(安徽)控股有限公司 确定道路边沿的装置和方法
JP6609292B2 (ja) * 2017-08-24 2019-11-20 株式会社Subaru 車外環境認識装置
KR102521656B1 (ko) 2018-01-03 2023-04-13 삼성전자주식회사 객체를 인식하는 방법 및 장치
CN112189225B (zh) * 2018-06-26 2023-03-10 Sk电信有限公司 车道线信息检测装置、方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质
KR102448164B1 (ko) * 2018-07-20 2022-09-28 현대모비스 주식회사 차량용 레이더 제어 장치 및 방법
KR102589617B1 (ko) 2019-01-24 2023-10-16 주식회사 에이치엘클레무브 운전자 보조 시스템
WO2020163390A1 (en) * 2019-02-05 2020-08-13 Nvidia Corporation Driving lane perception diversity and redundancy in autonomous driving applications
EP3726184A1 (de) * 2019-04-16 2020-10-21 PSA Automobiles SA Verfahren und vorrichtung zur bestimmung des kurvenverlaufs einer strasse
US11421996B2 (en) 2020-01-24 2022-08-23 Here Global B.V. Method, apparatus, and system for comparing and assimilating road lane representations using geospatial data and attribute data
US11679768B2 (en) 2020-10-19 2023-06-20 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for vehicle lane estimation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010032063A1 (de) 2010-06-09 2011-05-12 Daimler Ag Verfahren zur Erfassung einer Umgebung eines Fahrzeugs
KR20130039681A (ko) 2011-10-12 2013-04-22 미쓰미덴기가부시기가이샤 전지 상태 계측 방법 및 전지 상태 계측 장치
DE102013113163A1 (de) 2012-12-03 2014-06-05 Fuji Jukogyo Kabushiki Kaisha Fahrzeugfahrtunterstützungssteuerungsvorrichtung

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3413745B2 (ja) * 1995-12-18 2003-06-09 株式会社日立製作所 画像処理による走行路面の監視装置
KR19990084339A (ko) 1998-05-04 1999-12-06 오상수 차선 물체 인식 판별방법
US7085638B2 (en) * 2004-07-13 2006-08-01 Robert Bosch Gmbh Steering angle sensor assembly including reduction gear and logic module
DE102006040334A1 (de) * 2006-08-29 2008-03-06 Robert Bosch Gmbh Verfahren für die Spurerfassung mit einem Fahrerassistenzsystem und Fahrerassistenzsystem
JP4759547B2 (ja) * 2007-09-27 2011-08-31 日立オートモティブシステムズ株式会社 走行支援装置
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム
US8830141B2 (en) * 2009-04-02 2014-09-09 GM Global Technology Operations LLC Full-windshield head-up display enhancement: anti-reflective glass hard coat
KR101070050B1 (ko) * 2009-12-11 2011-10-04 삼성전기주식회사 복합 기능 카메라 모듈
JP5080602B2 (ja) * 2010-03-19 2012-11-21 日立オートモティブシステムズ株式会社 車両制御装置
CN102275558B (zh) * 2010-06-12 2013-01-23 财团法人车辆研究测试中心 双视觉前车安全警示装置及其方法
JP5389002B2 (ja) * 2010-12-07 2014-01-15 日立オートモティブシステムズ株式会社 走行環境認識装置
JP5348180B2 (ja) * 2011-05-30 2013-11-20 トヨタ自動車株式会社 運転支援装置
KR20130011825A (ko) 2011-07-22 2013-01-30 현대자동차주식회사 차선인식 방법
JP5757900B2 (ja) * 2012-03-07 2015-08-05 日立オートモティブシステムズ株式会社 車両走行制御装置
US9403436B1 (en) * 2015-02-12 2016-08-02 Honda Motor Co., Ltd. Lane keep assist system having augmented reality indicators and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010032063A1 (de) 2010-06-09 2011-05-12 Daimler Ag Verfahren zur Erfassung einer Umgebung eines Fahrzeugs
KR20130039681A (ko) 2011-10-12 2013-04-22 미쓰미덴기가부시기가이샤 전지 상태 계측 방법 및 전지 상태 계측 장치
DE102013113163A1 (de) 2012-12-03 2014-06-05 Fuji Jukogyo Kabushiki Kaisha Fahrzeugfahrtunterstützungssteuerungsvorrichtung

Also Published As

Publication number Publication date
CN104108392B (zh) 2017-04-19
DE102014005688A1 (de) 2014-10-16
US9664787B2 (en) 2017-05-30
KR101787996B1 (ko) 2017-10-19
CN104108392A (zh) 2014-10-22
KR20140122810A (ko) 2014-10-21
US20140306844A1 (en) 2014-10-16

Similar Documents

Publication Publication Date Title
DE102014005688B4 (de) Spurenschätzvorrichtung und verfahren
DE112009001727B4 (de) Bildverarbeitungsvorrichtung zum Berechnen eines optischen Flusses
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
DE102016206117B4 (de) Strassenoberflächenerfassungsvorrichtung und strassenoberflächenerfassungssystem
DE102009005861B4 (de) Fahrzeugumgebungs-Erkennungssystem
DE112017002743B4 (de) Parkunterstützungsvorrichtung und Parkunterstützungsverfahren
DE102014209213B4 (de) Parkassistenzsystem und -verfahren für ein Fahrzeug
DE102015220252B4 (de) Spurhalte-Unterstützungssystem und Verfahren für dieses
DE102016203723A1 (de) Verfahren und System zum Bestimmen der Pose eines Fahrzeugs
DE102015209857A1 (de) Autonomes Notbremssystem und Verfahren zum Erkennen von Fußgängern in diesem
DE102015121387B4 (de) Hinderniserkennungseinrichtung und Hinderniserkennungsverfahren
DE102011055665A1 (de) Bildverarbeitungsvorrichtung
DE102017117593A1 (de) Fahrzeugfahrassistenzvorrichtung
DE102009015142A1 (de) Fahrzeugumgebungs-Erkennungs-Vorrichtung und Steuerungssystem zum Verfolgen eines vorausfahrenden Fahrzeugs
DE102012219834A1 (de) Spurverfolgungssystem
DE102014012653A1 (de) Bildverarbeitungsverfahren für Fahrzeugkamera und dieses anwendende Bildverarbeitungsvorrichtung
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102015114403A1 (de) Annäherungsobjekterfassungsvorrichtung für ein Fahrzeug und Annäherungsobjekterfassungsverfahren dafür
DE102018124033B4 (de) Bodenkontaktbestimmungsvorrichtung für ein dreidimensionales Objekt
DE102015208599A1 (de) Objekterkennungsvorrichtung
DE102015216908A1 (de) Verfahren zum Erkennen von Objekten auf einer Abstellfläche
DE112019000855T5 (de) Fahrzeugsteuergerät
DE102020107484A1 (de) Verfahren und vorrichtung zur bestätigung einer radarerfassung
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE102014012250B4 (de) Verfahren zur Bilderverarbeitung und -darstellung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: PFENNING MEINIG & PARTNER GBR, DE

Representative=s name: PFENNING, MEINIG & PARTNER MBB PATENTANWAELTE, DE

R012 Request for examination validly filed

Effective date: 20140411

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R026 Opposition filed against patent
R081 Change of applicant/patentee

Owner name: HL KLEMOVE CORP., KR

Free format text: FORMER OWNER: MANDO CORPORATION, PYEONGTAEK-SI, GYEONGGI-DO, KR

Owner name: MANDO MOBILITY SOLUTIONS CORP., PYEONGTAEK-SI, KR

Free format text: FORMER OWNER: MANDO CORPORATION, PYEONGTAEK-SI, GYEONGGI-DO, KR

R081 Change of applicant/patentee

Owner name: HL KLEMOVE CORP., KR

Free format text: FORMER OWNER: MANDO MOBILITY SOLUTIONS CORP., PYEONGTAEK-SI, GYEONGGI-DO, KR

R031 Decision of examining division/federal patent court maintaining patent unamended now final