DE102021100583A1 - System und verfahren zur fahrzeugnavigation mit geländetexterkennung - Google Patents

System und verfahren zur fahrzeugnavigation mit geländetexterkennung Download PDF

Info

Publication number
DE102021100583A1
DE102021100583A1 DE102021100583.3A DE102021100583A DE102021100583A1 DE 102021100583 A1 DE102021100583 A1 DE 102021100583A1 DE 102021100583 A DE102021100583 A DE 102021100583A DE 102021100583 A1 DE102021100583 A1 DE 102021100583A1
Authority
DE
Germany
Prior art keywords
vehicle
terrain
next waypoint
neural network
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102021100583.3A
Other languages
English (en)
Inventor
Farui Peng
Kai-Han Chang
Wei Tong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102021100583A1 publication Critical patent/DE102021100583A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Verfahren zur Fahrzeugnavigation unter Verwendung von Geländetexterkennung umfasst den Empfang einer Navigationsroute durch das Gelände über eine elektronische Steuerung, die an einem Fahrzeug angeordnet ist und Zugriff auf eine Karte des Geländes hat. Das Verfahren umfasst auch den Empfang eines Signals von einem globalen Positionierungssystem (GPS) über die Steuerung, um eine aktuelle Position des Fahrzeugs relativ zum Gelände zu bestimmen. Das Verfahren umfasst zusätzlich die Bestimmung einer Position eines nächsten Wegpunktes auf der Navigationsroute und relativ zur aktuellen Fahrzeugposition über die Steuerung. Das Verfahren umfasst auch das Erfassen und Übermitteln eines Einzelbilds, das einen Text anzeigt, der den nächsten Wegpunkt angibt, über einen Fahrzeugsensor an das Steuergerät und das Korrelieren des erfassten Textes mit dem nächsten Wegpunkt auf der Karte über das Steuergerät. Darüber hinaus umfasst das Verfahren das Setzen eines fahrzeuginternen Warnsignals über die Steuerung, das anzeigt, dass der erfasste Text mit dem nächsten Wegpunkt korreliert worden ist.

Description

  • EINLEITUNG
  • Die vorliegende Offenbarung bezieht sich auf ein System und ein Verfahren zur Navigation eines Kraftfahrzeugs unter Verwendung von Geländetexterkennung.
  • Ein Fahrzeugnavigationssystem kann Teil der integrierten Fahrzeugsteuerung oder ein Zusatzgerät sein, das zum Finden eines Weges im Fahrzeug verwendet wird. Fahrzeugnavigationssysteme sind entscheidend für die Entwicklung der Fahrzeugautomatisierung, d. h. für selbstfahrende Autos. Typischerweise verwendet ein Fahrzeugnavigationssystem ein Satellitennavigationsgerät, um seine Positionsdaten zu erhalten, die dann mit der Position des Fahrzeugs relativ zu einem umgebenden geografischen Gebiet korreliert werden. Basierend auf diesen Informationen kann, wenn eine Wegbeschreibung zu einem bestimmten Wegpunkt benötigt wird, eine Routenführung zu einem solchen Ziel berechnet werden. On-the-fly-Verkehrsinformationen können verwendet werden, um die Route anzupassen.
  • Die aktuelle Position eines Fahrzeugs kann per Koppelnavigation berechnet werden, indem eine zuvor ermittelte Position verwendet wird und diese Position anhand bekannter oder geschätzter Geschwindigkeiten über die verstrichene Zeit und den Kurs fortgeschrieben wird. Entfernungsdaten von Sensoren, die am Antriebsstrang des Fahrzeugs angebracht sind, z. B. Gyroskop und Beschleunigungsmesser, sowie fahrzeugmontierte Radar- und optische Geräte können für eine höhere Zuverlässigkeit und zum Ausgleich von GPS-Satellitensignalverlusten und/oder Mehrwege-Interferenzen aufgrund von Straßenschluchten oder Tunneln verwendet werden. In städtischen und vorstädtischen Umgebungen werden die Standorte von Wahrzeichen, Sehenswürdigkeiten und verschiedenen Attraktionen häufig durch Schilder mit einer textlichen Beschreibung oder einem formalen Namen der Sehenswürdigkeit gekennzeichnet.
  • KURZFASSUNG
  • Ein Verfahren zur Fahrzeugnavigation unter Verwendung von Geländetexterkennung umfasst das Empfangen einer Navigationsroute durch das Gelände durch eine elektronische Steuerung, die an einem Fahrzeug angeordnet ist und Zugriff auf eine Karte des Geländes hat. Das Verfahren umfasst auch den Empfang eines Signals von einem globalen Positionierungssystem (GPS) über die Steuerung und die Verwendung des Signals zur Bestimmung einer aktuellen Position des Fahrzeugs relativ zum Gelände. Das Verfahren umfasst zusätzlich die Bestimmung einer Position eines nächsten Wegpunktes auf der Navigationsroute und relativ zur aktuellen Position des Fahrzeugs über die elektronische Steuerung. Das Verfahren umfasst auch das Erfassen und Übermitteln eines Einzelbilds, das einen Text anzeigt, der den nächsten Wegpunkt angibt, über einen am Fahrzeug angeordneten Sensor an die elektronische Steuerung. Das Verfahren umfasst zusätzlich das Korrelieren des erkannten Textes mit dem nächsten Wegpunkt auf der Geländekarte über die elektronische Steuerung. Außerdem umfasst das Verfahren das Setzen eines fahrzeuginternen Warnsignals über die elektronische Steuerung, die anzeigt, dass der erfasste Text mit dem nächsten Wegpunkt korreliert worden ist.
  • Das Verfahren kann auch das Bestimmen einer Entfernung von der aktuellen Position zur ermittelten Position des nächsten Wegpunkts umfassen.
  • Zusätzlich kann das Verfahren die Bestimmung umfassen, ob der Abstand von der aktuellen Position zur ermittelten Position des nächsten Wegpunkts innerhalb eines Schwellenabstands liegt.
  • Das Verfahren sieht vor, dass das fahrzeuginterne Warnsignal ausgelöst werden kann, wenn die Entfernung zwischen der aktuellen Position und der ermittelten Position des nächsten Wegpunkts innerhalb der Schwellenentfernung liegt.
  • Gemäß der Methode kann das Korrelieren des erkannten Textes mit dem nächsten Wegpunkt auf der Geländekarte die Verwendung einer trainierten Neuronalen Netzwerkarchitektur umfassen.
  • Die Architektur des neuronalen Netzwerks kann eine vereinheitlichte neuronale Netzwerkstruktur sein, die für die Erkennung des Einzelbildes konfiguriert ist. Die vereinheitlichte neuronale Netzwerkstruktur kann ein voll konvolutionelles erstes neuronales Netzwerk mit einem Bildeingang und mindestens einer Schicht enthalten, das für die Texterkennung konfiguriert ist. Die vereinheitlichte neuronale Netzwerkstruktur kann auch ein zweites neuronales Netzwerk mit einer Texteingabe und mindestens einer Schicht enthalten. In einer solchen Struktur kann eine Ausgabe von der mindestens einen Schicht des zweiten neuronalen Netzwerks mit der mindestens einen Schicht des ersten neuronalen Netzwerks zusammengeführt werden. Das erste und das zweite Neuronale Netz können zusammen trainiert werden, um eine Maskenbewertung auszugeben.
  • Gemäß dem Verfahren kann das Setzen der fahrzeuginternen Warnmeldung, die anzeigt, dass der erkannte Text mit dem nächsten Wegpunkt auf der Geländekarte korreliert wurde, das Projizieren eines Hervorhebungssymbols, das die Maskenbewertung darstellt, über ein Head-up-Display (HUD) auf eine Ansicht des nächsten Wegpunkts umfassen.
  • Das Verfahren kann auch das Bestimmen eines Sichtfelds eines Fahrzeuginsassen und das Setzen der fahrzeuginternen Warnmeldung in Reaktion auf das bestimmte Sichtfeld umfassen.
  • Gemäß dem Verfahren kann das Bestimmen des Sichtfeldes das Erfassen einer Ausrichtung der Augen eines Fahrzeuginsassen umfassen. In einer solchen Ausführungsform kann die fahrzeuginterne Warnmeldung die Projektion des Hervorhebungssymbols in Reaktion auf die erkannte Ausrichtung der Augen des Fahrzeuginsassen umfassen.
  • Gemäß dem Verfahren kann das Setzen der fahrzeuginternen Warnmeldung die Auslösung eines akustischen Signals umfassen, wenn der nächste Wegpunkt im festgelegten Sichtfeld erscheint.
  • Ein System zur Fahrzeugnavigation mit Geländetexterkennung, welches das oben beschriebene Verfahren verwendet, wird ebenfalls offenbart.
  • Die obigen Merkmale und Vorteile sowie andere Merkmale und Vorteile der vorliegenden Offenbarung werden aus der folgenden detaillierten Beschreibung der Ausführungsform(en) und der besten Art(en) zur Ausführung der beschriebenen Offenbarung leicht ersichtlich sein, wenn sie in Verbindung mit den beigefügten Zeichnungen und den beigefügten Ansprüchen betrachtet werden.
  • Figurenliste
    • 1 ist eine Draufsicht auf ein Kraftfahrzeug, das ein geographisches Gebiet durchfährt; das Fahrzeug verwendet ein System zur Fahrzeugnavigation mit Geländetexterkennung gemäß der vorliegenden Offenbarung.
    • 2 ist eine schematische Darstellung eines Blicks aus dem in 1 gezeigten Kraftfahrzeug heraus, das sich einem Einzelbild nähert das einen Text anzeigt, der auf einen angetroffenen Wegpunkt hinweist und dieses über einen am Fahrzeug angeordneten Sensor erfasst, gemäß der vorliegenden Offenbarung.
    • 3 ist eine Darstellung der Architektur eines trainierten neuronalen Netzwerks, das vom System für die Fahrzeugnavigation unter Verwendung der Geländetexterkennung verwendet wird.
    • 4 ist eine schematische Darstellung des Systems für die Fahrzeugnavigation, das in der Kabine des Kraftfahrzeugs arbeitet, um eine Warnmeldung zu setzen, die auf den erkannten Text hinweist, der mit dem angetroffenen Wegpunkt korreliert ist, gemäß der vorliegenden Offenbarung.
    • 5 ist ein Flussdiagramm eines Verfahrens zur Fahrzeugnavigation unter Verwendung des in 1-4 dargestellten Systems zur Fahrzeugnavigation gemäß der vorliegenden Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Unter Bezugnahme auf die Zeichnungen, in denen sich gleiche Referenznummern auf gleiche Komponenten beziehen, zeigt 1 eine schematische Ansicht eines Kraftfahrzeugs 10. Wie dargestellt, hat das autonome Kraftfahrzeug 10 eine Fahrzeugkarosserie 12. Die Fahrzeugkarosserie 12 kann eine vordere Seite oder ein vorderes Ende 12-1, eine linke Karosserieseite 12-2, eine rechte Karosserieseite 12-3, eine hintere Seite oder ein hinteres Ende 12-4, eine Oberseite oder einen Abschnitt, wie z. B. ein Dach, 12-5 und eine Unterseite oder ein Fahrgestell 12-6 aufweisen. Die Fahrzeugkarosserie 12 definiert im Allgemeinen eine Kabine 12A für einen Bediener und Passagiere des Fahrzeugs 10. Das Fahrzeug 10 kann verwendet werden, um ein geografisches Gebiet zu durchqueren, das eine bestimmte Landschaft oder ein bestimmtes Gelände 14 mit zugehörigen Straßen und physischen Objekten, wie z. B. Wohnkomplexen, Geschäftsorten, Wahrzeichen, Sehenswürdigkeiten und Attraktionen, umfasst.
  • Wie in 1 dargestellt, kann das Fahrzeug 10 eine Vielzahl von Straßenrädern 16 aufweisen. Obwohl vier Räder 16 dargestellt sind, ist auch ein Fahrzeug mit einer geringeren oder größeren Anzahl von Rädern oder mit anderen Mitteln, wie z. B. Ketten (nicht dargestellt), zum Überqueren der Straßenoberfläche 14A oder anderer Teile des geografischen Gebiets denkbar. Beispielsweise kann das Fahrzeug 10, wie in 1 gezeigt, ein Datenerfassungs- und -verarbeitungssystem 18 verwenden, das ein Wahrnehmungs- und Leitsystem sein kann, das Mechatronik, künstliche Intelligenz und ein Multiagentensystem zur Unterstützung des Fahrzeugführers einsetzt. Das Datenerfassungs- und -verarbeitungssystem 18 kann verwendet werden, um verschiedene Objekte oder Hindernisse auf dem Weg des Fahrzeugs 10 zu erkennen. Das System 18 kann solche Merkmale und verschiedene Datenquellen für komplexe Aufgaben, insbesondere die Navigation, nutzen, um die Führung des Fahrzeugs 10 zu erleichtern, z. B. beim Durchqueren des geografischen Gebiets und des Geländes 14.
  • Wie in 1 dargestellt, sind als Teil des Datenerfassungs- und -verarbeitungssystems 18 ein erster Fahrzeugsensor 20 und ein zweiter Fahrzeugsensor 22 an der Fahrzeugkarosserie 12 angeordnet und werden als Datenquellen verwendet, um eine erweiterte Fahrerassistenz oder einen autonomen Betrieb des Fahrzeugs 10 zu ermöglichen. Solche Fahrzeugsensoren 20 und 22 können beispielsweise akustische oder optische Vorrichtungen umfassen, die an der Fahrzeugkarosserie 12 angebracht sind, wie in 1 gezeigt. Insbesondere können solche optischen Vorrichtungen entweder Sender oder Kollektoren/Empfänger von Licht sein, die an einer der Fahrzeugkarosserieseiten 12-1, 12-2, 12-3, 12-4, 12-5 und 12-6 angebracht sind. Die ersten und zweiten Fahrzeugsensoren 20, 22 sind als Teil des Systems 18 dargestellt und können Teil anderer Systeme sein, die vom Fahrzeug 10 verwendet werden, z. B. zur Anzeige einer 360-Grad-Ansicht der unmittelbaren Umgebung im Gelände 14. Obwohl der erste und der zweite Sensor 20, 22 hier ausdrücklich genannt werden, schließt nichts aus, dass das Datenerfassungs- und - verarbeitungssystem 18 eine größere Anzahl von Einzelsensoren einsetzt.
  • Insbesondere kann eine optische Vorrichtung eine Laserstrahlquelle für ein Light Detection and Ranging (LIDAR)-System oder ein Laserlichtsensor für ein adaptives Geschwindigkeitsregelsystem oder eine Kamera sein, die Videodateien erzeugen kann. In einer beispielhaften Ausführungsform des Systems 18 kann der erste Fahrzeugsensor 20 eine Kamera und der zweite Fahrzeugsensor 22 ein LIDAR sein. Im Allgemeinen ist jeder der ersten und zweiten Fahrzeugsensoren 20, 22 so konfiguriert, dass er die unmittelbare Umgebung des Geländes 14 erfasst, einschließlich beispielsweise eines Objekts 24, das sich außerhalb des Fahrzeugs 10 befindet. Bei dem Objekt 24 kann es sich um einen bestimmten Punkt von Interesse handeln, z. B. eine Landmarke, eine Gebäudestruktur, in der ein bestimmtes Geschäft untergebracht ist, eine Straße oder eine Kreuzung, die jeweils durch ein entsprechendes Schild mit einer textlichen Beschreibung oder einem formalen Namen des betreffenden Punkts von Interesse gekennzeichnet sind.
  • Das Datenerfassungs- und -verarbeitungssystem 18 umfasst auch eine programmierbare elektronische Steuerung 26, die mit dem ersten und zweiten Sensor 20, 22 kommuniziert. Wie in 1 dargestellt, ist das Steuergerät 26 auf dem autonomen Fahrzeug 10 angeordnet und kann in eine zentrale Verarbeitungseinheit (CPU) 28 integriert sein. Die Steuerung 26 kann so konfiguriert sein, dass sie die erfassten Rohdaten für verschiedene Zwecke verwendet, z.B. um eine 360-Grad-Ansicht des Geländes 14 zu erstellen, um Wahrnehmungsalgorithmen auszuführen usw. Die Steuerung 26 umfasst einen Speicher, der materiell und nichtflüchtig ist. Der Speicher kann ein beschreibbares Medium sein, das an der Bereitstellung von computerlesbaren Daten oder Prozessanweisungen beteiligt ist. Ein solches Medium kann viele Formen annehmen, einschließlich, aber nicht beschränkt auf nichtflüchtige Medien und flüchtige Medien. Nichtflüchtige Medien, die von der Steuerung 26 verwendet werden, können z. B. optische oder magnetische Festplatten und andere dauerhafte Speicher sein. Die Steuerung 26 enthält einen Algorithmus, der als elektronische Schaltung, z. B. FPGA, oder als in einem nichtflüchtigen Speicher gespeicherter Algorithmus implementiert sein kann. Zu den flüchtigen Medien des Speichers der Steuerung 26 kann z. B. ein dynamischer Direktzugriffsspeicher (DRAM) gehören, der einen Hauptspeicher darstellen kann.
  • Die Steuerung 26 kann mit dem jeweiligen ersten und zweiten Sensor 20, 22 über ein Übertragungsmedium kommunizieren, einschließlich Koaxialkabel, Kupferdraht und Lichtwellenleiter, einschließlich der Drähte in einem Systembus, der eine bestimmte Steuerung mit einem einzelnen Prozessor verbindet. Der Speicher der Steuerung 26 kann auch eine flexible Platte, eine Festplatte, ein Magnetband, ein anderes magnetisches Medium, eine CD-ROM, eine DVD, ein anderes optisches Medium usw. umfassen. Die Steuerung 26 kann mit einem Hochgeschwindigkeits-Primärtaktgeber, erforderlichen Analog-zu-Digital- (A/D) und/oder Digitalzu-Analog- (D/A) Schaltungen, Eingangs-/Ausgangsschaltungen und -geräten (E/A) sowie geeigneten Signalaufbereitungs- und/oder Pufferschaltungen ausgestattet sein. Algorithmen, die von der Steuerung 26 benötigt werden oder auf die dieser zugreifen kann, können im Speicher der Steuerung gespeichert und automatisch ausgeführt werden, um die erforderliche Funktionalität bereitzustellen. Die Steuerung 26 kann so konfiguriert, d. h. strukturiert und programmiert sein, dass er erfasste Rohdatensignale empfängt und verarbeitet, die von den jeweiligen ersten und zweiten Sensoren 20, 22 gesammelt wurden.
  • Wie dargestellt, enthält die elektronische Steuerung 26 ein Navigationsmodul 30. Physisch kann das Navigationsmodul 30 getrennt vom Steuergerät 26 angeordnet sein oder darin untergebracht sein. Das Navigationsmodul 30 umfasst eine in seinem Speicher gespeicherte Karte 32 des geografischen Gebiets mit dem Gelände 14 und ist im Allgemeinen so konfiguriert, dass es Navigationsrouten zur Führung des Fahrzeugs 10 durch das Gelände 14 erstellt. Das Navigationsmodul 30 ist so konfiguriert, dass es eine Navigationsroute 34 zu einem bestimmten Ziel 36 durch das Gelände 14 bestimmt, beispielsweise nach einer Aufforderung zur Bestimmung der betreffenden Route durch einen Bediener des Fahrzeugs 10. Die Steuerung 26 ist speziell konfiguriert, um auf die Navigationsroute 34 im Navigationsmodul 30 zuzugreifen oder die Navigationsroute von dort zu empfangen. Das Navigationsmodul 30 ist im Allgemeinen so konfiguriert, dass es die ermittelte Navigationsroute 34 ausgibt und die Route auf einem in der Fahrzeugkabine 12A angeordneten Navigationsbildschirm 39 (in 4 dargestellt) anzeigt.
  • Wie hierin definiert, umfasst das Datenerfassungs- und -verarbeitungssystem 18 auch ein globales Positionierungssystem (GPS) 38 mit erdumlaufenden Satelliten in Kommunikation mit dem Navigationsmodul 30. Die Steuerung 26 ist so konfiguriert, dass sie vom GPS 38, beispielsweise über das Navigationsmodul 30, Signal(e) 38A empfängt, die eine aktuelle Position des/der GPS-Satelliten relativ zum Fahrzeug 10 angeben. Die Steuerung 26 ist außerdem so konfiguriert, dass sie das/die Signal(e) 38A verwendet, um eine aktuelle Position 40 des Fahrzeugs 10 relativ zum Gelände 14 zu bestimmen. Im Allgemeinen sendet jeder GPS-Satellit kontinuierlich ein Funksignal aus, das die aktuelle Zeit und die Position des Satelliten angibt. Da die Geschwindigkeit der Funkwellen konstant und unabhängig von der Geschwindigkeit des GPS-Satelliten ist, ist die Zeitverzögerung zwischen dem Zeitpunkt, an dem der Satellit ein Signal sendet und der Empfänger es empfängt, proportional zur Entfernung des Satelliten zum Empfänger. Das Navigationsmodul 30 überwacht typischerweise mehrere Satelliten und löst Gleichungen, um die genaue Position des Fahrzeugs 10 und deren Abweichung von der wahren Zeit zu bestimmen. Das Navigationsmodul 30 benötigt im Allgemeinen mindestens vier GPS-Satelliten in Sichtweite, damit das Modul drei Positionskoordinaten und die Abweichung der Uhr von der Satellitenzeit berechnen kann.
  • Die Steuerung 26 ist zusätzlich konfiguriert, um eine Position 42 eines nächsten Wegpunkts 44, beispielsweise des externen Objekts 24, auf der Navigationsroute 34 und relativ zur aktuellen Position 40 des Fahrzeugs 10 zu bestimmen. Die Steuerung 26 ist außerdem so konfiguriert, dass sie eine Testabfrage an den Sensor 20 stellt und von diesem ein Einzelbild 46 empfängt, das einen Text 48 anzeigt, der den nächsten Wegpunkt 42 angibt. Der Text 48 auf dem Einzelbild 46 kann z.B. ein oder mehrere Wörter auf einem Verkehrs-, Straßen- oder Geschäftsschild sein. Die Steuerung 26 ist zusätzlich konfiguriert, um den erkannten Text 48 zu erkennen und mit dem nächsten Wegpunkt 44 auf der Karte 32 des Geländes 14 zu korrelieren. Darüber hinaus ist die Steuerung 26 so konfiguriert, dass es eine fahrzeuginternen Warnmeldung 50 auslöst, die anzeigt, dass der erkannte Text 48 mit dem nächsten Wegpunkt 44 korreliert wurde.
  • Die elektronische Steuerung 26 kann zusätzlich konfiguriert sein, um einen Abstand 52 von der aktuellen Position 40 des Fahrzeugs 10 zu der ermittelten Position 42 des nächsten Wegpunkts 44 zu bestimmen. Die elektronische Steuerung 26 kann zusätzlich konfiguriert sein, um zu bestimmen, ob der Abstand 52 von der aktuellen Position 40 zu der ermittelten Position 42 innerhalb eines Schwellenabstands 54 liegt. Die Steuerung 26 kann ferner so konfiguriert sein, dass es die Warnmeldung 50 setzt, wenn die aktuelle Position 40 des Fahrzeugs 10 innerhalb des Schwellenabstands 54 zum nächsten Wegpunkt 44 liegt und der Text 48 mit dem nächsten Wegpunkt korreliert ist. Die Warnung 50 kann auf verschiedene Weise akustisch und/oder visuell gesetzt werden, die jeweils so konfiguriert sind, dass sie dem Fahrzeugführer anzeigen, dass sich das Fahrzeug 10 dem nächsten Wegpunkt 44 nähert.
  • Mit fortgesetztem Bezug auf 1 kann die elektronische Steuerung 26 eine trainierte neuronale Netzwerkarchitektur 55 verwenden, um Text- und Bilddaten zu erkennen, die vom ersten Sensor 20 erfasst werden, während sich das Fahrzeug 10 entlang der Navigationsroute 34 durch das Gelände 14 bewegt. Insbesondere kann die elektronische Steuerung 26 so konfiguriert sein, dass sie den erkannten Text 48 über eine trainierte Neuronale Netzwerkarchitektur 55 mit dem nächsten Wegpunkt 44 korreliert. Wie in 3 gezeigt, kann die Architektur des Neuronalen Netzes 55 eine vereinheitlichte Struktur des Neuronalen Netzes sein, die so konfiguriert ist, dass sie das Einzelbild 46 rekonstruiert. Gemäß der vorliegenden Offenbarung kann die vereinheitlichte neuronale Netzwerkstruktur ein zweidimensionales, voll-konvolutionelles erstes neuronales Netzwerk 56 mit einer ersten (Bild-)Eingabe 56-1, das so konfiguriert ist, dass es den Text 48 erkennt, und ein eindimensionales, konvolutionelles zweites neuronales Netzwerk 58 mit einer zweiten (TextEingabe 58-1 umfassen.
  • Im Allgemeinen werden konvolutionelle Neuronale Netze für die Bilderkennung verwendet. Konvolutionelle Neuronale Netze verwenden vollständig verbundene konvolutionelle Schichten, die durch Lernen eines kleinen Satzes von Gewichtungen arbeiten, die nacheinander als Filter auf kleine Teile des Bildes angewendet werden. Die Gewichtungen werden (in den konvolutionellen Schichten) in einer kleinen Matrix (oft 3x3) gespeichert, die mit jedem Pixel punktproduziert wird, d.h. die skalaren Größen werden multipliziert, um einen neuen Pixel zu erzeugen, und fungieren somit als Bildfilter. Die von jedem Neuron/Filter in einer konvolutionellen Schicht erzeugten neuen Bilder werden dann kombiniert und als Eingaben an jedes Neuron in der nächsten Schicht weitergegeben, und so weiter, bis das Ende des neuronalen Netzes erreicht ist. Am Ende eines konvolutionellen neuronalen Netzwerks befindet sich oft eine einzelne dichte Schicht, um die Bildausgabe der letzten konvolutionellen Schicht in die numerische Klassenvorhersage umzuwandeln, für die das neuronale Netzwerk trainiert wird. Ein voll-konvolutionelles neuronales Netzwerk ist ähnlich wie ein konvolutionelles neuronales Netzwerk, aber ohne voll-verbundene Schichten, d. h. es besteht nur aus konvolutionellen Schichten und möglicherweise einigen Max-Pooling-Schichten. Die Ausgabeschicht eines vollfunktionsfähigen neuronalen Netzes ist eine konvolutionelle Schicht, und die Ausgabe eines solchen neuronalen Netzes ist daher ein Bild.
  • Wie dargestellt, enthält das erste neuronale Netzwerk 56 mehrere Schichten 56-2, während das zweite neuronale Netzwerk 58 mehrere Schichten 58-2 enthält. Die Ausgänge von mehreren Schichten 58-2 werden mit den entsprechenden Schichten 56-2 im ersten neuronalen Netzwerk 56 unter Verwendung von mindestens einer vollständig verbundenen Schicht 58-2A zusammengeführt. Die von den Schichten 58-2 erzeugten diskreten Werte können elementweise zu den entsprechenden Schichten 56-2 hinzugefügt werden, d. h. einzeln, Element für Element. Das erste neuronale Netzwerk 56 und das zweite neuronale Netzwerk 58 werden zusammen trainiert, um einen Maskenwert 60 auszugeben, bei dem der erkannte Text 48 auf dem erkannten Einzelbild 46 liegt. Obwohl das zweite neuronale Netzwerk 58 hier speziell als ein eindimensionales konvolutionelles Modell offenbart wird, kann auch ein bidirektionales rekurrentes neuronales Netzwerk oder ein anderes Wortdarstellungsmodell verwendet werden.
  • Wie in 4 gezeigt, kann die elektronische Steuerung 26 zusätzlich so konfiguriert sein, dass sie ein Sichtfeld 62 aus dem Blickwinkel des Bedieners oder eines anderen vorbestimmten Insassen des Fahrzeugs 10 bestimmt und die fahrzeuginterne Warnmeldung 50 in Abhängigkeit von dem bestimmten Sichtfeld setzt. Das Sichtfeld 62 kann über die Erkennung der Ausrichtung 64 der Augen des Fahrzeuginsassen bestimmt werden, z. B. durch Punktabtastung über einen MEMS-Spiegel 66 und Laser-LEDs 68, die z. B. in das Armaturenbrett 12B oder die A-Säule 12C des Fahrzeugs eingebettet sind. Alternativ kann die Erkennung der Ausrichtung 64 der Augen des Fahrzeuginsassen über eine fahrzeuginterne Kamera eines Fahrerüberwachungssystems erfolgen, die z. B. im Armaturenbrett 12B, der A-Säule 12C oder an einer Lenkradsäule 12D positioniert ist.
  • Das Datenerfassungs- und -verarbeitungssystem 18 kann ein Head-up-Display (HUD) 70 umfassen, das im Allgemeinen dazu dient, ausgewählte Fahrzeugdaten in die Kabine 12A zu projizieren, um den Fahrzeugführer darüber zu informieren. Insbesondere kann die elektronische Steuerung 26 die fahrzeuginterne Warnmeldung 50 mit Hilfe des HUD 70 so einstellen, dass ein visuelles Signal, wie z. B. ein für den Maskenwert 60 repräsentatives Markierungssymbol 60A, auf eine Ansicht des nächsten Wegpunkts 44 projiziert wird. Ein solches visuelles Signal kann z. B. auf eine Ansicht des nächsten Wegpunkts 44 in einer Fahrzeugwindschutzscheibe 72 oder einem der Seitenfenster 74 projiziert werden, und zwar in Abhängigkeit von der erkannten Ausrichtung der Augen des Fahrzeuginsassen, d. h. wenn der nächste Wegpunkt 44 in das Sichtfeld 62 kommt. Zusätzlich zum HUD 70 kann das Hervorhebungssymbol 60A über einen MEMS-Spiegel 66 und Leuchtdioden (LEDs) 68 projiziert werden, die in das Armaturenbrett 12B oder die A-Säule 12C des Fahrzeugs eingelassen sind und von der Windschutzscheibe 72 in das Sichtfeld 62 des Fahrzeuginsassen reflektiert werden.
  • Um die Projektion des Symbols 60A auf die Ansicht des nächsten Wegpunkts 44 zu beeinflussen und dadurch das entsprechende externe Objekt 24 hervorzuheben, kann das Fahrzeug 10 in einem bestimmten Beispiel eine fluoreszierende Folie 76 mit Laseranregung enthalten, die an der Windschutzscheibe 72 des Fahrzeugs angebracht ist (dargestellt in 4). In einer anderen Ausführungsform kann die fahrzeuginterne Warnmeldung 50 durch Auslösen eines akustischen Signals, z. B. über die Audiolautsprecher 78 des Fahrzeugs, erfolgen, um anzuzeigen, dass sich das Fahrzeug 10 dem nächsten Wegpunkt 44 nähert, entweder als eigenständige Maßnahme oder begleitend zu dem oben beschriebenen visuellen Signal. Zusätzlich kann die elektronische Steuerung 26 so konfiguriert sein, dass die fahrzeuginterne Warnmeldung 50 durch Hervorheben des nächsten Wegpunkts auf der Navigationsroute 34, die auf dem Navigationsbildschirm 39 angezeigt wird, ausgelöst wird, wenn der nächste Wegpunkt 44 im ermittelten Sichtfeld 62 erscheint.
  • 5 zeigt ein Verfahren 100 zur Fahrzeugnavigation unter Verwendung von Geländetexterkennung, das von dem Fahrzeugdatenerfassungs- und -verarbeitungssystem 18 verwendet wird, wie oben in Bezug auf die 1-4 beschrieben. Das Verfahren 100 kann über das System 18 unter Verwendung der elektronischen Steuerung 26, die mit entsprechenden Algorithmen programmiert ist, durchgeführt werden. Das Verfahren 100 beginnt im Feld 102 mit dem Empfang der Navigationsroute 34 durch das Gelände 14 über die elektronische Steuerung 26. Nach Rahmen 102 geht das Verfahren zu Feld 104 über, wo das Verfahren den Empfang eines Signals 38A vom GPS 38 über die elektronische Steuerung 26 und die Verwendung des Signals 38A zur Bestimmung der aktuellen Position 40 des Fahrzeugs 10 relativ zum Gelände 14 umfasst. Nach dem Feld 104 schreitet das Verfahren zum Feld 106 fort. In Feld 106 umfasst das Verfahren die Bestimmung der Position 42 des nächsten Wegpunkts 44 auf der Navigationsroute 34 über die elektronische Steuerung 26.
  • Nach dem Feld 106 kann das Verfahren zum Feld 108 oder zum Feld 112 übergehen. In Feld 108 kann das Verfahren die Bestimmung des Abstands 52 von der aktuellen Position zur bestimmten Position 42 des nächsten Wegpunkts 44 umfassen und dann zu Feld 110 übergehen, um zu bestimmen, ob der Abstand 52 zur Position 42 innerhalb des Schwellenabstands 54 liegt. Wenn festgestellt wird, dass der Abstand 52 zur ermittelten Position 42 des nächsten Wegpunkts 44 außerhalb des Schwellenabstands 54 liegt, kann das Verfahren zum Feld 106 zurückkehren. Wenn andererseits festgestellt wird, dass der Abstand 52 von der aktuellen Position zur Position 42 des nächsten Wegpunkts 44 innerhalb des Schwellenabstands 54 liegt, kann das Verfahren zum Feld 112 weitergehen. In Feld 112 umfasst das Verfahren das Erfassen und Übermitteln des Einzelbilds 46, der den Text 48 anzeigt, der den nächsten Wegpunkt 44 angibt, über den Sensor 20 an die elektronische Steuerung 26.
  • Nach Feld 112 geht das Verfahren zu Feld 114 über. In Feld 114 umfasst das Verfahren das Korrelieren des erkannten Textes 48 mit dem nächsten Wegpunkt 44 auf der Karte 32 des Geländes 14 über die elektronische Steuerung 26. Gemäß dem Verfahren kann das Korrelieren des erkannten Textes 48 mit dem nächsten Wegpunkt 44 die Verwendung der trainierten Architektur des Neuronalen Netzes 55 umfassen. Wie oben in Bezug auf 3 beschrieben, kann die Architektur des neuronalen Netzes 55 eine vereinheitlichte Struktur des neuronalen Netzes sein, die so konfiguriert ist, dass sie das Einzelbild 46 erkennt, und ein voll-konvolutionelles erstes neuronales Netz 56, das einen Bildeingang 56-1 hat und so konfiguriert ist, dass es den erkannten Text 48 erkennt, und ein konvolutionelles zweites neuronales Netz 58, das einen Texteingang 58-1 hat, umfasst. Sowohl das erste neuronale Netzwerk als auch das zweite neuronale Netzwerk können jeweils mehrere Schichten 56-2, 58-2 umfassen. Die Ausgänge von mehreren Schichten 58-2 können mit den entsprechenden mehreren Schichten 56-2 unter Verwendung der vollständig verbundenen Schicht(en) 58-2A zusammengeführt werden. Wie oben beschrieben, sollen das erste und das zweite Neuronale Netz 56, 58 zusammen trainiert werden, um die Maskenbewertung 60 auszugeben, bei der sich der erkannte Text 48 auf dem erkannten Einzelbild 46 befindet. Nach Bild 114 geht das Verfahren zu Bild 116 über.
  • Im Feld 116 umfasst das Verfahren das Setzen der fahrzeuginterne Warnmeldung 50 über die elektronische Steuerung 26, die anzeigt, dass der erkannte Text 48 mit dem nächsten Wegpunkt 44 korreliert wurde. Dementsprechend kann das Setzen der fahrzeuginternen Warnmeldung 50 erfolgen, wenn der Abstand 52 von der aktuellen Position zur ermittelten Position 42 des nächsten Wegpunkts 44 innerhalb des Schwellenabstands 54 liegt. Darüber hinaus kann das Setzen der fahrzeuginternen Warnmeldung 50 das Projizieren des Hervorhebungssymbols 60A, das den Maskenwert 60 darstellt, über das HUD 70 auf die Ansicht des nächsten Wegpunkts 44 umfassen. Zusätzlich kann das Verfahren in Feld 116 die Bestimmung des Sichtfelds 62 eines Fahrzeuginsassen und das Setzen der fahrzeuginternen Warnmeldung 50 in Reaktion auf das bestimmte Sichtfeld umfassen.
  • Wie oben in Bezug auf 4 beschrieben, kann die Bestimmung des Sichtfelds 62 die Erkennung der Ausrichtung 64 der Augen des Fahrzeuginsassen umfassen, und das Setzen der fahrzeuginternen Warnmeldung 50 kann dann die Projektion des Hervorhebungssymbols 60A in Reaktion auf die erkannte Augenausrichtung umfassen. Alternativ kann das Setzen der fahrzeuginternen Warnmeldung 50 z. B. die Auslösung eines akustischen Signals umfassen, wenn der nächste Wegpunkt 44 im ermittelten Sichtfeld 62 erscheint. Nach Abschluss des Setzens der fahrzeuginternen Warnmeldung 50 in Feld 116 kann das Verfahren zum Feld 104 zurückkehren, um die Bestimmung der Position des Fahrzeugs 10 entlang der Route 34 fortzusetzen und anschließend die Position eines neuen Wegpunkts und eine weitere Textabfrage zu bestimmen. Alternativ kann das Verfahren, wenn z. B. das Fahrzeug sein gewähltes Ziel erreicht hat, nach Feld 116 in Feld 118 abgeschlossen werden.
  • Die ausführliche Beschreibung und die Zeichnungen oder Figuren sind unterstützend und beschreibend für die Offenbarung, aber der Umfang der Offenbarung wird ausschließlich durch die Ansprüche definiert. Während einige der besten Modi und andere Ausführungsformen zur Ausführung der beanspruchten Offenbarung im Detail beschrieben wurden, gibt es verschiedene alternative Ausführungen und Ausführungsformen zum Ausführen der in den beigefügten Ansprüchen definierten Offenbarung. Darüber hinaus sind die in den Zeichnungen dargestellten Ausführungsformen oder die in der vorliegenden Beschreibung erwähnten Merkmale verschiedener Ausführungsformen nicht unbedingt als voneinander unabhängige Ausführungsformen zu verstehen.
  • Vielmehr ist es möglich, dass jedes der in einem der Ausführungsbeispiele beschriebenen Merkmale mit einem oder mehreren anderen gewünschten Merkmalen anderer Ausführungsformen kombiniert werden kann, was zu anderen Ausführungsformen führt, die nicht in Worten oder durch Bezugnahme auf die Zeichnungen beschrieben sind. Dementsprechend fallen solche anderen Ausführungsformen in den Umfang des Anwendungsbereichs der beigefügten Ansprüche.

Claims (10)

  1. Verfahren zur Fahrzeugnavigation unter Verwendung von Geländetexterkennung, wobei das Verfahren umfasst: Empfangen einer Navigationsroute durch das Gelände über eine elektronische Steuerung, die an einem Fahrzeug angeordnet ist und Zugriff auf eine Karte des Geländes hat; Empfangen eines Signals von einem globalen Positionierungssystem (GPS) über die elektronische Steuerung und Verwenden des Signals zur Bestimmung einer aktuellen Position des Fahrzeugs relativ zum Gelände; Bestimmen einer Position eines nächsten Wegpunktes auf der Navigationsroute und relativ zur aktuellen Position des Fahrzeugs durch die elektronische Steuerung; Erfassen und Übermitteln eines Einzelbildes, das einen Text zeigt, der den nächsten Wegpunkt angibt, über einen am Fahrzeug angeordneten Sensor an die elektronische Steuerung; Korrelieren des erkannten Textes mit dem nächsten Wegpunkt auf der Karte des Geländes durch die elektronische Steuerung; und Einstellung einer fahrzeuginternen Warnmeldung, die anzeigt, dass der erkannte Text mit dem nächsten Wegpunkt korreliert wurde durch die elektronische Steuerung.
  2. Verfahren nach Anspruch 1, ferner umfassend das Bestimmen einer Entfernung von der aktuellen Position zu der bestimmten Position des nächsten Wegpunkts durch die elektronische Steuerung.
  3. Verfahren nach Anspruch 2, ferner umfassend das Bestimmen ob die Entfernung von der aktuellen Position zu der bestimmten Position des nächsten Wegpunkts innerhalb einer Schwellenentfernung liegt durch die elektronische Steuerung.
  4. Verfahren nach Anspruch 3, wobei das Setzen der fahrzeuginternen Warnmeldung durchgeführt wird, wenn die Entfernung von der aktuellen Position zu der ermittelten Position des nächsten Wegpunkts innerhalb der Schwellenentfernung liegt.
  5. Verfahren nach Anspruch 1, wobei das Korrelieren des erfassten Textes mit dem nächsten Wegpunkt auf der Karte des Geländes die Verwendung einer trainierten Neuronalen Netzwerkarchitektur umfasst.
  6. Verfahren nach Anspruch 5, wobei die Architektur des Neuronalen Netzwerks eine vereinheitlichte Struktur des Neuronalen Netzes ist, die so konfiguriert ist, dass sie das Einzelbild erkennt und Folgendes umfasst: ein voll-konvolutionelles erstes neuronales Netzwerk mit einem Bildeingang und mindestens einer Schicht, das zum Erkennen des Textes konfiguriert ist; und ein konvolutionelles zweites neuronales Netzwerk mit einer Texteingang und mindestens einer Schicht; und wobei eine Ausgabe von der mindestens einen Schicht des zweiten neuronalen Netzes mit der mindestens einen Schicht des ersten neuronalen Netzes zusammengeführt wird und das erste und das zweite neuronale Netz zusammen trainiert werden, um eine Maskenbewertung auszugeben.
  7. Verfahren nach Anspruch 6, wobei das Setzen der fahrzeuginternen Warnmeldung, die anzeigt, dass der erkannte Text mit dem nächsten Wegpunkt auf der Geländekarte korreliert wurde, das Projizieren eines Hervorhebungssymbols, das den Maskenwert repräsentiert, über ein Head-up-Display (HUD) auf eine Ansicht des nächsten Wegpunkts umfasst.
  8. Verfahren nach Anspruch 7, ferner umfassend das Bestimmen eines Sichtfeldes eines Insassen des Fahrzeugs und das Setzen der fahrzeuginternen Warnmeldung in Reaktion auf das bestimmte Sichtfeld.
  9. Verfahren nach Anspruch 8, wobei das Bestimmen des Sichtfeldes das Erfassen einer Ausrichtung der Augen des Insassen umfasst und das Setzen der fahrzeuginternen Warnmeldung das Projizieren des Hervorhebungssymbols in Reaktion auf die erfasste Ausrichtung der Augen des Fahrzeuginsassen umfasst.
  10. Verfahren nach Anspruch 8, wobei das Setzen der Fahrzeuginternen Warnmeldung das Auslösen eines akustischen Signals umfasst, wenn der nächste Wegpunkt im ermittelten Sichtfeld erscheint.
DE102021100583.3A 2020-02-05 2021-01-13 System und verfahren zur fahrzeugnavigation mit geländetexterkennung Withdrawn DE102021100583A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/782,683 2020-02-05
US16/782,683 US20210239485A1 (en) 2020-02-05 2020-02-05 System and method for vehicle navigation using terrain text recognition

Publications (1)

Publication Number Publication Date
DE102021100583A1 true DE102021100583A1 (de) 2021-08-05

Family

ID=76853614

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021100583.3A Withdrawn DE102021100583A1 (de) 2020-02-05 2021-01-13 System und verfahren zur fahrzeugnavigation mit geländetexterkennung

Country Status (3)

Country Link
US (1) US20210239485A1 (de)
CN (1) CN113218410A (de)
DE (1) DE102021100583A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11829150B2 (en) * 2020-06-10 2023-11-28 Toyota Research Institute, Inc. Systems and methods for using a joint feature space to identify driving behaviors
JP2023049833A (ja) * 2021-09-29 2023-04-10 本田技研工業株式会社 注意喚起システム、及び制御用プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6836725B2 (en) * 2001-09-27 2004-12-28 Magellan Dis, Inc. Vehicle navigation system with off-road navigation
JP4935145B2 (ja) * 2006-03-29 2012-05-23 株式会社デンソー カーナビゲーション装置
US10126141B2 (en) * 2016-05-02 2018-11-13 Google Llc Systems and methods for using real-time imagery in navigation
JP6462194B2 (ja) * 2016-09-26 2019-01-30 富士フイルム株式会社 投写型表示装置、投写表示方法、及び、投写表示プログラム
CN107966158B (zh) * 2016-10-20 2021-11-23 奥迪股份公司 用于室内停车场的导航***和方法
CN110135446B (zh) * 2018-02-09 2021-01-22 北京世纪好未来教育科技有限公司 文本检测方法及计算机存储介质
CN109492638A (zh) * 2018-11-07 2019-03-19 北京旷视科技有限公司 文本检测方法、装置及电子设备
CN209534920U (zh) * 2019-01-07 2019-10-25 上汽通用汽车有限公司 Hud角度调整***及车辆

Also Published As

Publication number Publication date
CN113218410A (zh) 2021-08-06
US20210239485A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
DE102015116882B4 (de) Verbindungswahrscheinlichkeitsmodellbildung und Folgerung der Kreuzungsstruktur
DE69333543T2 (de) Unterstützungssystem für den Fahrer eines Fahrzeugs und damit ausgerüstetes Fahrzeug
EP2592386B1 (de) Verfahren zur Positionsbestimmung
DE112014000819B4 (de) Fahrzeugfahrunterstützungssystem und Fahrunterstützungsimplementierungsverfahren
DE102021100584A1 (de) Erfassung und klassifizierung von sirenensignalen und lokalisierung von sirenensignalquellen
DE112020000110T5 (de) Nutzung von in fahrzeugen erfassten fahrgastaufmerksamkeitsdaten fürlokalisierungs- und standortbezogene dienste
DE102017125493A1 (de) Verkehrszeichenerkennung
DE102018120845A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
EP3577420B1 (de) Verfahren und vorrichtung zur aktualisierung einer digitalen karte
DE102019211681B4 (de) Verfahren eines Fahrzeugs zum automatisierten Parken
EP2583263A1 (de) Verfahren zur fusion eines verkehrszeichenerkennungssystems und eines spurerkennungssystems eines kraftfahrzeugs
EP1563257A1 (de) Navigationsvorrichtung
DE102011087249A1 (de) Vorrichtung und Verfahren zum Anzeigen einer Streckenführungsinformation auf einer Frontscheibe
WO2013113500A1 (de) Fahrerassistenzsystem und verfahren zur virtuellen darstellung eines strassenverlaufs bei verdeckung und/oder schlechten sichtverhältnissen
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE112015006370T5 (de) Fahrerassistenzsystem
DE102021100583A1 (de) System und verfahren zur fahrzeugnavigation mit geländetexterkennung
DE102017209347A1 (de) Verfahren und Vorrichtung zum Steuern eines Fahrzeugs
DE112018004904T5 (de) Informationsverarbeitungseinrichtung, selbstpositionsschätzverfahren und programm
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102021111144A1 (de) Spurenbasierte fahrzeugsteuerung
DE112016007472T5 (de) Vorwarnungen für fahrer von fahrzeugen vor bevorstehenden schildern
DE102020123587A1 (de) Betrieb eines autonomen fahrzeugs basierend auf der verfügbarkeit von navigationsinformationen
DE102016014712A1 (de) Fahrzeug und Verfahren zur Ausgabe von Informationen an eine Fahrzeugumgebung
DE112021006099T5 (de) Bordrückkopplungssystem für autonome Fahrzeuge

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee