DE102019208928A1 - Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels - Google Patents

Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels Download PDF

Info

Publication number
DE102019208928A1
DE102019208928A1 DE102019208928.3A DE102019208928A DE102019208928A1 DE 102019208928 A1 DE102019208928 A1 DE 102019208928A1 DE 102019208928 A DE102019208928 A DE 102019208928A DE 102019208928 A1 DE102019208928 A1 DE 102019208928A1
Authority
DE
Germany
Prior art keywords
locomotion
transport
representation
video image
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019208928.3A
Other languages
English (en)
Inventor
Krishnan Bharath Navalpakkam
Heinz Hertlein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019208928.3A priority Critical patent/DE102019208928A1/de
Publication of DE102019208928A1 publication Critical patent/DE102019208928A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes (85) eines Fortbewegungsmittels (80). Das Verfahren umfasst die Schritte: Empfangen eines ersten Signals repräsentierend das Umfeld (85) des Fortbewegungsmittels (80) von einer nicht videobildbasierten ersten Sensorik (30, 70) des Fortbewegungsmittels (80), Erzeugen einer einem Sichtfeld eines Benutzers des Fortbewegungsmittels (80) entsprechenden videobildbasierten Repräsentation des Umfeldes (85) des Fortbewegungsmittels (80) auf Basis des ersten Signals und einer vordefinierten Abbildungsvorschrift, und Anzeigen der videobildbasierten Repräsentation des Umfeldes (85) in einem Display (50) des Fortbewegungsmittels (80).

Description

  • Stand der Technik
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels.
  • Moderne Fortbewegungsmittel sind typischerweise mit einer Vielzahl von Sensoren (z.B. Kameras, Lidar-, Radar- und Ultraschallsensoren) zur Erfassung eines Umfeldes der Fortbewegungsmittel ausgestattet. Die Umfelderfassung und eine darauf basierende automatische Erkennung von Objekten im Umfeld der Fortbewegungsmittel werden vorteilhaft in Verbindung mit Systemen für einen autonomen Fahrbetrieb und/oder in Verbindung mit Fahrerassistenzsystemen der jeweiligen Fortbewegungsmittel eingesetzt. Jeweilige Ausgangssignale der hierfür verwendeten Sensoren werden in der Regel durch eines oder mehrere der vorstehend genannten Systeme ausgewertet und in geeignete Steuersignale für die Fortbewegungsmittel umgesetzt. Alternativ oder zusätzlich können durch die vorstehend genannten Systeme auch Hinweis- und/oder Warnmeldungen im Fortbewegungsmittel ausgelöst werden. Eine visuelle Ausgabe dieser Ausgangssignale im Fortbewegungsmittel findet meist nicht statt. Dies liegt unter anderem darin begründet, dass die durch die eingesetzten Sensoren erzeugten Ausgangssignale überwiegend keine direkte visuelle Repräsentation des erfassten Umfeldes erlauben, da diese Ausgangssignale beispielsweise eindimensionale Messsignale empfangener Radarechos oder Ultraschallechos usw. repräsentieren.
  • Darüber hinaus sind aus dem Stand der Technik maschinelle Lernverfahren auf Basis unterschiedlicher Algorithmen bekannt, welchen in einer Trainingsphase Trainingsdaten und mit diesen Trainingsdaten korrespondierende Zielgrößen zugeführt werden, um eine Korrelation zwischen den Trainingsdaten und den Zielgrößen automatisch zu erlernen. In einer der Trainingsphase nachgelagerten Ausführungsphase können die Algorithmen anschließend von den Trainingsdaten abweichende Eingangsdaten in Übereinstimmung mit einem trainierten Zustand der Algorithmen verarbeiten.
  • DE102017204107A1 beschreibt ein Informationsverarbeitungssystem zur Anreicherung von Umgebungsinformationen über ein Gebiet auf Basis mindestens einer Erfassungseinrichtung. Die Erfassungseinrichtung kann zur Erfassung von relevanten Objekten jede Art von Sensoren aufweisen, die geeignet sind, Objekte und deren Positionen zu detektieren. Mit Hilfe dieser Sensoren und mit Hilfe von Bild- und Objekterkennungsalgorithmen ist die Erfassungseinrichtung eingerichtet, eine Position, eine Art, eine Haltung, eine Orientierung, eine Geschwindigkeit usw. einer Person zu erkennen.
  • US9715016B2 beschreibt eine Methode zur Datenfusion von Lidar-, Radar- und Infrarotkamerasignalen bezüglich einer Geländekarte (terrain map), um eine fusionierte synthetische Darstellung für Anwendungen in der Luftfahrtnavigation zu generieren.
  • US20150145995A1 beschreibt eine Fahrzeug-zu-Fahrzeug-Kommunikation, um eine in einem ersten Fahrzeug dargestellte Ansicht einer Umgebung mittels Sensorinformationen der Umgebung aus einem zweiten Fahrzeug zu erweitern. Dies kann zum Beispiel für eine Hinderniserkennung eingesetzt werden.
  • US20100289632A1 beschreibt ein Verwenden eines Nachtsichtsystems zur Projektion kritischer Information mittels eines Head-up-Displays auf eine Windschutzscheibe eines Fahrzeugs, um einen Fahrer des Fahrzeugs zu warnen.
  • US20100104199A1 beschreibt ein Verwenden unterschiedlicher Sensoren zur Detektion eines freien Fahrpfades („free path“) für ein Fahrzeug, den das Fahrzeug autonom abfahren kann.
  • Die vorliegende Erfindung schlägt vor, insbesondere im Zusammenhang mit ungünstigen Sichtbedingungen für einen Benutzer eines Fortbewegungsmittels multimodale Informationen über ein Umfeld des Fortbewegungsmittels, welche von unterschiedlichen Sensoren aufgenommen werden können, zu fusionieren, und die Daten in ihrer Gesamtheit in eine natürliche visuelle Repräsentation zu transformieren, so dass einem Benutzer des Fortbewegungsmittels eine Wahrnehmung des Umfeldes ermöglicht wird, welche eine ähnliche Detailtreue/Detailtiefe bereitstellen kann, wie ein videobasiertes System bei guten Sichtbedingungen.
  • Offenbarung der Erfindung
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Verfahren zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels vorgeschlagen. Das Fortbewegungsmittel kann beispielsweise ein Straßenfahrzeug (z.B. Motorrad, PKW, Transporter, LKW) oder ein Schienenfahrzeug oder ein Luftfahrzeug/Flugzeug und/oder ein Wasserfahrzeug sein. In einem ersten Schritt des erfindungsgemäßen Verfahrens wird mittels eines Dateneingangs einer erfindungsgemäßen Auswerteeinheit ein erstes Signal repräsentierend ein Umfeld des Fortbewegungsmittels von einer nicht videobildbasierten ersten Sensorik des Fortbewegungsmittels empfangen. Zu diesem Zweck kann die Auswerteeinheit beispielsweise über ein Bordnetz des Fortbewegungsmittels informationstechnisch mit der ersten Sensorik verbunden sein. Die erste Sensorik kann bevorzugt einen oder mehrere Sensoren umfassen, wobei die Sensoren weiter bevorzugt eingerichtet sein können, ein jeweiliges Umfeld des Fortbewegungsmittels zu erfassen. Des Weiteren können die Sensoren bereits bestehende Sensoren des Fortbewegungsmittels sein, welche parallel für das erfindungsgemäße Verfahren genutzt werden können. Alternativ oder zusätzlich können für das erfindungsgemäße Verfahren auch eigenständige Sensoren eingesetzt werden. Die erste Sensorik des Fortbewegungsmittels kann beispielsweise einen Ultraschallsensor und/oder einen Lidar-Sensor und/oder einen Radar-Sensor und/oder eine Infrarotkamera umfassen. Darüber hinaus ist es auch denkbar, weitere Sensorarten im Zusammenhang mit dem erfindungsgemäßen Verfahren einzusetzen. Eine Anordnung und/oder eine Ausrichtung der jeweiligen Sensoren am Fortbewegungsmittel unterliegen grundsätzlich keinen Beschränkungen, eine bevorzugte Anordnung wenigstens eines der verwendeten Sensoren kann im Bereich einer Frontschürze und/oder in einem vorderen Bereich eines Fahrzeugdaches sein, wobei der auf diese Weise angeordnete Sensor weiter bevorzugt in Richtung einer Hauptfahrtrichtung (d. h., aus Fahrersicht nach vorne gerichtet) des Fortbewegungsmittels ausgerichtet sei kann.
  • In einem zweiten Schritt des erfindungsgemäßen Verfahrens wird eine einem vordefinierten Sichtfeld entsprechende videobildbasierte Repräsentation des Umfeldes des Fortbewegungsmittels auf Basis des ersten Signals und einer vordefinierten Abbildungsvorschrift erzeugt. Das heißt konkret, dass die videobildbasierte Repräsentation des Umfeldes im Wesentlichen einer Bewegtbildsequenz entsprechen kann, wie sie von einem videobildbasierten Sensor bzw. von einer Videokamera bei für einen solchen Sensor geeigneten Sichtbedingungen erzeugt würde, ohne dass ein solcher videobildbasierter Sensor im Fortbewegungsmittel tatsächlich vorhanden sein muss. Eine solche videobildbasierte Repräsentation des Umfeldes kann insbesondere auch bei schlechten Sichtbedingungen wie bei Dunkelheit oder bei Nebel erzeugt werden. Aus diesem Grund sieht das erfindungsgemäße Verfahren für die erste Sensorik Sensoren vor, deren Ausgangssignale von den Ausgangssignalen einer Videokamera (z. B. RGB-, FBAS-, Komponenten-, DVI-, HDMI-Signale usw.) abweichen. Insbesondere Sensoren wie Radar-, Ultraschall- und Lidar-Sensoren erzeugen i. d. R. keine pixelbasierten 2D-Aufnahmen und sind aus diesem Grund nicht ohne eine weitere Verarbeitung mit einer videobildbasierten Repräsentation vergleichbar. Diese weitere Verarbeitung erfolgt durch den hier beschriebenen Verfahrensschritt, indem das erste Signal durch die Auswerteeinheit mittels der Abbildungsvorschrift in geeigneter Weise transformiert wird. Das vordefinierte Sichtfeld kann bevorzugt einem Sichtfeld eines Benutzers und insbesondere einem Sichtfeld eines Fahrers des Fortbewegungsmittels entsprechen. Alternativ kann das Sichtfeld einem beliebigen gewünschten Sichtfeld entsprechen, welches beispielsweise mittels einer Benutzereingabe im Fortbewegungsmittel festgelegt werden kann.
  • In einem dritten Schritt des erfindungsgemäßen Verfahrens wird die videobildbasierte Repräsentation des Umfeldes in einem Display des Fortbewegungsmittels angezeigt. Hierfür kann die durch die Auswerteeinheit erzeugte videobildbasierte Repräsentation mittels eines Datenausgangs der Auswerteeinheit über das Bordnetz des Fortbewegungsmittels an das Display bzw. an ein das Display ansteuerndes Steuergerät des Fortbewegungsmittels übertragen werden. Das Display des Fortbewegungsmittels kann beispielsweise ein Display eines Bordcomputersystems und/oder ein Head-up-Display und/oder ein Display eines Entertainmentsystems und/oder ein Display eines Kombiinstrumentes des Fortbewegungsmittels sein. Alternativ oder zusätzlich kann das Display ein Display einer mit dem Fortbewegungsmittel informationstechnisch verbundenen Datenbrille (z. B. eine AR-Brille oder eine VR-Brille) und/oder ein Display eines informationstechnisch mit dem Fortbewegungsmittel verbundenen tragbaren Endgerätes (z. B. ein Smart-Phone oder ein Tablet-Computer) sein. Auf diese Weise kann die erzeugte videobildbasierte Repräsentation des Umfeldes des Fortbewegungsmittels insbesondere einem Fahrer des Fortbewegungsmittels, aber auch weiteren Insassen zur Verfügung gestellt werden. In Abhängigkeit jeweiliger technischer Eigenschaften eines jeweiligen genutzten Displays und/oder in Abhängigkeit einer Benutzerpräferenz und/oder in Abhängigkeit weiterer (z. B. technischer) Randbedingungen, kann die erzeugte videobildbasierte Repräsentation in Form einer 2D-Darstellung und/oder einer Pseudo-3D-Darstellung und/oder einer 3D-Darstellung erzeugt werden.
  • Es sei darauf hingewiesen, dass das erfindungsgemäße Verfahren bevorzugt auf Basis einer Mehrzahl von Sensoren ausgeführt werden kann, welche weiter bevorzugt unterschiedliche Sensor- bzw. Wandlertypen umfassen können, so dass auf Basis solcher das erste Signal bildender multimodaler Informationen eine besonders zuverlässige Transformation des ersten Signals zur videobildbasierten Repräsentation erfolgen kann.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
  • In einer vorteilhaften Ausgestaltung der vorliegenden Erfindung umfasst das erste Signal durch die erste Sensorik erzeugte Rohwerte und/oder eine auf Basis der Rohwerte ermittelte symbolische Beschreibung von Objekten im Umfeld des Fortbewegungsmittels. Die durch die erste Sensorik erzeugten Rohwerte können beispielsweise durch einen Ultraschallsensor empfangene Ultraschallechos oder durch einen Lidar-Sensor empfangene Lichtsignale sein, welche jeweils keine direkte videobildbasierte Repräsentation des erfassten Umfeldes darstellen bzw. ermöglichen. Des Weiteren sollen unter diesen Rohwerten Werte verstanden werden, welche im Ansprechen auf eine erfolgte Messung mittels eines jeweiligen Sensors unmittelbar als Ausgangssignale bereitgestellt werden. Eine die Rohwerte stark verändernde Vorverarbeitung der Rohwerte findet dementsprechend bevorzugt nicht statt. Dies steht im Gegensatz zur symbolischen Beschreibung, welche eine entsprechende Vorverarbeitung der jeweiligen Sensorsignale erfordert. Hierfür können beispielsweise aus dem Stand der Technik bekannte Verfahren zur Bild- bzw. Objekterkennung angewendet werden, um Objekte im Umfeld des Fortbewegungsmittels auf Basis des ersten Signals identifizieren zu können. Dies bietet u. a. den Vorteil, dass auch Ausgangssignale bereits bestehender Systeme zur Umfelderkennung im Fortbewegungsmittel mittels der Abbildungsvorschrift in die videobildbasierte Repräsentation des Umfeldes überführt werden können.
  • In einer weiteren vorteilhaften Ausgestaltung der vorliegenden Erfindung wird die Abbildungsvorschrift auf Basis eines maschinellen Lernverfahrens und insbesondere auf Basis eines neuronalen Netzes realisiert und/oder trainiert. Hierfür kann das maschinelle Lernverfahren zur Umsetzung der Abbildungsvorschrift derart trainiert werden, dass das erste Signal (in Form von Rohwerten und/oder symbolischer Beschreibungen jeweiliger Sensordaten) als Eingabegröße einer Eingabeschicht des maschinellen Lernverfahrens verwendet wird, während eine videobildbasierte Repräsentation des Umfeldes in Form eines zweiten Signals einer zweiten Sensorik (z. B. einer Videokamera) des Fortbewegungsmittels als Zielgröße einer Ausgabeschicht des maschinellen Lernverfahrens verwendet wird. Dies kann konkret derart umgesetzt werden, dass für eine Trainingsphase eines solchen Lernverfahrens eine geeignete repräsentative Stichprobe von Sensordaten herangezogen werden kann. Diese Stichprobe kann beispielsweise aufgezeichnete Sensordaten von einem oder von einer Mehrzahl von Fortbewegungsmitteln umfassen, welche bevorzugt eine multimodale Sensoranordnung aufweisen können. Diese Sensoranordnungen können beispielsweise multimodalen Sensoranordnungen entsprechen, wie sie im Stand der Technik für einen autonomen Fahrbetrieb von Fortbewegungsmitteln verwendet werden. Darüber hinaus können die Fortbewegungsmittel in der Trainingsphase mit einer mit der Auswerteeinheit informationstechnisch gekoppelten Videokamera ausgestattet sein, welche eingerichtet ist, das Umfeld aus einer Perspektive aufzunehmen, welche bevorzugt einem Sichtfeld des Benutzers des Fortbewegungsmittels entspricht. Hierfür kann die Videokamera in der Trainingsphase derart im bzw. am Fortbewegungsmittel angeordnet und/oder ausgerichtet werden, dass das Sichtfeld der Videokamera im Wesentlichen dem Sichtfeld des Benutzers entspricht. Des Weiteren kann die Stichprobe vorteilhaft Sensordaten umfassen, welche eine möglichst große Vielfalt bzw. Variation von Fahrsituationen bzw. Umfeldbedingungen umfassen. Zu diesem Zweck können in der Trainingsphase u. a. unterschiedliche Straßenarten wie Landstraßen, Autobahnen und städtische Straßen mit unterschiedlicher Bebauung, unterschiedliche Vegetationen usw. berücksichtigt werden. Zusätzlich können unterschiedliche Typen von Fortbewegungsmitteln im Umfeld des Fortbewegungsmittels, Fußgänger, unterschiedliche Straßenbeschaffenheiten und -verläufe usw. berücksichtigt werden. Mittels der Daten der Stichprobe kann ein durch die erfindungsgemäße Auswerteeinheit ausgeführter Algorithmus für ein maschinelles Lernverfahren trainiert werden. Hierfür kann bevorzugt ein Deep-Learning Verfahren eingesetzt werden, um ein Deep Neural Network (DNN) mit einer vordefinierten Architektur (z. B. Generative Adversarial Networks, kurz GAN, mit einer entsprechenden „cycle consistent loss function“) zu trainieren, ohne das maschinelle Lernverfahren darauf einzuschränken. Der Algorithmus kann bevorzugt mit voraufgezeichneten Daten in mehreren Iterationen trainiert werden, bis ein optimaler „loss value“ erreicht ist. Die Parameter des trainierten maschinellen Lernverfahrens können im Falle einer verwendeten DNN-Architektur anschließend in Form von Gewichten in der an die Auswerteeinheit angebundenen Speichereinheit abgelegt werden. Die für das Training verwendete Hardware kann zum Beispiel eine Graphical Processing Unit (GPU) und/oder eine Central Processing Unit (CPU) sein. Diese Hardware kann identisch mit der oben beschriebenen erfindungsgemäßen Auswerteeinheit sein. Alternativ oder zusätzlich kann diese Hardware auch eine separate Hardware sein, welche aufgrund hierfür benötigter umfangreicher Rechen- und/oder Speicherressourcen auch eine gesonderte Hardware des Fortbewegungsmittels sein kann, welche entsprechend nur in der Trainingsphase eingesetzt werden muss. Die Parameter des auf diese Weise trainierten neuronalen Netzes können für die nachgelagerte Ausführungsphase anschließend auf die erfindungsgemäße Auswerteeinheit (bzw. deren Speichereinheit) übertragen und dort angewendet werden.
  • Im Zuge der Ausführungsphase des erfindungsgemäßen Verfahrens kann das trainierte neuronale Netz eingesetzt werden, um das erste Signal, bevorzugt auf Basis der multimodalen Sensordaten, zu verarbeiten und dadurch die videobildbasierte Repräsentation zu erzeugen, welche im Wesentlichen dem Kamerabild in der Trainingsphase entsprechen kann, unabhängig davon, ob die tatsächlichen Sichtverhältnisse während der Ausführungsphase gut oder schlecht sind. Auf diese Weise kann zum Beispiel ein Tageslichtbild bei nächtlichen Umfeldbedingungen und/oder bei Nebel erzeugt werden.
  • Es sei darauf hingewiesen, dass die Trainingsphase des maschinellen Lernverfahrens bevorzugt während einer Entwicklungsphase des Fortbewegungsmittels durchgeführt werden kann, so dass die hierfür erforderliche zweite Sensorik im Zuge einer regulären Nutzung des Fortbewegungsmittels (also nach dessen Fertigstellung) nicht mehr erforderlich ist. Zudem kann es vorteilhaft sein, die Stichprobendaten auf Basis einer Mehrzahl von Trainingsfortbewegungsmitteln zu ermitteln und diese im Zuge der Trainingsphase in geeigneter Weise zusammenzuführen. Es sei außerdem darauf hingewiesen, dass das erfindungsgemäße Verfahren für das Ermitteln der Stichprobe und die Trainingsphase alternativ oder zusätzlich während der regulären Nutzung des Fortbewegungsmittels angewendet werden kann. Auf diese Weise kann das trainierte neuronale Netz stetig an aktuelle Gegebenheiten angepasst bzw. stetig verbessert werden.
  • In einer weiteren vorteilhaften Ausgestaltung der vorliegenden Erfindung umfasst die Abbildungsvorschrift jeweilige Zuordnungen zwischen einer Mehrzahl symbolischer Beschreibungen für Objekte im Umfeld des Fortbewegungsmittels und einer Mehrzahl von Grafikdaten. Die Grafikdaten können bevorzugt in der an die Auswerteeinheit angebundenen Speichereinheit abgelegt sein. Die Grafikdaten können beispielsweise pixelbasierte Bilddaten und/oder vektorbasierte Bilddaten und/oder 3D-Modelldaten umfassen. Die symbolischen Beschreibungen können beispielsweise Informationen über eine Position und/oder eine Ausrichtung und/oder eine Geometrie und/oder eine Farbe und/oder eine Oberflächenstruktur und/oder eine Gattung eines jeweiligen Objektes im Umfeld des Fortbewegungsmittels umfassen. Die Abbildungsvorschrift kann auch in diesem Fall auf Basis eines maschinellen Lernverfahrens realisiert werden. In einer bevorzugten Ausführungsform kann die Abbildungsvorschrift dagegen mittels eines manuell programmierten Algorithmus umgesetzt werden, da auf diese Weise eine besonders gute Kontrolle hinsichtlich einer Zuordnung jeweiliger Parameter der symbolischen Beschreibung zu den jeweiligen Grafikdaten erfolgen kann. Hierfür kann beispielswiese eine Zuordnungstabelle vorgesehen werden, auf deren Basis die Auswerteeinheit in die Lage versetzt wird, die symbolische Beschreibung der Objekte im Umfeld in die videobildbasierte Repräsentation des Umfeldes zu überführen.
  • In einer weiteren vorteilhaften Ausgestaltung der vorliegenden Erfindung entspricht die videobildbasierte Repräsentation des Umfeldes unabhängig von einer aktuellen Helligkeit und/oder aktueller Sichtbedingungen (z. B. aufgrund von Einschränkungen durch Nebel, Regen, Rauch usw.) einer tageslichtähnlichen Darstellung und/oder einer hinsichtlich der Sichtbedingungen im Wesentlichen störungsfreien Darstellung. Dies bietet den Vorteil, dass insbesondere ein Fahrer des Fortbewegungsmittels in die Lage versetzt wird, eine jeweilige Verkehrssituation trotz eingeschränkter Sichtbedingungen besser beurteilen zu können.
  • Es sei allgemein darauf hingewiesen, dass sowohl im Zusammenhang mit der Verwendung eines maschinellen Lernverfahrens, als auch im Zusammenhang mit der Verwendung einer manuell programmierten Abbildungsvorschrift für die symbolischen Beschreibungen, zusätzliche Einflussparameter berücksichtigt werden können, um eine Zuverlässigkeit der darauf basierenden Abbildungsvorschrift zu verbessern. So kann es beispielsweise sinnvoll sein, Positionsinformationen des Fortbewegungsmittels (welche z. B. durch ein satellitengestütztes Ortungssystem ermittelt werden) als zusätzliche Eingangsgrößen in die Eingabeschicht des neuronalen Netzes einfließen zu lassen, um positionsabhängige Einflüsse des Umfeldes auf das Erzeugen der videobildbasierten Repräsentation des Umfeldes berücksichtigen zu können (z. B. Einflüsse eines Höhenprofils einer Straße).
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels vorgeschlagen. Die Vorrichtung umfasst eine Auswerteeinheit mit einem Dateneingang und einem Datenausgang. Die Auswerteeinheit kann beispielsweise als ASIC, FPGA, Prozessor, digitaler Signalprozessor, Mikrocontroller, Graphical Processing Unit (GPU), Central Processing Unit (CPU) o.ä., ausgestaltet und informationstechnisch mit einer internen und/oder externen Speichereinheit verbunden sein, in welcher durch die Auswerteeinheit empfangene und/oder berechnete Daten für eine nachgelagerte Verarbeitung abgelegt werden können. Die Auswerteeinheit ist in Verbindung mit dem Dateneingang eingerichtet, ein erstes Signal repräsentierend ein Umfeld des Fortbewegungsmittels von einer nicht videobildbasierten ersten Sensorik des Fortbewegungsmittels zu empfangen. Ferner ist die Auswerteeinheit eingerichtet, eine einem vordefinierten Sichtfeld entsprechende videobildbasierte Repräsentation des Umfeldes des Fortbewegungsmittels auf Basis des ersten Signals und einer vordefinierten Abbildungsvorschrift zu erzeugen und in Verbindung mit dem Datenausgang die videobildbasierte Repräsentation des Umfeldes in einem Display des Fortbewegungsmittels anzuzeigen.
  • Figurenliste
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. Dabei zeigen:
    • 1 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens;
    • 2 eine schematische Übersicht einer erfindungsgemäßen Vorrichtung in Verbindung mit einem Fortbewegungsmittel; und
    • 3 ein Beispiel für eine Abbildung eines nicht videobildbasierten Ausgangssignals einer Sensorik auf eine videobildbasierte Repräsentation eines Umfeldes eines Fortbewegungsmittels.
  • Ausführungsformen der Erfindung
  • 1 zeigt ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels. Im Schritt 100 des erfindungsgemäßen Verfahrens wird von einer Auswerteeinheit des Fortbewegungsmittels, welche hier ein Mikrocontroller ist, ein erstes Signal repräsentierend ein Umfeld des Fortbewegungsmittels empfangen. Das erste Signal umfasst eine Mehrzahl von Ausgangssignalen einer Mehrzahl von Ultraschallsensoren, wobei ein Ultraschallsensor in Hauptfahrtrichtung, ein Ultraschallsensor entgegen der Hauptfahrtrichtung, ein Ultraschallsensor zur linken Seite und ein Ultraschallsensor zur rechten Seite des Fortbewegungsmittels ausgerichtet ist. Zusätzlich umfasst das erste Signal ein Ausgangssignal eines Frontradarsensors und ein Ausgangssignal eines Heckradarsensors des Fortbewegungsmittels. Die Auswerteeinheit ist eingerichtet, eine Konfiguration eines in einer Trainingsphase angelernten neuronalen Netzes aus einer an die Auswerteeinheit informationstechnisch angebundenen Speichereinheit zu laden und auszuführen. Das neuronale Netz ist wiederum eingerichtet, die durch das erste Signal repräsentierten Umfeldinformationen der Mehrzahl von Sensoren in eine videobildbasierte 2D-Darstellung des Umfeldes zu transformieren. Im Schritt 200 des erfindungsgemäßen Verfahrens wird eine einem Sichtfeld eines Fahrers (bezogen auf eine durchschnittliche Augenhöhe und eine Hauptblickrichtung des Fahrers) des Fortbewegungsmittels entsprechende, videobildbasierte Repräsentation des Umfeldes des Fortbewegungsmittels auf Basis des ersten Signals und auf Basis des neuronalen Netzes erzeugt. Im Schritt 300 des erfindungsgemäßen Verfahrens wird die videobildbasierte Repräsentation des Umfeldes in Form von Daten von der Auswerteeinheit über ein Bordnetz des Fortbewegungsmittels an ein Bordcomputersystem des Fortbewegungsmittels übertragen. Das Bordcomputersystem ist eingerichtet, die Daten an ein informationstechnisch an das Bordcomputersystem angebundenes Zentraldisplay des Fortbewegungsmittels zu übertragen und die videobildbasierte Repräsentation in diesem zur Anzeige zu bringen.
  • 2 zeigt eine schematische Übersicht einer erfindungsgemäßen Vorrichtung in Verbindung mit einem Fortbewegungsmittel 80. Das Fortbewegungsmittel 80 umfasst eine Auswerteeinheit 10, welche hier ein Mikrocontroller ist. Die Auswerteeinheit 10 ist informationstechnisch mit einer an die Auswerteeinheit 10 angebundenen Speichereinheit 20 verbunden. Über jeweilige Dateneingänge 12 der Auswerteeinheit 10 ist die Auswerteeinheit 10 informationstechnisch über ein Bordnetz des Fortbewegungsmittels mit einem Lidar-Sensor 30 und einem Radarsensor 70 verbunden. Zusätzlich ist die Auswerteeinheit 10 mit einer Videokamera 40 informationstechnisch über das Bordnetz verbunden, wobei die Videokamera derart in einem Innenraum des Fortbewegungsmittels 80 angeordnet ist, dass ihr Sichtfeld im Wesentlichen einem Sichtfeld eines Fahrers des Fortbewegungsmittels entspricht. Der Lidar-Sensor 30, der Radarsensor 70 und die Videokamera 40 sind jeweils eingerichtet, ein aktuelles Umfeld 85 des Fortbewegungsmittels 80 zu erfassen. Die Auswerteeinheit 10 ist eingerichtet, auf Basis eines Algorithmus', welcher ein neuronales Netz realisiert, das neuronale Netz in Übereinstimmung mit dem oben beschriebenen, erfindungsgemäßen Verfahren zu trainieren. Zu diesem Zweck werden jeweilige Ausgangssignale des Lidar-Sensors 30 und des Radarsensors 70 in eine Eingangsschicht des neuronalen Netzes eingespeist, während ein Ausgangssignal der Videokamera 40 in Form einer Trainings-Zielgröße in eine Ausgangsschicht des neuronalen Netzes eingespeist wird. Nach Abschluss einer Mehrzahl von Trainingsfahrten zum Trainieren des neuronalen Netzes ist die Auswerteeinheit 10 eingerichtet, auf Basis des trainierten neuronalen Netzes und der jeweiligen Ausgangssignale des Lidar-Sensors 30 und des Radarsensors 70 eine videobildbasierte Repräsentation des aktuellen Umfeldes 85 des Fortbewegungsmittels 80 zu erzeugen. Die Auswerteeinheit 10 ist des Weiteren über einen Datenausgang 14 der Auswerteeinheit 10 informationstechnisch mit einem Bordcomputersystem 60 des Fortbewegungsmittels 80 verbunden. Über diese Verbindung ist die Auswerteeinheit 10 in der Lage, die erzeugte videobildbasierte Repräsentation des aktuellen Umfeldes 85 des Fortbewegungsmittels 80 an das Bordcomputersystem 60 zu übertragen. Das Bordcomputersystem 60 ist wiederum eingerichtet, die empfangene videobildbasierte Repräsentation an ein an das Bordcomputersystem 60 informationstechnisch angebundenes Display 50 des Fortbewegungsmittels 80 zu übertragen und diese im Display 50 zur Anzeige zu bringen.
  • 3 zeigt ein Beispiel für eine Abbildung eines nicht videobildbasierten Ausgangssignals einer Sensorik eines Fortbewegungsmittels auf eine videobildbasierte Repräsentation eines Umfeldes 85 des Fortbewegungsmittels. Das linke Bild in 3 entspricht einer symbolischen Beschreibung eines auf Basis eines Lidar-Sensors des Fortbewegungsmittels ermittelten Umfeldes 85. Die auf Basis einer Punktwolke ermittelten Objekte 90 im Umfeld 85 des Fortbewegungsmittels, werden mittels des erfindungsgemäßen Verfahrens auf Basis einer Zuordnungstabelle in eine 2D-Repräsentation des Umfeldes 85 überführt. Ein Ergebnis dieser Überführung ist im rechten Bild in 3 dargestellt, welches die erzeugte Repräsentation des Umfeldes 85 in einem Display 50 des Fortbewegungsmittels zeigt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102017204107 A1 [0004]
    • US 9715016 B2 [0005]
    • US 20150145995 A1 [0006]
    • US 20100289632 A1 [0007]
    • US 20100104199 A1 [0008]

Claims (10)

  1. Verfahren zum Erzeugen einer visuellen Repräsentation eines Umfeldes (85) eines Fortbewegungsmittels (80) umfassend die Schritte: • Empfangen (100) eines ersten Signals repräsentierend das Umfeld (85) des Fortbewegungsmittels (80) von einer nicht videobildbasierten ersten Sensorik (30, 70) des Fortbewegungsmittels (80), • Erzeugen (200) einer einem vordefinierten Sichtfeld entsprechenden videobildbasierten Repräsentation des Umfeldes (85) des Fortbewegungsmittels (80) auf Basis des ersten Signals und einer vordefinierten Abbildungsvorschrift, und • Anzeigen (300) der videobildbasierten Repräsentation des Umfeldes (85) in einem Display (50) des Fortbewegungsmittels (80).
  2. Verfahren nach Anspruch 1, wobei die erste Sensorik (30, 70) des Fortbewegungsmittels (80) • einen Ultraschallsensor, und/oder • einen Lidar-Sensor, und/oder • einen Radar-Sensor, und/oder • eine Infrarotkamera, umfasst, und wobei das erste Signal • durch die erste Sensorik erzeugte Rohwerte, und/oder • eine auf Basis der Rohwerte ermittelte symbolische Beschreibung von Objekten (90) im Umfeld des Fortbewegungsmittels (80) umfasst.
  3. Verfahren nach einem der vorstehenden Ansprüche, wobei die Abbildungsvorschrift auf Basis eines maschinellen Lernverfahrens und insbesondere auf Basis eines neuronalen Netzes realisiert und/oder trainiert wird.
  4. Verfahren nach Anspruch 3, wobei das maschinelle Lernverfahren zur Umsetzung der Abbildungsvorschrift derart trainiert wird, dass das erste Signal als Eingabegröße für eine Eingabeschicht des maschinellen Lernverfahrens verwendet wird, während eine videobildbasierte Repräsentation des Umfeldes (85) in Form eines zweiten Signals einer zweiten Sensorik (40) des Fortbewegungsmittels (80) als Zielgröße einer Ausgabeschicht des maschinellen Lernverfahrens verwendet wird.
  5. Verfahren nach Anspruch 4, wobei die während einer Trainingsphase des maschinellen Lernverfahrens verwendete zweite Sensorik (40) derart im bzw. am Fortbewegungsmittel (80) angeordnet und/oder ausgerichtet ist, dass ein Sichtfeld der zweiten Sensorik (40) im Wesentlichen einem Sichtfeld eines Benutzers und insbesondere eines Fahrers des Fortbewegungsmittels (80) entspricht.
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei die Abbildungsvorschrift jeweilige Zuordnungen zwischen einer Mehrzahl symbolischer Beschreibungen für Objekte (90) im Umfeld des Fortbewegungsmittels (80) und einer Mehrzahl von Grafikdaten umfasst, und wobei die symbolischen Beschreibungen Informationen über • eine Position und/oder Ausrichtung, und/oder • eine Geometrie, und/oder • eine Farbe, und/oder • eine Oberflächenstruktur, und/oder • eine Gattung eines jeweiligen Objektes (90) im Umfeld des Fortbewegungsmittels (80) umfasst.
  7. Verfahren nach Anspruch 6, wobei die Grafikdaten pixelbasierte Bilddaten und/oder vektorbasierte Bilddaten und/oder 3D-Modelldaten umfassen.
  8. Verfahren nach einem der vorstehenden Ansprüche, wobei die videobildbasierte Repräsentation des Umfeldes (85) unabhängig von einer aktuellen Helligkeit und/oder aktuellen Sichtbedingungen einer tageslichtähnlichen Darstellung und/oder einer hinsichtlich der Sichtbedingungen im Wesentlichen störungsfreien Darstellung entspricht.
  9. Verfahren nach einem der vorstehenden Ansprüche, wobei das Display (50) des Fortbewegungsmittels (80) ein Display (50) • eines Bordcomputersystems (60), und/oder • eines Head-up-Displays, und/oder • eines Entertainmentsystems, und/oder • eines Kombiinstruments, und/oder • einer mit dem Fortbewegungsmittel (80) informationstechnisch verbundenen Datenbrille, und/oder • eines mit dem Fortbewegungsmittel (80) informationstechnisch verbundenen tragbaren Endgerätes ist, und wobei die videobildbasierte Repräsentation des Umfeldes (85) im Display (50) • einer 2D-Darstellung, und/oder • einer Pseudo-3D-Darstellung, und/oder • einer 3D-Darstellung entspricht.
  10. Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes (85) eines Fortbewegungsmittels (80) umfassend: • eine Auswerteeinheit (10), • einen Dateneingang (12), und • einen Datenausgang (14), wobei die Auswerteeinheit (10) eingerichtet ist, • in Verbindung mit dem Dateneingang (12) ein erstes Signal repräsentierend ein Umfeld (85) des Fortbewegungsmittels (80) von einer nicht videobildbasierten ersten Sensorik (30, 70) des Fortbewegungsmittels (80) zu empfangen, • eine einem vordefinierten Sichtfeld entsprechende videobildbasierte Repräsentation des Umfeldes (85) des Fortbewegungsmittels (80) auf Basis des ersten Signals und einer vordefinierten Abbildungsvorschrift zu erzeugen, und • in Verbindung mit dem Datenausgang (14) die videobildbasierte Repräsentation des Umfeldes (85) in einem Display (50) des Fortbewegungsmittels (80) anzuzeigen.
DE102019208928.3A 2019-06-19 2019-06-19 Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels Pending DE102019208928A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019208928.3A DE102019208928A1 (de) 2019-06-19 2019-06-19 Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019208928.3A DE102019208928A1 (de) 2019-06-19 2019-06-19 Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels

Publications (1)

Publication Number Publication Date
DE102019208928A1 true DE102019208928A1 (de) 2020-12-24

Family

ID=73654238

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019208928.3A Pending DE102019208928A1 (de) 2019-06-19 2019-06-19 Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels

Country Status (1)

Country Link
DE (1) DE102019208928A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10202163A1 (de) * 2002-01-22 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bildverarbeitung sowie Nachtsichtsystem für Kraftfahrzeuge
DE10303044A1 (de) * 2003-01-24 2004-08-12 Daimlerchrysler Ag Vorrichtung und Verfahren zur Verbesserung der Sicht in Kraftfahrzeugen
DE102006044864A1 (de) * 2006-09-22 2008-04-10 Siemens Ag Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels
DE102008040467A1 (de) * 2008-07-16 2010-01-21 Robert Bosch Gmbh Verfahren zur Verbesserung der Sicht eines Fahrzeugführers in einem Fahrzeug und Anordnung dazu
DE102016120066A1 (de) * 2016-10-21 2018-04-26 CMORE Automotive GmbH Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE102017205093A1 (de) * 2017-03-27 2018-09-27 Conti Temic Microelectronic Gmbh Verfahren und System zur Vorhersage von Sensorsignalen eines Fahrzeugs
DE102019113114A1 (de) * 2018-06-19 2019-12-19 Nvidia Corporation Verhaltensgesteuerte wegplanung in autonomen maschinenanwendungen

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10202163A1 (de) * 2002-01-22 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bildverarbeitung sowie Nachtsichtsystem für Kraftfahrzeuge
DE10303044A1 (de) * 2003-01-24 2004-08-12 Daimlerchrysler Ag Vorrichtung und Verfahren zur Verbesserung der Sicht in Kraftfahrzeugen
DE102006044864A1 (de) * 2006-09-22 2008-04-10 Siemens Ag Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels
DE102008040467A1 (de) * 2008-07-16 2010-01-21 Robert Bosch Gmbh Verfahren zur Verbesserung der Sicht eines Fahrzeugführers in einem Fahrzeug und Anordnung dazu
DE102016120066A1 (de) * 2016-10-21 2018-04-26 CMORE Automotive GmbH Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE102017205093A1 (de) * 2017-03-27 2018-09-27 Conti Temic Microelectronic Gmbh Verfahren und System zur Vorhersage von Sensorsignalen eines Fahrzeugs
DE102019113114A1 (de) * 2018-06-19 2019-12-19 Nvidia Corporation Verhaltensgesteuerte wegplanung in autonomen maschinenanwendungen

Similar Documents

Publication Publication Date Title
DE102016114535B4 (de) Wegbestimmung für automatisierte Fahrzeuge
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102016211182A1 (de) Verfahren, Vorrichtung und System zum Durchführen einer automatisierten Fahrt eines Fahrzeugs entlang einer aus einer Karte bereitgestellten Trajektorie
DE102012213344A1 (de) Verkehrszeichenerkennung
DE102011084084A1 (de) Anzeigeverfahren und Anzeigesystem für ein Fahrzeug
DE102012208288A1 (de) Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeige und Fahrassistenzsystem
DE102018002955A1 (de) Verfahren und steueranordnung zur umgebungswahrnehmung
DE102008046214A1 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102009022278A1 (de) Verfahren zur Ermittlung eines hindernisfreien Raums
DE102016220581A1 (de) Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE102011082477A1 (de) Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
EP3815044B1 (de) Verfahren zu einer sensor- und speicherbasierten darstellung einer umgebung, anzeigevorrichtung und fahrzeug mit der anzeigevorrichtung
DE112021006099T5 (de) Bordrückkopplungssystem für autonome Fahrzeuge
DE112022001403T5 (de) Lichtinterferenzdetektion während der fahrzeugnavigation
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
WO2020020654A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen
DE102019001092A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, sowie elektronische Recheneinrichtung, Computerprogrammprodukt und Datenträger
DE102021111325A1 (de) Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug
DE102021213180A1 (de) Verfahren zur automatischen Steuerung wenigstens einer Fahrzeugfunktion eines Fahrzeugs und Benachrichtigungssystem für ein Fahrzeug
DE102018132676A1 (de) Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung
DE102019208928A1 (de) Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels
DE102018117830A1 (de) Digitale Umfeldkarte mit Sensorreichweiten
DE102019204196B4 (de) Verfahren zum Erfassen des Umfeldes eines Fortbewegungsmittels

Legal Events

Date Code Title Description
R163 Identified publications notified