DE102020211240A1 - Vorrichtung und Verfahren zum Erzeugen von Fahrzeugdaten, sowie System - Google Patents

Vorrichtung und Verfahren zum Erzeugen von Fahrzeugdaten, sowie System Download PDF

Info

Publication number
DE102020211240A1
DE102020211240A1 DE102020211240.1A DE102020211240A DE102020211240A1 DE 102020211240 A1 DE102020211240 A1 DE 102020211240A1 DE 102020211240 A DE102020211240 A DE 102020211240A DE 102020211240 A1 DE102020211240 A1 DE 102020211240A1
Authority
DE
Germany
Prior art keywords
vehicle
information
precise map
precise
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020211240.1A
Other languages
English (en)
Inventor
Su Hong Chae
Jun Soo Kim
Seung Yong Lee
Dong Hwi Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Motors Corp filed Critical Hyundai Motor Co
Publication of DE102020211240A1 publication Critical patent/DE102020211240A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Transportation (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Ein Fahrzeug kann eine Kamera zum Erfassen eines Bereichs um das Fahrzeug herum, einen Positionierungssensor zum Messen einer Position des Fahrzeugs, eine Datenbank zum Speichern einer präzisen Karte und eine Lerndaten-Erzeugungsvorrichtung zum Erzeugen von Lerndaten auf der Grundlage des erfassten Bereichs, der Position des Fahrzeugs und der präzisen Karte umfassen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG
  • Die vorliegende Anmeldung beansprucht die Priorität und die Vorteile der koreanischen Patentanmeldung Nr. 10-2019-0111712 , die am 09. September 2019 eingereicht wurde und deren gesamter Inhalt hierin durch Verweis aufgenommen wird.
  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Vorrichtung und ein Verfahren zum Erzeugen von Fahrzeugdaten sowie ein System.
  • HINTERGRUND
  • Die Aussagen in diesem Abschnitt liefern lediglich Hintergrundinformationen im Zusammenhang mit der vorliegenden Offenbarung und stellen nicht unbedingt Stand der Technik dar.
  • Deep-Learning kann Lerndaten mit einer hohen Zuverlässigkeit erhalten, da das Deep-Learning eine große Datenmenge lernt, um ein Ergebnis abzuleiten.
  • Durch die Anwendung von Deep-Learning zur Erkennung einer Fahrspur, einer Straße oder einer Mittellinie kann eine Genauigkeit der Erkennung der Fahrspur, der Straße oder der Mittellinie verbessert werden.
  • Derartiges Deep-Learning sollte jedoch Lerndaten erzeugen, indem eine große Datenmenge unter Verwendung eines Netzwerks erfasst wird.
  • Darüber hinaus ist die Generierung von Daten des Grundwissens (Ground Truth) für das Deep-Learning sehr wichtig. In den meisten Fällen schreiben Menschen die Lerndaten, indem diese das Grundwissen auf jedem Einzelbild (frame) einer Aufnahme direkt angeben. Daher ist es immer dann sehr zeit- und kostenaufwendig eine riesige Menge von Lerndaten zu erzeugen, wenn es notwendig ist, mit dem Lernen zu beginnen oder es zu verbessern.
  • ZUSAMMENFASSUNG
  • Die vorliegende Offenbarung wurde gemacht, um die oben genannten Probleme zu lösen, die im Stand der Technik auftreten, während die durch den Stand der Technik erreichten Vorteile erhalten bleiben.
  • Ein Aspekt der vorliegenden Offenbarung sieht eine Vorrichtung und ein Verfahren zum Erzeugen von Fahrzeugdaten und ein System vor, das Lerndaten über eine Fahrspur, eine Straßenmittellinie und dergleichen erzeugt und bereitstellt, wobei Informationen eines Kamerabilds verwendet werden, das an einer durch präzise Positionierung und eine präzise Karte berechneten Position eines Fahrzeugs aufgenommen wurde, um Zeit und Kosten für eine Erzeugung einer großen Menge von Lerndaten zu minimieren und eine Lernleistung zu verbessern.
  • Ein weiterer Aspekt der vorliegenden Offenbarung sieht eine Vorrichtung und ein Verfahren zum Erzeugen von Fahrzeugdaten sowie ein System vor, das Informationen über ein Ergebnis des Lernens unter Verwendung von Lerndaten von einem Server an jedes Fahrzeug überträgt, um die Fahrleistung des Fahrzeugs zu verbessern.
  • Die technischen Probleme, die durch das vorliegende erfinderische Konzept gelöst werden sollen, sind nicht auf die oben genannten Probleme beschränkt, und alle anderen hier nicht erwähnten technischen Probleme werden von einem Fachmann, an den sich die vorliegende Offenbarung richtet, anhand der folgenden Beschreibung klar verstanden.
  • Gemäß einem Aspekt der vorliegenden Offenbarung umfasst eine Fahrzeugdaten-Erzeugungsvorrichtung eine Kamera zum Erfassen eines Bereichs um ein Fahrzeug herum, einen Positionierungssensor zum Messen einer Position des Fahrzeugs, eine Datenbank zum Speichern einer präzisen Karte und eine Lerndaten-Erzeugungsvorrichtung zum Erzeugen von Lerndaten auf der Grundlage eines erfassten Bildes der Kamera, der Position des Fahrzeugs und der präzisen Karte.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung umfasst ein Verfahren zum Erzeugen von Fahrzeugdaten ein Erfassen von Kamerabildinformationen, ein Erfassen präziser Positionierungsinformationen, ein Erhalten von Forminformationen aus einer präzisen Karte auf der Grundlage der präzisen Positionierungsinformationen, ein Abbilden der Forminformationen auf einen entsprechenden Bereich der Kamerabildinformationen und ein Erzeugen von Lerndaten auf der Grundlage eines Ergebnisses der Abbildung der Forminformationen.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung umfasst ein System zum Erzeugen von Fahrzeugdaten einen Server zum Empfang von Lerndaten und zum Durchführen eines maschinellen Lernens mit Deep-Learning auf der Grundlage der Lerndaten, um Lernergebnisinformationen zu erzeugen, und ein erstes Fahrzeug mit einer Fahrzeugdaten-Erzeugungsvorrichtung zum Erzeugen der Lerndaten und zum Empfangen der Lernergebnisinformationen.
  • Weitere Anwendungsbereiche ergeben sich aus der hierin vorgesehenen Beschreibung. Die Beschreibung und die spezifischen Beispiele dienen nur der Veranschaulichung und sollen nicht den Umfang der vorliegenden Offenbarung beschränken.
  • Figurenliste
  • Die obigen und andere Gegenstände, Merkmale und Vorteile der vorliegenden Offenbarung werden aus der nachfolgenden detaillierten Beschreibung in Verbindung mit den begleitenden Abbildungen deutlicher hervorgehen:
    • 1 zeigt ein Diagramm, das eine Ausgestaltung eines Systems darstellt, auf das eine Fahrzeugdaten-Erzeugungsvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung angewandt wird;
    • 2 zeigt ein Diagramm, das eine Ausgestaltung einer Fahrzeugdaten-Erzeugungsvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt;
    • 3 zeigt ein Diagramm, das eine Ausführungsform darstellt, bei der ein Vorgang eines Erzeugens von Lerndaten einer Fahrzeugdaten-Erzeugungsvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung dargelegt wird;
    • 4 zeigt ein Diagramm, das eine Ausgestaltung eines Systems gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt;
    • 5 zeigt ein Diagramm, das einen Betriebsablauf für ein Verfahren zum Erzeugen von Fahrzeugdaten gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt; und
    • 6 zeigt ein Computersystem, in dem ein Verfahren gemäß einer Ausführungsform der vorliegenden Offenbarung implementiert ist.
  • Die hierin beschriebenen Abbildungen dienen nur zur Veranschaulichung und sind nicht dazu gedacht, den Umfang der vorliegenden Offenbarung in irgendeiner Weise einzuschränken.
  • DETAILLIERTE BESCHREIBUNG
  • Die nachfolgende Beschreibung hat lediglich exemplarischen Charakter und soll die vorliegende Offenbarung, Anwendung oder Verwendung nicht beschränken. Überall in den Abbildungen weisen entsprechende Bezugsziffern auf ähnliche oder entsprechende Teile und Merkmale hin.
  • Im Folgenden werden einige Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf die exemplarischen Abbildungen ausführlich beschrieben. Beim Hinzufügen der Bezugsziffern zu den Komponenten jeder Abbildung ist zu beachten, dass die identische oder äquivalente Komponente durch die identische Ziffer bezeichnet wird, auch wenn diese in anderen Abbildungen dargestellt sind. Ferner wird bei der Beschreibung der Ausführungsform der vorliegenden Offenbarung eine detaillierte Beschreibung der zugehörigen bekannten Ausgestaltung oder Funktion weggelassen, wenn festgestellt wird, dass diese das Verständnis der Ausführungsform der vorliegenden Offenbarung beeinträchtigt.
  • Bei der Beschreibung der Komponenten der Ausführungsform gemäß der vorliegenden Offenbarung können Begriffe wie erster, zweiter, A, B, (a), (b) und dergleichen verwendet werden. Diese Begriffe dienen lediglich dazu, die Komponenten von anderen Komponenten zu unterscheiden, und die Begriffe schränken die Art, Reihenfolge oder Sequenz der Komponenten nicht ein. Sofern nicht anders definiert, haben alle hier verwendeten technischen und wissenschaftlichen Begriffe die gleiche Bedeutung, wie diese üblicherweise vom Fachmann verstanden werden, zu welchem diese Offenbarung zugeordnet wird. Es wird ferner davon ausgegangen, dass Begriffe, wie diese in allgemein gebräuchlichen Wörterbüchern definiert sind, so zu interpretieren sind, dass diese eine Bedeutung haben, die mit deren Bedeutung im Zusammenhang mit dem relevanten Stand der Technik übereinstimmt, und dass diese nicht in einem idealisierten oder übermäßig formalen Sinn interpretiert werden, es sei denn, dies wird hierin ausdrücklich so definiert.
  • 1 zeigt ein Diagramm, das eine Ausgestaltung eines Systems darstellt, auf das eine Fahrzeugdaten-Erzeugungsvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung angewandt wird.
  • Bezüglich 1 kann ein System eine Fahrzeugdaten-Erzeugungsvorrichtung 100 (dargestellt in 2) und einen Server 20 umfassen.
  • In diesem Zusammenhang kann die Fahrzeugdaten-Erzeugungsvorrichtung 100 gemäß der vorliegenden Offenbarung in einem Fahrzeug 10 implementiert sein. In diesem Zusammenhang kann die Fahrzeugdaten-Erzeugungsvorrichtung 100 integral mit internen Steuereinheiten des Fahrzeugs 10 ausgebildet sein oder als eine separate Einrichtung implementiert und mit den Steuereinheiten des Fahrzeugs durch separate Verbindungsmittel verbunden sein.
  • Die Fahrzeugdaten-Erzeugungsvorrichtung 100 erzeugt Lerndaten, d. h. für maschinelles Lernen mit Deep-Learning für eine Fahrspur und eine Mittellinie einer Straße, und stellt die Lerndaten dem Server 20 zur Verfügung.
  • In diesem Zusammenhang kann die Fahrzeugdaten-Erzeugungsvorrichtung 100 die Lerndaten für die Fahrspur, die Straßenmittellinie und dergleichen unter Verwendung der Informationen eines Kamerabildes, das an einer durch präzise Positionierung und eine präzise Karte berechneten Position des Fahrzeugs 10 aufgenommen wurde, erzeugen und die erzeugten Lerndaten dem Server 20 zur Verfügung stellen.
  • Der Server 20 speichert die von der Fahrzeugdaten-Erzeugungsvorrichtung 100 bereitgestellten Lerndaten. In diesem Zusammenhang kann der Server 20 alle Lerndaten von jeder Fahrzeugdaten-Erzeugungsvorrichtung 100, die in jedem der Vielzahl von Fahrzeugen 10 angeordnet ist, empfangen und speichern.
  • Der Server 20 kann das maschinelle Lernen mit Deep-Learning unter Verwendung der gespeicherten Lerndaten durchführen und kann Lernergebnisinformationen an jedes Fahrzeug 10 liefern, in dem eine Fahrzeugdaten-Erzeugungsvorrichtung 100 angeordnet ist. Das maschinelle Lernen mit Deep-Learning, bei dem es sich um eine Technologie zum Clustern oder Klassifizieren von Objekten oder Daten handelt, kann ein spezifisches Muster der Lerndaten zum Clustern oder Klassifizieren der Objekte oder der Dateneingabe auf der Grundlage des extrahierten spezifischen Musters extrahieren. In diesem Zusammenhang kann die Klassifikation oder das Clustering umso genauer sein, je größer die Menge der Daten für die Lerneingabe in einen Algorithmus für das maschinelle Lernen ist. Das maschinelle Lernen mit Deep-Learning kann Deep-Learning-Techniken wie ein tiefes neuronales Netz (deep neural network), ein tiefes „faltendes“ neuronales Netz (deep convolutional neural network) und ein deep belief network umfassen.
  • So kann das Fahrzeug 10 die Fahrspur und/oder die Mittellinie der Straße auf der Grundlage der vom Server 20 bereitgestellten Lernergebnisinformationen genauer erkennen.
  • Daher werden eine detaillierte Ausgestaltung und ein Betrieb der Fahrzeugdaten-Erzeugungsvorrichtung 100 unter Bezugnahme auf eine Ausführungsform gemäß 2 näher beschrieben.
  • 2 zeigt ein Diagramm, das eine Ausgestaltung einer Fahrzeugdaten-Erzeugungsvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung veranschaulicht.
  • Unter Bezugnahme auf 2 kann die Fahrzeugdaten-Erzeugungsvorrichtung 100 eine Steuerung 110, eine Kamera 120, einen präzisen Positionierungssensor 130, eine präzise Karten-DB (Datenbank) 140, einen Kommunikator 150, eine Datenerfassungsvorrichtung 160 und eine Lerndaten-Erzeugungsvorrichtung 170 umfassen. In diesem Zusammenhang können das Steuerung 110, die Datenerfassungsvorrichtung 160 und die Lerndaten-Erzeugungsvorrichtung 170 der Fahrzeugdaten-Erzeugungsvorrichtung 100 entsprechend einer Ausführungsform der vorliegenden Offenbarung als mindestens ein Prozessor implementiert sein.
  • Die Steuerung 110 kann Signale verarbeiten, die zwischen den Komponenten der Fahrzeugdaten-Erzeugungsvorrichtung 100 gesendet und empfangen werden.
  • Die Kamera 120 ist eine Vorrichtung zur Aufnahme eines Bildes eines Bereichs um das Fahrzeug herum.
  • Beispielsweise kann die Kamera 120 eine Frontkamera sein, die so angeordnet ist, dass diese auf einen Bereich vor dem Fahrzeug ausgerichtet ist. Bei einer Anfrage kann die Frontkamera ein Bild des Bereichs vor dem Fahrzeug in Echtzeit oder in vorgegebenen Intervallen erfassen und das erfasste Bild an die Steuerung 110 und/oder die Datenerfassungsvorrichtung 160 übertragen.
  • In diesem Zusammenhang kann die Steuerung 110 das von der Kamera 120 übertragene Bild (im Folgenden als „Kamerabild“ bezeichnet) in der präzisen Karten-DB (Datenbank) 140 speichern und das Kamerabild der Datenerfassungsvorrichtung 160 zur Verfügung stellen.
  • Der präzise Positionierungssensor 130 betrifft eine Vorrichtung zur Messung der Position des Fahrzeugs mit Hilfe einer präzisen Positionierungstechnologie.
  • Eine Positionierungstechnologie bezieht sich auf eine Technologie zum Bestimmen einer Position unter Verwendung von Informationen, die durch einen Navigationssensor, wie z.B. ein GPS, erhalten werden. Die präzise Positionierungstechnologie bezieht sich auf eine Technologie, die die Position des Fahrzeugs in einem Schema ermittelt, bei dem die Position des Fahrzeugs mit Hilfe der Positionierungstechnologie identifiziert, eine hochpräzise Karteninformation um das Fahrzeug herum abgerufen und die hochpräzise Karteninformation mit der während der Fahrt in Echtzeit erfassten Sensorinformation verglichen wird, um die Position des Fahrzeugs zu korrigieren.
  • In diesem Zusammenhang kann der präzise Positionierungssensor 130 in einer Form implementiert sein, in der mehrere Sensoren miteinander gekoppelt sind.
  • Der präzise Positionierungssensor 130 kann mit der Kamera 120 synchronisiert werden, um eine Fahrzeugposition zu einem Zeitpunkt zu erkennen, zu dem das Kamerabild aufgenommen wird. Der präzise Positionierungssensor 130 kann erfasste Fahrzeugpositionsinformationen an die Steuerung 110 und/oder die Datenerfassungsvorrichtung 160 übertragen.
  • In diesem Zusammenhang kann die Steuerung 110 die vom präzisen Positionierungssensor 130 übertragenen Fahrzeugpositionsinformationen in der präzisen Karten-DB (Datenbank) 140 speichern und die Fahrzeugpositionsinformationen der Datenerfassungsvorrichtung 160 zur Verfügung stellen.
  • Eine im Voraus erstellte präzise Karte ist in der präzisen Karten-DB (Datenbank) 140 gespeichert.
  • In diesem Zusammenhang kann die präzise Karten-DB (Datenbank) 140 ein Speichermedium wie ein RAM (Random Access Memory), ein SRAM (Static Random Access Memory), ein ROM (Read-Only Memory), ein PROM (Programmable Read-Only Memory) und ein EEPROM (Electrically Erasable Programmable Read-Only Memory) umfassen. Die präzise Karten-DB (Datenbank) 140 kann das Speichermedium umfassen und auf dem Speichermedium können Informationen gespeichert sein, die für die Generierung der Lerndaten erforderlich sind, mit Ausnahme der präzisen Karte, die im Voraus erstellt wurde. Beispielsweise kann die präzise Karten-DB (Datenbank) 140 weiterhin das von der Kamera 120 erfasste Kamerabild und die vom präzisen Positionierungssensor 130 erfasste Fahrzeugpositionsinformation speichern.
  • Der Kommunikator 150 kann ein Kommunikationsmodul für eine Fahrzeugnetzwerkkommunikation mit im Fahrzeug angeordneten elektronischen Geräten und/oder Steuereinheiten umfassen. Das Kommunikationsmodul kann z.B. eine Fahrzeugnetzwerkkommunikation zwischen der Steuerung 110, der Kamera 120, dem präzisen Positionierungssensor 130, der präzisen Karten-DB (Datenbank) 140, der Datenerfassungsvorrichtung 160 und der Lerndaten-Erzeugungsvorrichtung 170 unterstützen und kann von jeder Vorrichtung ausgegebene Signale empfangen und die empfangenen Signale übertragen.
  • In diesem Zusammenhang können als Fahrzeugnetzwerk-Kommunikationstechnologie eine CAN (Controller Area Network)-Kommunikation, eine LIN (Local Interconnect Network)-Kommunikation, eine Flex-Ray-Kommunikation, ein Ethernet und dergleichen umfasst sein.
  • Zusätzlich kann der Kommunikator 150 noch ein Kommunikationsmodul für drahtlose Kommunikation mit dem Server 20 umfassen (siehe 1). Als Beispiel kann das Kommunikationsmodul Signale mit dem Server 20 über eine drahtlose Internet-Kommunikation oder eine Kommunikation mit kurzer Reichweite senden/empfangen.
  • In diesem Zusammenhang können als drahtlose Internet-Kommunikationstechnologie WLAN (Wireless LAN), WiBro (Wireless Broadband), Wi-Fi, WiMAX (World Interoperability for Microwave Access) und ähnliches umfasst sein.
  • Darüber hinaus können als Kommunikationstechnologie mit kurzer Reichweite Bluetooth, ZigBee, UWB (Ultra Wideband), RFID (Radio Frequency Identification), IrDA (Infrared Data Association) und ähnliches umfasst sein.
  • Wenn die Fahrzeugpositionsinformationen vom präzisen Positionierungssensor 130 oder von der Steuerung 110 empfangen werden, kann die Datenerfassungsvorrichtung 160 die in der präzisen Karten-DB (Datenbank) 140 gespeicherte präzise Karte aufrufen und präzise Karteninformationen erfassen, die den Fahrzeugpositionsinformationen der aufgerufenen präzisen Karte entsprechen. Zum Beispiel kann die Datenerfassungsvorrichtung 160 Forminformationen über eine Fahrspur und/oder eine Mittellinie der Straße auf der präzisen Karte erfassen, die der Fahrzeugposition in der in der präzisen Karten-DB (Datenbank) 140 gespeicherten präzisen Karte entspricht. In diesem Zusammenhang können die Informationen der präzisen Karte die Forminformationen über die Fahrspur und/oder die Mittellinie der Straße auf der präzisen Karte enthalten.
  • Die Lerndaten-Erzeugungsvorrichtung 170 erzeugt die Lerndaten unter Verwendung des Kamerabildes und der präzisen Karteninformationen, die von der Datenerfassungsvorrichtung 160 erfasst werden. In diesem Zusammenhang bildet die Lerndaten-Erzeugungsvorrichtung 170 die präzisen Karteninformationen auf das Kamerabild ab. Beispielsweise bildet die Lerndaten-Erzeugungsvorrichtung 170 die Forminformationen der Fahrspur und/oder der Mittellinie der Straße auf der präzisen Karte auf einen entsprechenden Bereich des Kamerabildes ab. In diesem Zusammenhang kann die Lerndaten-Erzeugungsvorrichtung 170 bei der Erzeugung von Lerndaten das erfasste Kamerabild und die präzisen Karteninformationen direkt von der Datenerfassungsvorrichtung 160 empfangen. Wenn die Lerndaten-Erzeugungsvorrichtung 170 die Lerndaten erzeugt, kann die Steuerung 110 außerdem das erfasste Kamerabild und die präzisen Karteninformationen von der Datenerfassungsvorrichtung 160 empfangen und das erfasste Kamerabild und die präzisen Karteninformationen an die Lerndaten-Erzeugungsvorrichtung 170 übertragen.
  • Die Lerndaten-Erzeugungsvorrichtung 170 kann das Abbilden nach Durchführung eines separaten Vorverarbeitungsprozesses durchführen, um beim Abbilden der präzisen Karteninformationen auf das Kamerabild für ein Datenformat des maschinellen Lernens geeignet zu sein.
  • Wenn z.B. ein frontales intaktes 3D-Bild als Lerndaten erzeugt wird, kann die Lerndaten-Erzeugungsvorrichtung 170 eine Koordinatentransformation von Informationen auf der präzisen Karte auf der Grundlage von 3D durchführen und dann die entsprechenden Informationen auf das Kamerabild abbilden.
  • Darüber hinaus kann bei der Erzeugung der Lerndaten aus der Vogelperspektive die Lerndaten-Erzeugungsvorrichtung 170 das Kamerabild auf der Grundlage eines entsprechenden Koordinatensystems konvertieren und das konvertierte Kamerabild mit den Informationen auf der präzisen Karte kombinieren.
  • Darüber hinaus kann die Lerndaten-Erzeugungsvorrichtung 170 verschiedene Vorverarbeitungsprozesse durchführen, die für das Deep-Learning erforderlich sind, wie z. B. Kontrastumwandlung und/oder Drehung links- oder rechtsherum, bevor die präzisen Karteninformationen auf das Kamerabild abgebildet werden.
  • Die Lerndaten-Erzeugungsvorrichtung 170 kann das Kamerabild erzeugen, dem die präzisen Karteninformationen als Lerndaten zugeordnet werden, und kann die erzeugten Lerndaten in der präzisen Karten-DB (Datenbank) 140 speichern.
  • Wenn die Lerndaten vom der Lerndaten-Erzeugungsvorrichtung 170 erzeugt werden, überträgt die Steuerung 110 die erzeugten Lerndaten an den über den Kommunikator 150 angeschlossenen Server.
  • Darüber hinaus kann die Steuerung 110, wenn ein Lernergebnis für die Lerndaten vom Server 20 empfangen wird, die empfangenen Lernergebnisdaten an ein fahrendes System zur Steuerung der Fahrt des Fahrzeugs, ein Fahrspurerkennungssystem zur Erkennung der Fahrspur oder ähnliches liefern.
  • Die Fahrzeugdaten-Erzeugungsvorrichtung 100 gemäß der vorliegenden Ausführungsform, die wie oben beschrieben arbeitet, kann in Form einer unabhängigen Hardware-Einrichtung mit einem Speicher und einem Prozessor zur Verarbeitung jeder Operation implementiert werden oder in Form einer anderen Hardware-Einrichtung wie einem Mikroprozessor oder einem üblichen Computersystem betrieben werden.
  • 3 zeigt ein Diagramm, das eine Ausführungsform darstellt, bei der ein Vorgang einer Erzeugung von Lerndaten einer Fahrzeugdaten-Erzeugungsvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung dargelegt wird.
  • Unter Bezugnahme auf 3 kann die Fahrzeugdaten-Erzeugungsvorrichtung 100 Lerndaten 320 unter Verwendung eines Kamerabildes 311, das von der Kamera 120 erhalten wird, präzise Positionierungsinformationen 313, die von dem präzisen Positionierungssensor 130 erhalten werden, und präzise Karteninformationen 315, die von der präzisen Karten-DB (Datenbank) 140 erhalten werden, erzeugen.
  • In diesem Zusammenhang kann die Fahrzeugdaten-Erzeugungsvorrichtung 100 die präzisen Karteninformationen 315 auf der präzisen Karte auf der Grundlage der präzisen Positionierungsinformationen 313 erhalten. Eine Fahrspur und/oder eine Mittellinie einer Straße und dergleichen einer entsprechenden Region auf der präzisen Karte können als präzise Karteninformation enthalten sein. Darüber hinaus können die präzisen Karteninformationen Informationen enthalten, die in der entsprechenden Region charakteristisch erkannt werden können.
  • Wenn die Fahrzeugpositionsinformation vom präzisen Positionierungssensor 130 oder von der Steuerung 110 empfangen wird, kann die Datenerfassungsvorrichtung 160 die in der präzisen Karten-DB (Datenbank) 140 gespeicherte präzise Karte aufrufen und die der Fahrzeugpositionsinformation entsprechende präzisen Karteninformation von der aufgerufenen präzisen Karte erfassen. Zum Beispiel kann die Datenerfassungsvorrichtung 160 die Forminformationen über die Fahrspur und/oder die Mittellinie der Straße auf der präzisen Karte entsprechend der Fahrzeugposition in der präzisen Karte erfassen.
  • Die Lerndaten-Erzeugungsvorrichtung 170 erzeugt die Lerndaten unter Verwendung des Kamerabildes und der präzisen Karteninformationen, die von der Datenerfassungsvorrichtung 160 erfasst werden. In diesem Zusammenhang bildet die Lerndaten-Erzeugungsvorrichtung 170 die präzisen Karteninformationen auf das Kamerabild ab. Beispielsweise bildet die Lerndaten-Erzeugungsvorrichtung 170 die Forminformationen über die Fahrspur und/oder die Mittellinie der Straße auf der präzisen Karte auf den entsprechenden Bereich des Kamerabildes ab.
  • Die Lerndaten-Erzeugungsvorrichtung 170 kann die Abbildung durchführen, nachdem diese einen separaten Vorverarbeitungsprozess durchgeführt hat, um bei der Abbildung der präzisen Karteninformationen auf das Kamerabild für das Datenformat des maschinellen Lernens geeignet zu sein.
  • Wenn z.B. das frontale intakte 3D-Bild als Lerndaten erzeugt wird, kann die Lerndaten-Erzeugungsvorrichtung 170 eine Koordinatentransformation von Informationen auf der präzisen Karte auf der Grundlage von 3D durchführen und dann die entsprechenden Informationen auf das Kamerabild abbilden.
  • Darüber hinaus kann die Lerndaten-Erzeugungsvorrichtung 170 für das Lernen in der Vogelperspektive das Kamerabild auf der Grundlage des entsprechenden Koordinatensystems konvertieren und das konvertierte Kamerabild mit den Informationen auf der präzisen Karte kombinieren.
  • Darüber hinaus kann die Lerndaten-Erzeugungsvorrichtung 170 die verschiedenen Vorverarbeitungsprozesse durchführen, die für das Deep-Learning erforderlich sind, wie z.B. die Kontrastumwandlung und/oder die Drehung nach links oder rechts, bevor die präzisen Karteninformationen auf das Kamerabild abgebildet werden.
  • Die Lerndaten-Erzeugungsvorrichtung 170 kann das Kamerabild erzeugen, dem die präzisen Karteninformationen als Lerndaten zugeordnet werden, und kann die erzeugten Lerndaten in der präzisen Karten-DB (Datenbank) 140 speichern.
  • 4 zeigt ein Diagramm, das eine Ausgestaltung eines Systems gemäß einer anderen Ausführungsform der vorliegenden Offenbarung veranschaulicht.
  • Unter Bezugnahme auf 4 kann das System das erste Fahrzeug 10, den Server 20 und ein zweites Fahrzeug 30 umfassen.
  • Wie in den 1 und 2 dargestellt, kann das erste Fahrzeug 10 die Fahrzeugdaten-Erzeugungsvorrichtung 100 enthalten. Das erste Fahrzeug 10 kann die Fahrzeugdaten-Erzeugungsvorrichtung 100 umfassen. Die im ersten Fahrzeug 10 angeordnete Fahrzeugdaten-Erzeugungsvorrichtung 100 kann integral mit den internen Steuereinheiten des ersten Fahrzeugs 10 ausgebildet sein oder als separate Vorrichtung implementiert und mit den Steuereinheiten des ersten Fahrzeugs 10 durch separate Verbindungsmittel verbunden sein.
  • Die Fahrzeugdaten-Erzeugungsvorrichtung 100, die im ersten Fahrzeug 10 angeordnet ist, kann die Lerndaten, d.h. für das maschinelle Lernen mit Deep-Learning für die Fahrspur und die Mittellinie der Straße, erzeugen und die Lerndaten dem Server 20 bereitstellen. In diesem Zusammenhang kann die Fahrzeugdaten-Erzeugungsvorrichtung 100 die Lerndaten für die Fahrspur, die Straßenmittellinie und dergleichen unter Verwendung von Informationen eines Kamerabildes erzeugen, das an einer durch präzise Positionierung und eine präzisen Karte berechneten Position des ersten Fahrzeugs 10 aufgenommen wurde, und die erzeugten Lerndaten dem Server 20 zur Verfügung stellen.
  • Unter Bezugnahme auf 2 kann die im ersten Fahrzeug 10 angeordnete Fahrzeugdaten-Erzeugungsvorrichtung 100 die Steuerung 110, die Kamera 120, den präzisen Positionierungssensor 130, die präzise Karten-DB (Datenbank) 140, den Kommunikator 150 und die Datenerfassungsvorrichtung 160 sowie die Lerndaten-Erzeugungsvorrichtung 170 umfassen.
  • Die Steuerung 110 kann die zwischen den Komponenten 120 bis 170 gesendeten und empfangenen Signale der Fahrzeugdaten-Erzeugungsvorrichtung 100 verarbeiten.
  • Die Kamera 120 ist die Vorrichtung zur Erfassung des Bildes im Bereich um das Fahrzeug herum. Als Beispiel kann die Kamera 120 die Frontkamera sein, die so angeordnet ist, dass diese auf den Bereich vor dem Fahrzeug gerichtet ist. Wenn die Anforderung vorliegt, kann die Frontkamera das Bild des Bereichs vor dem Fahrzeug in Echtzeit oder in vorgegebenen Intervallen erfassen und das erfasste Bild an die Steuereinheit 110 und/oder die Datenerfassungsvorrichtung 160 übertragen. In diesem Zusammenhang kann die Steuerung 110 das von der Kamera 120 erfasste Bild in der präzisen Karten-DB (Datenbank) 140 speichern und das Bild der Datenerfassungsvorrichtung 160 zur Verfügung stellen.
  • Der präzise Positionierungssensor 130 bezieht sich auf die Vorrichtung zur Messung der Position des Fahrzeugs mit Hilfe der präzisen Positionierungstechnologie. Der präzise Positionierungssensor 130 kann z.B. in der Form implementiert sein, in der die mehreren Sensoren miteinander gekoppelt sind. Der präzise Positionierungssensor 130 kann mit der Kamera 120 synchronisiert sein, um die Fahrzeugposition zum Zeitpunkt der Aufnahme des Kamerabildes zu erfassen. Der präzise Positionierungssensor 130 kann Informationen über die erkannte Fahrzeugposition an die Steuerung 110 und/oder die Datenerfassungsvorrichtung 160 übertragen. In diesem Zusammenhang kann die Steuerung 110 die vom präzisen Positionierungssensor 130 übertragenen Fahrzeugpositionsinformationen in der präzisen Karten-DB (Datenbank) 140 speichern und die Fahrzeugpositionsinformationen der Datenerfassungsvorrichtung 160 zur Verfügung stellen.
  • Die im Voraus erstellte präzise Karte kann in der präzisen Karten-DB (Datenbank) 140 gespeichert werden. In diesem Zusammenhang kann die präzise Karten-DB (Datenbank) 140 das Speichermedium wie den RAM (Random Access Memory), den SRAM (Static Random Access Memory), den ROM (Read-Only Memory), den PROM (Programmable Read-Only Memory) und den EEPROM (Electrically Erasable Programmable Read-Only Memory) umfassen. Die präzise Karten-DB (Datenbank) 140 kann das Speichermedium enthalten, und auf dem Speichermedium können Informationen gespeichert sein, die für die Generierung der Lerndaten erforderlich sind, mit Ausnahme der präzisen Karte, die im Voraus erstellt wurde. Beispielsweise kann die präzise Karten-DB (Datenbank) 140 weiterhin das von der Kamera 120 erfasste Kamerabild, die vom präzisen Positionierungssensor 130 erfasste Fahrzeugpositionsinformation und ähnliches speichern.
  • Der Kommunikator 150 kann das Kommunikationsmodul für die Fahrzeugnetzwerkkommunikation mit elektronischen Geräten und/oder den im ersten Fahrzeug 10 angeordneten Steuerungseinheiten umfassen. Beispielsweise kann der Kommunikator 150 die Fahrzeugnetzwerkkommunikation zwischen der Steuerung 110, der Kamera 120, dem präzisen Positionierungssensor 130, der präzisen Karten-DB (Datenbank) 140, der Datenerfassungsvorrichtung 160 und der Lerndaten-Erzeugungsvorrichtung 170 unterstützen. Darüber hinaus kann der Kommunikator 150 zusätzlich das Kommunikationsmodul für die drahtlose Kommunikation mit dem Server 20 umfassen.
  • Wenn die Fahrzeugpositionsinformationen vom präzisen Positionierungssensor 130 oder von der Steuerung 110 empfangen werden, kann die Datenerfassungsvorrichtung 160 die in der präzisen Karten-DB (Datenbank) 140 gespeicherte präzise Karte aufrufen und die den Fahrzeugpositionsinformationen entsprechenden präzisen Karteninformationen von der aufgerufenen präzisen Karte erfassen. Zum Beispiel kann die Datenerfassungsvorrichtung 160 die Forminformationen über die Fahrspur und/oder die Mittellinie der Straße auf der der Fahrzeugposition entsprechenden präzisen Karte erfassen.
  • Die Lerndaten-Erzeugungsvorrichtung 170 kann die Lerndaten unter Verwendung des Kamerabildes und der präzisen Karteninformationen, die von der Datenerfassungsvorrichtung 160 erfasst werden, erzeugen. Beispielsweise kann die Lerndaten-Erzeugungsvorrichtung 170 die Forminformationen über die Fahrspur und/oder die Mittellinie der Straße auf der präzisen Karte, d.h. die präzisen Karteninformationen, auf den entsprechenden Bereich des Kamerabildes abbilden. Darüber hinaus kann die Lerndaten-Erzeugungsvorrichtung 170 den separaten Vorverarbeitungsprozess für die präzisen Karteninformationen durchführen, damit diese für das Datenformat des maschinellen Lernens geeignet sind, und dann die vorverarbeiteten präzisen Karteninformationen mit dem Kamerabild abbilden. In diesem Zusammenhang kann die Steuerung 110, wenn die Lerndaten von der Lerndaten-Erzeugungsvorrichtung 170 erzeugt werden, die erzeugten Lerndaten in der präzisen Karten-DB (Datenbank) 140 speichern und die Lerndaten über den Kommunikator 150 an den Server 20 übertragen.
  • Der Server 20 kann die Lerndaten speichern, die von der im ersten Fahrzeug 10 angeordneten Fahrzeugdaten-Erzeugungsvorrichtung 100 bereitgestellt werden. In diesem Zusammenhang kann der Server 20 alle Lerndaten von jeder Fahrzeugdaten-Erzeugungsvorrichtung 100 empfangen, die in jedem der mehreren Fahrzeuge 10 angeordnet ist.
  • Der Server 20 kann das maschinelle Lernen mit Deep-Learning unter Verwendung der gespeicherten Lerndaten durchführen und die Lernergebnisinformationen dem ersten Fahrzeug 10 und dem zweiten Fahrzeug 30 zur Verfügung stellen.
  • Das zweite Fahrzeug 30 kann Informationen über ein Ergebnis des vom Server 20 durchgeführten maschinellen Lernens mit Deep-Learning erhalten. Das zweite Fahrzeug 30 kann ein Bild verarbeiten, das von einer im zweiten Fahrzeug 30 angebrachten Kamera aufgenommen wurde, basierend auf den Informationen über das Ergebnis des vom Server 20 durchgeführten maschinellen Lernens mit Deep-Learning. Daher verarbeitet das zweite Fahrzeug 30 das von der Kamera erfasste Bild unter Verwendung der Ergebnisinformationen des maschinellen Lernens mit Deep-Learning, das auf den vom ersten Fahrzeug 10 gelieferten Lerndaten basiert, so dass die Ausführung des autonomen Fahrens weiter verbessert werden kann.
  • Im Gegensatz zum ersten Fahrzeug 10, in dem die Fahrzeugdaten-Erzeugungsvorrichtung 100 angeordnet ist, muss das zweite Fahrzeug 30 den präzisen Positionierungssensor und die präzise Karten-DB nicht enthalten. Das heißt, im Gegensatz zum ersten Fahrzeug 10 muss das zweite Fahrzeug 30 den präzisen Positionierungssensor und die präzise Karten-DB zum Erzeugen der Lerndaten nicht umfassen und kann nur die für das autonome Fahren erforderlichen Komponenten umfassen. Unter Bezugnahme auf 2 kann z.B. das zweite Fahrzeug 30 die Steuerung 110, die Kamera 120, den Kommunikator 150, die Datenerfassungsvorrichtung 160 und die Lerndaten-Erzeugungsvorrichtung 170 umfassen.
  • Das System gemäß einer anderen Ausführungsform der vorliegenden Offenbarung, die in 4 gezeigt ist, umfasst das erste Fahrzeug, das die Lerndaten unter Verwendung des präzisen Positionierungssensors und der präzisen Karten-DB erzeugen kann, den Server, der die Lerndaten vom ersten Fahrzeug empfängt, um das maschinelle Lernen mit Deep-Learning durchzuführen, und die Informationen über das Lernergebnis darin speichert, und das erste Fahrzeug und das zweite Fahrzeug, die das Lernergebnis vom Server empfangen und sich autonom fortbewegen. In diesem Zusammenhang können das erste und das zweite Fahrzeug autonome Fahrzeuge sein und das erste Fahrzeug kann ein Fahrzeug sein, das die Lerndaten erzeugen kann, die für das maschinelle Lernen mit Deep-Learning vom Server verwendet werden können.
  • 5 ist ein Diagramm, das einen Betriebsablauf für ein Verfahren zum Erzeugen von Fahrzeugdaten gemäß einer Ausführungsform der vorliegenden Offenbarung veranschaulicht. Das in 5 dargestellte Verfahren zum Erzeugen der Fahrzeugdaten wird unter Bezugnahme auf 2 beschrieben, welche die Fahrzeugdaten-Erzeugungsvorrichtung gemäß einer Ausführungsform darstellt.
  • Das Erfassen der Kamerabildinformationen (S110) kann das Erfassen des Bildes umfassen, das von der im Fahrzeug angeordneten Kamera 120 in dem Bereich um das Fahrzeug herum erfasst wurde. In diesem Zusammenhang kann die Steuerung 110 das von der Kamera 120 erfasste Bild in der präzisen Karten-DB (Datenbank) 140 speichern und das Bild der Datenerfassungsvorrichtung 160 zur Verfügung stellen.
  • Das Erfassen der präzisen Positionierungsinformationen (S120) kann die Messung der Position des Fahrzeugs durch den präzisen Positionierungssensor 130 umfassen. Zum Beispiel kann die Erfassung der präzisen Positionierungsinformation (S120) mit der Kamera 120 synchronisiert werden, um die Fahrzeugposition zum Zeitpunkt der Aufnahme des Kamerabildes zu erkennen. In diesem Zusammenhang kann die Steuerung 110 die vom präzisen Positionierungssensor 130 übertragenen Fahrzeugpositionsinformationen in der präzisen Karten-DB (Datenbank) 140 speichern und die Fahrzeugpositionsinformationen an die Datenerfassungsvorrichtung 160 bereitstellen.
  • Um die Forminformation auf der Grundlage der präzisen Karte zu erhalten (S130), kann der Aufruf der präzisen Karte aus der präzisen Karten-DB (Datenbank) 140, in der die präzise Karte gespeichert ist, erfolgen. In diesem Zusammenhang kann die Steuerung 110 die in der präzisen Karten-DB (Datenbank) 140 gespeicherte präzise Karte der Datenerfassungsvorrichtung 160 zur Verfügung stellen.
  • Der Vergleich der erfassten Informationen miteinander (S140) kann den Vergleich der in der Datenerfassungsvorrichtung 160 erfassten Informationen untereinander umfassen. Beispielsweise kann der Vergleich der erfassten Informationen miteinander (S140) den Vergleich der Informationen des von der Kamera 120 aufgenommenen Bildes mit den Informationen der präzisen Karte umfassen, die von der präzisen Karten-DB (Datenbank) 140 aufgerufen wird. In diesem Zusammenhang kann die Steuerung 110 oder die Datenerfassungsvorrichtung 160 die Informationen des von der Kamera 120 aufgenommenen Bildes mit den Informationen der präzisen Karte vergleichen.
  • Wenn sich die erfassten Kamerabildinformationen und die präzisen Karteninformationen nicht voneinander unterscheiden (Nein), d.h. beim Vergleich der erfassten Informationen miteinander in S140 und S150 gleich sind, kann die Abbildung der Informationen (S190) durchgeführt werden.
  • Die Abbildung der Informationen (S190) kann die Abbildung der präzisen Karteninformationen, die von der Datenerfassungsvorrichtung 160 erfasst wurden, auf den entsprechenden Bereich des Kamerabildes umfassen. In diesem Zusammenhang kann die Lerndaten-Erzeugungsvorrichtung 170 die präzisen Karteninformationen auf der Grundlage der präzisen Karteninformationen und der von der Datenerfassungsvorrichtung 160 erfassten Kamerabildinformationen auf den entsprechenden Bereich des Kamerabildes abbilden.
  • Die Erzeugung der Lerndaten (S200) kann das Abbilden der präzisen Karteninformationen, die von der Datenerfassungsvorrichtung 160 erfasst wurden, auf den entsprechenden Bereich des Kamerabildes umfassen, um die Lerndaten zu generieren. In diesem Zusammenhang kann die Lerndaten-Erzeugungsvorrichtung 170 die Lerndaten auf der Grundlage des Ergebnisses der Abbildung der präzisen Karteninformationen und der Kamerabildinformationen zueinander erzeugen, die bei der Abbildung der Informationen durchgeführt wurde (S190).
  • Die Übertragung der Lerndaten (S210) kann die Übertragung der erzeugten Lerndaten an den Server 20 umfassen. In diesem Zusammenhang kann der Kommunikator 150 die von der Lerndaten-Erzeugungsvorrichtung 170 erzeugten Lerndaten über die drahtgebundene/drahtlose Kommunikation an den Server 20 übertragen.
  • Wenn sich die erfassten Kamerabildinformationen und die präzisen Karteninformationen beim Vergleich der empfangenen Informationen in S140 und S150 voneinander unterscheiden (Ja), kann eine Aktualisierung der Bildverarbeitung (S170) oder eine Aktualisierung der präzisen Karten-DB (S180) durchgeführt werden.
  • Wenn sich die Kamerabildinformationen und die präzisen Karteninformationen voneinander unterscheiden (Ja), kann die Aktualisierung der Bildverarbeitung (S170) wiederholt für die voreingestellte Anzahl Male durchgeführt werden (n-mal, n ist eine natürliche Zahl).
  • Wenn die Aktualisierung der Bildverarbeitung (S170) gleich oft oder öfter als die voreingestellte Anzahl Male wiederholt wird, kann zusätzlich die Aktualisierung der präzisen Karte (S180) durchgeführt werden.
  • Daher kann das Verfahren zum Erzeugen der Fahrzeugdaten gemäß einer Ausführungsform der vorliegenden Offenbarung ferner die Auswahl der Aktualisierung (S160) umfassen, wobei entweder die Aktualisierung der Bildverarbeitung (S170) oder die Aktualisierung der präzisen Karte (S180) ausgewählt wird, wenn sich die Kamerabildinformationen und die präzisen Karteninformationen beim Vergleich der empfangenen Informationen in S140 und S150 voneinander unterscheiden.
  • Die Auswahl der Aktualisierung (S160) kann in erster Linie die wiederholte Durchführung der Aktualisierung der Bildverarbeitung (S170) umfassen, bis die Kamerabildinformationen und die präzisen Karteninformationen gleich sind, wenn sich die Kamerabildinformationen und die präzisen Karteninformationen voneinander unterscheiden, sowie die Auswahl der Aktualisierung der präzisen Karten-DB (S180), wenn die Aktualisierung der Bildverarbeitung (S170), die wiederholt durchgeführt wurde, gleich oder öfter als die voreingestellte Anzahl Male wiederholt wird.
  • Die Aktualisierung der Bildverarbeitung (S170) kann die Aktualisierung der Kamerabildinformationen umfassen, die ein Vergleichsziel der präzisen Karteninformationen ist. Die Aktualisierung der Bildverarbeitung (S170) kann die Rückkehr zur Erfassung der Kamerabildinformationen (S110) umfassen.
  • Die Aktualisierung der präzisen Karte (S180) kann die Aktualisierung der präzisen Karte umfassen, die das Vergleichsziel der Kamerabildinformationen ist. Die Aktualisierung der präzisen Karte (S180) kann das Empfangen und Speichern der in der präzisen Karten-DB (Datenbank) 140 gespeicherten Informationen über die präzise Karte vom Server 20 oder einem externen Gerät umfassen. Darüber hinaus kann die Aktualisierung der präzisen Karte (S180) die Rückkehr zum Erfassen der Kamerabildinformationen (S110) nach der Aktualisierung der in der präzisen Karten-DB (Datenbank) 140 gespeicherten präzisen Karte umfassen. In einem Beispiel kann die Aktualisierung der präzisen Karte (S180) die Durchführung der Abbildung der Informationen (S190) nach der Aktualisierung der in der Karten-DB (Datenbank) 140 gespeicherten präzisen Karte umfassen.
  • Die Vorrichtung und das Verfahren zum Erzeugen der Fahrzeugdaten und das System gemäß einer Ausführungsform der vorliegenden Offenbarung können automatisch die Lerndaten über die Erkennung der Fahrspur und der Straßenmittellinie auf der Grundlage der Informationen über das Kamerabild, das an der durch die präzise Positionierung und die präzise Karte berechneten Position des Fahrzeugs aufgenommen wurde, erzeugen und bereitstellen, so dass der Zeit- und Kostenaufwand für die Erzeugung einer großen Menge von Lerndaten minimiert und die Lernleistung verbessert werden kann. Die Vorrichtung und das Verfahren zum Erzeugen der Fahrzeugdaten und das System gemäß einer Ausführungsform der vorliegenden Offenbarung können die Informationen (das Ergebnis des maschinellen Lernens mit Deep-Learning), gelernt unter Verwendung der Lerndaten vom Server, an jedes Fahrzeug übertragen und dadurch die Fahrleistung des Fahrzeugs verbessern.
  • 6 veranschaulicht ein Computersystem, in dem ein Verfahren gemäß einer Ausführungsform der vorliegenden Offenbarung implementiert ist.
  • Unter Bezugnahme auf 6 kann ein Computersystem 1000 mindestens einen Prozessor 1100, einen Speicher 1300, eine Benutzerschnittstellen-Eingabevorrichtung 1400, eine Benutzerschnittstellen-Ausgabevorrichtung 1500, einen Speicher 1600 und eine über einen Bus 1200 angeschlossene Netzwerkschnittstelle 1700 umfassen.
  • Der Prozessor 1100 kann ein Zentralprozessor (CPU) oder ein Halbleiterbaustein sein, der die Verarbeitung von Befehlen ausführt, die im Arbeitsspeicher 1300 und/oder im Speicher 1600 gespeichert sind. Der Arbeitsspeicher 1300 und der Speicher 1600 können verschiedene Arten von flüchtigen oder nichtflüchtigen Speichermedien umfassen. Zum Beispiel kann der Arbeitsspeicher 1300 einen ROM (Read Only Memory) und einen RAM (Random Access Memory) umfassen.
  • Somit können die Operationen des Verfahrens oder des Algorithmus, die in Verbindung mit den hier offenbarten Ausführungsformen beschrieben werden, direkt in Hardware oder einem Softwaremodul, das vom Prozessor 1100 ausgeführt wird, oder in einer Kombination davon, umgesetzt werden. Das Softwaremodul kann sich auf einem Speichermedium (d.h. dem Arbeitsspeicher 1300 und/oder dem Speicher 1600) befinden, wie z.B. einem RAM, einem Flash-Speicher, einem ROM, einem EPROM, einem EEPROM, einem Register, einer Festplatte, einem Wechseldatenträger, einer CD-ROM. Das beispielhafte Speichermedium ist mit dem Prozessor 1100 gekoppelt, der Informationen vom Speichermedium lesen und auf das Speichermedium schreiben kann. Bei einem anderen Verfahren kann das Speichermedium mit dem Prozessor 1100 integriert sein. Der Prozessor und das Speichermedium können sich innerhalb einer anwendungsspezifischen integrierten Schaltung (ASIC) befinden. Die ASIC kann sich innerhalb des Benutzerterminals befinden. Bei einem anderen Verfahren können der Prozessor und das Speichermedium als einzelne Komponenten im Benutzerterminal untergebracht sein.
  • Die obige Beschreibung ist lediglich eine Darstellung der technischen Idee der vorliegenden Offenbarung, und verschiedene Modifikationen und Änderungen können von einem Fachmann vorgenommen werden, ohne von den wesentlichen Merkmalen der vorliegenden Offenbarung abzuweichen.
  • Daher werden die beispielhaften Ausführungsformen der vorliegenden Offenbarung dazu eingesetzt, den Geist und den Umfang der vorliegenden Offenbarung zu erklären, aber nicht, um diesen zu beschränken, so dass der Geist und der Umfang der vorliegenden Offenbarung nicht durch die Ausführungsformen beschränkt wird. Der Umfang der vorliegenden Offenbarung sollte auf der Grundlage der begleitenden Ansprüche ausgelegt werden, und alle technischen Ideen innerhalb des Umfangs, der den Ansprüchen entspricht, sollten in den Umfang der vorliegenden Offenbarung einbezogen werden.
  • Gemäß der vorliegenden Offenbarung können die Lerndaten über die Fahrspur, die Straßenmittellinie und dergleichen unter Verwendung der Informationen über das Kamerabild, das an der durch die präzise Positionierung und die präzise Karte berechneten Position des Fahrzeugs aufgenommen wurde, generiert und bereitgestellt werden, so dass der Zeit- und Kostenaufwand für die Generierung der großen Menge an Lerndaten minimiert und die Lernleistung verbessert werden kann.
  • Ferner können gemäß der vorliegenden Offenbarung die Informationen über das Ergebnis des Lernens unter Verwendung der Lerndaten vom Server an jedes Fahrzeug übertragen werden, wodurch die Fahrleistung des Fahrzeugs verbessert wird.
  • Obgleich die vorliegende Offenbarung unter Bezugnahme auf beispielhafte Ausführungsformen und die begleitenden Abbildungen beschrieben wurde, ist die vorliegende Offenbarung nicht darauf beschränkt, sondern kann vom Fachmann, an den sich die vorliegende Offenbarung richtet, auf verschiedene Weise modifiziert und abgeändert werden, ohne vom Geist und Umfang der vorliegenden Offenbarung abzuweichen, der in den nachfolgenden Ansprüchen beansprucht wird.
    • REPRÄSENTATIVE FIGUR: 1
      10
      FAHRZEUGDATEN- ERZEUGUNGSVORRICHTUNG
      20
      SERVER
    • 2
      110
      STEUERUNG
      120
      KAMERA
      130
      PRÄZISER POSITIONIERUNGSSENSOR
      140
      PRÄZISE KARTEN DATEN BANK (KARTEN-DB)
      150
      KOMMUNIKATOR
      160
      DATENERFASSUNGSVORRICHTUNG
      170
      LERNDATEN-ERZEUGUNGSVORRICHTUNG
    • 3
      311
      KAMERABILD
      313
      PRÄZISE POSITIONIERUNGSINFORMATIONEN
      315
      PRÄZISE KARTENINFORMATIONEN
    • 6
      1100
      PROZESSOR
      1300
      ARBEITSSPEICHER
      1400
      BENUTZERSCHNITTSTELLEN-EINGABEVORRICHTUNG
      1500
      BENUTZERSCHNITTSTELLEN-AUSGABEVORRICHTUNG
      1600
      SPEICHER
      1700
      NETZWERKSCHNITTSTELLE
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 1020190111712 [0001]

Claims (16)

  1. Fahrzeug umfassend eine Fahrzeugdaten-Erzeugungsvorrichtung, wobei das Fahrzeug umfasst: eine Kamera, die zum Erfassen eines Bereichs um das Fahrzeug herum eingerichtet ist; einen Positionierungssensor, der zum Messen einer Position des Fahrzeugs eingerichtet ist; eine Datenbank, die zum Speichern einer präzisen Karte eingerichtet ist; und eine Lerndaten-Erzeugungsvorrichtung, die zum Erzeugen von Lerndaten auf der Grundlage des erfassten Bereichs, der Position des Fahrzeugs und der präzisen Karte eingerichtet ist.
  2. Fahrzeug nach Anspruch 1, wobei der Positionierungssensor mit der Kamera synchronisiert ist, um die Position des Fahrzeugs zu einem Aufnahmezeitpunkt der Kamera zu messen.
  3. Fahrzeug nach Anspruch 1 oder 2, wobei das Fahrzeug ferner umfasst: eine Datenerfassungsvorrichtung, die zum Erfassen von Informationen eingerichtet ist, die der Position des Fahrzeugs in der präzisen Karte entsprechen.
  4. Fahrzeug nach einem der vorhergehenden Ansprüche, wobei die Lerndaten-Erzeugungsvorrichtung eingerichtet ist, die Lerndaten auf der Grundlage des erfassten Bereichs und der präzisen Karte zu erzeugen.
  5. Fahrzeug nach Anspruch 4, wobei die präzise Karte Forminformationen einer Fahrspur und einer Mittellinie einer Straße auf der präzisen Karte umfasst.
  6. Fahrzeug nach Anspruch 5, wobei die Lerndaten-Erzeugungsvorrichtung eingerichtet ist, die Forminformationen auf einen entsprechenden Bereich des erfassten Bereichs abzubilden.
  7. System zum Erzeugen von Fahrzeugdaten, wobei das System umfasst: einen Server, der eingerichtet ist: Lerndaten zu empfangen; und ein maschinelles Lernen auf der Grundlage der Daten auszuführen, um Lernergebnisinformationen zu erzeugen; und ein erstes Fahrzeug umfassend eine Fahrzeugdaten-Erzeugungsvorrichtung, die eingerichtet ist, die Daten zu erzeugen und die Lernergebnisinformationen zu empfangen.
  8. System nach Anspruchs 7, wobei die Fahrzeugdaten-Erzeugungsvorrichtung umfasst: eine Kamera, die zum Erfassen eines Bereichs um das Fahrzeug herum eingerichtet ist; einen Positionierungssensor, der zum Messen einer Position des Fahrzeugs eingerichtet ist; eine Datenbank, die zum Speichern einer präzisen Karte eingerichtet ist; eine Datenerfassungsvorrichtung, die zum Erfassen von Informationen eingerichtet ist, die der Position des ersten Fahrzeugs in der präzisen Karte entsprechen; und eine Lerndaten-Erzeugungsvorrichtung, die zum Erzeugen der Lerndaten auf der Grundlage des erfassten Bereichs und der präzisen Karte eingerichtet ist.
  9. System nach Anspruch 8, wobei die Lerndaten-Erzeugungsvorrichtung eingerichtet ist, Forminformationen einer Fahrspur und einer Mittellinie einer Straße auf die präzise Karte auf einen entsprechenden Bereich des erfassten Bereichs abzubilden.
  10. System nach Anspruchs 8, wobei das System ferner umfasst: ein zweites Fahrzeug, das eingerichtet ist: die Lernergebnisinformationen vom Server zu empfangen; und sich autonom fortzubewegen.
  11. Verfahren zum Erzeugen von Fahrzeugdaten, wobei das Verfahren umfasst: Erfassen von Kamerabildinformationen durch eine Kamera; Erfassen präziser Positionierungsinformationen durch einen Positionierungssensor; Erhalten von Forminformationen aus einer präzisen Karte auf der Grundlage der präzisen Positionierungsinformationen durch eine Lerndaten-Erzeugungsvorrichtung; Abbilden der Forminformationen auf einen entsprechenden Bereich der Kamerabildinformation durch die Lerndaten-Erzeugungsvorrichtung; und Erzeugen von Lerndaten auf der Grundlage der abgebildeten Forminformationen durch die Lerndaten-Erzeugungsvorrichtung.
  12. Verfahren nach Anspruch 11, wobei das Verfahren ferner umfasst: Übertragen der Lerndaten zu einem Server.
  13. Verfahren nach Anspruch 11 oder 12, wobei das Verfahren ferner umfasst: Vergleichen der Kamerabildinformation mit der präzisen Karte als Antwort auf das Erhalten der Forminformationen.
  14. Verfahren nach Anspruch 13, wobei das Verfahren ferner umfasst: als Antwort auf den Vergleich der Kamerabildinformation mit der präzisen Karte, Abbilden der Forminformationen, wenn die Kamerabildinformation und die präzise Karte übereinstimmen; und Aktualisieren der Bildverarbeitung, wenn die Bildinformationen der Kamera und die präzise Karte nicht übereinstimmen.
  15. Verfahren nach Anspruch 14, wobei die Aktualisierung der Bildverarbeitung umfasst: wiederholtes Erfassen der Kamerabildinformationen, bis die Kamerabildinformationen und die präzise Karte übereinstimmen.
  16. Verfahren nach Anspruch 15, wobei das Verfahren ferner umfasst: Aktualisieren der präzisen Karte, wenn die Bildverarbeitung eine vorbestimmte Anzahl Male wiederholt aktualisiert wird.
DE102020211240.1A 2019-09-09 2020-09-08 Vorrichtung und Verfahren zum Erzeugen von Fahrzeugdaten, sowie System Pending DE102020211240A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0111712 2019-09-09
KR1020190111712A KR102664123B1 (ko) 2019-09-09 2019-09-09 차량 데이터 생성 장치 및 방법, 그리고 시스템

Publications (1)

Publication Number Publication Date
DE102020211240A1 true DE102020211240A1 (de) 2021-03-11

Family

ID=74644829

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020211240.1A Pending DE102020211240A1 (de) 2019-09-09 2020-09-08 Vorrichtung und Verfahren zum Erzeugen von Fahrzeugdaten, sowie System

Country Status (4)

Country Link
US (1) US11386675B2 (de)
KR (1) KR102664123B1 (de)
CN (1) CN112466112A (de)
DE (1) DE102020211240A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220151829A (ko) * 2021-05-07 2022-11-15 인플랩 주식회사 실시간 정밀 도로지도 갱신방법 및 이를 이용한 서비스 연계 실시간 정밀 도로지도 갱신 시스템

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050058810A (ko) * 2003-12-12 2005-06-17 주식회사 에브리웨어 전자지도를 위한 영상 처리 시스템 및 방법
JP4277717B2 (ja) * 2004-03-17 2009-06-10 株式会社日立製作所 車両位置推定装置およびこれを用いた運転支援装置
US20080309762A1 (en) * 2007-06-12 2008-12-18 Richie Howard In-vehicle mobile digital video surveillance recorder system with GPS visual mapping and navigation
CN107533801A (zh) * 2013-11-01 2018-01-02 国际智能技术公司 使用测绘车辆的地图测绘技术
JP6658088B2 (ja) * 2015-03-23 2020-03-04 株式会社豊田中央研究所 情報処理装置、プログラム、及び地図データ更新システム
KR101766138B1 (ko) * 2016-05-03 2017-08-07 현대자동차주식회사 전방 차량 검출 장치
EP3496069B1 (de) * 2016-10-07 2022-10-26 Aisin Corporation Fahrassistenzvorrichtung und computerprogramm
WO2019112501A1 (en) * 2017-12-08 2019-06-13 Telefonaktiebolaget Lm Ericsson (Publ) Determining an undesired action of a vehicle
CN108196535B (zh) * 2017-12-12 2021-09-07 清华大学苏州汽车研究院(吴江) 基于增强学习和多传感器融合的自动驾驶***
KR102418051B1 (ko) * 2017-12-28 2022-07-07 현대오토에버 주식회사 차선별 교통상황 판단 장치, 시스템, 및 방법
JP6894857B2 (ja) * 2018-01-26 2021-06-30 Kddi株式会社 周辺走行中の被観測車両の運転特性を推定するプログラム、装置及び方法
CN110873568B (zh) * 2018-08-30 2021-02-23 百度在线网络技术(北京)有限公司 高精度地图的生成方法、装置以及计算机设备
US11263245B2 (en) * 2018-10-30 2022-03-01 Here Global B.V. Method and apparatus for context based map data retrieval

Also Published As

Publication number Publication date
US20210073556A1 (en) 2021-03-11
CN112466112A (zh) 2021-03-09
US11386675B2 (en) 2022-07-12
KR102664123B1 (ko) 2024-05-09
KR20210030136A (ko) 2021-03-17

Similar Documents

Publication Publication Date Title
DE102018215826B4 (de) Robotersystem und Werkstückgreifverfahren
DE112018006663T5 (de) Selbstlernen in verteilter architektur zur verbesserung von künstlichem neuronalen netz
EP3824247A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE112017005958T5 (de) Robotersteuerung und Kalibrierungsverfahren
EP3814720B1 (de) Lokalisierungssystem und verfahren zum betreiben desselben
DE112018008077T5 (de) Globale Kartenerstellung unter Verwendung lokaler bordeigener Karten, die durch Flottenbewegungsbahnen und -beobachtungen erstellt wurden
EP3393875B1 (de) Verfahren zum verbesserten erkennen von objekten durch ein fahrerassistenzsystem
DE102019218613A1 (de) Objektklassifizierungsverfahren, Objektklassifizierungsschaltung, Kraftfahrzeug
DE102018206108A1 (de) Generieren von Validierungsdaten mit generativen kontradiktorischen Netzwerken
DE102020211240A1 (de) Vorrichtung und Verfahren zum Erzeugen von Fahrzeugdaten, sowie System
DE112020007472T5 (de) Lernnutzungssystem, nutzungsvorrichtung, lernvorrichtung, programm und lernnutzungsverfahren
DE102019105578A1 (de) Generieren einer superauflösungs-tiefenkarte
DE102020207065B3 (de) Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zum Zusammenführen von Objektinformationen über ein oder mehrere Objekte in einem Umfeld eines Fahrzeugs
DE102018216561A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Strategie eines Agenten
DE102021110287A1 (de) Verfahren und System zum automatisierten Kalibrieren von Sensoren
DE112021001817T5 (de) Landkartenaktualisierungsvorrichtung und landkartenaktualisierungsprogramm
EP3926304A1 (de) Verfahren zum beurteilen einer genauigkeit einer positionsbestimmung einer landmarke, sowie bewertungssystem
WO2017220307A1 (de) Aktualisierung einer digitalen karte
DE102019216184A1 (de) Verfahren zum Robustifizieren eines Neuronalen Netzes gegen adversariale Störungen
EP3969846A1 (de) Verfahren zum validieren einer kartenaktualität
EP3985565A1 (de) Verfahren und vorrichtung zum überprüfen eines beim teilautomatisierten oder vollautomatisierten steuern eines fahrzeugs verwendeten ki-basierten informationsverarbeitungssystems
DE102018217194A1 (de) Verfahren zum Lokalisieren eines Fahrzeugs
DE102023100599A1 (de) Rechnerisch effizientes unüberwachtes dnn-vortraining
DE102021208407A1 (de) Verfahren zum Bereitstellen einer bereits erzeugten Trajektorie eines ersten Kraftfahrzeugs für ein zweites Kraftfahrzeug zum zukünftigen Abfahren der Trajektorie, Computerprogrammprodukt sowie Assistenzsystem
DE102021129108A1 (de) Verfahren, System und Computerprogrammprodukt zum Ausgeben von Ausgabewerten zur Analyse und/oder Bewertung und/oder Prozesssteuerung einer Entität

Legal Events

Date Code Title Description
R012 Request for examination validly filed