DE102019111249A1 - Verfahren und system zur verbesserung der objekterkennung und objektklassifizierung - Google Patents

Verfahren und system zur verbesserung der objekterkennung und objektklassifizierung Download PDF

Info

Publication number
DE102019111249A1
DE102019111249A1 DE102019111249.4A DE102019111249A DE102019111249A1 DE 102019111249 A1 DE102019111249 A1 DE 102019111249A1 DE 102019111249 A DE102019111249 A DE 102019111249A DE 102019111249 A1 DE102019111249 A1 DE 102019111249A1
Authority
DE
Germany
Prior art keywords
scene
data
classification
objects
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102019111249.4A
Other languages
English (en)
Inventor
Soheil Samii
Unmesh Dutta Bordoloi
Fan Bai
Guangyu J. Zou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102019111249A1 publication Critical patent/DE102019111249A1/de
Granted legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Ein System und Verfahren zur Objekterkennung und -klassifizierung beinhaltet das Empfangen von ersten Daten einer Szene durch eine Steuerung, worin die Daten die Szene zu einem ersten Zeitpunkt reflektieren, und das Durchführen einer ersten Klassifizierung von mindestens einem Objekt innerhalb der Szene basierend auf den Daten. Das Verfahren beinhaltet das Bestimmen eines projizierten Standorts des mindestens einen Objekts, der einem geschätzten Standort zu einem zweiten Zeitpunkt entspricht. Das Verfahren beinhaltet das Empfangen einer zweiten Information der Szene, welche die Szene zum zweiten Zeitpunkt reflektiert. Das Verfahren beinhaltet das Bestimmen, ob der projizierte Standort des Objekts dem Standort des Objekts entspricht, wie er durch die zweiten Daten reflektiert wird. Das Verfahren beinhaltet das Bestimmen, ob das Durchführen einer zweiten Klassifizierung des einen Objekts erforderlich ist, basierend auf dem Bestimmen, ob der projizierte Standort dem Standort des einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird.

Description

  • EINLEITUNG
  • Die Ausführungsformen des Gegenstands beziehen sich auf die Verbesserung der Objekterkennung und Objektklassifizierung. Insbesondere können eine oder mehrere Ausführungsformen darauf ausgerichtet sein, die Fähigkeit eines autonomen Fahrzeugs zu verbessern, beispielsweise bei der Objekterkennung und Objektklassifizierung.
  • Ein autonomes Fahrzeug wird im Allgemeinen als ein Fahrzeug betrachtet, das in der Lage ist, durch eine Umgebung zu navigieren, ohne direkt von einem menschlichen Fahrer geführt zu werden. Das autonome Fahrzeug kann verschiedene Verfahren verwenden, um verschiedene Aspekte der Umwelt zu erfassen. So kann beispielsweise das autonome Fahrzeug die Global Positioning System (GPS)-Technologie, die Radartechnologie, die Lasertechnologie und/oder die Kamera-/Bildtechnologie nutzen, um die Straße, andere Fahrzeuge und Straßenhindernisse zu erkennen. Autonome Fahrzeuge müssen umliegende Objekte genau erkennen und die erfassten Objekte genau klassifizieren.
  • KURZDARSTELLUNG
  • In einer exemplarischen Ausführungsform beinhaltet ein Verfahren das Empfangen von ersten Daten einer Szene durch eine Steuerung eines autonomen Fahrzeugs. Die ersten Daten spiegeln die Szene zu einem ersten Zeitpunkt wider. Das Verfahren beinhaltet auch das Durchführen einer ersten Klassifizierung von mindestens einem Objekt innerhalb der Szene basierend auf den empfangenen ersten Daten. Das Verfahren beinhaltet auch das Bestimmen einer projizierten Position des mindestens einen Objekts. Die projizierte Position entspricht einer geschätzten Position zu einem zweiten Zeitpunkt. Das Verfahren beinhaltet auch das Empfangen von zweiten Daten der Szene. Die zweiten Daten spiegeln die Szene zum zweiten Mal wider. Das Verfahren beinhaltet auch das Bestimmen, ob der projizierte Standort des mindestens einen Objekts dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird. Das Verfahren beinhaltet auch das Bestimmen, ob das Durchführen einer zweiten Klassifizierung des mindestens einen Objekts erforderlich ist, basierend auf dem Bestimmen, ob der projizierte Standort dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird.
  • In einer weiteren exemplarischen Ausführungsform ist die Durchführung der zweiten Klassifizierung des mindestens einen Objekts nicht erforderlich, wenn der projizierte Standort dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Verfahren auch das Bestimmen von Attributdaten für das mindestens eine klassifizierte Objekt.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Bestimmen des projizierten Standorts des mindestens einen Objekts das Bestimmen des projizierten Standorts basierend auf den Attributdaten.
  • In einer weiteren exemplarischen Ausführungsform beinhalten die Attributdaten eine Richtung und eine Geschwindigkeit des Objekts.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Durchführen der ersten Klassifizierung des mindestens einen Objekts das Bestimmen eines interessierenden Bereichs innerhalb der empfangenen ersten Daten.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Empfangen der ersten Daten das Empfangen von Videoinformationen oder Kamerainformationen der Szene.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Durchführen der ersten Klassifizierung das Durchführen der ersten Klassifizierung durch ein faltungsneuronales Netzwerk.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Verfahren auch das Bestimmen, ob ein neues Objekt in die Szene eingetreten ist.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Verfahren auch das Bestimmen, dass eine zusätzliche Klassifizierung erforderlich ist, basierend auf der Bestimmung, ob ein neues Objekt in die Szene eingetreten ist.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet ein System in einem autonomen Fahrzeug eine elektronische Steuerung des Fahrzeugs, die zum Empfangen von ersten Daten einer Szene konfiguriert ist. Die ersten Daten spiegeln die Szene zu einem ersten Zeitpunkt wider. Die elektronische Steuerung ist auch konfiguriert, um eine erste Klassifizierung von mindestens einem Objekt innerhalb der Szene basierend auf den empfangenen ersten Daten durchzuführen. Die elektronische Steuerung ist auch konfiguriert, um einen projizierten Standort des mindestens einen Objekts zu bestimmen. Die projizierte Position entspricht einer geschätzten Position zu einem zweiten Zeitpunkt. Die elektronische Steuerung ist ebenfalls konfiguriert, um zweite Daten der Szene zu empfangen. Die zweiten Daten spiegeln die Szene zum zweiten Mal wider. Die elektronische Steuerung ist ebenfalls konfiguriert, um zu bestimmen, ob der projizierte Standort des mindestens einen Objekts dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird. Die elektronische Steuerung ist ebenfalls konfiguriert, um zu bestimmen, ob das Durchführen einer zweiten Klassifizierung des mindestens einen Objekts erforderlich ist, basierend auf dem Bestimmen, ob der projizierte Standort dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird.
  • In einer weiteren exemplarischen Ausführungsform ist die Durchführung der zweiten Klassifizierung des mindestens einen Objekts nicht erforderlich, wenn der projizierte Standort dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird.
  • In einer weiteren exemplarischen Ausführungsform ist die elektronische Steuerung ferner konfiguriert, um Attributdaten für das mindestens eine klassifizierte Objekt zu bestimmen.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Bestimmen des projizierten Standorts des mindestens einen Objekts das Bestimmen des projizierten Standorts basierend auf den Attributdaten.
  • In einer weiteren exemplarischen Ausführungsform beinhalten die Attributdaten eine Richtung und eine Geschwindigkeit des Objekts.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Durchführen der ersten Klassifizierung des mindestens einen Objekts das Bestimmen eines interessierenden Bereichs innerhalb der empfangenen ersten Daten.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Empfangen der ersten Daten das Empfangen von Videoinformationen oder Kamerainformationen der Szene.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet das Durchführen der ersten Klassifizierung das Durchführen der ersten Klassifizierung durch ein faltungsneuronales Netzwerk.
  • In einer weiteren exemplarischen Ausführungsform ist die elektronische Steuerung ferner konfiguriert, um zu bestimmen, ob ein neues Objekt in die Szene eingetreten ist.
  • In einer weiteren exemplarischen Ausführungsform ist die elektronische Steuerung ferner konfiguriert, um zu bestimmen, dass eine zusätzliche Klassifizierung erforderlich ist, basierend auf der Bestimmung, ob ein neues Objekt in die Szene eingetreten ist.
  • Die oben genannten Eigenschaften und Vorteile sowie anderen Eigenschaften und Funktionen der vorliegenden Offenbarung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den zugehörigen Zeichnungen ohne Weiteres hervor.
  • Figurenliste
  • Andere Merkmale, Vorteile und Einzelheiten erscheinen, nur exemplarisch, in der folgenden ausführlichen Beschreibung der Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, wobei gilt:
    • 1 veranschaulicht das Durchführen der Objekterkennung und Objektklassifizierung gemäß einem konventionellen Ansatz;
    • 2 veranschaulicht das Durchführen der Objekterkennung und Objektklassifizierung gemäß einer oder mehreren Ausführungsformen;
    • 3 veranschaulicht ein System zum Durchführen von Projektion, Validierung und Änderungserkennung gemäß einer oder mehreren Ausführungsformen;
    • 4 veranschaulicht einen exemplarischen Validierungs- und Neuberechnungsprozess gemäß einer oder mehreren Ausführungsformen;
    • 5 veranschaulicht einen weiteren exemplarischen Validierungs- und Neuberechnungsprozess gemäß einer oder mehreren Ausführungsformen;
    • 6 veranschaulicht einen weiteren exemplarischen Validierungs- und Neuberechnungsprozess gemäß einer oder mehreren Ausführungsformen;
    • 7 bildet ein Flussdiagramm eines Verfahrens gemäß einer oder mehreren Ausführungsformen der Erfindung ab; und
    • 8 bildet ein High-Level-Blockdiagramm eines Computersystems ab, das zum Implementieren einer oder mehrerer Ausführungsformen der Erfindung verwendet werden kann.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung ist lediglich exemplarischer Natur und nicht dazu gedacht, die vorliegende Offenbarung in ihren An- oder Verwendungen zu beschränken. Der hier verwendete Begriff „Modul“ bezieht sich auf eine Verarbeitungsschaltung, die eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder gruppiert) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, die die beschriebene Funktionalität bieten, beinhalten kann.
  • Eine oder mehrere Ausführungsformen sind auf ein System und Verfahren zur Verbesserung der Objekterkennung und Objektklassifizierung ausgerichtet. Konventionelle Ansätze zur Objekterkennung und -klassifizierung verwenden typischerweise rechenintensive, computergestützte Prozesse. Insbesondere empfangen die konventionellen Ansätze im Allgemeinen Bilder einer Szene und verarbeiten die empfangenen Bilder mit einer hohen Frequenz. Die konventionellen Ansätze verarbeiten dann die empfangenen Bilder der Szene, um Objekte zu erkennen und zu klassifizieren, die innerhalb der Bilder erscheinen.
  • Nachdem die konventionellen Ansätze jedoch eine Reihe von Objekten innerhalb der Szene erkennen/klassifizieren, führen die konventionellen Ansätze kontinuierlich den gleichen Prozess zum Erkennen/Klassifizieren auf demselben Objektsatz durch. Die konventionellen Ansätze führen somit kontinuierlich den gleichen Prozess zum Erkennen/Klassifizieren auf der gleichen Menge von Objekten mit hoher Frequenz durch, obwohl die Objekte zuvor erkannt/klassifiziert wurden.
  • Im Gegensatz zu den herkömmlichen Ansätzen können eine oder mehrere Ausführungsformen die Menge der redundanten Erkennung/Klassifizierung von Objekten reduzieren, indem sie zukünftige Ergebnisse projizieren und schätzen, basierend auf aktuellen Berechnungsergebnissen, vergangenen Berechnungsergebnissen und der Dynamik des Objektsatzes. Die Dynamik eines Objekts kann beispielsweise eine Richtung und/oder eine Geschwindigkeit des Objekts beinhalten. Somit können eine oder mehrere Ausführungsformen die Komplexität der herkömmlichen Ansätze reduzieren, die unter Verwendung von Computer-Vision zum Erkennen und Klassifizieren von Objekten innerhalb der Szene eingesetzt werden. Anstatt ständig den gleichen Prozess zum Erkennen/Klassifizieren desselben Objektsatzes zu wiederholen, müssen eine oder mehrere Ausführungsformen erst dann einen Validierungsprozess durchführen, wenn die Objekte bereits erkannt wurden. Der Validierungsprozess kann als Hintergrundaufgabe von einem elektronischen Steuergerät (ECU) ausgeführt werden, oder der Validierungsprozess kann mittels eines Cloud-Computing durchgeführt werden.
  • Durch das Reduzieren der Notwendigkeit, Objekte zu erkennen und zu klassifizieren, die bereits erkannt/klassifiziert wurden, können eine oder mehrere Ausführungsformen eine Latenzzeit reduzieren, die typischerweise der Durchführung einer Objekterkennung zugeordnet ist. Eine oder mehrere Ausführungsformen können eine Menge an Echtzeit-Computing reduzieren, die zur Durchführung an Bord eines Fahrzeugs erforderlich ist, und somit können eine oder mehrere Ausführungsformen die Durchführung bestimmter Computing-Vorgänge mit Cloud-Computing ermöglichen.
  • 1 veranschaulicht das Durchführen der Objekterkennung und Objektklassifizierung gemäß einem konventionellen Ansatz. Mit den herkömmlichen Ansätzen erkennt ein Erkennungsfahrzeug 110 interessierende Bereiche 120, 130, 140 und 150, die den umgebenden Objekten entsprechen. Nach dem Erkennen von interessierenden Bereichen 120, 130, 140 und 150 klassifiziert das Erkennungsfahrzeug 110 dann die interessierenden Bereiche 120, 130 und 140 als entsprechend den umgebenden Fahrzeugen. Das Erkennungsfahrzeug 110 klassifiziert auch den Bereich 150 als stationäres Objekt. Da das Erkennungsfahrzeug 110 kontinuierlich Sensorinformationen und Kamerainformationen bezüglich der umliegenden Objekte mit einer Empfangsfrequenz empfängt, erkennt und klassifiziert das Erkennungsfahrzeug 110 kontinuierlich die Objekte der interessierenden Bereiche 120-150 neu, auch wenn die Objekte bereits zu einem früheren Zeitpunkt korrekt erkannt und korrekt klassifiziert wurden. Wie zuvor beschrieben, können die Systeme der konventionellen Ansätze die bereits früher korrekt erkannte/klassifizierte Objekte (der interessierenden Bereiche) kontinuierlich neu erkennen und klassifizieren, wodurch die konventionellen Ansätze einen großen Teil der Computerverarbeitung auf redundante Neuerkennung und Neuklassifizierung verwenden können.
  • 2 veranschaulicht das Durchführen der Objekterkennung und Objektklassifizierung gemäß einer oder mehreren Ausführungsformen. Mit einer oder mehreren Ausführungsformen empfängt ein Erkennungsfahrzeug 210 Sensorinformationen und/oder Kamerainformationen in Bezug auf eine aktuelle Szene 201 zu einem aktuellen Zeitpunkt. Das Erkennungsfahrzeug 210 kann die empfangenen Informationen verwenden, um interessierende Bereiche zu bestimmen, die Objekten innerhalb der aktuellen Szene 201 entsprechen. Insbesondere empfängt das Erkennungsfahrzeug 210 Informationen bezüglich der Objekte der interessierenden Bereiche 220, 230, 240 und 250. Die empfangenen Sensorinformationen und/oder Kamerainformationen beziehen sich auf Informationen der aktuellen Szene 201. Basierend auf den empfangenen Informationen kann das Erkennungsfahrzeug 210 interessierende Bereiche 220-250 erkennen, und das Erkennungsfahrzeug 210 kann die Bereiche 220-240 als den Fahrzeugen entsprechend klassifizieren und den interessierenden Bereich 250 als einem stationären Objekt entsprechend klassifizieren.
  • Neben dem Erkennen und Klassifizieren der Objekte der aktuellen Szene 201 bestimmen eine oder mehrere Ausführungsformen auch die Attribut-/Dynamikinformationen jedes Objekts. So kann beispielsweise das System einer oder mehrerer Ausführungsformen eine Geschwindigkeit und/oder eine Geschwindigkeit jedes Objekts bestimmen. Das System einer oder mehrerer Ausführungsformen kann auch eine Relativgeschwindigkeit und/oder eine Relativgeschwindigkeit im Vergleich zum erkannten Fahrzeug 210 bestimmen. Im Beispiel von 2 bestimmt das Erkennungsfahrzeug 210, dass das dem Bereich 230 entsprechende Fahrzeug mit der gleichen Geschwindigkeit fährt wie das Erkennungsfahrzeug 210. Somit fährt das dem Bereich 230 entsprechende Fahrzeug mit einer Relativgeschwindigkeit von 0 km/h. Das Erkennungsfahrzeug 210 bestimmt, dass das dem Bereich 240 entsprechende Fahrzeug ebenfalls mit einer Relativgeschwindigkeit von 0 km/h fährt. Das Erkennungsfahrzeug 210 bestimmt, dass das dem Bereich 250 entsprechende stationäre Objekt mit einer negativen Relativgeschwindigkeit im Vergleich zum Erkennungsfahrzeug 210 fährt. Eine oder mehrere Ausführungsformen können auch eine Richtung eines oder mehrerer Fahrzeuge basierend auf einer Krümmung der Straße schätzen, wie sie in mindestens einer oder mehreren hochauflösenden Karten auf Fahrspurniveau wiedergegeben wird. Eine oder mehrere Ausführungsformen können auch eine Relativgeschwindigkeit anderer Fahrzeuge basierend auf einem eingegebenen Radar/Licht-Detektions- und Reichweiten-Daten (und eingegebenen Sensordaten) schätzen. Eine oder mehrere Ausführungsformen können auch eine Relativgeschwindigkeit anderer Fahrzeuge basierend auf einer Änderung in einem interessierenden Bereich von einem erfassten Bild zu einem anderen Bild schätzen.
  • Nach dem Erkennen und Klassifizieren der Objekte einer Szene und nach dem Bestimmen der Attribut-/Dynamikinformationen jedes Objekts kann das System einer oder mehrerer Ausführungsformen die Attribut-/Dynamikinformationen zu jedem der Objekte verwenden, um projizierte Standorte der Objekte zu bestimmen. Eine oder mehrere Ausführungsformen können auch eine projizierte skalierte Größe für jeden der Bereiche bestimmen. Mit einer oder mehreren Ausführungsformen können der projizierte Standort und der projizierte Skalenwert jedes interessierenden Bereichs einer Position und einem Maßstab entsprechen, der in der Zukunft vorhergesagt wird. So kann beispielsweise der projizierte Standort/Skalenwert ein vorhergesagter Standort/Skalenwert sein, der auftritt, wenn sich eine Kamera (die die Bilder aufnimmt) um 10 Meter vorwärts bewegt.
  • Unter erneuter Bezugnahme auf das Beispiel von 2 kann das System einer oder mehrerer Ausführungsformen eine projizierte Szene 202 basierend auf den erkannten/klassifizierten Objekten und basierend auf den bestimmten Attributinformationen jedes Objekts bestimmen. Die projizierte Szene 202 kann einer projizierten zukünftigen Szene der aktuellen Szene 201 entsprechen. So kann beispielsweise die projizierte Szene 202 einer zukünftigen Szene entsprechen, in der das Trägerfahrzeug 201 im Vergleich zur aktuellen Szene 201 um 10 Meter entfernt ist.
  • Unter Bezugnahme auf die projizierte Szene 202 wird das dem Bereich 230 entsprechende Fahrzeug (das mit einer Geschwindigkeit von 0 km/h in Bezug auf das Erkennungsfahrzeug 210 fährt) auf die gleiche Entfernung vor der Erkennung des Fahrzeugs 210 geschätzt. Mit anderen Worten, die geschätzte Entfernung zwischen dem Fahrzeug, das dem Bereich 230 entspricht, und dem Erkennungsfahrzeug 210 (wie von der projizierten Szene 202 reflektiert) ist die gleiche wie die Entfernung zwischen dem Fahrzeug, das dem Bereich 230 und dem Fahrzeug 210 entspricht (wie von der aktuellen Szene 201 reflektiert). Das dem Bereich 240 entsprechende Fahrzeug (das ebenfalls mit einer Relativgeschwindigkeit von 0 km/h fährt) wird ebenfalls in gleicher Entfernung vor dem Erkennungsfahrzeug 210 projiziert. Das dem Bereich 220 entsprechende Fahrzeug (das mit einer Geschwindigkeit von +10 km/h in Bezug auf das Erkennungsfahrzeug 210 fährt) wird in einer weiteren Entfernung vor dem Erkennungsfahrzeug 210 projiziert. Mit anderen Worten, wie in der projizierten Szene 202 reflektiert, weist das dem Bereich 220 entsprechende Fahrzeug eine größere Entfernung zwischen sich und dem Erkennungsfahrzeug 210 auf. Bezogen auf die projizierte Szene 202 hat sich das stationäre Objekt, das dem Bereich 250 entspricht, etwa 10 Meter näher an das Erkennungsfahrzeug 210 angenähert.
  • 3 veranschaulicht ein System zum Durchführen von Projektion, Validierung und Änderungserkennung gemäß einer oder mehreren Ausführungsformen. Bildgebungs-/sensorische Daten 310 (der aktuellen Szene) können in einen Prozessor 320 eingegeben werden, wie zum Beispiel einen gewundenen neuronalen Netzwerkprozessor. Basierend auf den eingegebenen Bildgebungs-/sensorischen Daten 310 kann eine Objekterkennungs-/Klassifizierungsvorrichtung des gewundenen neuronalen Netzwerkprozessors 320 einen oder mehrere interessierende Bereiche erkennen. Die Objekterkennungs-/Klassifizierungsvorrichtung kann auch die eingegebenen Bildgebungs-/sensorischen Daten 310 verwenden, um jeden erkannten interessierenden Bereich zu klassifizieren. Somit kann der gewundene neuronale Netzwerkprozessor 320 eine Liste von Objekten und die entsprechenden Attribute 330 (d. h. beispielsweise eine Geschwindigkeit und/oder eine Richtung jedes Objekts) zum Zeitpunkt „t“ bestimmen.
  • Basierend auf der Liste der bestimmten Objekte und den entsprechenden Attributen 330 kann ein Projektionsmodul 340 eine Liste der projizierten Objekte und der entsprechenden Attribute 350 innerhalb einer Szene bestimmen, die in der Zukunft projiziert wird (d. h. eine Szene zum Zeitpunkt „t+n“).
  • Nachgeschaltete autonome Fahrzeuganwendungen und Steuerungen 360 können die Liste der projizierten Objekte/Attribute (zum Zeitpunkt „t“) 330 und die Liste der projizierten Objekte/Attribute (zum Zeitpunkt „t+n“) 350 empfangen. Die nachgeschalteten Anwendungen und Steuerungen 360 können die empfangenen Informationen nutzen, um die erforderlichen autonomen Fahrzeugfunktionen auszuführen.
  • Eine Validierungsvorrichtung 370 kann dann Bildgebungs-/sensorische Daten 310 empfangen, die der aktuellen Szene zum Zeitpunkt „t+n“ entsprechen. Basierend auf diesen eingegebenen Bildgebungs-/sensorischen Daten 310 für den Zeitpunkt „t+n“ kann die Validierungsvorrichtung 370 bestimmen, ob die Liste der projizierten Objekte und der entsprechenden Attribute 350 die Objekte/Attribute zum Zeitpunkt „t+n“ korrekt wiedergibt. Wenn die Validierungsvorrichtung 370 anzeigt, dass die projizierten Objekte und die entsprechenden Attribute 350 die aktuelle Szene nicht genau wiedergeben, kann die Validierungsvorrichtung 370 auch eine Neuerkennung/Neuklassifizierung von Objekten in der Szene einleiten. Die Validierungsvorrichtung 370 kann eine Erkennung 380 der Objekte der Szene auslösen, wodurch bestimmt werden kann, ob neue Objekte in die Szene eingetreten sind. Die Validierungsvorrichtung kann somit die Erkennung 380 auslösen, die eine Neuberechnung/Neuvalidierung mindestens eines neu aufgetretenen oder geänderten interessierenden Bereichs ermöglicht.
  • Wie vorstehend beschrieben, kann das Erkennen eines neuen Objekts innerhalb der Szene ein Verfahren zum Erkennen/Klassifizieren von Objektstandorten/-eigenschaften auslösen. Eine oder mehrere Ausführungsformen können die ursprüngliche CNN-Berechnung für neue Objekte, die in der Szene auftreten, durchführen. Ein neues Objekt kann beispielsweise ein Fahrzeug sein, das sich mit einer höheren Relativgeschwindigkeit als vom Erkennungsfahrzeug geschätzt annähert; oder das neue Objekt kann ein bestehendes Fahrzeug sein, das die Fahrspur wechselt, oder das neue Objekt kann ein Fahrzeug sein, das zuvor nicht in der Sicht des Erkennungsfahrzeugs war.
  • Wie vorstehend erläutert, kann eine oder mehrere Ausführungsformen durch das Reduzieren der Notwendigkeit, bereits erkannte/klassifizierte Objekte kontinuierlich zu erkennen und zu klassifizieren, eine Latenzzeit reduzieren, die typischerweise mit der Durchführung der Objekterkennung verbunden ist. Eine oder mehrere Ausführungsformen können eine Menge an Echtzeit-Computing reduzieren, die zur Durchführung an Bord eines Fahrzeugs erforderlich ist, und somit können eine oder mehrere Ausführungsformen die Durchführung bestimmter Computing-Vorgänge mit Cloud-Computing ermöglichen.
  • So kann beispielsweise bei einer oder mehreren Ausführungsformen der Validierungsprozess, der von der Validierungsvorrichtung 370 durchgeführt wird, unter Verwendung von Cloud-Computing oder von einer Vorrichtung durchgeführt werden, die vom Onboard-Verarbeitungssystem getrennt ist. Daher müssen die Verarbeitungsvorrichtungen und -fähigkeiten, die sich im Fahrzeug befinden, nicht zum Durchführen des Validierungsprozesses verwendet werden. Das Cloud-Computing-System (das vom Onboard-Verarbeitungssystem getrennt ist) kann auch kontinuierlich eine Objekterkennung und -klassifizierung basierend auf den eingegebenen Bildgebungs-/sensorischen Daten durchführen. Durch das kontinuierliche Durchführen der Objekterkennung/-klassifizierung kann das Cloud-Computing-System einer weiteren Ausführungsform den Validierungsprozess durchführen.
  • 4 veranschaulicht einen exemplarischen Validierungs- und Neuberechnungsprozess gemäß einer oder mehreren Ausführungsformen. Konkret veranschaulicht 4 einen exemplarischen Prozess, der durch die Validierungsvorrichtung 370 durchgeführt wird. Bei 410 kann die Validierungsvorrichtung 370 aufgenommene Bilder 405 empfangen und repräsentative Bilder basierend auf einer Liste von projizierten Objekten/Attributen 440 bestimmen. Bei 410 kann die Validierungsvorrichtung 370 dann die aufgenommenen Bilder 405 (welche die tatsächliche Szene widerspiegeln) mit den repräsentativen Bildern vergleichen, die basierend auf der Liste der projizierten Objekte/Attribute 440 (die eine Schätzung der tatsächlichen Szene wiedergibt) bestimmt werden. Bei 420, wenn die Differenz/der Fehler zwischen den aufgenommenen Bildern 405 und den repräsentativen Bildern zu groß ist, kann die Validierungsvorrichtung 370 eine Neuberechnung auslösen, um die Objekte der Szene bei 450 neu zu erkennen und zu klassifizieren. Wenn andererseits die Differenz/der Fehler zwischen den aufgenommenen Bildern 405 und den repräsentativen Bildern innerhalb eines akzeptablen Schwellenwerts liegt, wird die Schätzung der tatsächlichen Szene bei 430 als korrekt/verwendbar bestimmt.
  • 5 veranschaulicht einen weiteren exemplarischen Validierungs- und Neuberechnungsprozess gemäß einer oder mehreren Ausführungsformen. Konkret veranschaulicht 5 einen weiteren exemplarischen Prozess, der durch die Validierungsvorrichtung 370 durchgeführt wird. Bei 510 kann die Validierungsvorrichtung 370 erfasste Radar- und/oder LIDAR-Daten 505 empfangen. Bei 510 kann die Validierungsvorrichtung 370 auch die empfangenen Daten verarbeiten, um die Objekte zu bestimmen, die sich innerhalb der aktuellen Szene befinden. Bei 520 kann die Validierungsvorrichtung 370 eine Liste der projizierten Objekte/Attribute 540 empfangen (d. h. die geschätzten Objekte/Attribute innerhalb der Szene). Bei 520 kann die Validierungsvorrichtung 370 dann die Objekte, die basierend auf den Radar/LIDAR-Informationen (welche die tatsächliche Szene widerspiegeln) bestimmt werden, mit den Objekten vergleichen, die basierend auf den projizierten Objekten/Attributen 540 (die eine Schätzung der tatsächlichen Szene wiedergeben) bestimmt werden. Bei 530, wenn die Differenz/der Fehler zwischen den Objekten, die auf den Radar/LIDAR-Informationen basieren, und den Objekten, die auf den projizierten Objekten/Attributen basieren, zu groß ist, kann die Validierungsvorrichtung 370 eine Neuberechnung auslösen, um die Objekte der Szene bei 560 neu zu erkennen und zu klassifizieren. Wenn andererseits die Differenz/der Fehler innerhalb eines akzeptablen Schwellenwerts liegt, wird die Schätzung der tatsächlichen Szene bei 550 als korrekt/verwendbar bestimmt.
  • 6 veranschaulicht einen weiteren exemplarischen Validierungs- und Neuberechnungsprozess gemäß einer oder mehreren Ausführungsformen. Konkret veranschaulicht 6 einen weiteren exemplarischen Prozess, der durch die Validierungsvorrichtung 370 durchgeführt wird. Bei 610 kann die Validierungsvorrichtung 370 die erfassten Videostromdaten 605 empfangen. Bei 610 kann die Validierungsvorrichtung 370 auch die Liste der projizierten Objekte/Attribute 640 empfangen (d. h. die geschätzten Objekte/Attribute innerhalb der Szene). Im Beispiel von 6 kann ein Teil oder die gesamte Funktionalität der Validierungsvorrichtung 370 durch ein Cloud-Computing-System implementiert werden. Bei 620 kann die Validierungsvorrichtung 370 eine Liste von Objekten und Attributen basierend auf den Videobildern erzeugen. Bei 620 kann die Validierungsvorrichtung 370 dann die Objekte, die basierend auf dem Videostrom (der die tatsächliche Szene widerspiegeln) bestimmt werden, mit den Objekten vergleichen, die basierend auf den projizierten Objekten/Attributen 640 (die eine Schätzung der tatsächlichen Szene wiedergeben) bestimmt werden. Bei 630, wenn die Differenz/der Fehler zwischen den Objekten, die auf dem Videostrom basieren, und den Objekten, die auf den projizierten Objekten/Attributen basieren, zu groß ist, kann die Validierungsvorrichtung 370 eine Neuberechnung auslösen, um die Objekte der Szene bei 660 neu zu erkennen und zu klassifizieren. Wenn andererseits die Differenz/der Fehler innerhalb eines akzeptablen Schwellenwerts liegt, wird die Schätzung der tatsächlichen Szene bei 650 als korrekt/verwendbar bestimmt.
  • Mit einer oder mehreren Ausführungsformen, anstatt kontinuierlich eine Klassifizierung/Erkennung aller Objekte innerhalb einer Szene durchzuführen, können eine oder mehrere Ausführungsformen eine Klassifizierung/Erkennung von neuen Objekten durchführen, die in die Szene eintreten. Konkret können eine oder mehrere Ausführungsformen die Verwendung des Hochfrequenz-Klassifikators/Detektors zum Erkennen und Klassifizieren eines oder mehrerer neuer Objekte vorbehalten.
  • Wie vorstehend beschrieben, können eine oder mehrere Ausführungsformen, nachdem ein oder mehrere Objekte bereits erkannt/klassifiziert wurden, die Häufigkeit der Verarbeitung dieser Objekte reduzieren. Die Häufigkeit der Verarbeitung dieser Objekte kann reduziert werden, da eine oder mehrere Ausführungsformen nur die Überprüfung der früheren Projektionen durchführen müssen.
  • 7 verdeutlicht ein Flussdiagramm eines Verfahrens gemäß einer oder mehreren Ausführungsformen. Das Verfahren von 7 kann durchgeführt werden, um die Objekterkennung und Objektklassifizierung durch ein autonomes Fahrzeug zu verbessern. Das Verfahren von 7 kann von einer Steuerung in Verbindung mit einem oder mehreren Fahrzeugsensoren und/oder Kameravorrichtungen durchgeführt werden. Die Steuerung kann beispielsweise innerhalb einer elektronischen Steuereinheit (ECU) eines Fahrzeugs implementiert werden. Das Verfahren von 7 kann von einer Fahrzeugsteuerung durchgeführt werden, die Bilder einer Szene empfängt und verarbeitet, in der ein Fahrzeug gefahren wird, und dann das Fahrzeug basierend auf der Verarbeitung der Bilder autonom fährt. Das Verfahren kann bei Block 810 das Empfangen von ersten Daten einer Szene durch eine Steuerung eines autonomen Fahrzeugs beinhalten. Die ersten Daten spiegeln die Szene zu einem ersten Zeitpunkt wider. Das Verfahren kann auch das Durchführen einer ersten Klassifizierung von mindestens einem Objekt innerhalb der Szene basierend auf den empfangenen ersten Daten bei Block 820 beinhalten. Das Verfahren kann auch das Bestimmen eines projizierten Standorts des mindestens einen Objekts bei Block 830 beinhalten. Die projizierte Position entspricht einer geschätzten Position zu einem zweiten Zeitpunkt. Das Verfahren kann auch das Empfangen von zweiten Daten der Szene bei Block 840 beinhalten. Die zweiten Daten spiegeln die Szene zum zweiten Mal wider. Das Verfahren kann auch das Bestimmen bei Block 850 beinhalten, ob der projizierte Standort des mindestens einen Objekts dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird. Das Verfahren kann auch das Bestimmen bei Block 860 beinhalten, ob das Durchführen einer zweiten Klassifizierung des mindestens einen Objekts erforderlich ist, basierend auf dem Bestimmen, ob der projizierte Standort dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird.
  • 8 verdeutlicht ein hochrangiges Blockdiagramm eines Computersystems 900, das zum Implementieren einer oder mehrerer Ausführungsformen verwendet werden kann. Das Computersystem 900 kann zumindest einem System entsprechen, das beispielsweise zur Verbesserung der Objekterkennung und Objektklassifizierung konfiguriert ist. Das System kann Teil eines Elektroniksystems in einem Fahrzeug sein, das in Verbindung mit einer Kamera und/oder einem Sensor betrieben wird. Bei einer oder mehreren Ausführungsformen kann das Computersystem 900 einem elektronischen Steuergerät (ECU) eines Fahrzeugs entsprechen. Das Computersystem 900 kann verwendet werden, um Hardwarekomponenten des Systems zu implementieren, die imstande sind, die hierin beschriebenen Verfahren durchzuführen. Obwohl ein exemplarisches Computersystem 900 gezeigt wird, beinhaltet das Computersystem 900 einen Kommunikationspfad 926, der das Computersystem 900 mit zusätzlichen Systemen (nicht abgebildet verbindet. Das Computersystem 900 und ein zusätzliches System sind über den Kommunikationspfad 926 miteinander verbunden, z. B. um Daten zueinander zu übertragen.
  • Computersystem 900 umfasst einen oder mehrere Prozessoren, wie etwa Prozessor 902. Prozessor 902 ist mit einer Kommunikationsinfrastruktur 904 verbunden (z. B. ein Kommunikationsbus, eine Cross-Over-Schiene oder ein Netzwerk). Computersystem 900 kann eine Anzeigeschnittstelle 906 umfassen, die Grafiken, textliche Inhalte oder sonstige Daten der Kommunikationsinfrastruktur 904 (oder einem nicht dargestellten Rahmenpuffer) zum Anzeigen auf der Anzeigeeinheit 908 weiterleitet. Das Computersystem 900 umfasst auch einen Hauptspeicher 910, vorzugsweise ein Speicher mit wahlfreiem (RAM - Random Access Memory) und kann auch einen sekundären Speicher 912 umfassen. Innerhalb des sekundären Speichers 914 können auch ein oder mehrere Laufwerke 912 enthalten sein. Das entfernbare Speicherlaufwerk 916 liest von und/oder schreibt auf die entfernbare Speichereinheit 918. Wie zu erkennen ist, beinhaltet die entfernbare Speichereinheit 918 ein computerlesbares Speichermedium, auf dem Computersoftware und/oder Daten gespeichert sind.
  • In alternativen Ausführungsformen kann der sekundäre Speicher 912 andere ähnliche Mittel enthalten, die das Laden von Computerprogrammen oder anderen Anweisungen in das Computersystem ermöglichen. Solche Mittel können zum Beispiel eine entfernbare Speichereinheit 920 und eine Schnittstelle 922 umfassen.
  • In der vorliegenden Beschreibung werden die Begriffe „Computerprogramm Medium“ und „computernutzbares Medium“ und „computerlesbares Medium“ verwendet, um generell Medien, wie etwa Hauptspeicher 910 und sekundäre Speicher 912, entfernbare Speicherlaufwerke 916 und eine Festplatte, die im Festplattenlaufwerk 914 installiert ist, zu bezeichnen. Computerprogramme (auch Computersteuerlogik genannt) werden im Hauptspeicher 910 und/oder im sekundären Speicher 912 gespeichert. Computerprogramme können außerdem über Kommunikationsschnittstelle 924 empfangen werden. Wenn derartige Computerprogramme ausgeführt werden, versetzen sie das Computersystem in die Lage, die hierin besprochenen Merkmale auszuführen. Insbesondere wird der Prozessor 902 von den Computerprogrammen, wenn diese ausgeführt werden, in die Lage versetzt, die Merkmale des Computersystems auszuführen. Demgemäß stellen solche Computerprogramme Steuerungen des Computersystems dar. Somit ist aus der vorangegangenen detaillierten Beschreibung erkennbar, dass eine oder mehrere Ausführungsformen technischen Nutzen und Vorteile bereitstellen.
  • Während die vorstehende Offenbarung mit Bezug auf exemplarische Ausführungsformen beschrieben wurde, werden Fachleute verstehen, dass unterschiedliche Änderungen vorgenommen und die einzelnen Teile durch entsprechende andere Teile ausgetauscht werden können, ohne vom Umfang der Offenbarung abzuweichen. Darüber hinaus können viele Modifikationen vorgenommen werden, um eine bestimmte Materialsituation an die Lehren der Offenbarung anzupassen, ohne von deren wesentlichem Umfang abzuweichen. Daher ist vorgesehen, dass sich die Ausführungsformen nicht auf die jeweils offenbarten Ausführungsformen beschränken, sondern alle Ausführungsformen umfassen, die innerhalb des Umfangs der Anmeldung fallen.

Claims (10)

  1. System in einem autonomen Fahrzeug, umfassend: eine elektronische Steuerung des Fahrzeugs, die konfiguriert ist zum: Empfangen von ersten Daten einer Szene, worin die ersten Daten die Szene zu einem ersten Zeitpunkt reflektieren; Durchführen einer ersten Klassifizierung von mindestens einem Objekt innerhalb der Szene basierend auf den empfangenen ersten Daten; Bestimmen eines projizierten Standorts des mindestens einen Objekts, worin der projizierte Standort einem geschätzten Standort zu einem zweiten Zeitpunkt entspricht; Empfangen von zweiten Daten der Szene, worin die zweiten Daten die Szene zum zweiten Zeitpunkt reflektieren; Bestimmen, ob der projizierte Standort des mindestens einen Objekts dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird; und Bestimmen, ob das Durchführen einer zweiten Klassifizierung des mindestens einen Objekts erforderlich ist, basierend auf dem Bestimmen, ob der projizierte Standort dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird.
  2. System nach Anspruch 1, worin das Durchführen der zweiten Klassifizierung des mindestens einen Objekts nicht erforderlich ist, wenn der projizierte Standort dem Standort des mindestens einen Objekts entspricht, wie er durch die zweiten Daten reflektiert wird.
  3. System nach Anspruch 1, worin die elektronische Steuerung ferner konfiguriert ist, um Attributdaten für das mindestens eine klassifizierte Objekt zu bestimmen.
  4. System nach Anspruch 3, worin das Bestimmen des projizierten Standorts des mindestens einen Objekts das Bestimmen des projizierten Standorts basierend auf den Attributdaten umfasst.
  5. System nach Anspruch 3, worin die Attributdaten eine Richtung und eine Geschwindigkeit des Objekts umfassen.
  6. System nach Anspruch 1, worin das Durchführen der ersten Klassifizierung des mindestens einen Objekts das Bestimmen eines interessierenden Bereichs innerhalb der empfangenen ersten Daten umfasst.
  7. System nach Anspruch 1, worin das Empfangen der ersten Daten das Empfangen von Videoinformationen oder Kamerainformationen der Szene umfasst.
  8. System nach Anspruch 1, worin das Durchführen der ersten Klassifizierung das Durchführen der ersten Klassifizierung durch ein faltungsneuronales Netzwerk umfasst.
  9. System nach Anspruch 1, worin die elektronische Steuerung ferner konfiguriert ist, um zu bestimmen, ob ein neues Objekt in die Szene eingetreten ist.
  10. System nach Anspruch 9, worin die elektronische Steuerung ferner konfiguriert ist, um zu bestimmen, dass eine zusätzliche Klassifizierung erforderlich ist, basierend auf der Bestimmung, ob ein neues Objekt in die Szene eingetreten ist.
DE102019111249.4A 2018-05-15 2019-05-01 Verfahren und system zur verbesserung der objekterkennung und objektklassifizierung Granted DE102019111249A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/979,869 2018-05-15
US15/979,869 US10579888B2 (en) 2018-05-15 2018-05-15 Method and system for improving object detection and object classification

Publications (1)

Publication Number Publication Date
DE102019111249A1 true DE102019111249A1 (de) 2019-11-21

Family

ID=68419351

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019111249.4A Granted DE102019111249A1 (de) 2018-05-15 2019-05-01 Verfahren und system zur verbesserung der objekterkennung und objektklassifizierung

Country Status (3)

Country Link
US (1) US10579888B2 (de)
CN (1) CN110490217B (de)
DE (1) DE102019111249A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557151B2 (en) 2019-10-24 2023-01-17 Deere & Company Object identification on a mobile work machine

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018216417A1 (de) * 2018-09-26 2020-03-26 Robert Bosch Gmbh Ortsvorhersage für dynamische Objekte
US11447063B2 (en) * 2019-07-18 2022-09-20 GM Global Technology Operations LLC Steerable scanning and perception system with active illumination
CN112001700A (zh) * 2020-08-21 2020-11-27 金钱猫科技股份有限公司 一种基于大数据自动比对的工程检查方法及服务端
US20220067395A1 (en) * 2020-08-31 2022-03-03 Aptiv Technologies Limited Vehicles, Systems and Methods for Determining an Occupancy Map of a Vicinity of a Vehicle
DE102021207093A1 (de) 2021-07-06 2023-01-12 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Bereitstellen von klassifizierten digitalen Aufnahmen für ein System zum automatischen Maschinenlernen und zum Aktualisieren eines maschinenlesbaren Programmcodes damit
DE102022209401A1 (de) 2022-01-18 2023-07-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Generieren von Trainingsdaten für ein lernfähiges Verfahren
CN115376324B (zh) * 2022-10-24 2023-03-24 中国汽车技术研究中心有限公司 车辆场景复杂度确定方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054203B2 (en) * 1995-06-07 2011-11-08 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
JP2008273171A (ja) * 2007-04-04 2008-11-13 Seiko Epson Corp 情報処理方法、情報処理装置及びプログラム
CN102867047A (zh) * 2012-09-06 2013-01-09 北京天宇朗通通信设备股份有限公司 移动终端的信息分类方法及装置
CN104185225A (zh) * 2014-09-11 2014-12-03 南京大学 一种基于场景分类的室内外无缝定位切换方法
CN104978567B (zh) * 2015-06-11 2018-11-20 武汉大千信息技术有限公司 基于场景分类的车辆检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557151B2 (en) 2019-10-24 2023-01-17 Deere & Company Object identification on a mobile work machine

Also Published As

Publication number Publication date
US20190354785A1 (en) 2019-11-21
CN110490217A (zh) 2019-11-22
US10579888B2 (en) 2020-03-03
CN110490217B (zh) 2023-07-11

Similar Documents

Publication Publication Date Title
DE102019111249A1 (de) Verfahren und system zur verbesserung der objekterkennung und objektklassifizierung
EP0691534B1 (de) Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102018101220A1 (de) Zeichenerkennung für autonome fahrzeuge
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer "fully convolutional"-architektur
DE102018205879A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
DE102014112601A1 (de) Fahrzeugumgebungerkennungsvorrichtung
DE102006012914A1 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
DE102020212226A1 (de) Fusion von Automobilsensoren
DE102019123483B4 (de) Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
EP1306690B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102014201158A1 (de) Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102017108248A1 (de) Strassenmerkmalserkennung mit einem fahrzeugkamerasystem
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
DE112022001403T5 (de) Lichtinterferenzdetektion während der fahrzeugnavigation
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen
DE102023103171A1 (de) VERFAHREN UND VORRICHTUNG ZUM BESTIMMEN DER POSITION EINES FUßGÄNGERS
DE102019215973A1 (de) Kehrtwende-steuersystem für autonomes fahrzeug und verfahren für dasselbe
DE102019111262A1 (de) Verfahren und system zum bestimmen einer objektposition unter verwendung von karteninformationen
DE102018132676A1 (de) Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
DE102012008780B4 (de) Verfahren und Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes und Kraftfahrzeug
EP4053593A1 (de) Verarbeitung von sensordaten in einem fortbewegungsmittel

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LKGLOBAL LORENZ UND KOPF PATENTANWALT, ATTORNE, DE

Representative=s name: LKGLOBAL | LORENZ & KOPF PARTG MBB PATENTANWAE, DE

Representative=s name: LKGLOBAL ] LORENZ & KOPF PARTG MBB PATENTANWAE, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division