DE102021117608A1 - Fahrzeugbasierte datenerfassung - Google Patents

Fahrzeugbasierte datenerfassung Download PDF

Info

Publication number
DE102021117608A1
DE102021117608A1 DE102021117608.5A DE102021117608A DE102021117608A1 DE 102021117608 A1 DE102021117608 A1 DE 102021117608A1 DE 102021117608 A DE102021117608 A DE 102021117608A DE 102021117608 A1 DE102021117608 A1 DE 102021117608A1
Authority
DE
Germany
Prior art keywords
data
vehicle
computer
road infrastructure
infrastructure element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021117608.5A
Other languages
English (en)
Inventor
Helen Kourous-Harrigan
John Anthony Lockwood
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102021117608A1 publication Critical patent/DE102021117608A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3889Transmission of selected map data, e.g. depending on route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • H04L67/025Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Offenbarung stellt eine fahrzeugbasierte Datenerfassung bereit. Ein Computer kann Anweisungen ausführen, um Fahrzeugsensordaten von Sensoren an einem Fahrzeug zu sammeln. Basierend auf einer Bestimmung, dass sich das Fahrzeug innerhalb eines Schwellenabstands zu einem Geofence einer Straßeninfrastruktur befindet, der ein Vorhandensein eines Ziel-Straßeninfrastrukturelements angibt, beinhalten die Anweisungen ferner Identifizieren ausgewählter Daten aus den Fahrzeugsensordaten; und Übertragen der ausgewählten Daten an einen Remote-Server.

Description

  • GEBIET DER TECHNIK
  • Die Offenbarung betrifft im Allgemeinen Fahrzeugsensoren.
  • ALLGEMEINER STAND DER TECHNIK
  • Stral eninfrastrukturelemente, wie etwa Stral en, Brücken und Tunnel, können im Laufe der Zeit aufgrund der Verwendung und Exposition gegenüber Umweltelementen, wie etwa Sonnenlicht, extremen Temperaturen, Temperaturschwankungen, Niederschlag, Wind usw., verfallen. Das Erhalten von Daten über Straßeninfrastrukturelemente kann schwierig sein, insbesondere dort, wo sich Angaben zu Zuständen von Infrastrukturelementen in Regionen befinden können, z. B. unter einer Brücke, in einem Dach eines Tunnels, die schwer zu detektieren sind.
  • KURZDARSTELLUNG
  • Ein System umfasst einen Computer, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen beinhaltet, die durch den Prozessor ausführbar sind, einschliel lich Anweisungen zum Sammeln von Fahrzeugsensordaten von Sensoren an einem Fahrzeug. Basierend auf einer Bestimmung, dass sich das Fahrzeug innerhalb eines Schwellenabstands zu einem Geofence einer Straßeninfrastruktur befindet, der ein Vorhandensein eines Ziel-Straßeninfrastrukturelements angibt, beinhalten die Anweisungen ferner Identifizieren ausgewählter Daten aus den Fahrzeugsensordaten; und Übertragen der ausgewählten Daten an einen Remote-Server.
  • Ferner kann Identifizieren der ausgewählten Daten in dem System Identifizieren einer oder mehrerer Arten von ausgewählten Daten beinhalten.
  • In dem System können die eine oder die mehreren Arten von ausgewählten Daten ferner aus einem Satz ausgewählt werden, der Kameradaten und LiDAR-Daten beinhaltet.
  • In dem System basiert Identifizieren der einen oder der mehreren Arten von ausgewählten Daten ferner auf einer empfangenen Einsatzanweisung.
  • In dem System kann ferner die empfangene Einsatzanweisung die eine oder die mehreren Arten von auszuwählenden Daten spezifizieren und können die Anweisungen Identifizieren der ausgewählten Daten basierend auf der Spezifizierung der einen oder der mehreren Arten von Daten in der Einsatzanweisung beinhalten.
  • In dem System kann die empfangene Einsatzanweisung ferner einen Zustand oder eine Art von Verfall des Ziel-Straßeninfrastrukturelements, der zu bewerten ist, spezifizieren und können die Anweisungen Bestimmen der einen oder der mehreren Arten von Daten basierend auf dem spezifizierten Zustand oder der spezifizierten Art des zu bewertenden Verfalls beinhalten.
  • In dem System kann Identifizieren der ausgewählten Daten ferner auf einem oder mehreren Parametern eines Ziel-Straßeninfrastrukturelements basieren.
  • In dem System können der eine oder die mehreren Parameter des Infrastrukturelements ferner mindestens eines beinhalten von: einer Art des Ziel-Straßeninfrastrukturelements; einem Standort des Ziel-Straßeninfrastrukturelements; einer physische Eigenschaft des Ziel-Straßeninfrastrukturelements; oder einer Geolokalisierung eines Zielabschnitts des Ziel-Straßeninfrastrukturelements.
  • In dem System kann Identifizieren der ausgewählten Daten ferner mindestens eines beinhalten von: Identifizieren eines Sensors, von dem die ausgewählten Daten erzeugt werden; oder Identifizieren eines Zeitpunkts, zu dem die ausgewählten Daten erzeugt wurden.
  • In dem System kann Identifizieren der ausgewählten Daten ferner auf einem oder mehreren Fahrzeugparametern basieren.
  • In dem System können der eine oder die mehreren Fahrzeugparameter ferner mindestens eines beinhalten von: einer Geolokalisierung des Fahrzeugs; oder einem Sichtfeld eines Sensors an dem Fahrzeug.
  • In dem System können die Anweisungen ferner Speichern der ausgewählten Daten in einem Speicher in dem Fahrzeug; und Übertragen der ausgewählten Daten an den Remote-Server, wenn sich das Fahrzeug innerhalb der Reichweite eines Datensammlungsendgeräts befindet, beinhalten.
  • In dem System können die Anweisungen ferner Speichern der ausgewählten Daten in einem Speicher in dem Fahrzeug vor Übertragen der ausgewählten Daten; und Speichern einer Geolokalisierung des Fahrzeugs zu einem Zeitpunkt, zu dem die Fahrzeugsensordaten ausgewählt wurden, zusammen mit den ausgewählten Daten, beinhalten.
  • In dem System kann die Geolokalisierung des Fahrzeugs zu dem Zeitpunkt, zu dem die Fahrzeugsensordaten gesammelt wurden, ferner basierend auf mindestens einem von Daten von einem LiDAR-Sensor, der in dem Fahrzeug enthalten ist, oder Daten von einem Kamerasensor, der in dem Fahrzeug enthalten ist, bestimmt werden.
  • In dem System können die Anweisungen ferner Identifizieren der ausgewählten Daten basierend auf einem Sichtfeld eines Sensors zu einem Zeitpunkt des Sammelns der Fahrzeugsensordaten beinhalten.
  • In dem System können die Anweisungen ferner Bestimmen einer lokalisierten Position des Fahrzeugs basierend auf mindestens einem von LiDAR-Daten oder Kameradaten; und Bestimmen des Sichtfelds des Sensors basierend auf der lokalisierten Position des Fahrzeugs beinhalten.
  • In dem System können die Anweisungen ferner Übertragen von Wetterdaten zusammen mit den ausgewählten Daten beinhalten, wobei die Wetterdaten Wetterbedingungen zu einem Zeitpunkt des Sammelns der Fahrzeugdaten angeben.
  • Ferner kann das System den Remote-Server beinhalten, wobei der Remote-Server einen zweiten Prozessor und einen zweiten Speicher beinhaltet, wobei der zweite Speicher zweite Anweisungen beinhaltet, die durch den Prozessor ausführbar sind, einschließlich zweiter Anweisungen zum Empfangen der ausgewählten Daten, die durch den Prozessor übertragen werden; Extrahieren von zweiten Daten über ein Ziel-Straßeninfrastrukturelement aus den ausgewählten Daten; und Übertragen der zweiten Daten an einen zweiten Server.
  • In dem System kann Extrahieren der zweiten Daten ferner zweite Anweisungen zum Entfernen von personenbezogenen Informationen aus den zweiten Daten vor Übertragen der zweiten Daten an den zweiten Server beinhalten.
  • In dem System kann Extrahieren der zweiten Daten ferner zweite Anweisungen zum Erzeugen eines Bilds und/oder eines 3D-Modells aus den ausgewählten Daten; Unterteilen des erzeugten Bilds und/oder 3D-Modells in Segmente; Bestimmen, welche Segmente Daten über das Ziel-Straßeninfrastrukturelement beinhalten; und Einschließen der Segmente, welche die Daten über das Ziel-Straßeninfrastrukturelement beinhalten, in die zweiten Daten beinhalten. Während des Betriebs können Fahrzeuge Daten über Straßeninfrastrukturelemente sammeln, wie etwa Stral en, Brücken, Tunnel usw. Zum Beispiel verwenden Fahrzeuge LiDAR-Sensoren, um Punktwolkendaten zu sammeln, und Kameras, um visuelle Daten zu sammeln, die zum Betreiben des Fahrzeugs verwendet werden können. Wenn sich die Fahrzeuge innerhalb der Reichweite eines Ziel-Straßeninfrastrukturelements befinden, können die von dem Fahrzeug gesammelten Fahrzeugdaten Punktwolkendaten und visuelle Daten von Ziel-Straßeninfrastrukturelementen beinhalten, die verwendet werden können, um einen Zustand des Ziel-Straßeninfrastrukturelements zu beurteilen. Das Fahrzeug kann angewiesen werden, ausgewählte Fahrzeugdaten zu speichern, wenn sich das Fahrzeug innerhalb der Reichweite des Ziel-Straßeninfrastrukturelements befindet. Wenn sich das Fahrzeug, typischerweise nach dem Sammeln und Speichern der Daten, innerhalb der Reichweite eines Datensammlungsendgeräts befindet, kann der Fahrzeugcomputer diese Daten zur weiteren Verarbeitung auf einen Server hochladen. Die Daten können konditioniert werden, um irrelevante Daten und beliebige personenbezogene Daten zu entfernen. Danach können die Daten über das Ziel-Straßeninfrastrukturelement verwendet werden, um den Zustand des Ziel-Straßeninfrastrukturelements zu beurteilen.
  • Figurenliste
    • 1 ist eine Darstellung eines beispielhaften Systems zum Erfassen von Bildern und 3D-Modellen von Straßeninfrastrukturen.
    • 2A ist eine Draufsicht eines beispielhaften Fahrzeugs, die beispielhafte Sichtfelder ausgewählter Fahrzeugsensoren veranschaulicht.
    • 2B ist eine Seitenansicht des beispielhaften Fahrzeugs aus 2A, die beispielhafte Sichtfelder ausgewählter Fahrzeugsensoren veranschaulicht.
    • 3 veranschaulicht ein Beispiel für ein Fahrzeug, das Daten eines Straßeninfrastrukturelements erfasst.
    • 4 ist eine Darstellung eines beispielhaften Prozesses zum Sammeln von Daten von einem Straßeninfrastrukturelement und Übertragen der Daten.
    • 5 ist eine Darstellung eines beispielhaften Prozesses zum Identifizieren ausgewählter Daten.
    • 6 ist eine Darstellung eines beispielhaften Prozesses zum Hochladen von Daten.
    • 7 ist eine Darstellung eines beispielhaften Prozesses zum Konditionieren von Daten zur Verwendung beim Beurteilen des Zustands von Straßeninfrastrukturelementen.
  • DETAILLIERTE BESCHREIBUNG
  • 1 veranschaulicht ein beispielhaftes System 100 zum Sammeln von Fahrzeugdaten durch ein Fahrzeug 105, Auswählen von Daten aus den Fahrzeugdaten, die sich auf ein Ziel-Straßeninfrastrukturelement 150 beziehen, und Speichern und/oder Übertragen der Daten an einen Server zur weiteren Verarbeitung. Daten über ein Ziel-Straßeninfrastrukturelement 150 bedeuten hierin Daten, die physische Eigenschaften des Ziel-Straßeninfrastrukturelements 150 beinhalten. Physische Eigenschaften des Ziel-Straßeninfrastrukturelements 150 sind physische Qualitäten oder Quantitäten, die gemessen und/oder festgestellt werden können und Folgendes beinhalten können: Merkmale, wie etwa die Form; Größe; Farbe; Oberflächeneigenschaften wie Risse, Abplatzungen, Korrosion; Positionen von Elementen des Ziel-Straßeninfrastrukturelements (zum Beispiel, um eine Verschiebung des Elements relativ zu anderen Elementen oder relativ zu einer vorherigen Position zu bestimmen); Vibrationen; und andere Eigenschaften, die verwendet werden können, um einen Zustand des Ziel-Straßeninfrastrukturelements 150 zu bewerten.
  • Ein Computer 110 in dem Fahrzeug 105 empfängt eine Anforderung (digitale Anweisung), Daten aus den Fahrzeugdaten für das Ziel-Straßeninfrastrukturelement 150 auszuwählen und zu speichern. Die Anforderung kann eine Karte der Umgebung, in der das Fahrzeug 105 einen Einsatz ausführt, einen Geofence 160 und zusätzliche Daten, die das Ziel-Straßeninfrastrukturelement 150 und die auszuwählenden Fahrzeugdaten spezifizieren oder beschreiben, beinhalten, wie nachstehend in Bezug auf den Prozess 400 beschrieben. Der Geofence 160 ist ein Polygon, das einen Bereich identifiziert, der das Ziel-Straßeninfrastrukturelement 150 umgibt. Wenn sich das Fahrzeug 105 innerhalb einer Schwellenreichweite des Geofence 160 befindet, beginnt der Computer 110, Daten aus den Fahrzeugdaten auszuwählen und die ausgewählten Daten zu speichern.
  • Der Computer 110 ist im Allgemeinen für die Kommunikation in einem Netzwerk des Fahrzeugs 105 programmiert, das z. B. einen oder mehrere herkömmliche drahtgebundene oder optische Kommunikationsbusse des Fahrzeugs 105 beinhalten kann, wie etwa CAN-Busse, LIN-Busse, Ethernet-Busse, Flexray-Busse, MOST-Busse, kundenspezifische Einzelader-Busse, kundenspezifische Doppelader-Busse usw. und die ferner eine oder mehrere drahtlose Technologien beinhalten können, z. B. WIFI, Bluetooth®, Bluetooth® Low Energy (BLE), Nahfeldkommunikation (Near Field Communications - NFC), dedizierte Nahbereichskommunikation (Dedicated Short-Range Communications - DSRC), Mobilfunk-Fahrzeug-zu-Alles (Cellular Vehicle-to-Everything - C-V2X) usw. Über das Fahrzeugnetzwerk kann der Computer 110 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug 105 übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen empfangen, z. B. Steuerungen, Sensoren 115, Aktoren 120, Komponenten 125, Datenspeicher 130 usw. Alternativ oder zusätzlich kann in Fällen, in denen der Computer 110 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugnetzwerk zur Kommunikation zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 110 dargestellt sind. Zum Beispiel kann der Computer 110 ein generischer Computer mit einem Prozessor und einem Speicher sein, wie vorstehend beschrieben, und/oder kann eine dedizierte elektronische Schaltung beinhalten, die Folgendes beinhaltet: eine oder mehrere elektronische Komponenten, wie etwa Widerstände, Kondensatoren, Induktoren, Transistoren usw.; anwendungsspezifische integrierte Schaltungen (application specific integrated circuits - ASICs); feldprogrammierbare Gate-Anordnungen (field-programmable gate arrays - FPGAs); kundenspezifische integrierte Schaltungen usw. Jede der ASICs, FPGAs und kundenspezifischen integrierten Schaltungen kann konfiguriert sein (das heil t, eine Vielzahl von internen elektrisch gekoppelten elektronischen Komponenten beinhalten) und kann ferner eingebettete Prozessoren beinhalten, die über in einem Speicher gespeicherte Anweisungen programmiert sind, um Fahrzeugvorgänge durchzuführen, wie etwa Empfangen und Verarbeiten von Benutzereingaben, Empfangen und Verarbeiten von Sensordaten, Übertragen von Sensordaten, Planen von Fahrzeugvorgängen und Steuern von Fahrzeugaktoren und Fahrzeugkomponenten zum Betreiben des Fahrzeugs 105. In einigen Fällen können die ASICs, FPGAs und kundenspezifischen integrierten Schaltungen teilweise oder vollständig durch ein automatisiertes Designsystem programmiert werden, wobei ein gewünschter Vorgang als Funktionsbeschreibung eingegeben wird und das automatisierte Designsystem die Komponenten und/oder die Interkonnektivität der Komponenten erzeugt, um die gewünschte Funktion zu erreichen. Die Hardware-Beschreibungssprache für integrierte Schaltungen mit sehr hoher Geschwindigkeit (Very High-Speed Integrated Circuit Hardware Description Language - VHDL) ist eine beispielhafte Programmiersprache zum Bereitstellen einer Funktionsbeschreibung der ASIC, der FPGA oder der kundenspezifischen integrierten Schaltung an ein automatisiertes Designsystem.
  • Zusätzlich kann der Computer 110 zum Kommunizieren mit dem Netzwerk 140 programmiert sein, das, wie nachstehend beschrieben, verschiedene drahtgebundene und/oder drahtlose Netzwerktechnologien beinhalten kann, z. B. Mobilfunk, Bluetooth®, Bluetooth® Low Energy (BLE), dedizierte Nahbereichskommunikation (DSRC), Mobilfunk-Fahrzeug-zu-Alles (C-V2X), drahtgebundene und/oder drahtlose Paketnetzwerke usw.
  • Die Sensoren 115 können eine Vielfalt an Vorrichtungen beinhalten. Zum Beispiel können verschiedene Steuerungen in einem Fahrzeug 105 als Sensoren 115 zum Bereitstellen von Fahrzeugdaten über das Netzwerk des Fahrzeugs 105 betrieben werden, z. B. Daten in Bezug auf Fahrzeuggeschwindigkeit, -beschleunigung, -standort, -teilsystem- und/oder -komponentenstatus usw. Die Sensoren 115 können ohne Einschränkung auch Nahbereichsradar, LiDAR, Kameras und/oder Ultraschallsensoren beinhalten. Die Sensoren 115 können zudem ein Navigationssystem beinhalten, welches das globale Positionsbestimmungssystem (GPS) verwendet und einen Standort des Fahrzeugs 105 bereitstellt. Der Standort des Fahrzeugs 105 wird üblicherweise in einer herkömmlichen Form bereitgestellt, z. B. Geokoordinaten, wie etwa Längengrad- und Breitengradkoordinaten. Zusätzlich zu den vorstehend bereitgestellten Beispielen für Fahrzeugdaten können Fahrzeugdaten Umgebungsdaten beinhalten, das heil t Daten über die Umgebung außerhalb des Fahrzeugs 105, in der das Fahrzeug 105 betrieben wird. Nicht einschränkende Beispiele für Umgebungsdaten sind: Wetterbedingungen; Lichtbedingungen; und zweidimensionale Bilder und dreidimensionale Modelle stationärer Objekte, wie etwa Bäume, Gebäudezeichen, Brücken, Tunnel und Straßen. Umgebungsdaten beinhalten ferner Daten über bewegte Objekte, wie etwa andere Fahrzeuge, Menschen, Tiere usw. Die Fahrzeugdaten können ferner Daten beinhalten, die aus den empfangenen Fahrzeugdaten berechnet wurden. Im Allgemeinen können die Fahrzeugdaten beliebige Daten beinhalten, die durch die Sensoren 115 erfasst und/oder aus derartigen Daten berechnet werden können.
  • Die Aktoren 120 sind elektronische und/oder elektromechanische Vorrichtungen, die als integrierte Schaltungen, Chips oder andere elektronische und/oder elektromechanische Vorrichtungen umgesetzt sind, die verschiedene Fahrzeugteilsysteme gemäl geeigneten Steuersignalen betätigen können, wie es bekannt ist. Die Aktoren 120 können verwendet werden, um Fahrzeugkomponenten 125 einschließlich Bremsen, Beschleunigung und Lenken des Fahrzeugs 105 zu steuern. Die Aktoren 120 können ferner zum Beispiel verwendet werden, um die Sensoren 115 zu betätigen, anzuleiten oder zu positionieren.
  • Das Fahrzeug 105 kann eine Vielzahl von Fahrzeugkomponenten 125 beinhalten. In diesem Zusammenhang beinhaltet jede Fahrzeugkomponente 125 eine oder mehrere Hardwarekomponenten, die ausgelegt sind, um eine mechanische Funktion oder einen mechanischen Vorgang durchzuführen - wie etwa das Fahrzeug 105 bewegen, das Fahrzeug 105 abbremsen oder anhalten, das Fahrzeug 105 lenken usw. Nicht einschränkende Beispiele für Komponenten 125 sind eine Antriebskomponente (die z. B. eine Brennkraftmaschine und/oder einen Elektromotor usw. beinhaltet), eine Getriebekomponente, eine Lenkkomponente (die z. B. eines oder mehrere von einem Lenkrad, einer Zahnstange usw. beinhalten kann), eine Bremskomponente (wie nachfolgend beschrieben), eine Einparkhilfekomponente, eine Komponente für adaptive Geschwindigkeitsregelung, eine adaptive Lenkkomponente, einen bewegbaren Sitz und dergleichen. Komponenten 125 können Rechenvorrichtungen beinhalten, z. B. elektronische Steuereinheiten (electric control unit - ECU) oder dergleichen und/oder Rechenvorrichtungen, wie sie vorstehend in Bezug auf den Computer 110 beschrieben wurden und die ebenfalls über ein Netzwerk des Fahrzeugs 105 kommunizieren.
  • Bei dem Datenspeicher 130 kann es sich um eine beliebige Art handeln, z. B. Festplattenlaufwerke, Solid-State-Laufwerke, Server oder beliebige flüchtige oder nicht flüchtige Medien. Der Datenspeicher 130 kann ausgewählte Fahrzeugdaten, einschließlich Daten von den Sensoren 115, speichern. Zum Beispiel kann der Datenspeicher 130 Fahrzeugdaten speichern, die Daten beinhalten oder beinhalten können, die ein Ziel-Straßeninfrastrukturelement 150 spezifizieren und/oder beschreiben, für das der Computer 110 per Anweisung Daten sammelt. Der Datenspeicher 130 kann eine vom Computer 110 getrennte Vorrichtung sein und der Computer 110 kann auf den Datenspeicher 130 über das Fahrzeugnetzwerk in dem Fahrzeug 105, z. B. über einen CAN-Bus, ein drahtloses Netzwerk usw., zugreifen (d. h. Daten darauf speichern und Daten davon abrufen). Alternativ oder zusätzlich kann der Datenspeicher 130 Teil des Computers 110 sein, z. B. als Speicher des Computers 110.
  • Ein Fahrzeug 105 kann in einem vollständig autonomen Modus, einem halbautonomen Modus oder einem nicht autonomen Modus betrieben werden. Ein vollständig autonomer Modus ist als ein Modus definiert, in dem jedes von dem Antrieb (typischerweise über einen Antriebsstrang, der einen Elektromotor und/oder eine Brennkraftmaschine beinhaltet), der Bremsung und der Lenkung des Fahrzeugs 105 durch den Computer 110 gesteuert wird. Ein halbautonomer Modus ist ein Modus, in dem mindestens eines von dem Antrieb (typischerweise über einen Antriebsstrang, der einen Elektromotor und/oder eine Brennkraftmaschine beinhaltet), der Bremsung und der Lenkung des Fahrzeugs 105 zumindest teilweise durch den Computer 110 und nicht durch einen menschlichen Bediener gesteuert wird. In einem nicht autonomen Modus, d. h. einem manuellen Modus, werden der Antrieb, die Bremsung und die Lenkung des Fahrzeugs 105 durch den menschlichen Bediener gesteuert. Das System 100 kann ferner ein Datensammlungsendgerät 135 beinhalten. Das Datensammlungsendgerät 135 beinhaltet einen oder mehrere Mechanismen, durch die der Fahrzeugcomputer 110 Daten drahtlos auf den Server 145 hochladen kann, und befindet sich typischerweise in der Nähe eines Speicherzentrums oder Servicezentrums für das Fahrzeug 105. Wie nachstehend unter Bezugnahme auf den Prozess 600 beschrieben, kann der Computer 110 in dem Fahrzeug 105 die Daten über das Datensammlungsendgerät 135 auf den Server 450 zur weiteren Verarbeitung hochladen.
  • Das Datensammlungsendgerät 135 kann einer oder mehrere von verschiedenen drahtlosen Kommunikationsmechanismen sein, einschließlich einer beliebigen gewünschten Kombination von drahtlosen (z. B. Mobilfunk-, Drahtlos-, Satelliten-, Mikrowellen- und Hochfrequenz-) Kommunikationsmechanismen. Beispielhafte Kommunikationsmechanismen beinhalten drahtlose Kommunikationsnetzwerke (z. B. unter Verwendung von Bluetooth®, Bluetooth® Low Energy (BLE), IEEE 802.11, Fahrzeug-zu-Fahrzeug (vehicle-to-vehicle - V2V), wie etwa dedizierte Nahbereichskommunikation (DSRC) usw.), Mobilfunk-Fahrzeug-zu-Alles (C-V2X), lokale Netzwerke (local area network - LAN) und/oder Weitverkehrsnetzwerke (wide area network - WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
  • Das System 100 beinhaltet ferner ein Netzwerk 140 und einen Server 145. Das Netzwerk 140 koppelt das Fahrzeug 105 kommunikativ an den Server 145.
  • Das Netzwerk 140 stellt einen oder mehrere Mechanismen dar, über die ein Fahrzeugcomputer 110 mit einem Remote-Server 145 kommunizieren kann. Dementsprechend kann es sich bei dem Netzwerk 140 um einen oder mehrere verschiedener drahtgebundener oder drahtloser Kommunikationsmechanismen handeln, die eine beliebige gewünschte Kombination aus drahtgebundenen (z. B. Kabel und Glasfaser) und/oder drahtlosen (z. B. Mobilfunk-, Drahtlos-, Satelliten-, Mikrowellen- und Hochfrequenz-) Kommunikationsmechanismen und eine beliebige gewünschte Netzwerktopologie (oder Netzwerktopologien, wenn mehrere Kommunikationsmechanismen verwendet werden) beinhalten. Beispielhafte Kommunikationsnetzwerke beinhalten drahtlose Kommunikationsnetzwerke (z. B. unter Verwendung von Bluetooth®, Bluetooth® Low Energy (BLE), IEEE 802.11, Fahrzeug-zu-Fahrzeug (V2V), wie etwa dedizierte Nahbereichskommunikation (DSRC) usw.) dedizierte Nahbereichskommunikation (DSRC), Mobilfunk-Fahrzeug-zu-Alles (C-V2X), lokale Netzwerke (LAN) und/oder Weitverkehrsnetzwerke (WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
  • Der Server 145 kann eine herkömmliche Rechenvorrichtung sein, d. h. einen oder mehrere Prozessoren und einen oder mehrere Speicher beinhalten, die dazu programmiert sind, Vorgänge bereitzustellen, wie sie etwa in dieser Schrift offenbart sind. Ferner kann auf den Server 145 über das Netzwerk 140, z. B. das Internet oder ein anderes Weitverkehrsnetz, zugegriffen werden. Der Server 145 kann dem Computer 110 Daten, wie etwa Kartendaten, Verkehrsdaten, Wetterdaten usw., bereitstellen.
  • Der Server 145 kann zusätzlich dazu programmiert sein, Einsatzanweisungen, die Identifizierung eines Ziel-Straßeninfrastrukturelements 150 oder eines Zielabschnitts eines Straßeninfrastrukturelements 150, für das der Computer 110 ausgewählte Fahrzeugdaten sammeln sollte, zu übertragen, wobei Parameter einen Geofence 160 definieren, der die Ziel-Straßeninfrastrukturelement umgibt, und/oder Parameter ausgewählte Daten definieren, die gesammelt werden sollen. „Ausgewählte Fahrzeugdaten sammeln“ bedeutet in diesem Zusammenhang, ausgewählte Fahrzeugdaten aus den Fahrzeugdaten zu identifizieren, die der Computer 110 während des Fahrzeugbetriebs empfängt, und die identifizierten ausgewählten Daten in dem Datenspeicher 130 auf dem Fahrzeug 105 zu speichern. Das Identifizieren ausgewählter Fahrzeugdaten kann auf Parametern des Ziel-Straßeninfrastrukturelements, Fahrzeugparametern, Umgebungsparametern und/oder empfangenen Anweisungen, welche die ausgewählten Fahrzeugdaten spezifizieren, basieren, wie nachstehend ausführlicher beschrieben. Einsatzanweisungen sind in diesem Zusammenhang Daten, die Einsatzparameter beinhalten, die einen Einsatz definieren, den das Fahrzeug ausführen soll. Ein Einsatzparameter, wie hierin verwendet, ist ein Datenwert, der einen Einsatz mindestens teilweise definiert. Die Einsatzparameter können als nicht einschränkende Beispiele ein Endziel, beliebige Zwischenziele, jeweilige Ankunftszeiten für das End- und das Zwischenziel und Fahrzeugwartungsvorgänge (zum Beispiel Tanken), die während des Einsatzes durchzuführen sind, eine Route, die zwischen Zielen genommen werden soll, beinhalten.
  • Die Identifizierung des Ziel-Straßeninfrastrukturelements 150 oder Zielabschnitts des Straßeninfrastrukturelements 150 kann einen Standort des Ziel-Straßeninfrastrukturelements 150 oder Zielabschnitts des Straßeninfrastrukturelements 150 beinhalten. Der Standort kann in einer herkömmlichen Form ausgedrückt werden, z. B. Geokoordinaten, wie etwa Breitengrad und Längengrad. Alternativ oder zusätzlich kann der Standort des Ziel-Straßeninfrastrukturelements 150 oder Zielabschnitts des Straßeninfrastrukturelements 150 als zweidimensionale oder dreidimensionale Kartendaten bereitgestellt werden und kann ein zweidimensionales Bild und/oder dreidimensionales Modell des Ziel-Straßeninfrastrukturelements 150 oder Zielabschnitts des Straßeninfrastrukturelements 150 beinhalten.
  • Ein Straßeninfrastrukturelement 150, wie hierin verwendet, ist ein physisches Element einer Umgebung, das Fahrzeuge unterstützt, die durch die Umgebung fahren. Typischerweise ist das Straßeninfrastrukturelement stationär und menschgemacht, wie etwa eine Straße, eine Brücke, ein Tunnel, Fahrspurteiler, Leitplanken, Pfosten, Beschilderung usw. Ein Straßeninfrastrukturelement 150 kann bewegliche Teile, wie etwa eine Zugbrücke, aufweisen und kann auch ein natürliches Merkmal der Umgebung sein. Zum Beispiel kann ein Straßeninfrastrukturelement 150 eine Klippe sein, die Wartung erfordert, zum Beispiel, um die Wahrscheinlichkeit von Steinschlag auf eine benachbarte Straße zu reduzieren. Ein Abschnitt des Straßeninfrastrukturelements 150 ist ein Teil des Straßeninfrastrukturelements 150, der kleiner als das gesamte Infrastrukturelement 150 ist, zum Beispiel eine Innenseite eines Tunnels 150. Ein Ziel-Straßeninfrastrukturelement 150 bedeutet hierin ein Straßeninfrastrukturelement 150 oder einen Abschnitt des Infrastrukturelements 150, für das der Computer 110 Anweisungen zum Sammeln von ausgewählten Fahrzeugdaten empfangen hat.
  • Straßeninfrastrukturelemente 150 können verschiedenen Arten von Verschleil und Verfall ausgesetzt sein. Die Straßen 150 können Schlaglöcher, Risse usw. entwickeln. Brücken und Tunnel können Abplatzungen, Rissen, Biegen, Korrosion, Verlust von Befestigungselementen wie Bolzen, Verlust von schützenden Oberflächenbeschichtungen usw. ausgesetzt sein.
  • Ein Geofence 160 bedeutet in diesem Zusammenhang einen virtuellen Umfang für ein Ziel-Straßeninfrastrukturelement 150. Der Geofence 160 kann als ein Polygon dargestellt sein, das durch einen Satz von Breiten- und Längengrad-Koordinatenpaaren definiert ist, der das Ziel-Straßeninfrastrukturelement 150 umgibt. Der Server 145 kann den Geofence 160 so definieren, dass er einen Bereich umgibt, für den der Computer 110 Bild- und/oder 3D-Modelldaten sammeln sollte und der das Ziel-Straßeninfrastrukturelement 150 beinhaltet. Der Computer 110 kann den Geofence 160 dynamisch erzeugen, um beispielsweise einen rechteckigen Bereich um das Ziel-Straßeninfrastrukturelement 150 zu definieren, oder der Geofence 160 kann ein vordefinierter Satz von Grenzen sein, der z. B. in den Kartendaten enthalten ist, die dem Computer 110 bereitgestellt werden.
  • Wie vorstehend erörtert, kann das Fahrzeug 105 eine Vielzahl von Sensoren 115 aufweisen, einschließlich Radar, Kameras und LiDAR, die Fahrzeugdaten bereitstellen, die der Computer 110 verwenden kann, um das Fahrzeug zu betreiben.
  • Radar ist ein Detektionssystem, das Funkwellen verwendet, um den relativen Standort, den Winkel und/oder die Geschwindigkeit eines Objekts zu bestimmen. Das Fahrzeug 105 kann einen oder mehrere Radarsensoren 115 beinhalten, um Objekte in der Umgebung des Fahrzeugs 105 zu detektieren.
  • Das Fahrzeug 105 beinhaltet eine oder mehrere Digitalkameras 115. Eine Digitalkamera 115 ist eine optische Vorrichtung, die Bilder basierend auf empfangenem Licht aufzeichnet. Die Digitalkamera 115 beinhaltet eine lichtempfindliche Fläche (digitaler Sensor), die eine Anordnung von Lichtaufnahmeknoten beinhaltet, die das Licht empfängt und das Licht in Bilder umwandelt. Digitalkameras 115 erzeugen Einzelbilder, wobei jedes Einzelbild ein Bild ist, das von der Digitalkamera 115 zu einem Zeitpunkt empfangen wird. Jedes Dateneinzelbild kann zusammen mit Metadaten, einschließlich eines Zeitstempels, wann das Bild empfangen wurde, digital gespeichert werden. Andere Metadaten, wie etwa ein Standort des Fahrzeugs 105 zum Zeitpunkt, zu dem das Bild empfangen wurde, die Wetter- oder Lichtbedingungen, als die Bilder empfangen wurden, können ebenfalls mit dem Einzelbild gespeichert werden. Das Fahrzeug 105 beinhaltet ferner einen oder mehrere LiDAR-Sensoren 115. LiDAR ist ein Verfahren zum Messen von Abständen durch Beleuchten eines Ziels mit Laserlicht und Messen der Reflexion mit einem LiDAR-Sensor 115. Unterschiede in den Laserrücklaufzeiten und -wellenlängen können verwendet werden, um digitale 3D-Darstellungen eines Ziels zu erzeugen, die als Punktwolken bezeichnet werden. Eine Punktwolke ist eine Sammlung von Datenpunkten im Raum, die durch ein Koordinatensystem definiert ist und Außenflächen des detektierten Ziels darstellt.
  • LiDAR sammelt typischerweise Daten in Scans. Zum Beispiel kann LiDAR 360°-Scans um das Fahrzeug 105 ausführen. Jeder Scan kann in 100 ms abgeschlossen werden, sodass LiDAR 10 Vollkreis-Scans pro Sekunde abschliel t. Während des Scans kann LiDAR Zehntausende von einzelnen Punktmessungen abschließen. Der Computer 110 kann die Scans empfangen und die Scans zusammen mit Metadaten, einschließlich eines Zeitstempels, speichern, wobei der Zeitstempel einen Punkt, zum Beispiel den Beginn, jedes Scans markiert. Zusätzlich oder alternativ kann jeder Punkt aus dem Scan mit Metadaten gespeichert werden, die einen individuellen Zeitstempel beinhalten können. LiDAR-Metadaten können auch einen Standort des Fahrzeugs 105, als die Daten gesammelt wurden, Wetter- oder Lichtbedingungen, als die Daten empfangen wurden, oder andere Messungen oder Bedingungen beinhalten, die beim Beurteilen der Daten nützlich sein können.
  • Während des Betriebs des Fahrzeugs 105 in einem autonomen oder halbautonomen Modus kann der Computer 110 das Fahrzeug 105 basierend auf den Fahrzeugdaten betreiben, einschließlich der Radar-, Digitalkamera- und LiDAR-Daten. Wie vorstehend beschrieben, kann der Computer 110 Einsatzanweisungen empfangen, die eine Karte der Umgebung, in der das Fahrzeug 105 betrieben wird, und einen oder mehrere Einsatzparameter beinhalten können. Basierend auf den Einsatzanweisungen kann der Computer 110 eine geplante Route für das Fahrzeug 105 bestimmen. Eine geplante Route bedeutet eine Spezifizierung der Wege, Spuren, Straßen usw., entlang derer das Host-Fahrzeug plant, zu fahren, einschließlich der Reihenfolge des Fahrens über die Wege, Spuren, Straßen usw. und einer Fahrtrichtung auf jeder, für eine Fahrt, das heil t von einem Start zu einem Ziel. Während des Betriebs betreibt der Computer 110 das Fahrzeug entlang eines Fahrtwegs. Bei einem Fahrtweg, wie hierin verwendet, handelt es sich um eine Linie und/oder Kurve (definiert durch Punkte, die durch Koordinaten, wie etwa Geokoordinaten, spezifiziert sind), entlang der das Host-Fahrzeug entlang der geplanten Route gelenkt wird.
  • Zum Beispiel kann ein geplanter Weg gemäl einem oder mehreren Wegpolynomen spezifiziert sein. Ein Wegpolynom ist eine Polynomfunktion Grad drei oder weniger, welche die Bewegung eines Fahrzeugs auf einer Bodenfläche beschreibt. Die Bewegung eines Fahrzeugs auf einer Fahrbahn wird durch einen mehrdimensionalen Zustandsvektor beschrieben, der Fahrzeugstandort, -ausrichtung, -geschwindigkeit und -beschleunigung, einschließlich der Positionen in x, y, z, Gieren, Nicken Rollen, Gierrate, Nickrate, Rollrate, Drehwinkel und Drehbeschleunigung beinhaltet, die bestimmt werden können, indem eine Polynomfunktion an aufeinanderfolgende 2D-Positionen angepasst wird, die im Fahrzeugbewegungsvektor enthalten sind, und zwar beispielsweise in Bezug auf eine Bodenfläche.
  • Bei dem Wegpolynom p(x) handelt es sich zum Beispiel ferner um ein Modell, das den Weg als eine durch eine Polynomgleichung nachverfolgte Linie vorhersagt. Das Wegpolynom p(x) sagt den Weg für eine vorbestimmte bevorstehende Strecke x vorher, indem es eine laterale Koordinate p bestimmt, die z. B. in Metern gemessen wird: p ( x ) = a 0 + a 1 x + a 2 x 2 + a 3 x 3
    Figure DE102021117608A1_0001
    wobei a0 ein Versatz ist, d. h. ein seitlicher Abstand zwischen dem Weg und einer Mittellinie des Fahrzeugs 105 auf der bevorstehenden Strecke x, a1 ein Kurswinkel des Wegs ist, a2 die Krümmung des Wegs ist und a3 die Krümmungsrate des Wegs ist.
  • Wie vorstehend beschrieben, kann der Computer 110 einen Standort des Fahrzeugs 105 basierend auf Fahrzeugdaten von einem globalen Positionsbestimmungssystem (GPS) bestimmen. Für den Betrieb in einem autonomen Modus kann der Computer 110 ferner bekannte Lokalisierungstechniken anwenden, um eine lokalisierte Position des Fahrzeugs 105 mit einer höheren Auflösung zu bestimmen, als mit dem GPS-System erreicht werden kann. Die lokalisierte Position kann eine Pose mit mehreren Freiheitsgraden (multi-degree-offreedom - MDF) des Fahrzeugs 105 beinhalten. Die MDF-Position kann sechs (6) Komponenten umfassen, einschließlich einer x-Komponente (x), einer y-Komponente (y), einer z-Komponente (z), einer Nickkomponente (θ), einer Rollkomponente (ϕ) und eine Gierkomponente (ψ), wobei die x-, y- und z-Komponente Übersetzungen gemäl einem kartesischen Koordinatensystem sind (das eine x-Achse, eine y-Achse und eine z- Achse umfasst) und die Roll-, Nick- und Gierkomponente Rotationen jeweils um die x-, y- und z-Achse sind. Die durch den Computer 110 angewendeten Fahrzeuglokalisierungstechniken können auf Fahrzeugdaten, wie etwa Radar-, Kamera- und LiDAR-Daten, basieren. Zum Beispiel kann der Computer 110 eine 3D-Punktwolke von einem oder mehreren stationären Objekten in der Umgebung des Fahrzeugs 105 entwickeln. Der Computer 110 kann ferner die 3D-Punktwolke des einen oder der mehreren Objekte mit 3D-Kartendaten der Objekte korrelieren. Basierend auf der Korrelation kann der Computer 110 mit erhöhter Auflösung, die über das GPS-System bereitgestellt wird, den Standort des Fahrzeugs 105 bestimmen.
  • Unter erneuter Bezugnahme auf 1 beginnt der Computer 110 während der Ausführung eines Einsatzes, wenn das Fahrzeug 105 in einen Schwellenabstand eines Geofence 160 kommt, der ein Ziel-Straßeninfrastrukturelement 150 umgibt, ausgewählte Fahrzeugdaten in dem Speicher 130 zu speichern.
  • Die 2A und 2B veranschaulichen ein beispielhaftes Fahrzeug 105, das beispielhafte Kamerasensoren 115a, 115b und einen beispielhaften LiDAR-Sensor 115c beinhaltet. Das Fahrzeug 105 steht auf einer Oberfläche einer Straße 150a. Eine Bodenebene 151 (2B) definiert eine Ebene parallel zu der Oberfläche der Straße 150a, auf der das Fahrzeug 105 steht. Der Kamerasensor 115a weist ein Sichtfeld 202 auf. Ein Sichtfeld eines Sensors 115 bedeutet einen offenen beobachtbaren Bereich, in dem Objekte durch den Sensor 115 detektiert werden können. Das Sichtfeld 202 weist eine Reichweite ra auf, die sich vor dem Fahrzeug 105 erstreckt. Das Sichtfeld ist konisch geformt mit einer Spitze, die sich am Kamerasensor 115a befindet und einen Sichtwinkel θa1 entlang einer Ebene parallel zur Bodenebene 151 aufweist. Gleichermal en weist der Kamerasensor 115b ein Sichtfeld 204 auf, das sich von einem Heck des Fahrzeugs 105 mit einer Reichweite rb und einem Sichtwinkel θb1 entlang einer Ebene parallel zur Bodenebene 151 erstreckt. Der LiDAR-Sensor 115c weist ein Sichtfeld 206 auf, welches das Fahrzeug 105 in einer Ebene parallel zur Bodenebene 151 umgibt. Das Sichtfeld weist eine Reichweite rc auf. Das Sichtfeld 206 stellt den Bereich dar, über den Daten während eines Scans des LiDAR-Sensors 115c gesammelt werden.
  • 2B ist eine Seitenansicht des in 2A gezeigten beispielhaften Fahrzeugs 105. Wie in 2B gezeigt, weist das Sichtfeld 202 des Kamerasensors 115a einen Sichtwinkel θa2 entlang einer Ebene senkrecht zur Bodenebene 151 auf, wobei θa2 gleich θa1 sein oder sich davon unterscheiden kann. Das Sichtfeld 204 des Kamerasensors 115b weist einen Sichtwinkel θb2 entlang einer Ebene senkrecht zur Bodenebene 151 auf, wobei θb2 gleich θa1 sein oder sich davon unterscheiden kann. Das Sichtfeld 206 des LiDAR-Sensors 115c weist einen Sichtwinkel θc entlang einer Ebene senkrecht zur Bodenebene 151 auf.
  • Die 2A und 2B veranschaulichen nur einige von vielen Sensoren 115, die typischerweise in dem Fahrzeug 105 enthalten sind und Daten über Objekte in der Umgebung des Fahrzeugs 105 sammeln können. Das Fahrzeug 105 kann einen oder mehrere Radarsensoren 115, zusätzliche Kamerasensoren 115 und zusätzliche LiDAR-Sensoren 115 aufweisen. Darüber hinaus kann das Fahrzeug 105 Ultraschallsensoren 115, Bewegungssensoren 115, Infrarotsensoren 115 usw. aufweisen, die Daten über Objekte in der Umgebung des Fahrzeugs 105 sammeln. Einige der Sensoren 115 können Sichtfelder aufweisen, die von den Seiten des Fahrzeugs 105 weg gerichtet sind, um Objekte an den Seiten des Fahrzeugs 105 zu detektieren. Andere Sensoren 115 können Sichtfelder aufweisen, die darauf gerichtet sind, Daten von der Bodenebene zu sammeln. LiDAR-Sensoren 115 können 360° scannen, wie für den LiDAR-Sensor 115c gezeigt, oder können über einen reduzierten Winkel scannen. Zum Beispiel kann ein LiDAR-Sensor 115 zu einer Seite des Fahrzeugs 105 gerichtet sein und über einen Winkel von ungefähr 180° scannen.
  • 3 veranschaulicht ein Beispiel für das Fahrzeug 105, das Daten von einer Brücke 150b sammelt, d. h. erfasst. LiDAR-Sensoren 115c weisen ein Sichtfeld 206 auf, das die Brücke 150b beinhaltet. Außerdem weist das Fahrzeug 105 einen Kamerasensor 115a mit einem Sichtfeld 202 auf, das die Brücke 150b ebenfalls beinhaltet. Wenn sich das Fahrzeug 105 der Brücke 150b nähert und unter dieser hindurch fährt, kann der Computer 110 die LiDAR-Daten von dem LiDAR-Sensor 115c und die Kameradaten von dem Kamerasensor 115a empfangen, wobei sowohl die LiDAR-Daten als auch die Kameradaten Daten beinhalten, die eine oder mehrere physische Eigenschaften der Brücke 150b beschreiben. Der Computer 110 wendet die Fahrzeugdaten zum Fahren des Fahrzeugs 105 an und speichert die Daten ferner in dem Datenspeicher 130.
  • 4 ist eine Darstellung eines Prozesses 400 zum Auswählen von Fahrzeugdaten, die Daten über ein Ziel-Straßeninfrastrukturelement 150 beinhalten oder beinhalten können, und Speichern der ausgewählten Daten in dem Datenspeicher 130. Der Prozess 400 beginnt in einem Block 405.
  • In dem Block 405 empfängt der Computer 110 in dem Fahrzeug 105 Anweisungen mit Parametern, die einen oder mehrere Einsätze definieren, wie vorstehend beschrieben. Die Anweisungen können ferner eine Karte der Umgebung, in der das Fahrzeug betrieben wird, Daten, die ein Ziel-Straßeninfrastrukturelement 150 identifizieren, beinhalten und können ferner Daten beinhalten, die einen Geofence 160 um das Ziel-Straßeninfrastrukturelement 150 definieren. Der Computer 110 kann die Anweisungen zum Beispiel von dem Server 145 über das Netzwerk 140 empfangen. Die Identifizierung des Ziel-Straßeninfrastrukturelements 150 beinhaltet einen Standort des Ziel-Straßeninfrastrukturelements 150, der zum Beispiel durch einen Satz von Breiten- und Längengrad-Koordinatenpaaren dargestellt ist. Alternativ oder zusätzlich kann der Standort des Ziel-Straßeninfrastrukturelements 150 als zweidimensionale oder dreidimensionale Kartendaten bereitgestellt sein. Die Identifizierung kann ein zweidimensionales Bild und/oder ein dreidimensionales Modell des Ziel-Straßeninfrastrukturelements 150 beinhalten. Der Geofence 160 ist ein Polygon, das durch einen Satz von Breiten- und Längengrad-Koordinatenpaaren dargestellt ist, der das Ziel-Straßeninfrastrukturelement 150 umgibt.
  • Nach dem Empfangen der Anweisungen geht der Prozess 400 zu einem Block 410 über.
  • In dem Block 410 detektiert der Computer 110 ein Einsatzauslöserereignis, d.h. einen Empfang von Daten, die zum Einleiten eines Einsatzes spezifiziert sind. Das Einsatzauslöserereignis kann zum Beispiel sein: eine Tageszeit, die einer geplanten Zeit zum Starten eines Einsatzes entspricht; eine Eingabe von einem Benutzer des Fahrzeugs 105, zum Beispiel über eine Mensch-Maschine-Schnittstelle (human machine interface - HMI), um den Einsatz zu starten; oder eine Anweisung von dem Server 145, um den Einsatz zu starten. Nach dem Detektieren des Einsatzauslöserereignisses durch den Computer 110 geht der Prozess 400 zu einem Block 415 über.
  • In dem Block 415 bestimmt der Computer 110 in einem Fall, in dem das Fahrzeug in einem autonomen Modus betrieben wird, eine Route für das Fahrzeug 105. In einigen Fällen kann die Route durch die Einsatzanweisungen spezifiziert sein. In anderen Fällen können die Einsatzanweisungen ein oder mehrere Ziele für das Fahrzeug 105 beinhalten und können ferner eine Karte der Umgebung beinhalten, in der das Fahrzeug 105 betrieben wird. Der Computer 110 kann die Route basierend auf den Zielen und den Kartendaten bestimmen, wie es bekannt ist. Der Prozess 400 geht zu einem Block 420 über.
  • In dem Block 420 betreibt der Computer 110 das Fahrzeug 105 entlang der Route. Der Computer 110 sammelt Fahrzeugdaten, einschliel lich Radardaten, LiDAR-Daten, Kameradaten und GPS-Daten, wie vorstehend beschrieben. Basierend auf den Fahrzeugdaten bestimmt der Computer einen aktuellen Standort des Fahrzeugs 105, bestimmt einen geplanten Fahrtweg und betreibt das Fahrzeug entlang des geplanten Fahrtwegs. Wie vorstehend angemerkt, kann der Computer 110 Lokalisierungstechniken anwenden, um eine lokalisierte Position des Fahrzeugs 105 mit erhöhter Auflösung basierend auf den Fahrzeugdaten zu bestimmen. Der Prozess geht zu einem Block 425 über.
  • In dem Block 425 bestimmt der Computer 110, ob sich das Fahrzeug 105 innerhalb eines Schwellenabstands von einem Geofence 160 befindet, der ein Ziel-Straßeninfrastrukturelement 150 umgibt. Der Schwellenabstand kann ein Abstand sein, innerhalb dessen das Sichtfeld von einem oder beiden von LiDAR-Sensoren 115 oder Kamerasensoren 115 Daten von Objekten innerhalb des Geofence 160 sammeln kann, und kann beispielsweise 50 Meter betragen. Falls sich das Fahrzeug 150 innerhalb des Schwellenabstands von dem Geofence 160 befindet, geht der Prozess 400 zu einem Block 430 über. Andernfalls geht der Prozess 400 zu dem Block 420 über.
  • In dem Block 430 wählt der Computer 110 Daten aus den Fahrzeugdaten aus und speichert die ausgewählten Daten. Der Computer 110 kann die zu speichernden Daten basierend auf einem oder mehreren Parametern des Ziel-Straßeninfrastrukturelements auswählen. Parameter des Ziel-Straßeninfrastrukturelements, wie hierin verwendet, sind Eigenschaften, die beim Definieren oder Klassifizieren des Ziel-Straßeninfrastrukturelements oder eines Zielabschnitts des Straßeninfrastrukturelements helfen. Beispiele für Parameter des Infrastrukturelements, die verwendet werden können, um die zu speichernden Daten auszuwählen, beinhalten: eine Art des Ziel-Straßeninfrastrukturelements 150, die Geolokalisierung, einen Standort eines interessierenden Bereichs des Ziel-Straßeninfrastrukturelements 150, die Abmessungen (Höhe, Breite, Tiefe), die Materialzusammensetzung (Zement, Stahl, Holz usw.), die Art der Oberflächenabdeckung, mögliche Arten von Verfall, Alter, eine aktuelle Belastung (z. B. starke Belastung des Ziel-Straßeninfrastrukturelements 150 aufgrund von starkem Verkehr oder einem Verkehrsstau) oder ein interessierender Zustand des Ziel-Straßeninfrastrukturelements 150 usw. Eine Art eines Ziel-Straßeninfrastrukturelements 150 bedeutet in diesem Zusammenhang eine Klassifizierung oder Kategorie eines Ziel-Straßeninfrastrukturelements mit gemeinsamen Merkmalen. Nicht einschränkende Arten von Ziel-Straßeninfrastrukturelementen beinhalten Stral en, Brücken, Tunnel, Türme usw. Ein interessierender Zustand des Ziel-Straßeninfrastrukturelements 150 in dieser Schrift ist eine Art von Verschleil oder Verfall, die aktuell beurteilt wird. Wenn zum Beispiel ein Verfall einer Oberflächenbeschichtung (z. B. Farbe) oder Korrosion des Ziel-Straßeninfrastrukturelements 150 aktuell von Interesse sind, kann der Computer 110 Kameradaten auswählen, die gespeichert werden sollen. Wenn aktuell Abplatzungen, Verformungen von Elementen, Verschiebungen von Elementen usw. bewertet werden, kann der Computer 110 sowohl Kamera- als auch LiDAR-Daten zur Speicherung auswählen.
  • Außerdem kann der Computer 110 die zu speichernden Daten basierend Fahrzeugparametern auswählen. Fahrzeugparameter, wie hierin verwendet, sind Datenwerte, die das Fahrzeug mindestens teilweise einen Betriebszustand des Fahrzeugs definieren und/oder klassifizieren. Ein Beispiel für Fahrzeugparameter, die zum Auswählen der Daten verwendet werden können, beinhaltet: einen Standort (absolut oder relativ zu dem Ziel-Straßeninfrastrukturelement 150) des Fahrzeugs 105 und ein Sichtfeld der Sensoren 115 des Fahrzeugs zu einem Zeitpunkt des Empfangens der Fahrzeugdaten.
  • Darüber hinaus kann der Computer 110 die zu speichernden Daten basierend auf einem oder mehreren Umgebungsparametern auswählen. Umgebungsparameter, wie hierin verwendet, sind Datenwerte, die eine Umgebung und/oder einen Zustand der Umgebung mindestens teilweise definieren und/oder klassifizieren. Zum Beispiel sind Lichtbedingungen und Wetterbedingungen Parameter, die der Computer 110 verwenden kann, um zu bestimmen, welche Daten aus den Fahrzeugdaten ausgewählt werden sollen.
  • Als nicht einschränkende Beispiele kann das Auswählen von zu speichernden Fahrzeugdaten Auswählen einer Art der Fahrzeugdaten, Auswählen von Daten basierend auf einem Sensor 115, der die Daten erzeugt hat, und Auswählen einer Teilmenge von Daten, die durch einen Sensor 115 erzeugt wurde, basierend auf einem Zeitpunkt der Datensammlung beinhalten. Eine Art von Fahrzeugdaten bedeutet hierin eine Spezifizierung einer Sensortechnologie (oder eines Mediums), durch welche die Fahrzeugdaten gesammelt wurden. Zum Beispiel sind Radardaten, LiDAR-Daten und Kameradaten Arten von Fahrzeugdaten.
  • Als ein Beispiel kann der Computer 110 als Standardbedingung dazu programmiert sein, alle LiDAR- und kamerabasierten Fahrzeugdaten auszuwählen, wenn sich das Fahrzeug 105 innerhalb des Schwellenabstands des Geofence 160 befindet, der das Ziel-Straßeninfrastrukturelement 150 umgibt.
  • Als ein anderes Beispiel kann der Computer 110 dazu programmiert sein, die ausgewählten Daten basierend auf einer Art des Ziel-Straßeninfrastrukturelements 150 zu identifizieren. Wenn das Ziel-Straßeninfrastrukturelement 150 zum Beispiel eine Straße 150 ist, kann der Computer 110 ausgewählte Daten als von den Sensoren 115 mit einem Sichtfeld, das die Straße 150 beinhaltet, gesammelte Daten identifizieren. Wenn sich das Ziel-Straßeninfrastrukturelement 150 zum Beispiel innerhalb eines Tunnels 150 befindet, kann der Computer 110 die ausgewählten Daten als Daten identifizieren, die während eines Zeitpunkts gesammelt werden, zu dem sich das Fahrzeug 105 innerhalb des Tunnels 150 befindet.
  • Als ein anderes Beispiel kann der Computer 110 dazu programmiert sein, Daten aus den Fahrzeugdaten basierend auf dem Sichtfeld der Sensoren 115, welche die Daten sammeln, auszuwählen. Zum Beispiel können Kameras 115 an dem Fahrzeug 105 entsprechende Sichtfelder vor dem Fahrzeug 105 oder hinter dem Fahrzeug 105 aufweisen. Wenn sich das Fahrzeug 105 dem Ziel-Straßeninfrastrukturelement 150 nähert, kann der Computer 110 Kameradaten von Kameras 115 auswählen, die auf einen Bereich vor dem Fahrzeug 105 gerichtet sind. Wenn das Fahrzeug 105 an dem Ziel-Straßeninfrastrukturelement 150 vorbeigefahren ist, kann der Computer 110 Kameradaten von Kameras 115 auswählen, die auf einen Bereich hinter dem Fahrzeug 105 gerichtet sind.
  • Gleichermal en kann der Computer 110 LiDAR-Daten basierend auf einem Sichtfeld von LiDAR zu dem Zeitpunkt auswählen, zu dem die Daten empfangen werden. Zum Beispiel kann der Computer 110 LiDAR aus den Teilen eines Scans auswählen (basierend auf dem Zeitpunkt des Scans), wenn die LiDAR-Daten Daten beinhalten können, die eine oder mehrere physische Eigenschaften des Ziel-Straßeninfrastrukturelements 150 beschreiben.
  • In Fällen, in denen nur ein Abschnitt des Ziel-Straßeninfrastrukturelements 150 von Interesse ist, kann der Computer 110 die Daten auswählen, wenn das Sichtfeld der Sensoren 115 Daten beinhaltet oder wahrscheinlich beinhaltet, die eine oder mehrere physische Eigenschaften des interessierenden Abschnitts des Ziel-Straßeninfrastrukturelements 150 beschreiben.
  • In einigen Fällen kann der Computer 110 die zu speichernden Daten basierend auf der Art der Verfalls des zu bewertenden Ziel-Straßeninfrastrukturelements 150 auswählen. Zum Beispiel kann der Computer 110 in einem Fall, in dem der Zustand der Farbe oder das Ausmal der Korrosion an dem Ziel-Straßeninfrastrukturelement 150 zu beurteilen ist, nur Daten von Kameras 115 auswählen.
  • Ferner kann der Computer 110 in einigen Fällen Daten aus den Fahrzeugdaten, die gespeichert werden sollen, basierend auf Lichtbedingungen in der Umgebung auswählen. Zum Beispiel kann der Computer 110 in einem Fall, in dem es zu dunkel ist, um Bilddaten mit Kameras 115 zu sammeln, LiDAR-Daten, die gespeichert werden sollen, auswählen und auf Kameradaten verzichten.
  • Darüber hinaus kann in einigen Fällen die Art der zu speichernden Daten basierend auf Anweisungen bestimmt werden, die von dem Server 145 empfangen werden. Basierend auf der geplanten Verwendung der Daten kann der Server 145 Anweisungen senden, um bestimmte Fahrzeugdaten zu speichern und keine anderen Fahrzeugdaten zu speichern.
  • Der Computer 110 kann ferner Metadaten zusammen mit den ausgewählten Fahrzeugdaten sammeln und speichern. Zum Beispiel kann der Computer 110 einen Zeitstempel mit Einzelbildern von Kameradaten oder Scans von LiDAR-Daten speichern, die angeben, wann die entsprechenden Daten empfangen wurden. Ferner kann der Computer 110 einen Standort des Fahrzeugs 105 als Breiten- und Längengrad-Koordinatenpaare mit den jeweiligen Daten speichern. Der Standort des Fahrzeugs 105 kann auf GPS-Daten oder einer Position basierend auf der Lokalisierung des Fahrzeugs 105 basierend auf zusätzlichen Fahrzeugdaten basieren. Darüber hinaus können die Metadaten Wetterdaten zum Zeitpunkt des Sammelns der jeweiligen Daten, Lichtbedingungen zum Zeitpunkt des Sammelns der jeweiligen Daten, die Identifizierung eines Sensors 115, der zum Sammeln der Daten verwendet wurde, und beliebige andere Messungen oder Bedingungen beinhalten, die bei der Beurteilung der Daten nützlich sein können. Im Falle von LiDAR-Daten können die Metadaten einem gesamten Scan, Sätzen von Datenpunkten oder einzelnen Datenpunkten zugeordnet sein.
  • Ein beispielhafter Prozess 500 zum Identifizieren ausgewählter Fahrzeugdaten zum Speichern, der als eine Teilroutine durch den Prozess 400 aufgerufen werden kann, wird nachstehend unter Bezugnahme auf 5 beschrieben. Nach dem Identifizieren der ausgewählten Fahrzeugdaten zum Speichern gemäl dem Prozess 500 geht der Prozess 400 zu einem Block 435 über.
  • In dem Block 435 bestimmt der Computer 110, ob er zusätzliche Daten von dem Ziel-Straßeninfrastrukturelement 150 über die Daten hinaus sammeln soll, die anhand der Fahrzeugdaten verfügbar sind. Zum Beispiel können die Anweisungen, die von dem Server 145 empfangen werden, interessierende Abschnitte des Ziel-Straßeninfrastrukturelements 150 identifizieren, die nicht in den Sichtfeldern der Sensoren 115 erscheinen, die zum Sammeln der Fahrzeugdaten verwendet werden. Wenn der Computer 110 bestimmt, dass er zusätzliche Daten sammeln sollte, geht der Prozess 400 zu einem Block 440 über. Andernfalls geht der Prozess 400 zu einem Block 450 über.
  • In dem Block 440 weist der Computer 110 die Sensoren 115 an und/oder betätigt diese, um zusätzliche Daten über das Ziel-Straßeninfrastrukturelement 150 zu sammeln. In einem Beispiel kann der Computer 110 Sensoren 115, die nicht für die Fahrzeugnavigation verwendet werden, zu einem Zeitpunkt betätigen, zu dem sich der interessierende Abschnitt des Ziel-Straßeninfrastrukturelements 150 im Sichtfeld des Sensors 115 befindet. Der Sensor 115 kann zum Beispiel ein Kamerasensor 115 auf einer Seite des Fahrzeugs 105 sein, der nicht verwendet wird, um Fahrzeugdaten zur Navigation zu sammeln. Wenn sich der interessierende Abschnitt des Ziel-Straßeninfrastrukturelements basierend auf einem Standort des Fahrzeugs 105 innerhalb des Sichtfelds des Kamerasensors 115 befindet, kann der Computer 110 den Sensor 115 betätigen und Daten über den interessierenden Abschnitt des Ziel-Straßeninfrastrukturelements sammeln. In einem anderen Beispiel kann der Computer 110 einen Rückfahrkamerasensor 115 an dem Fahrzeug 105 betätigen, der während des Vorwärtsbetriebs des Fahrzeugs 105 nicht verwendet wird, um eine Ansicht des interessierenden Abschnitts des Ziel-Straßeninfrastrukturelements 150 vom Heck des Fahrzeugs 105 aus zu erhalten, wenn das Fahrzeug 105 an dem interessierenden Abschnitt vorbei fährt.
  • In anderen Szenarien können, wenn die Fahrzeugnavigation nicht gestört wird, Sensoren 115, die zum Sammeln von Fahrzeugdaten während des Fahrens des Fahrzeugs 105 verwendet werden, anders ausgerichtet werden, zum Beispiel durch vorübergehendes Ändern der Richtung, Brennweite oder des Sichtwinkels des Sichtfeldes des Sensors 115, um Daten über den interessierenden Abschnitt des Ziel-Straßeninfrastrukturelements 150 zu sammeln. Der Prozess geht zu einem Block 445 über.
  • In dem Block 445 speichert der Computer 110 die Daten zusammen mit zugehörigen Metadaten, wie vorstehend unter Bezugnahme auf den Block 430 beschrieben. Der Prozess 400 geht zu einem Block 450 über.
  • In dem Block 450, der dem Block 435 folgen kann, bestimmt der Computer 110, ob sich das Fahrzeug 105 noch innerhalb der Reichweite des Geofence 160 befindet. Wenn sich das Fahrzeug 105 noch innerhalb der Reichweite des Geofence 160 befindet, geht der Prozess 400 zu dem Block 430 über. Andernfalls geht der Prozess 400 zu einem Block 455 über.
  • In dem Block 455 setzt der Computer 110 das Betreiben des Fahrzeugs 105 basierend auf den Fahrzeugdaten 105 fort. Der Computer 110 bricht das Auswählen von Fahrzeugdaten zum Speichern, wie unter Bezugnahme auf den vorstehenden Block 430 beschrieben, ab. Der Prozess 400 geht zu einem Block 460 über.
  • In dem Block 460 bestimmt der Computer 110, ob das Fahrzeug 105 an einem Endziel für den Einsatz angekommen ist. Wenn das Fahrzeug 105 an dem Endziel angekommen ist, endet der Prozess 400. Andernfalls geht der Prozess 400 zu dem Block 455 über.
  • 5 ist eine Darstellung des beispielhaften Prozesses 500 zum Identifizieren ausgewählter Fahrzeugdaten zum Speichern durch den Computer 110. Der Prozess 500 beginnt bei einem Block 505.
  • In dem Block 505 detektiert der Computer 110 ein Auslöserereignis für den Prozess 500, d. h. einen Empfang von Daten, die zum Einleiten des Prozesses 500 spezifiziert sind. Das Auslöserereignis des Prozesses 500 kann zum Beispiel ein digitales Signal, eine Markierung, ein Aufruf, eine Unterbrechung usw. sein, der/die/das während der Ausführung des Prozesses 400 durch den Computer 110 gesendet, eingestellt oder ausgeführt wird. Nach dem Detektieren des Auslöserereignisses des Prozesses 500 geht der Prozess 500 zu einem Block 510 über.
  • In dem Block 510 bestimmt der Computer 110, ob empfangene Anweisungen, wie etwa gemäl Block 405 empfangene Anweisungen, spezifizieren, dass der Computer 110 ausgewählte Fahrzeugdaten so identifizieren soll, dass sie alle nützliche Bild- und 3D-Modelldaten sind, d. h. Daten, die über ein Medium (z. B. über eine Sensorart) erhalten wurden, das als potenziell nützlich vordefiniert ist, um ein Infrastrukturelement 150 zu bewerten, und das der Computer 110 während des Betriebs des Fahrzeugs 105 empfängt. Die Daten können zum Beispiel durch den Hersteller vordefiniert sein und können LiDAR-Sensordaten, Kamerasensordaten und andere Daten beinhalten, die verwendet werden können, um Bilder und/oder 3D-Modelle eines Infrastrukturelements 150 zu erzeugen oder einen Zustand des Infrastrukturelements 150 anderweitig zu beurteilen.
  • Zum Beispiel kann das Identifizieren aller nützlichen Bild- und 3D-Modelldaten als die ausgewählten Fahrzeugdaten eine Standardbedingung sein, wenn die Anweisungen einen Geofence 160 und/oder ein Ziel-Infrastrukturelement 150 spezifizieren, aber nicht weiter definieren, welche Daten von Interesse sind; in diesem Fall wird davon ausgegangen, dass die empfangenen Anweisungen das Auswählen aller nützlichen Bild- und 3D-Modelldaten spezifizieren, wenn nicht spezifiziert ist, dass diese Standardbedingung geändert oder überschrieben werden soll. In jedem Fall bestimmt der Computer 110 basierend auf den Anweisungen, dass alle nützlichen Bild- und 3D-Modelldaten angefordert sind, und der Prozess 500 geht zu einem Block 515 über. Andernfalls geht der Prozess 500 zu einem Block 520 über.
  • In dem Block 515 bestimmt der Computer 110, ob der Computer 110 eine Programmierung zum Begrenzen der Menge an ausgewählten Daten beinhaltet. Zum Beispiel kann der Computer 110 in einigen Fällen dazu programmiert sein, die Menge der gesammelten Daten zu beschränken, um Ressourcen des Fahrzeugs 105 zu sparen, wie etwa Speicherkapazität des Datenspeichers 130, Bandbreite oder Durchsatz des Fahrzeugkommunikationsnetzwerks, Bandbreite oder Datendurchsatz des Daten-Uploads usw. In dem Fall, dass der Computer 110 dazu programmiert ist, eine Menge der gesammelten Daten zu begrenzen, geht der Prozess 500 zu einem Block 520 über. Andernfalls geht der Prozess zu einem Block 525 über.
  • In dem Block 520 identifiziert der Computer 110 ausgewählte Fahrzeugdaten basierend auf (1) Arten von Daten, die durch die empfangenen Anweisungen spezifiziert sind (z. B. des Blocks 405), (2) einem Standort des Ziel-Infrastrukturelements oder Zielabschnitts des Infrastrukturelements und/oder (3) Umgebungsbedingungen.
  • Typischerweise bestimmt der Computer 110 als einen ersten Teilschritt des Blocks 520 basierend auf den empfangenen Anweisungen, welche Arten von Daten gesammelt werden sollen. In einigen Fällen können die Anweisungen explizit zu sammelnde Arten von Daten spezifizieren. Zum Beispiel können die Anweisungen Kameradaten, LiDAR-Daten oder sowohl Kamera- als auch LiDAR-Daten anfordern. In anderen Fällen können die Anweisungen interessierende Zustände des Ziel-Infrastrukturelements 150 identifizieren und basierend auf den Arten von interessierenden Zuständen kann der Computer 110 Arten von zu sammelnden Daten bestimmen. Interessierende Zustände, wie hierin verwendet, sind Zustände des Ziel-Infrastrukturelements 150, die gegenwärtig einer Beurteilung unterzogen werden, zum Beispiel basierend auf einem Wartungs- oder Inspektionsplan für das Infrastrukturelement 150. Zum Beispiel kann der Computer 110 eine Tabelle führen, die Arten von zu sammelnden Daten basierend auf Verfallsarten angibt. Zum Beispiel zeigt die nachstehende Tabelle 1 einen Teil einer beispielhaften Tabelle, die Verfallsarten zu Arten von zu sammelnden Daten zuordnet.
    Interessierender Zustand Arten von zu sammelnden Daten
    Allgemeiner Zustand Kamera- und LiDAR-Daten
    Oberflächenkorrosion Kameradaten
    Zustand der Schutzbeschichtung (z. B. Farbe) Kameradaten
    Abplatzungen Kamera- und LiDAR-Daten
    Dreidimensionale Verschiebung oder Verformung von Elementen LiDAR-Daten
    Tabelle 1
  • Basierend auf einer Bestimmung, welche Arten von Daten basierend auf den empfangenen Anweisungen gesammelt werden sollen, kann der Computer 110 ferner die ausgewählten Fahrzeugdaten basierend auf einem Standort des Ziel-Infrastrukturelements 150 oder des Zielabschnitts des Infrastrukturelements 150 und/oder (3) Umgebungsbedingungen identifizieren. Wie vorstehend beschrieben, kann der Computer 110 basierend auf dem Standort des Ziel-Infrastrukturelements 150 und einem Standorts des Fahrzeugs 105 Daten für LiDAR-Sensoren 115 und Daten von Kamerasensoren 115 auswählen, wenn es wahrscheinlich ist, dass das Ziel-Infrastrukturelement 150 im Sichtfeld des jeweiligen Sensors 115 erscheint. Ferner kann der Computer 110 LiDAR- und/oder Kamerasensordaten nur dann sammeln, wenn Umgebungsbedingungen das Sammeln von Daten von dem jeweiligen Sensor unterstützen. Der Computer 110 kann Tabellen zum Bestimmen, welche Art von Daten unter unterschiedlichen Bedingungen zu sammeln ist, führen. In einem Beispiel kann der Computer 110 drei Tabellen führen, eine jeweils zum Sammeln sowohl von LiDAR- als auch von Kameradaten, zum Sammeln von nur LiDAR-Daten und zum Sammeln von nur Kameradaten. Die nachstehende Tabelle 2 ist eine beispielhafte Tabelle zum Identifizieren zu sammelnder Fahrzeugdaten basierend auf dem Standort des Ziel-Infrastrukturelements 150 und den Umgebungsbedingungen, wenn sowohl LiDAR- als auch Kameradaten angegeben werden.
    LiDAR- und Kameradaten angegeben
    Zielstandort spezifiziert Bedingungen unterstützen Sammeln von Kameradaten Bedingungen unterstützen Sammeln von LiDAR-Daten Handlung
    n n n Keine Datensammlung
    n n j Sammeln aller verfügbaren LiDAR-Daten während Aufenthalt innerhalb des Schwellenabstands des Geofence
    n j n Sammeln aller verfügbaren Kameradaten während Aufenthalt innerhalb des Schwellenabstands des Geofence
    n j j Sammeln aller verfügbaren LiDAR- und Kameradaten während Aufenthalt innerhalb des Schwellenabstands des Geofence
    j n n Keine Datensammlung
    j n j Sammeln von LiDAR-Daten, wenn sich LiDAR-Sensoren innerhalb der Reichweite des Zielstandorts befinden
    j j n Sammeln von Kameradaten, wenn sich Kamerasensoren innerhalb der Reichweite des Zielstandorts befinden
    j j j Sammeln von LiDAR- und Kameradaten, wenn sich die jeweiligen LiDAR- und Kamerasensoren innerhalb der Reichweite des Zielstandorts befinden
    Tabelle 2
  • Die nachstehende Tabelle 3 ist eine beispielhafte Tabelle zum Identifizieren zu sammelnder Fahrzeugdaten basierend auf dem Standort des Ziel-Infrastrukturelements 150 und den Umgebungsbedingungen, wenn nur LiDAR-Daten angegeben werden.
    Nur LiDAR-Daten angegeben
    Zielstandort spezifiziert Bedingungen unterstützen Sammeln von LiDAR-Daten Handlung
    n n Keine Datensammlung
    n j Sammeln aller verfügbaren LiDAR-Daten während Aufenthalt innerhalb des Schwellenabstands des Geofence
    j n Keine Datensammlung
    j j Sammeln von LiDAR-Daten, wenn sich LiDAR-Sensoren innerhalb der Reichweite des Zielstandorts befinden.
    Tabelle 3
  • Die nachstehende Tabelle 4 ist eine beispielhafte Tabelle zum Identifizieren zu sammelnder Fahrzeugdaten basierend auf dem Standort des Ziel-Infrastrukturelements 150 und den Umgebungsbedingungen, wenn nur Kameradaten angegeben werden.
    Nur Kameradaten angegeben
    Zielstandort spezifiziert Bedingungen unterstützen Sammeln von Kameradaten Handlung
    n n Keine Datensammlung
    n j Sammeln aller verfügbaren Kameradaten während Aufenthalt innerhalb des Schwellenabstands des Geofence
    j n Keine Datensammlung
    j j Sammeln von Kameradaten, während sich Kamerasensoren innerhalb der Reichweite des Zielstandorts befinden
    Tabelle 4
  • Der Computer 110 bestimmt basierend auf den empfangenen Anweisungen, welche Art von Daten gesammelt werden soll. Basierend auf der Art der zu sammelnden Daten wählt der Computer 110 eine Tabelle aus, anhand derer ausgewählte Daten identifiziert werden sollen. Der Computer identifiziert dann die ausgewählten Daten basierend auf der ausgewählten Tabelle, dem Standort des Ziel-Infrastrukturelements 150 und den Umgebungsbedingungen. Nach dem Identifizieren der ausgewählten Daten endet der Prozess 500 und der Computer 110 nimmt den Prozess 400 wieder auf, beginnend bei Block 435.
  • In dem Block 525, der auf den Block 515 folgt, geht der Computer 110 dazu über, alle nützlichen Bild- und 3D-Modelldaten als die ausgewählten Fahrzeugdaten zu identifizieren. Der Prozess 500 endet und der Computer 110 nimmt den Prozess 400 wieder auf, beginnend bei Block 435.
  • 6 ist eine Darstellung eines beispielhaften Prozesses 600 zum Hochladen von Daten von dem Computer 110 auf den Server 145. Der Prozess 600 beginnt in einem Block 605.
  • In dem Block 605 detektiert oder bestimmt der Computer 110 in dem Fahrzeug 105, dass sich das Datensammlungsendgerät 135 in Reichweite befindet, um Daten auf den Remote-Server 145 hochzuladen. In einem Beispiel kann eine Kommunikationsschnittstelle 515 kommunikativ an den Server 450 gekoppelt sein. Der Computer 110 bestimmt basierend auf dem Standort des Fahrzeugs 105 und dem bekannten Standort des Datensammlungsendgeräts 135, dass ein Abstand zwischen dem Fahrzeug 105 und dem Datensammlungsendgerät 135 kleiner als ein Schwellenabstand ist. Der Schwellenabstand kann ein Abstand sein, der kurz genug ist, dass eine drahtlose Verbindung zwischen dem Computer 110 und dem Datensammlungsendgerät 135 hergestellt werden kann. In einem Beispiel kann sich das Datensammlungsendgerät 135 in der Nähe oder in einem Servicezentrum oder einem Lagerbereich zum Parken des Fahrzeugs 105 befinden, wenn es nicht verwendet wird. Das Datensammlungsendgerät 135 kann ein drahtloses Kommunikationsnetzwerk, wie etwa dedizierte Nahbereichskommunikation (DSRC) oder einen anderen drahtlosen Kommunikationsmechanismus für den Nahbereich oder den Fernbereich, beinhalten. In einem anderen Beispiel kann das Datensammlungsendgerät 135 eine Ethernet-Plug-in-Station sein. In diesem Fall kann der Schwellenabstand ein Abstand sein, innerhalb dessen das Fahrzeug 105 in die Ethernet-Plug-in-Station eingesteckt werden kann. Als noch ein weiteres Beispiel kann der Computer 110 verfügbare Netzwerke basierend auf empfangenen Signalen überwachen und basierend auf dem Empfangen eines Signals mit einer Signalstärke über einer Schwellenstärke bestimmen, dass sich das Fahrzeug 105 innerhalb der Reichweite des Datensammlungsendgeräts 135 befindet. Der Prozess 600 geht zu einem Block 610 über.
  • In dem Block 610 bestimmt der Computer 110, ob er hochzuladende Daten aufweist. Zum Beispiel kann der Computer 110 prüfen, ob eine Markierung gesetzt wurde (ein Speicherort ist auf einen vorbestimmten Wert eingestellt), die angibt, dass der Computer 110 während eines Einsatzes Daten über ein Ziel-Straßeninfrastrukturelement 150 gesammelt hat, die noch nicht hochgeladen wurden. Falls der Computer 110 Daten aufweist, die noch nicht hochgeladen wurden, geht der Prozess 600 zu Block 615 über. Andernfalls endet der Prozess 600.
  • In dem Block 615 bestimmt der Computer 110, ob die Bedingungen zum Hochladen der Daten erfüllt sind. Zum Beispiel kann der Computer 110 basierend auf einem Zeitplan für geplante Einsätze für das Fahrzeug 105 bestimmen, dass das Fahrzeug 105 genug Zeit hat, um die Daten hochzuladen, bevor es zu einem nächsten Einsatz aufbricht. Der Computer 110 kann zum Beispiel basierend auf der Datenmenge bestimmen, wie viel Zeit zum Hochladen der Daten benötigt wird, und bestimmen, dass das Fahrzeug 105 mindestens für die zum Hochladen der Daten erforderliche Zeitdauer geparkt bleibt. Der Computer 110 kann ferner über eine digitale Kommunikation mit dem Server 450 bestätigen, dass der Server 450 die Daten hochladen und speichern kann. Ferner kann einer von dem Computer 110 oder dem Server 450 den anderen basierend auf Kennwörtern und dergleichen authentifizieren, um eine sichere Kommunikation zwischen dem Computer 110 und dem Server 450 herzustellen. Wenn die Bedingungen für das Hochladen von Daten erfüllt sind, geht der Prozess 600 zu einem Block 620 über. Andernfalls endet der Prozess 600.
  • In dem Block 620 überträgt der Computer 110 die gespeicherten Daten über das Ziel-Straßeninfrastrukturelement 150 über das Datensammlungsendgerät 135 an den Server 450. Der Prozess 600 endet.
  • Der Prozess 600 ist nur ein Beispiel für das Hochladen von Daten von dem Computer 110 auf einen Server. Andere Verfahren zum Hochladen der Daten über das Ziel-Straßeninfrastrukturelement 150 sind möglich. Als ein Beispiel kann der Computer 110 die Daten über das Netzwerk 140 (1) auf den Server 145 oder einen anderen Server hochladen, der kommunikativ an das Netzwerk 140 gekoppelt ist.
  • 7 ist eine Darstellung eines beispielhaften Prozesses 700 zum Konditionieren von Daten zur Verwendung beim Beurteilen des Zustands des Ziel-Straßeninfrastrukturelements 150. Das Konditionieren der Daten kann Segmentieren der Daten, Entfernen von Segmenten, die nicht von Interesse sind, Entfernen von Objekten aus den Daten, die nicht von Interesse sind, und Entfernen von personenbezogenen Daten aus den Daten beinhalten. Der Prozess 700 beginnt in einem Block 705.
  • In dem Block 705 erzeugt der Server 450 Bilder und/oder 3D-Modelle aus den Daten. Der Server 450 erzeugt ein oder mehrere Punktwolken-3D-Modelle aus den LiDAR-Daten, wie es bekannt ist. Der Server 450 erzeugt ferner visuelle Bilder basierend auf den Kameradaten, wie es bekannt ist. Der Server 450 kann ferner 3D-Modelle erzeugen, die Kameradaten und LiDAR-Daten aggregieren. Der Prozess 700 geht zu einem Block 710 über.
  • In dem Block 710 segmentiert der Server 450 die Bilder und/oder 3D-Modelle. Der Computer 110 unterteilt jedes der erzeugten 3D-Modelle und erzeugten visuellen Bilder in entsprechende Gitter kleinerer Segmente. Der Prozess geht zu einem Block 715 über.
  • In dem Block 715 identifiziert der Server 450 basierend auf Objekterkennung, z. B. gemäl herkömmlichen Techniken, interessierende Segmente. Interessierende Segmente, wie hierin verwendet, sind Segmente, die Daten über das Ziel-Infrastrukturelement 150 beinhalten. Der Server 450 wendet eine Objekterkennung an, um zu bestimmen, welche Segmente Daten über das Ziel-Straßeninfrastrukturelement 150 beinhalten. Der Server 450 entfernt dann Segmente, die keine Daten über das Ziel-Straßeninfrastrukturelement 150 beinhalten. Der Block 715 geht zu einem Block 720 über.
  • In dem Block 720 wendet der Server 450 eine Objekterkennung an, um irrelevante Objekte zu identifizieren und aus den Daten zu entfernen. Der Computer 110 kann zum Beispiel eine Liste von Objekten oder Kategorien von Objekten führen, die zum Beurteilen eines Zustands des Ziel-Infrastrukturelements 150 nicht von Interesse sind. Die Liste kann sich bewegende Objekte, wie etwa Fahrzeuge, Ful gänger und Tiere, die nicht von Interesse sind, beinhalten. Die Liste kann ferner stationäre Objekte, wie etwa Bäume, Sträucher, Gebäude usw. beinhalten, die für das Beurteilen des Zustands des Ziel-Infrastrukturelements 150 nicht von Interesse sind. Der Server 450 kann diese Objekte aus den Daten entfernen, z. B. unter Verwendung herkömmlicher 3D-Modell- und Bildverarbeitungstechniken. Der Prozess 700 geht zu einem Block 730 über.
  • In dem Block 730 kann der Server 450 personenbezogene Informationen aus den Daten entfernen. Zum Beispiel kann der Server 450 Objekterkennungsalgorithmen anwenden, wie sie zum Beispiel bekannt sind, um Nummernschilder, Bilder oder Modelle von Gesichtern oder andere personenbezogene Informationen in den Daten identifizieren. Der Server 450 kann die personenbezogenen Informationen dann aus den Daten entfernen, z. B. unter Verwendung herkömmlicher Bildverarbeitungstechniken. Der Prozess 700 geht zu einem Block 730 über. In dem Block 730 kann der Server 450 die Daten einer Anwendung, die sich auf einem anderen Server befinden kann, zum Bewerten eines Zustands des Ziel-Straßeninfrastrukturelements 150 basierend auf den Daten bereitstellen. Der Prozess 700 endet.
  • Obwohl vorstehend als entweder durch den Computer 110 oder den Server 145 ausgeführt beschrieben, können Rechenprozesse, wie etwa die Prozesse 400, 500, 600 und 700, jeweils ganz oder teilweise durch ein beliebiges von dem Computer 110, dem Server 145 oder einer anderen Rechenvorrichtung ausgeführt werden.
  • Somit wird ein System zum Auswählen und Speichern von Fahrzeugdaten durch ein Fahrzeug, das Daten über einen Zustand eines Infrastrukturelements einer Zielstraße beinhaltet, Hochladen der Daten auf einen Server zum Konditionieren und Konditionieren der Daten zur Verwendung bei der Beurteilung des Zustands des Ziel-Straßeninfrastrukturelements offenbart. Im hierin verwendeten Sinne bedeutet der Ausdruck „basierend auf‟ ganz oder teilweise basierend auf.
  • In dieser Schrift erörterte Rechenvorrichtungen, einschließlich des Computers 110, beinhalten Prozessoren und Speicher, wobei die Speicher im Allgemeinen jeweils Anweisungen beinhalten, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend identifizierten, und zum Ausführen vorstehend beschriebener Blöcke oder Schritte von Prozessen ausführbar sind. Computerausführbare Anweisungen können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung einer Reihe von Programmiersprachen und/oder -technologien erstellt wurden, die Folgende, entweder allein oder in Kombination, ohne Einschränkung beinhalten: Java™, C, C++, Visual Basic, Java Script, Python, Perl, HTML, usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, die einen oder mehrere der in dieser Schrift beschriebenen Prozesse beinhalten. Derartige Anweisungen und andere Daten können unter Verwendung einer Vielfalt an computerlesbaren Medien gespeichert und übertragen werden. Eine Datei in dem Computer 110 ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium gespeichert sind, wie etwa einem Speichermedium, einem Direktzugriffsspeicher etc.
  • Ein computerlesbares Medium beinhaltet ein beliebiges Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer ausgelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nicht flüchtiger Medien, flüchtiger Medien usw. Nicht flüchtige Medien beinhalten zum Beispiel optische oder magnetische Platten und sonstigen Dauerspeicher. Flüchtige Medien beinhalten dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der in der Regel einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten zum Beispiel Folgendes: eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das von einem Computer gelesen werden kann.
  • Hinsichtlich der in dieser Schrift beschriebenen Medien, Prozesse, Systeme, Verfahren usw. sollte es sich verstehen, dass, obwohl die Schritte derartiger Prozesse usw. als in einer bestimmten geordneten Sequenz erfolgend beschrieben worden sind, die beschriebenen Schritte bei der Ausführung derartiger Prozesse in einer Reihenfolge durchgeführt werden könnten, bei der es sich nicht um die in dieser Schrift beschriebene Reihenfolge handelt. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt werden können, dass andere Schritte hinzugefügt oder dass bestimmte, in dieser Schrift beschriebene Schritte ausgelassen werden können. Beispielsweise könnten in dem Prozess 500 ein oder mehrere der Schritte weggelassen oder die Schritte könnten in einer anderen Reihenfolge als in 5 gezeigt ausgeführt werden. Anders ausgedrückt werden die Beschreibungen von Systemen und/oder Prozessen in dieser Schrift zum Zweck der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten in keiner Weise als den offenbarten Gegenstand einschränkend ausgelegt werden.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, welche die vorangehende Beschreibung und die beigefügten Figuren und nachfolgenden Patentansprüche beinhaltet, veranschaulichend und nicht einschränkend sein soll. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorangehenden Beschreibung ersichtlich. Der Umfang der Erfindung sollte nicht unter Bezugnahme auf die vorangehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf Ansprüche, die hier beigefügt sind und/oder in einer hierauf basierenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu welchen derartige Ansprüche berechtigen. Es ist davon auszugehen und beabsichtigt, dass es zukünftige Entwicklungen im in dieser Schrift erörterten Stand der Technik geben wird und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.
  • Der ein Substantiv modifizierende Artikel „ein(e)“ sollte dahingehend verstanden werden, dass er eine(n) oder mehrere bezeichnet, es sei denn, es ist etwas anderes angegeben oder der Kontext erfordert etwas anderes. Der Ausdruck „basierend auf“ schließt teilweise oder vollständig basierend auf ein. Die Adjektive „erster“, „zweiter“ und „dritter“ werden in dieser Schrift als Identifikatoren verwendet und sind nicht dazu gedacht, eine Bedeutung hervorzuheben oder eine Reihenfolge anzuzeigen.
  • Gemäl der vorliegenden Erfindung wird ein System bereitgestellt, das Folgendes aufweist: einen Computer, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen beinhaltet, die durch den Prozessor ausführbar sind, einschlielßlich Anweisungen zum: Sammeln von Fahrzeugsensordaten von Sensoren an einem Fahrzeug; basierend auf einer Bestimmung, dass sich das Fahrzeug innerhalb eines Schwellenabstands zu einem Geofence einer Straßeninfrastruktur befindet, der ein Vorhandensein eines Ziel-Straßeninfrastrukturelements angibt, Identifizieren ausgewählter Daten aus den Fahrzeugsensordaten; und Übertragen der ausgewählten Daten an einen Remote-Server.
  • Gemäl einer Ausführungsform beinhaltet Identifizieren der ausgewählten Daten Identifizieren einer oder mehrerer Arten von ausgewählten Daten.
  • Gemäl einer Ausführungsform werden die eine oder die mehreren Arten von ausgewählten Daten aus einem Satz ausgewählt, der Kameradaten und LiDAR-Daten beinhaltet.
  • Gemäl einer Ausführungsform basiert Identifizieren der einen oder der mehreren Arten von ausgewählten Daten auf einer empfangenen Einsatzanweisung.
  • Gemäl einer Ausführungsform spezifiziert die empfangene Einsatzanweisung die eine oder die mehreren Arten von auszuwählenden Daten und beinhalten die Anweisungen: Identifizieren der ausgewählten Daten basierend auf der Spezifizierung der einen oder der mehreren Arten von Daten in der Einsatzanweisung.
  • Gemäl einer Ausführungsform spezifiziert die empfangene Einsatzanweisung einen Zustand oder eine Art von Verfall des Ziel-Straßeninfrastrukturelements, der zu bewerten ist, und beinhalten die Anweisungen Anweisungen zum Bestimmen der einen oder der mehreren Arten von Daten basierend auf dem spezifizierten Zustand oder der spezifizierten Art des zu bewertenden Verfalls.
  • Gemäl einer Ausführungsform basiert Identifizieren der ausgewählten Daten auf einem oder mehreren Parametern eines Straßeninfrastrukturelements.
  • Gemäl einer Ausführungsform beinhalten der eine oder die mehreren Parameter des Straßeninfrastrukturelements mindestens eines von: einer Art des Ziel-Straßeninfrastrukturelements; einem Standort des Ziel-Straßeninfrastrukturelements; einer physische Eigenschaft des Ziel-Straßeninfrastrukturelements; oder einer Geolokalisierung eines Zielabschnitts des Straßeninfrastrukturelements.
  • Gemäl einer Ausführungsform beinhaltet Identifizieren der ausgewählten Daten mindestens eines von: Identifizieren eines Sensors, von dem die ausgewählten Daten erzeugt werden; oder Identifizieren eines Zeitpunkts, zu dem die ausgewählten Daten erzeugt wurden.
  • Gemäl einer Ausführungsform basiert Identifizieren der ausgewählten Daten auf einem oder mehreren Fahrzeugparametern.
  • Gemäl einer Ausführungsform beinhalten der eine oder die mehreren Fahrzeugparameter mindestens eines von: einer Geolokalisierung des Fahrzeugs; oder einem Sichtfeld eines Sensors an dem Fahrzeug.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner: Speichern der ausgewählten Daten in einem Speicher in dem Fahrzeug; und Übertragen der ausgewählten Daten an den Remote-Server, wenn sich das Fahrzeug innerhalb der Reichweite eines Datensammlungsendgeräts befindet.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner: Speichern der ausgewählten Daten in einem Speicher in dem Fahrzeug vor Übertragen der ausgewählten Daten; und Speichern einer Geolokalisierung des Fahrzeugs zu einem Zeitpunkt, zu dem die Fahrzeugsensordaten ausgewählt wurden, zusammen mit den ausgewählten Daten.
  • Gemäß einer Ausführungsform wird die Geolokalisierung des Fahrzeugs zu dem Zeitpunkt, zu dem die Fahrzeugsensordaten gesammelt wurden, basierend auf mindestens einem von Daten von einem LiDAR-Sensor, der in dem Fahrzeug enthalten ist, oder Daten von einem Kamerasensor, der in dem Fahrzeug enthalten ist, bestimmt.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner: Identifizieren der ausgewählten Daten basierend auf einem Sichtfeld eines Sensors zu einem Zeitpunkt des Sammelns der Fahrzeugsensordaten.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner: Bestimmen einer lokalisierten Position des Fahrzeugs basierend auf mindestens einem von LiDAR-Daten oder Kameradaten; und Bestimmen des Sichtfelds des Sensors basierend auf der lokalisierten Position des Fahrzeugs.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zum: Übertragen von Wetterdaten zusammen mit den ausgewählten Daten, wobei die Wetterdaten Wetterbedingungen zu einem Zeitpunkt des Sammelns der Fahrzeugdaten angeben.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch den Remote-Server, wobei der Remote-Server einen zweiten Prozessor und einen zweiten Speicher beinhaltet, wobei der zweite Speicher zweite Anweisungen beinhaltet, die durch den Prozessor ausführbar sind, einschließlich zweiter Anweisungen zum: Empfangen der ausgewählten Daten, die durch den Prozessor übertragen werden; Extrahieren von zweiten Daten über ein Ziel-Straßeninfrastrukturelement aus den ausgewählten Daten; und Übertragen der zweiten Daten an einen zweiten Server.
  • Gemäß einer Ausführungsform beinhaltet Extrahieren der zweiten Daten zweite Anweisungen zum: Entfernen von personenbezogenen Informationen aus den zweiten Daten vor Übertragen der zweiten Daten an den zweiten Server.
  • Gemäß einer Ausführungsform beinhaltet Extrahieren der zweiten Daten zweite Anweisungen zum: Erzeugen eines Bilds und/oder eines 3D-Modells aus den ausgewählten Daten; Unterteilen des erzeugten Bilds und/oder 3D-Modells in Segmente; Bestimmen, welche Segmente Daten über das Ziel-Straßeninfrastrukturelement beinhalten; und Einschlielßen der Segmente, welche die Daten über das Ziel-Straßeninfrastrukturelement beinhalten, in die zweiten Daten.

Claims (15)

  1. Verfahren, umfassend: Sammeln von Fahrzeugsensordaten von Sensoren an einem Fahrzeug; basierend auf einer Bestimmung, dass sich das Fahrzeug innerhalb eines Schwellenabstands zu einem Geofence einer Straßeninfrastruktur befindet, der ein Vorhandensein eines Ziel-Straßeninfrastrukturelements angibt, Identifizieren ausgewählter Daten aus den Fahrzeugsensordaten; und Übertragen der ausgewählten Daten an einen Remote-Server.
  2. Verfahren nach Anspruch 1, wobei: Identifizieren der ausgewählten Daten Identifizieren einer oder mehrerer Arten von ausgewählten Daten beinhaltet, wobei die eine oder die mehreren Arten von Daten aus einem Satz ausgewählt werden, der Kameradaten und LiDAR-Daten beinhaltet.
  3. Verfahren nach Anspruch 2, wobei Identifizieren der einen oder der mehreren Arten von ausgewählten Daten auf einer empfangenen Einsatzanweisung basiert.
  4. Verfahren nach Anspruch 3, wobei die empfangene Einsatzanweisung die eine oder die mehreren Arten von auszuwählenden Daten spezifiziert, wobei das Verfahren ferner Folgendes umfasst: Identifizieren der ausgewählten Daten basierend auf der Spezifizierung der einen oder der mehreren Arten von Daten in der Einsatzanweisung.
  5. Verfahren nach Anspruch 3, wobei die empfangene Einsatzanweisung einen Zustand oder eine Art von Verfall des Ziel-Straßeninfrastrukturelements spezifiziert, der zu bewerten ist, wobei das Verfahren ferner Folgendes umfasst: Bestimmen der einen oder der mehreren Arten von Daten basierend auf dem spezifizierten Zustand oder der spezifizierten Art des zu bewertenden Verfalls.
  6. Verfahren nach Anspruch 1, wobei: Identifizieren der ausgewählten Daten auf einem oder mehreren Parametern des Straßeninfrastrukturelements basiert, wobei der eine oder die mehreren Parameter des Infrastrukturelements mindestens eines beinhalten von einer Art des Ziel-Straßeninfrastrukturelements; einem Standort des Ziel-Straßeninfrastrukturelements; einer physische Eigenschaft des Ziel-Straßeninfrastrukturelements; oder einer Geolokalisierung eines Zielabschnitts des Straßeninfrastrukturelements.
  7. Verfahren nach Anspruch 1, wobei Identifizieren der ausgewählten Daten mindestens eines beinhaltet von: Identifizieren eines Sensors, von dem die ausgewählten Daten erzeugt werden; oder Identifizieren eines Zeitpunkts, an dem die ausgewählten Daten erzeugt wurden.
  8. Verfahren nach Anspruch 1, wobei Identifizieren der ausgewählten Daten auf einem oder mehreren Fahrzeugparametern basiert, wobei der eine oder die mehreren Fahrzeugparameter mindestens eines beinhalten von: einer Geolokalisierung des Fahrzeugs; oder einem Sichtfeld eines Sensors an dem Fahrzeug.
  9. Verfahren nach Anspruch 1, ferner umfassend: Speichern der ausgewählten Daten in einem Speicher in dem Fahrzeug; und Übertragen der ausgewählten Daten an den Remote-Server, wenn sich das Fahrzeug innerhalb der Reichweite eines Datensammlungsendgeräts befindet.
  10. Verfahren nach Anspruch 1, ferner umfassend: Speichern der ausgewählten Daten in einem Speicher in dem Fahrzeug vor Übertragen der ausgewählten Daten; und Speichern einer Geolokalisierung des Fahrzeugs zu einem Zeitpunkt, zu dem die Fahrzeugsensordaten ausgewählt wurden, zusammen mit den ausgewählten Daten.
  11. Verfahren nach Anspruch 10, wobei die Geolokalisierung des Fahrzeugs zu dem Zeitpunkt, zu dem die Fahrzeugsensordaten gesammelt wurden, basierend auf mindestens einem von Daten von einem LiDAR-Sensor, der an dem Fahrzeug enthalten ist, oder Daten von einem Kamerasensor, der an dem Fahrzeug enthalten ist, bestimmt wird.
  12. Verfahren nach Anspruch 1, ferner umfassend: Identifizieren der ausgewählten Daten basierend auf einem Sichtfeld eines Sensors zu einem Zeitpunkt des Sammelns der Fahrzeugsensordaten.
  13. Computer, der dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-12 auszuführen.
  14. Fahrzeug, das einen Computer beinhaltet, der dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-12 auszuführen.
  15. Computerprogrammprodukt, das ein computerlesbares Medium umfasst, auf dem Anweisungen gespeichert sind, die durch einen Computerprozessor ausführbar sind, um das Verfahren nach einem der Ansprüche 1-12 auszuführen.
DE102021117608.5A 2020-07-14 2021-07-07 Fahrzeugbasierte datenerfassung Pending DE102021117608A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/928,063 US20220017095A1 (en) 2020-07-14 2020-07-14 Vehicle-based data acquisition
US16/928,063 2020-07-14

Publications (1)

Publication Number Publication Date
DE102021117608A1 true DE102021117608A1 (de) 2022-01-20

Family

ID=79021334

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021117608.5A Pending DE102021117608A1 (de) 2020-07-14 2021-07-07 Fahrzeugbasierte datenerfassung

Country Status (3)

Country Link
US (1) US20220017095A1 (de)
CN (1) CN113936058A (de)
DE (1) DE102021117608A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230415737A1 (en) * 2022-06-22 2023-12-28 Toyota Motor Engineering & Manufacturing North America, Inc. Object measurement system for a vehicle

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITMI20110859A1 (it) * 2011-05-17 2012-11-18 Eni Spa Sistema sottomarino autonomo per il monitoraggio ambientale 4d
CA2994508C (en) * 2015-08-06 2020-07-14 Accenture Global Services Limited Vegetation management for power line corridor monitoring using computer vision
EP3159853B1 (de) * 2015-10-23 2019-03-27 Harman International Industries, Incorporated Systeme und verfahren zur fortschrittlichen fahrerassistenzanalytik
WO2019067823A1 (en) * 2017-09-29 2019-04-04 3M Innovative Properties Company PROBE MANAGEMENT MESSAGES FOR INFRASTRUCTURE QUALITY MEASUREMENTS FROM A VEHICLE
US11163309B2 (en) * 2017-11-30 2021-11-02 Direct Current Capital LLC Method for autonomous navigation
US10628706B2 (en) * 2018-05-11 2020-04-21 Ambient AI, Inc. Systems and methods for intelligent and interpretive analysis of sensor data and generating spatial intelligence using machine learning
DE102018009571A1 (de) * 2018-12-05 2020-06-10 Lawo Holding Ag Verfahren und Vorrichtung zur automatischen Auswertung und Bereitstellung von Video-Signalen eines Ereignisses
US10956755B2 (en) * 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US10909366B2 (en) * 2019-02-28 2021-02-02 Orbital Insight, Inc. Joint modeling of object population estimation using sensor data and distributed device data
US11748687B2 (en) * 2019-03-28 2023-09-05 Ebay Inc. Dynamically generating visualization data based on shipping events
KR20210134317A (ko) * 2019-03-29 2021-11-09 인텔 코포레이션 자율 차량 시스템
US10870433B2 (en) * 2019-04-11 2020-12-22 Ford Global Technologies, Llc Emergency route planning system
US20220227379A1 (en) * 2019-05-09 2022-07-21 LGN Innovations Limited Network for detecting edge cases for use in training autonomous vehicle control systems
WO2020240352A1 (en) * 2019-05-24 2020-12-03 3M Innovative Properties Company Incentive-driven roadway condition monitoring for improved safety of micromobility device operation
US11600174B2 (en) * 2019-07-22 2023-03-07 Pony A1 Inc. Systems and methods for autonomous road condition reporting
US11157741B2 (en) * 2019-08-13 2021-10-26 International Business Machines Corporation Determining the state of infrastructure in a region of interest
KR20190110498A (ko) * 2019-09-10 2019-09-30 엘지전자 주식회사 영상 파일에서 불특정 인물의 얼굴 영역을 비식별화 처리하는 인공 지능 서버 및 그 방법
US10609148B1 (en) * 2019-09-17 2020-03-31 Ha Q Tran Smart vehicle
US11250051B2 (en) * 2019-09-19 2022-02-15 Here Global B.V. Method, apparatus, and system for predicting a pose error for a sensor system
US20230306573A1 (en) * 2019-10-15 2023-09-28 RoadBotics,Inc. Systems and methods for assessing infrastructure
CN116026345A (zh) * 2020-01-03 2023-04-28 御眼视觉技术有限公司 用于车辆导航的***和方法
JP2021165910A (ja) * 2020-04-06 2021-10-14 トヨタ自動車株式会社 データ送信装置およびデータ送信方法

Also Published As

Publication number Publication date
US20220017095A1 (en) 2022-01-20
CN113936058A (zh) 2022-01-14

Similar Documents

Publication Publication Date Title
DE102019121140A1 (de) Sensorfusion
DE102019127058A1 (de) Fahrzeugwegplanung
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE102019100497A1 (de) Lidar-lokalisierung
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102019119162A1 (de) Posenschätzung
DE102019122826A1 (de) Adaptives fahrzeuglernen
DE102017103123A1 (de) Fahrzeugfahrbahnplatzierung
DE102019121521A1 (de) Videostabilisierung
DE102019126542A1 (de) Lokalisierung einer stationären kamera
DE102021100101A1 (de) Fahrzeugsensorkalibrierung
DE102011100927A1 (de) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
DE102020113848A1 (de) Ekzentrizitätsbildfusion
DE102019110772A1 (de) Verfahren und vorrichtung zum überlagern und zur mehrweggeräuschminderung in einem lidar-system
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE102020107149A1 (de) Fahrzeugkapsel-netzwerke
DE102019122822A1 (de) Vordergrunderfassung
DE102021125166A1 (de) Bestimmung von seitenwindrisiken
DE102021103012A1 (de) Lidar-polarisation für fahrzeuge
DE102020118741A1 (de) Identifikation von fahrzeugstandorten
DE102023104789A1 (de) Verfolgung mehrerer objekte
DE102022128884A1 (de) Sensoroptimierung
DE102021106900A1 (de) Fahrzeugunsicherheitsaustausch
DE102020100022A1 (de) Positionsbestimmungstechnik

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000