DE102018100094A1 - System und verfahren zum identifizieren eines fahrzeugs und zum erzeugen von reservierungsinformationen - Google Patents

System und verfahren zum identifizieren eines fahrzeugs und zum erzeugen von reservierungsinformationen Download PDF

Info

Publication number
DE102018100094A1
DE102018100094A1 DE102018100094.4A DE102018100094A DE102018100094A1 DE 102018100094 A1 DE102018100094 A1 DE 102018100094A1 DE 102018100094 A DE102018100094 A DE 102018100094A DE 102018100094 A1 DE102018100094 A1 DE 102018100094A1
Authority
DE
Germany
Prior art keywords
module
reservation
vehicle
reservation information
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018100094.4A
Other languages
English (en)
Inventor
Donald K. Grimm
Christopher L. Oesterling
Amy E. Hurley
Aditya S. KAMINI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
General Motors LLC
Original Assignee
GM Global Technology Operations LLC
General Motors LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC, General Motors LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018100094A1 publication Critical patent/DE102018100094A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0645Rental transactions; Leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Accounting & Taxation (AREA)
  • Evolutionary Computation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Finance (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein System und Verfahren mit einer Anzahl von technologischen Elementen, von denen eines eine Steuerung ist, die Verbesserungen an der Steuerung bewirkt und wesentlich mehr als die ursprüngliche Standard-Steuerungsfunktionalität erzeugt. Die Elemente, die zusammenwirken, um die Steuerung zu veranlassen, eine Kamera zu bedienen, um Bilder eines visuellen Inhalts aufzunehmen; Speichern der aufgenommenen Bilder im Speicher, wobei die aufgenommenen Bilder in digitaler Form als digitale Bilder vorliegen; Ausführen eines visuellen Erkennungsmoduls, um mindestens ein Zielobjekt in mindestens einem digitalen Bild zu identifizieren; Erstellen der Identifikationsergebnisse des visuellen Erkennungsmoduls über die Steuerung; Überprüfen der Identifizierungsergebnisse gemäß den Fahrzeugreservierungsinformationen; und bedienen der Anzeige, um die Reservierungsinformationen anzuzeigen, wenn die Identifizierungsergebnisse gemäß den Fahrzeugreservierungsinformationen überprüft wurden.

Description

  • HINTERGRUND
  • Car-Sharing- und SB-Fahrzeugvermietungen ermöglichen den Kunden, standortgestützte Fahrzeugnutzungen zu reservieren, speziell in urbanen Umgebungen. Diese Mietfahrzeuge befinden sich häufig auf reservierten Stellplätzen, die durch fixierte Schilder bzw. Markierungen gekennzeichnet sind. Idealerweise übernimmt ein Benutzer ein Fahrzeug an einem reservierten Parkplatz und gibt das Fahrzeug am gleichen, oder einem ähnlich markierten Parkplatz in der Nähe wieder ab. Da diese reservierten Parkplätze jedoch häufig auf öffentlichen Parkplätzen zu finden sind, bleibt den Benutzern wenig Zeit, um den Reservierungsstatus eines Fahrzeugs zu bestimmen. Das kann für den Benutzer ärgerlich sein und eine rechtzeitige Anmietung des Fahrzeugs verhindern. Dementsprechend ist es wünschenswert, ein System und ein Verfahren zum Identifizieren der Verfügbarkeit von Fahrzeugreservierungen bereitzustellen. Des Weiteren ist es wünschenswert, zusätzlich die Möglichkeit zum Erzeugen einer Fahrzeugreservierung vorzusehen.
  • ZUSAMMENFASSUNG
  • Ein Verfahren zum Erzeugen von Reservierungsinformationen ist hierin dargestellt. Das Verfahren beinhaltet folgende Schritte: (a) Das Bereitstellen eines Speichers, der dazu konfiguriert ist, mindestens ein Modul von ausführbaren Anweisungen zu beinhalten, wobei der Speicher ferner dazu konfiguriert ist, eine Datenbank mit Reservierungsinformationen aufzunehmen; (b) das Bereitstellen einer Steuerung, die zum Ausführen des Moduls und zur Kommunikation mit der Datenbank konfiguriert ist; (c) das Bereitstellen einer mobilen Datenverarbeitungsvorrichtung mit einer Anzeige, die zum Anzeigen von Informationen konfiguriert ist; (d) das Bereitstellen einer Kamera auf der mobilen Datenverarbeitungsvorrichtung, wobei die Kamera zum Aufnehmen von Bildern eines visuellen Inhalts konfiguriert ist; (e) das Bereitstellen eines visuellen Erkennungsmoduls, das zum Identifizieren mindestens eines Zielobjekts konfiguriert ist; (f) das Aufnehmen von Bildern des visuellen Inhalts über die Kamera; (g) das Speichern der durch die Kamera aufgenommenen Bilder über die Steuerung in digitaler Form als digitale Bilder im Speicher; (h) das Ausführen des visuellen Erkennungsmoduls über die Steuerung, um mindestens ein Zielobjekt innerhalb mindestens eines digitalen Bildes zu identifizieren; (i) das Erstellen der Identifikationsergebnisse des visuellen Erkennungsmoduls über die Steuerung; (j) das Überprüfen der Identifizierungsergebnisse der Reservierungsinformationen über die Steuerung; und (k) das Anzeigen der Reservierungsinformationen über die Anzeige, basierend auf dem Ergebnis von Schritt (j).
  • Das Verfahren kann ferner folgende Schritte beinhalten: (l) Bereitstellen eines Sende-Empfängers auf der mobilen Datenverarbeitungsvorrichtung, wobei der Sende-Empfänger dazu konfiguriert ist, eine oder mehrere Datenübertragungen zu kommunizieren; basierend auf dem Ergebnis von Schritt (j), Kommunizieren der digitalen Bilder über den Sende-Empfänger mit der Steuerung; und (o) nach Schritt (j), Empfangen der Reservierungsinformationen am Sende-Empfänger. In diesem Fall können Speicher und Steuerung in einem Call-Center untergebracht sein.
  • Das Modul der ausführbaren Anweisungen kann auch ein Reservierungsmodul sein, das dazu konfiguriert ist, die Durchführung einer Fahrzeugreservierung zu unterstützen. In diesem Fall kann das Verfahren auch die folgenden Schritte beinhalten: (l) basierend auf dem Ergebnis von Schritt (j), anfordern, über die Steuerung einer Reservierung gemäß dem Inhalt der Reservierungsinformationen; und (m) basierend auf Schritt (l), das Erzeugen einer vollständigen Reservierung aus der Reservierungsanforderung über die Steuerung. Das Reservierungsmodul kann ferner ein Nockenschaltmodul beinhalten, das dazu konfiguriert ist, die Ortung von mindestens einem Zielobjekt zu unterstützen. In diesem Fall würde das Verfahren den Schritt von - (n) nach Schritt (g) beinhalten, wobei über die Steuerung das Nockenschaltmodul ausgeführt wird, um die Ortung mindestens eines Zielobjekts innerhalb mindestens eines digitalen Bildes zu unterstützen. Das visuelle Erkennungsmodul kann Folgendes beinhalten: ein Kaskadenklassifizierungsmodul, das dazu konfiguriert ist, ein Schiebefenster-Suchschema zu verwenden, bei dem Fenster verschiedener Maßstäbe über die Substanz von mindestens einem digitalen Bild geschoben werden können; ein MSER-Modul, das dazu konfiguriert ist, alle interessierenden Bereiche in der Substanz mindestens eines digitalen Bildes zu erkennen; und ein OCR-Modul, das dazu konfiguriert ist, jeden beliebigen Text aus den erfassten Bereichen von Interesse innerhalb der Substanz von mindestens einem digitalen Bild zu extrahieren.
  • Die Substanz von mindestens einem digitalen Bild kann mindestens ein Abschnitt eines Fahrzeugkennzeichens sein. Das Zielobjekt kann ein Zeichen oder Symbol sein, das auf dem Fahrzeugkennzeichen platziert ist. Die Reservierungsinformationen können folgende Angaben beinhalten: Fahrzeugbezeichnung, Fahrzeugstandort, Reservierungskosten, Verfügbarkeit der Reservierung und Optionen für Reservierungsanfragen.
  • Ein System zum Erzeugen von Fahrzeugreservierungsinformationen wird hierin weiter vorgestellt. Das System beinhaltet einen Speicher, eine Steuerung, eine mobile Datenverarbeitungsvorrichtung, eine Kamera und ein visuelles Erkennungsmodul. Der Speicher ist dazu konfiguriert, ein Modul mit ausführbaren Anweisungen und eine Datenbank mit Fahrzeugreservierungsinformationen einzubinden. Die Steuerung ist dazu konfiguriert, das Modul auszuführen und mit der Datenbank zu kommunizieren. Die mobile Datenverarbeitungsvorrichtung beinhaltet eine Anzeige, die zum Anzeigen von Informationen konfiguriert ist. Die Kamera ist auf der mobilen Datenverarbeitungsvorrichtung angebracht und ist dazu konfiguriert, Bilder eines visuellen Inhalts aufzunehmen. Das visuelle Erkennungsmodul ist dazu konfiguriert, mindestens ein Zielobjekt zu identifizieren. Darüber hinaus ermöglicht das Modul der Steuerung Folgendes: Bedienen der Kamera, um Bilder des visuellen Inhalts aufzunehmen; Speichern der aufgenommenen Bilder im Speicher, wobei die aufgenommenen Bilder in digitaler Form als digitale Bilder vorliegen; Ausführen des visuellen Erkennungsmoduls, um mindestens ein Zielobjekt in mindestens einem digitalen Bild zu identifizieren; Erstellen der Identifizierungsergebnisse des visuellen Erkennungsmoduls über die Steuerung; Überprüfen der Identifizierungsergebnisse gemäß den Fahrzeugreservierungsinformationen; und bedienen der Anzeige, um die Reservierungsinformationen anzuzeigen, wenn die Identifizierungsergebnisse gemäß den Fahrzeugreservierungsinformationen überprüft wurden.
  • Figurenliste
  • Die vorliegende Offenbarung wird im Folgenden in Verbindung mit den nachstehenden Zeichnungsfiguren beschrieben, worin gleiche Bezugszeichen gleiche Elemente bezeichnen und worin gilt:
    • 1 ist ein Diagramm, das eine exemplarische Ausführungsform eines Kommunikationssystems gemäß einem Aspekt des Systems und des darin vorgestellten Verfahrens veranschaulicht;
    • 2 ist eine schematische Darstellung eines exemplarischen einschränkungsbasierten visuellen Erkennungscode-Segments gemäß einem Aspekt des hierin vorgestellten Systems und Verfahrens;
    • 3 und 4 sind schematische Darstellungen eines exemplarischen visuellen Erkennungsmoduls gemäß einem Aspekt des hierin vorgestellten Systems und Verfahrens;
    • 5 ist eine schematische Darstellung eines exemplarischen Nockenschaltmoduls gemäß einem Aspekt des hierin vorgestellten Systems und Verfahrens;
    • 6 ist eine exemplarische Anwendung eines exemplarischen Reservierungsmoduls gemäß einem Aspekt des hierin vorgestellten Systems und Verfahrens;
    • 7 ist eine weitere exemplarische Anwendung des exemplarischen Reservierungsmoduls gemäß einem Aspekt des hierin vorgestellten Systems und Verfahrens;
    • 8 ist eine weitere exemplarische Anwendung des exemplarischen Reservierungsmoduls gemäß einem Aspekt des hierin vorgestellten Systems und Verfahrens;
    • 9 ist eine weitere exemplarische Anwendung des exemplarischen Reservierungsmoduls gemäß einem Aspekt des hierin vorgestellten Systems und Verfahrens; und
    • 10 ist eine exemplarische schematische Darstellung des Reservierungsmoduls gemäß einem Aspekt des hierin vorgestellten Systems und Verfahrens.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung dient lediglich als Beispiel und soll die Anwendung und Verwendung in keiner Weise einschränken. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Kurzzusammenfassung oder der folgenden ausführlichen Beschreibung an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Der hier verwendete Begriff „Modul “ bezieht sich auf eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder Gruppenprozessor) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, die die beschriebene Funktionalität bieten.
  • Unter Bezugnahme auf 1 ist ein nicht einschränkendes Beispiel eines Kommunikationssystems 10 dargestellt, das zusammen mit Beispielen der/des hier offenbarten Vorrichtung/Systems verwendet werden kann oder zum Implementieren von Beispielen der hier offenbarten Verfahren verwendet werden kann. Das Kommunikationssystem 10 beinhaltet im Allgemeinen ein Fahrzeug 12, ein Drahtlosträgersystem 14, ein Festnetz 16 und ein Callcenter 18. Es sollte beachtet werden, dass die Architektur, der Aufbau und Betrieb sowie die einzelnen Komponenten des veranschaulichten Systems lediglich exemplarisch sind, und dass anders konfigurierte Kommunikationssysteme ebenfalls verwendet werden können, um die Beispiele des hierin offenbarten Verfahrens zu implementieren. Somit sind die folgenden Absätze, die eine Kurzübersicht des dargestellten Kommunikationssystems 10 bereitstellen, nicht als einschränkend gedacht.
  • Das Fahrzeug 12 kann jede Art von mobilem Fahrzeug, wie ein Motorrad, Auto, Lastwagen, Freizeitfahrzeug (SV), Boot, Flugzeug usw., sein und ist mit geeigneter Hardware und Software ausgestattet, die es ermöglicht, über das Kommunikationssystem 10 zu kommunizieren. Einiges der Fahrzeughardware 20 ist allgemein in 1 einschließlich einer Telematikeinheit 24, eines Mikrofons 26, eines Lautsprechers 28 und Tasten und/oder Steuerungen 30, die mit der Telematikeinheit 24 verbunden sind, dargestellt. Operativ mit der Telematikeinheit 24 ist eine Netzwerkverbindung oder Fahrzeugbus 32 verbunden. Beispiele geeigneter Netzwerkverbindungen beinhalten ein Steuergerätenetz (CAN), einen medienorientierten Systemtransfer (MOST), ein lokales Kopplungsstrukturnetzwerk (LIN), ein Ethernet und andere geeignete Verbindungen, wie z. B. jene, die den bekannten ISO (International Organization for Standardization)-, SAE (Society of Automotive Engineers)- und IEEE (Institute of Electrical and Electronics Engineers)-Standards und -Spezifikationen entsprechen.
  • Die Telematikeinheit 24 ist eine fahrzeugeigene Vorrichtung, die eine Vielfalt von Diensten durch ihre Kommunikation mit dem Callcenter 18 bereitstellt und im Allgemeinen eine elektronische Verarbeitungsvorrichtung 38, eine oder mehrere Arten von elektronischen Speichern 40, einen mobilen Chipsatz/eine Komponente 34, ein drahtloses Modem 36, eine Dualmode-Antenne 70 und eine Navigationseinheit mit einem GNSS-Chipsatz/einer Komponente 42 beinhaltet. In einem Beispiel beinhaltet das drahtlose Modem 36 ein Computerprogramm und/oder ein Code-Segment, das angepasst ist, um in der elektronischen Verarbeitungsvorrichtung 38 ausgeführt zu werden.
  • Die Telematikeinheit 24 kann verschiedene Dienste bereitstellen, darunter: genaue Wegbeschreibungen und andere navigationsbezogene Dienste, die in Verbindung mit dem GNSS-Chipsatz/der Komponente 42 bereitgestellt werden; eine Airbag-Auslösebenachrichtigung und andere Notfall- oder Pannenhilfe-bezogene Dienste, die in Verbindung mit verschiedenen Crash- und/oder Kollisionssensor-Schnittstellenmodulen 66 und Kollisionssensoren 68 bereitgestellt werden, die im gesamten Fahrzeug angeordnet sind; und/oder Infotainment-bezogene Dienste, wobei Musik, Internet-Webseiten, Filme, Fernsehprogramme, Videospiele und/oder andere Inhalte von einem Infotainmentcenter 46 heruntergeladen werden, das mit der Telematikeinheit 24 über einen Fahrzeugbus 32 und einen Audiobus 22 operativ verbunden ist. In einem Beispiel wird der heruntergeladene Inhalt für eine sofortige oder spätere Wiedergabe gespeichert. Die vorstehend aufgelisteten Dienste stellen keineswegs eine vollständige Liste aller Funktionen der Telematikeinheit 24 dar, sondern lediglich eine Aufzählung einiger Dienste, die die Telematikeinheit 24 zu bieten hat. Es wird angenommen, dass die Telematikeinheit 24 eine Anzahl weiterer Komponenten zusätzlich zu und/oder unterschiedliche Komponenten von den vorstehend genannten beinhalten kann.
  • Die Fahrzeugkommunikation kann Mobilfunk verwenden, um einen Sprachkanal mit dem Drahtlosträgersystem 14 einzurichten, sodass sowohl Sprach- als auch Datenübertragungen über den Sprachkanal gesendet und empfangen werden können. Fahrzeugkommunikationen werden über den/die Mobilfunkchipsatz/Komponente 34 für die Sprachkommunikation und das drahtlose Modem 36 zur Datenübertragung freigegeben. Alle geeigneten Kodierungs- oder Modulationsverfahren können mit den vorliegenden Beispielen verwendet werden, darunter auch digitale Übertragungstechnologien, wie TDMA (Zeitmultiplexzugriff), CDMA (Codemultiplex-Vielfachzugriff), W-CDMA (Breitband-CDMA), FDMA (Frequenzvielfachzugriff), OFDMA (orthogonaler Frequenzvielfachzugriff) usw.
  • Die Dual-Mode-Antenne 70 bedient den/die GNSS-Chipsatz/Komponente 42 und den/die Mobilfunkchipsatz/Komponente 34.
  • Das Mikrofon 26 stellt dem Fahrer oder anderen Fahrzeuginsassen Mittel zur Eingabe von verbalen oder anderen akustischen Befehlen bereit und kann mit einer eingebetteten Sprachverarbeitungseinheit unter Verwendung einer Mensch-Maschine-Schnittstellen-Technologie (HMI), wie in der Technik bekannt, ausgestattet sein. Umgekehrt stellt der Lautsprecher 28 eine verbale Ausgabe für die Insassen bereit und kann entweder ein eigenständiger Lautsprecher speziell zur Verwendung mit der Telematikeinheit 24 oder Teil der Fahrzeug-Audiokomponente 64 sein. In jedem Fall ermöglichen das Mikrofon 26 und der Lautsprecher 28 das Kommunizieren der Hardware 20 und des Callcenters 18 mit den Insassen des Fahrzeugs durch hörbare Sprache. Die Fahrzeughardware beinhaltet auch eine oder mehrere Tasten und/oder Steuerungen 30 zum Ermöglichen des Aktivierens oder Einstellens einer oder mehrerer Fahrzeug-Hardware-Komponenten 20. So kann beispielsweise eine der Tasten und/oder Steuerungen 30 eine elektronische Drucktaste zum Einleiten von Sprachkommunikation mit dem Kommunikationszentrum 18 sein (sei es ein Live-Berater, wie Anweiser 58, oder ein automatisiertes Anruf-Reaktionssystem). In einem anderen Beispiel kann eine der Tasten und/oder Steuerungen 30 zum Einleiten von Notdiensten verwendet werden.
  • Die Audiokomponente 64 ist funktionsfähig mit dem Fahrzeugbus 32 und dem Audiobus 22 verbunden. Die Audiokomponente 64 empfängt analoge Informationen und gibt diese als Schall über den Audiobus 22 wieder. Digitale Informationen werden über den Fahrzeugbus 32 empfangen. Die Audiokomponente 64 stellt AM (amplitude modulated)- und FM (frequency modulated)-Hörrundfunk, CD (Compact Disc), DVD (Digital Video Disc) und Multimediafunktion unabhängig vom Infotainmentcenter 46 bereit. Die Audiokomponente 64 kann ein Lautsprechersystem beinhalten oder kann einen Lautsprecher 28 über Arbitrierung auf dem Fahrzeugbus 32 und/oder dem Audiobus 22 verwenden.
  • Die Fahrzeugunfall- und/oder Aufprallerfassungs-Sensorschnittstelle 66 ist funktionsfähig mit dem Fahrzeugbus 32 verbunden. Über die Unfall- und/oder Aufprallerfassungs-Sensorschnittstelle 66 liefern die Aufprallsensoren 68 der Telematikeinheit Informationen bezüglich der Schwere eines Fahrzeugzusammenstoßes, wie z. B. den Aufprallwinkel und die Höhe der ausgeübten Kraft.
  • Fahrzeugsensoren 72, die mit verschiedenen Sensor-Schnittstellenmodulen 44 (VSMs) in Form von elektronischen Hardwarekomponenten verbunden sind, die sich im gesamten Fahrzeug befinden und den erfassten Eingang zum Ausführen von Diagnose-, Überwachungs-, Steuerungs-, Kontroll-, Melde- und/oder anderen Funktionen verwenden. Jedes der VSMs 44 ist bevorzugt durch den Fahrzeugbus 32 mit den anderen VSMs sowie der Telematikeinheit 24 verbunden und kann programmiert werden, Fahrzeugsystem- und Subsystemdiagnosetests auszuführen. Als nicht einschränkende Beispiele eines VSM 44 kann ein Motorsteuergerät (ECM) beinhalten, das verschiedene Aspekte des Motorbetriebs, wie zum Beispiel Kraftstoffzündung und Zündzeitpunkt steuert, und ein anderes VSM 44 kann ein Antriebsstrangsteuerungsmodul sein, das den Betrieb einer oder mehrerer Komponenten des Fahrzeugantriebsstrangs steuert. Ein weiteres VSM 44 kann ein Karosserie-Steuerungsmodul (BCM) sein, das verschiedene elektrische Komponenten im Fahrzeug steuert, wie zum Beispiel die Zentralverriegelung, die Motorzündung und die Scheinwerfer. Gemäß einer Ausführungsform ist das Motorsteuergerät mit integrierten Diagnose (OBD)-Funktionen ausgestattet, die unzählige Echtzeitdaten, wie z. B. die von verschiedenen Sensoren, einschließlich Fahrzeugemissionssensoren, erhaltenen Daten bereitstellen und eine standardisierte Reihe von Diagnosefehlercodes (DTCs) liefern, die einem Techniker ermöglichen, Fehlfunktionen innerhalb des Fahrzeugs schnell zu identifizieren und zu beheben.
  • Ein passives Eingangsmodul für den passiven Start (PEPS) ist ein weiterer Typ des VSM 44, der an den Fahrzeugbus 32 angeschlossen werden kann und eine passive Erkennung des Fehlens oder Vorhandenseins eines passiven physischen Schlüssels oder eines virtuellen Fahrzeugschlüssels ermöglicht. Wenn sich der passive physische Schlüssel oder das Smartphone 57 mit virtuellem Fahrzeugschlüssel nähert, kann das PEPS-Modul 44 bestimmen, ob der passive physische Schlüssel zum Fahrzeug 12 gehört und/oder (in einigen Ausführungsformen) bestimmen, ob der virtuelle Fahrzeugschlüssel autorisiert/authentisch ist. Wenn der virtuelle Fahrzeugschlüssel authentisch ist, kann das PEPS-Modul 44 einen Befehl an das BCM senden, das den Zugriff auf das Fahrzeug 12 ermöglicht. Fachleute auf dem Fachgebiet werden erkennen, dass es sich bei den vorgenannten VSMs nur um Beispiele von einigen der Module handelt, die im Fahrzeug 12 verwendet werden können, zahlreiche andere Module jedoch ebenfalls möglich sind.
  • Das Drahtlosträgersystem 14 kann ein Mobiltelefonsystem oder jedes andere geeignete drahtlose System sein, das Signale zwischen der Fahrzeug-Hardware 20 und dem Festnetz 16 überträgt. Gemäß einem Beispiel beinhaltet das Drahtlosträgersystem 14 einen oder mehrere Zellentürme 48
  • Das Festnetz 16 kann ein konventionelles Telekommunikations-Festnetz sein, das mit einem oder mehreren Festnetztelefonen verbunden ist und das Drahtlosträgersystem 14 mit dem Callcenter 18 verbindet. So kann beispielsweise das Festnetz 16 ein öffentliches Telefonnetz (PSTN) und/oder ein Internet-Protokoll (IP)-Netzwerk beinhalten, wie von Fachleuten anerkannt. Selbstverständlich können ein oder mehrere Segmente des Festnetzes 16 in der Form eines Standard-verdrahteten Netzwerks, eines Glasfaser- oder anderen optischen Netzwerks, eines Kabelnetzwerks, anderer drahtloser Netzwerke, wie etwa Drahtlosnetzwerke (WLAN), oder von Netzwerken, die Broadband-Wireless-Access (BWA) oder eine beliebige Kombination davon bereitstellen, implementiert werden.
  • Eine der vernetzten Vorrichtungen, die mit der Telematikeinheit 24 kommunizieren können, ist eine mobile Computervorrichtung 57, wie beispielsweise ein Smartphone, ein persönlicher Laptop-Computer, eine tragbare Vorrichtung oder ein Tablet-Computer mit zwei-Wege-Kommunikationsfähigkeiten, einem Netbook-Computer oder beliebigen geeigneten Kombinationen davon. Die mobile Computervorrichtung 57 kann Computerverarbeitungsfähigkeiten beinhalten, einen Empfänger 53 der zur Kommunikation mit dem Drahtlosträgersystem 14 in der Lage ist, eine Kamera 55, eine visuelle Anzeige 59 und/oder ein GPS-Modul, das GPS-Satellitensignale empfangen und GPS-Koordinaten basierend auf diesen Signalen erzeugen kann. In einigen Implementierungen beinhaltet die Anzeige 59 auch einen interaktiven Berührungsbildschirm als grafische Benutzeroberfläche. Die digitale Kamera 55 kann die Fähigkeit zum Erzeugen digitaler Bilder beinhalten, die Bitmap-Datendarstellungen von konkreten Objekten sind, die durch die Vorgänge der Kamera 55 aufgenommen und gespeichert werden. Beispiele für die mobile Computervorrichtung 57 beinhalten das iPhone™ und die Apple Watch™, jedes hergestellt von Apple, Inc. und das Droid™ Smartphone, das von Motorola Inc. gefertigt ist, sowie andere.
  • Die mobile Vorrichtung 57 kann innerhalb oder außerhalb des Fahrzeugs (wie beispielsweise dem in 1 dargestellten Fahrzeug 12) verwendet werden und kann mit dem Fahrzeug drahtgebunden oder drahtlos verbunden werden. Die mobile Vorrichtung kann auch so konfiguriert werden, dass sie Dienste gemäß einer Abonnementvereinbarung mit einem Drittanbieter oder einem Mobilfunk-/Telefondienstanbieter bereitstellt. Es sollte erkannt werden, dass verschiedene Dienstanbieter das Drahtlosträgersystem 14 nutzen können und dass der Dienstanbieter der Telematikeinheit 30 nicht notwendigerweise derselbe sein muss, wie der Dienstanbieter der mobilen Vorrichtungen 57.
  • Bei Verwendung eines Kurzstrecken-Funk (SRWC)-Protokolls (z. B. Bluetooth Low Energy, Wi-Fi usw.) können die mobile Datenverarbeitungsvorrichtung 57 und Telematikeinheit 24 innerhalb einer Funkreichweite fallweise miteinander paaren (oder miteinander verbinden). Diese eindeutige Paarung kann es auch ermöglichen, dass die mobile Datenverarbeitungsvorrichtung 57 als Schlüsselanhänger fungiert, um das Fahrzeug 12 über die Telematikeinheit 24 zu bedienen. Damit diese Paarung durchgeführt werden kann, kann ein Satz eindeutiger Verschlüsselungscodes sowohl an die mobile Datenverarbeitungsvorrichtung 57 als auch an die Telematikeinheit 24 gesendet werden. Das Call-Center 20 kann darüber hinaus teilnehmen. So kann beispielsweise das Call-Center 20 die Verschlüsselungscodes sowie ein entsprechendes Zugangs-Token sowohl für die Telematikeinheit 24 als auch für die mobile Datenverarbeitungsvorrichtung 57 erzeugen.
  • Das Call-Center 18 ist so konzipiert, dass die Hardware 20 des Fahrzeugs durch eine Anzahl von unterschiedlichen Back-End-Funktionen des Systems unterstützt wird und beinhaltet gemäß dem hier gezeigten Ausführungsbeispiel generell eine(n) oder mehrere Schalter 52, Server 54, Datenbanken 56, Berater 58, wie auch eine Vielfalt von Telekommunikations-/Computerausrüstung 60. Diese verschiedenen Komponenten des Callcenters sind zweckmäßigerweise über eine Netzwerkverbindung oder einen Bus 62, wie die/den zuvor in Verbindung mit der Fahrzeug-Hardware 20 beschriebene/n, miteinander gekoppelt. Schalter 52, der ein Nebenstellenanlagenschalter (PBX) sein kann, leitet eingehende Signale weiter, so dass Sprachübertragungen im Allgemeinen entweder zum Live-Berater 58 oder zu einem automatisierten Reaktionssystem gesendet werden und Datenübertragungen an ein Modem oder andere Komponenten des Telekommunikations-/Computergerätes 60 zur Demodulation und weiteren Signalverarbeitung geleitet werden. Das Modem oder das andere Telekommunikations-/Computergerät 60 kann beispielsweise, wie vorstehend erläutert, einen Encoder beinhalten und kann mit verschiedenen Geräten, wie etwa einem Server 54 und einer Datenbank 56, verbunden sein. Datenbank 56 könnte so konzipiert sein, dass sie Datensätze über Car-Sharing-Dienste (d. h. Fahrzeugreservierungsinformationen) beinhaltet, wie beispielsweise, aber nicht beschränkt auf, Car-Sharing-Di enst- Reservierungskontendaten sätze, Car-Sharing-Dienst-Sätze, Reservierungsprofildatensätze (z. B. einen Reservierungskalender), Verhaltensmusterdatensätze des Mieters oder andere relevante Informationen über Fahrzeugfreigabeservices. Diese gespeicherten und erzeugten Backend-Informationen könnten zudem in SQL (Structured Query Language) geschrieben werden. Eine Ausführungsform der Backend-Informationen kann so erstellt werden, dass jeder Datensatz in einer tabellarischen Form (Tabellenkalkulation) organisiert ist.
  • So kann beispielsweise der Benutzer der mobilen Datenverarbeitungsvorrichtung 57 ein eigenes, personalisiertes Reservierungskonto für die Car-Sharing-Dienste („Reservierungskonto“) erstellen, das in der Datenbank 56 gespeichert wird. Der Benutzer kann Aufgaben durchführen, um dieses Konto durch eine Vielzahl von Vorrichtungen, wie beispielsweise den entfernten Computer 18 und die mobile Datenverarbeitungsvorrichtung 57 oder durch den Live-Berater 86 im Call-Center 20 zu erstellen. Das Benutzerkonto kann auf dem Server 82 zugänglich sein (z. B. zur Unterstützung von Backend-Funktionen). Call-Center 20 kann auch auf einen oder mehrere zusätzliche Remote-Server und/oder Remote-Datenbanken (z. B. Datenbanken des Department of Motor Vehicles) zugreifen, um Informationen zur Unterstützung des Reservierungskontos zu erhalten.
  • Das Benutzerkonto kann Validierungsdaten beinhalten, um zu überprüfen und/oder zu validieren, ob zukünftige Anmeldeversuche sicher sind (z. B. die Gewährung des Zugangs nur für den Benutzer). Die Validierungsdaten können einen Benutzernamen und ein Kontopasswort sowie Benutzerinformationen (z. B. Führerscheinnummer), Informationen über mobile Datenverarbeitungsvorrichtungen, wie beispielsweise den eindeutigen Identifikator für mobile Vorrichtungen (z. B. Seriennummer), beinhalten. Das Benutzerkonto kann zusätzlich eine Vielzahl von Benutzereinstellungen speichern.
  • Die mobile Datenverarbeitungsvorrichtung 57 kann ein Softwaremodul 99 („Reservierungsmodul“) empfangen, das ihrem Reservierungskonto zugeordnet werden kann. So kann beispielsweise der Benutzer der mobilen Vorrichtung 57 einen Online-Software-Anwendungsspeicher oder einen Web-Service besuchen und daraus das Reservierungsmodul 99 herunterladen. Die mobile Datenverarbeitungsvorrichtung 57 kann darüber hinaus das Frontendteil des Reservierungsmoduls 99 auf den mobilen Speicher 61 der mobilen Datenverarbeitungsvorrichtung 57 installieren. Das Reservierungsmodul 99 kann außerdem eine oder mehrere grafische Benutzeroberflächen (GUIs) beinhalten, die eine oder mehrere Aufforderungen beinhalten, die über die Anzeige 59 ausgegeben werden sollen, um den Benutzer anzuweisen, Informationen zur Verfügung zu stellen (z. B. Validierungsdaten), um die Benutzerkontenerstellung zu unterstützen.
  • Das Reservierungsmodul 99 unterstützt einen Benutzer des Fahrzeugfreigabesystems (Benutzer der mobilen Datenverarbeitungsvorrichtung) bei der Reservierung von mindestens einem Fahrzeug 12 durch einen operativen Zugriff und die Kommunikation mit den Datensätzen des Backend-Fahrzeugfreigabesystems in der Datenbank 56. Das Reservierungsmodul 99 kann darüber hinaus Zugriff auf die digitale Kamera 55 haben sowie ein visuelles Erkennungsmodul und ein Nockenschaltmodul beinhalten oder mit diesem korrespondieren, um einen Benutzer beim Identifizieren eines bestimmten zu reservierenden Fahrzeugs 12 zu unterstützen.
  • Obwohl das veranschaulichte Beispiel beschrieben wurde, als würde es in Verbindung mit einer bemannten Version des Callcenters 18 verwendet werden, versteht es sich, dass das Callcenter 18 eine Vielzahl von geeigneten zentralen oder dezentralen Einrichtungen sein kann, bemannt oder unbemannt, mobil oder fest, für die es wünschenswert ist, Sprache und Daten auszutauschen.
  • VISUELLES ERKENNUNGSMODUL
  • 2 stellt exemplarisch eine schematische Darstellung einer Ausführungsform mindestens eines Codesegments dar, um einen Systemfluss für ein beschränkungsbasiertes visuelles Erkennungsmodul 100 zu bilden, das einem Reservierungsmodul 99 entsprechen oder in dieses integriert werden kann. Das visuelle Erkennungsmodul 100 kann ausgeführt werden, um mindestens ein Zielobjekt (z. B. Zeichen) in einem visuellen Inhalt (z. B. Fahrzeugkennzeichen) zu identifizieren, das in eine Ausführungsform des Systems und des Verfahrens integriert werden kann. Wie in 2 veranschaulicht, nimmt der Systemfluss 100 eine Eingabe 110, die, wie veranschaulicht, visuellen Inhalt 111, Sensormodalitäten 112 und, zusammen mit Informationen, die aus einer Bilddatenbank 120 abgerufen werden, ein Objektidentifizierungsverfahren 130 durchführt, um die Identifizierungsergebnisse 140 zu erhalten. Der Systemfluss 100 wird nachfolgend detaillierter erörtert.
  • Ausführungsformen des hier vorgestellten Systems und des Verfahrens verwenden Sensormodalitäten, wie beispielsweise Standortsystemdaten, 3D-Beschleunigungsmesserdaten und Gyroskop- und digitale Kompassinformationen, um die Komplexität der Bildsuche zu verringern. Standortsystemdaten können Daten von dem GPS-Modul, einem Wide Area Network (WAN), einem drahtlosen Netzwerk und dergleichen beinhalten. Wenn zum Beispiel die GPS-Position des Abfragebildes in der Nähe von „50 Center Street, Concord, New Hampshire “ liegt, muss das Abfragebild nicht mit Bildern an signifikant unterschiedlichen GPS-Positionen verglichen werden. So würde zum Beispiel das Abfragebild nicht mit Bildern von Häusern in Chicago oder München verwechselt werden.
  • 3 ist eine schematische Darstellung eines exemplarischen visuellen Erkennungsalgorithmus 200 gemäß einem Aspekt des Bildabgleichverfahrens 130. Wie dargestellt, beinhaltet das visuelle Erkennungsmodul 200 unter anderem ein Kaskadenklassifizierungsmodul 210, MSER-Modul 220 und DCR-Scan-Modul 230.
  • Das Kaskadenklassifizierungsmodul 210 beinhaltet einen mehrstufigen Erkennungsrahmen. In dieser Ausführungsform empfängt das Kaskadenklassifizierungsmodul 210 den Eingang 201, der typischerweise von der digitalen Kamera 55 erzeugt wird und den visuellen Inhalt 205 (z. B. ein digitales Bild) beinhaltet. Das Kaskadenklassifikatormodul 210 beinhaltet außerdem einen Satz von Klassifizierern 211, die auf Haar geschult wurden, um interessierende Objekte (z. B. Kennzeichenzeichen und Symbole) innerhalb des eingehenden visuellen Inhalts 205 zu identifizieren. So verwendet beispielsweise das Kaskadenklassifizierungsmodul 210 ein Schiebefenster-Suchschema, bei dem Fenster verschiedener Maßstäbe über die Substanz des visuellen Inhalts 205 geschoben werden. Jeder Klassifizierer betrachtet somit ein angrenzendes rechteckiges Bildfeld an einer bestimmten Stelle im Bildinhalt 205 und summiert die Pixelintensitäten in den einzelnen Bereichen. Das rechteckige Bildfeld unterhalb des Schiebefensters wird von einem oder mehreren schwachen Klassifizierern aus dem Satz der Haar-Klassifizierer 211 überprüft, während sich das Schiebefenster über den visuellen Inhalt 205 bewegt, um das Zielobjekt von nicht-zielgebundenen Objektfeldern zu unterscheiden, basierend auf der Haar-Funktion, für die der Klassifizierer eingewiesen wurde.
  • Eine Ausführung des Kaskadenklassifizierungsmoduls 210 arbeitet typischerweise nach dem Prinzip, dass in einem ersten Schritt der visuelle Inhalt 205 vom Kaskadenklassifizierungsmodul 210 empfangen wird. Ein Schiebefenster wird im nächsten Schritt iterativ über den visuellen Inhalt 205 gelegt. Für jede Schiebefensterposition und - größe wird das Fenster in einem nächsten Schritt getestet, indem ein oder mehrere schwache Klassifizierer aus der Gruppe der Klassifizierer 211 verwendet werden, die auf die Haar-Funktionen eingewiesen wurden, entsprechend der Kaskadenschichtenarchitektur, die nun behandelt wird.
  • Für jede Schicht des Kaskadenklassifizierungsmoduls 210 sind die folgenden Schritte durchzuführen. Alle schwachen Klassifizierer dieser Schicht werden in einem ersten Schritt auf den visuellen Inhalt 205 angewendet. (Es können einige AdaBoost-Architekturen vorhanden sein, wobei nur ausgewählte schwache Klassifizierer in einer Entscheidungsbaumähnlichen Weise angewendet werden. Die Entscheidungen aller schwachen Klassifizierer, ob ein Zielobjekt erkannt wurde oder nicht, werden in einem zweiten Schritt zu einer einheitlichen Entscheidung zusammengefasst. In einem weiteren Schritt, wenn ein Zielobjekt nicht erkannt wurde, wird dieser Prozess beendet und das visuelle Erkennungsmodul 200 geht zur Vervollständigung über. Diese Vervollständigung kann von einer Benachrichtigung begleitet werden, in der angegeben wird, dass der visuelle Inhalt 205 ein Zielobjekt nicht erkennen konnte. Wenn alternativ dazu ein Zielobjekt von allen Schichten bis einschließlich der aktuellen Schicht erkannt wurde, ermittelt der Prozess, ob eine weitere Schicht vorhanden ist. Wenn eine weitere Schicht vorhanden ist, kehrt der Prozess zum ersten Schritt zurück. Wenn keine weitere Schicht vorhanden ist, wird die Schiebefensterposition schließlich als Instanz der gewünschten Objektklasse deklariert und dem Ergebnissatz hinzugefügt. In einem dritten Schritt wird eine nicht-maximale Unterdrückung durchgeführt, um die Größe des Ergebnissatzes zu reduzieren, indem stark überlappende Fensterpositionen eliminiert werden. Der verbleibende Satz von null oder mehr erkannten Zielobjekten wird dann als Fahrzeugkennzeichen bestimmt. Wenn festgestellt wird, dass es sich bei den Zielobjekten um ein Fahrzeugkennzeichen handelt, wird beispielsweise der visuelle Inhalt 205 vom Modul 210 ausgegeben. Wenn das Zielobjekt kein Fahrzeugkennzeichen ist, wird der visuelle Inhalt 205 abgelehnt und das visuelle Erkennungsmodul 200 bewegt sich zur Vervollständigung (nicht dargestellt). Diese Vervollständigung kann von einer Benachrichtigung begleitet werden, in der angegeben wird, dass der visuelle Inhalt 205 ein Zielobjekt nicht erkennen konnte. Der Gegenstand des Kaskadenklassifizierungsmoduls 210 ist im U.S. Patent 8,447,139 mit dem Titel „Objekterkennung unter Verwendung von Haar-Funktionen und Histogrammen von ausgerichteten Gradienten“ vom 21. Mai 2013 veröffentlicht, das ursprünglich der International Business Machines Corporation zugeordnet war, wie vorstehend erläutert, deren relevante Abschnitte hierin aufgenommen wurden.
  • In dieser Ausführungsform empfängt das MSER-Modul 220 den visuellen Inhalt 205, wenn er über das Kaskadenklassifizierungsmodul 210 ausgegeben wird. Das MSER-Modul 220 dient zum Erkennen von Regionen, die für die Substanz des visuellen Inhalts 205 von Interesse sind, wie allgemein bekannt ist. MSERs (maximal stabile extremale Regionen) sind im Wesentlichen ein Bild, das Intensitätskonturen von Objektmerkmalen enthält, die durch einen Prozess der Dichteaufteilung erhalten wurden. MSERs können Regionen sein, die entweder dunkler oder heller als ihre Umgebung sind und die über einen Bereich von Schwellenwerten der Intensitätsfunktion stabil sind. Ein MSER kann beispielsweise ein dunkel gefärbtes Zeichen oder Symbol auf einem Nummernschild mit hellem Hintergrund sein, das nachfolgend behandelt wird (7).
  • Der Prozess zum Erzeugen eines MSERs beginnt im Allgemeinen bei einem bestimmten Basisschwellenwert (schwarz oder weiß) und geht weiter, indem er eine Region um eine ausgewählte Region herum vergrößert, bis eine stabile Intensitätskontur erreicht ist. Es sollte beachtet werden, dass ein MSER eine Auflösung von 100×100 Pixel aufweisen kann. Die Grundprinzipien von MSERs werden in Artikeln, wie dem von K. Mikolajczyk, T. Tuytelaars, C. Schmid, A. Zisserman, J. Matas, F. Schaffalitzky, T. Kadir und L. van Gool mit dem Titel „Ein Vergleich von Detektoren für affine Regionen" im International Journal of Computer Vision, 65(7), erörtert: 43-72, veröffentlicht im November 2005. Weitere Einzelheiten zu MSERs sind im Artikel von J. Matas, O. Chum, U. Martin und T. Pajdla mit dem Titel „Robustes breites Baseline-Stereo aus maximal stabilen extremalen Regionen " in den Vorträgen der British Machine Vision Conference, Band 1, Seiten 384-393, erschienen 2002, zu finden.
  • Eine Ausführungsform des MSER-Moduls 220 funktioniert typischerweise nach dem Prinzip, dass in einem ersten Schritt affine Transformationen des visuellen Inhalts 205 durchgeführt werden, um eine orientierungsunabhängige Bildanpassung zu ermöglichen. Die Prinzipien affiner Transformationen sind bekannt. Eine affine Transformation ist eine wichtige Klasse von linearen 2-D-Geometrietransformationen, die Variablen, wie beispielsweise Pixelintensitätswerte, die sich an der Position in einem Eingangsbild befinden, in neue Variablen (in einem Ausgangsbild) abbilden, indem sie eine lineare Kombination aus Übersetzungsrotationsskalierung und/oder Scherung (d. h. ungleichmäßige Skalierung in einigen Richtungen) anwenden. Grundsätzlich ist eine affine Transformation jede Transformation, welche die Co-Linearität bewahrt (d. h. alle auf einer Linie liegenden Punkte liegen zunächst noch auf einer Linie nach der Transformation) und Abstandsverhältnisse (z. B. bleibt der Mittelpunkt eines Liniensegmentes der Mittelpunkt nach der Transformation).
  • In einem zweiten Schritt werden die MSER-Bilder normiert. Das Normierungsverfahren beinhaltet im Wesentlichen das Abziehen des mittleren Pixelintensitätswertes aller Pixel im MSER von jedem Pixel und die Division des Ergebnisses durch die Standardabweichung der Pixel im MSER. In einem dritten Schritt werden die MSER-Daten in eine Form konvertiert, die für den Vergleich mit einem Satz von Bildern in der Datenbank 120 geeignet ist. In diesem Fall werden erfahrene Fachleute feststellen, dass diese Bilder im Allgemeinen mit Zeichen wie denen des arabischen Alphabets (A-Z) oder Symbolen wie numerischen Ganzzahlen (0-9) korrelieren und in bestimmten Ausführungsformen zu jenen Schriften zählen können, die den Zeichen und Symbolen entsprechen, die normalerweise auf den in den Vereinigten Staaten oder Europa ausgestellten Fahrzeugkennzeichen zu finden sind. In einem vierten Schritt wird jedes Bild in der Datenbank 120 nacheinander mit jedem MSER verglichen, bis mindestens eine Übereinstimmung erreicht ist. Sobald eine Übereinstimmung erzielt wurde, wird das MSER als eine interessierende Region betrachtet. Wenn jedoch für ein bestimmtes MSER keine Übereinstimmung erzielt werden kann, wird dieses MSER als nicht interessierende Region abgelehnt. Entspricht beispielsweise ein MSER einer Fahrzeugprüfplakette 82 auf dem Fahrzeugkennzeichen, wird das MSER abgelehnt, weil es nicht mit einem bekannten Zeichen oder Symbol übereinstimmt, das in der Datenbank 120 gespeichert ist. (Andere ablehnbare MSERs können jedoch erzeugt werden.)
  • Wenn festgestellt wird, dass alle MSER-Treffer erhalten wurden, wird der visuelle Inhalt 205 aus dem Modul 210 ausgegeben. Wenn keine MSER-Treffer erhalten werden oder eine minimale Anzahl von Treffern (z. B. sieben) nicht erreicht wurde, wird der visuelle Inhalt 205 abgelehnt und das visuelle Erkennungsmodul 200 geht weiter zum Abschluss (nicht dargestellt). Diese Vervollständigung kann von einer Benachrichtigung begleitet werden, die besagt, dass der visuelle Inhalt 205 keinen ausreichenden MSER-Treffer erkennen konnte. Der Gegenstand des MSER-Moduls 220 wird in der US-Patentanmeldung 2009/0232358 (eingereicht unter der Anmeldenummer 12/382,021) mit dem Titel „Verfahren und Vorrichtung zur Bildverarbeitung “, veröffentlicht am 17. September 2009, wie vorstehend beschrieben, deren relevante Abschnitte hierin aufgenommen wurden.
  • In dieser Ausführungsform empfängt das OCR-Modul 230 den visuellen Inhalt 205, wenn er über das MSER-Modul 220 ausgegeben wird. Das OCR-Scan-Modul 230 wird verwendet, um den Text (textbasiertes Wiederauffinden) aus den erkannten Interessensgebieten innerhalb der Substanz des visuellen Inhalts 205 zu extrahieren, wie allgemein bekannt ist. Darüber hinaus erfordern OCR-Scan-Modul 230 keine manuellen Eingriffe, um die übliche Lesereihenfolge des Textes anzuzeigen. Erfahrene Fachleute werden erkennen, dass ein derartiger textbasierter Abruf die Vorteile von niedrigen Rechenkosten, geringem Speicherbedarf und geringer Übertragungsbandbreite hat. Diese textbasierten Eingaben helfen dem Suchsystem, einen reduzierten Suchraum in Echtzeit zu vergrößern. Textinformationen sind auch hilfreich für die Unterscheidung von Objekten mit ähnlichen Erscheinungsbildern.
  • In einem ersten Schritt wird der visuelle Inhalt 205 gescannt. In einem zweiten Schritt isoliert und übersetzt das OCR-Modul 230 den Text jedes interessierenden Bereichs. In diesem Schritt kann der visuelle Inhalt 205 auch geparst werden. Im dritten Schritt werden die Formen der einzelnen Zeichen durch einen Zeichenerkennungsprozess erkannt. Es sollte verstanden werden, dass das OCR-Scan-Modul 230 in der Lage ist, Zeichen in einer beliebigen Anzahl von Zeichensätzen zu erkennen. Ein Kontextanalyseverfahren kann ferner eingesetzt werden, um die relativen Größen und Positionen der Formen zu untersuchen, die während des Zeichenerkennungsprozesses erkannt werden, um den Text in Wörter zu unterteilen und Unklarheiten in der Form aufzulösen. In einem vierten Schritt werden die erkannten Zeichen formatiert und als Identifikationsergebnisse 140 ausgegeben. Der Gegenstand des OCR-Scan-Moduls 230 ist im U.S. Patent 5,131,053 mit dem Titel „Optisches Zeichenerkennungsverfahren und -vorrichtung“ vom 14. Juli 1992 offenbart, das ursprünglich der Nuance Communications Inc. zugeordnet war, wie vorstehend erörtert wurde, wobei die relevanten Abschnitte hierin aufgenommen wurden.
  • In einer Ausführungsform schließt das visuelle Erkennungsmodul 200 ferner eine Sensormodalitätsanalyse ein. Diese Analyse ist in 4 dargestellt, die eine schematische Darstellung des visuellen Erkennungsmoduls 200 gemäß einer Ausführungsform des hierin vorgestellten Systems und Verfahrens ist. Zur Vereinfachung sind bestimmte Elemente des in 2 erscheinenden visuellen Erkennungsmoduls 200 weggelassen worden.
  • Wie dargestellt, kann der Eingang 201 des visuellen Erkennungsmoduls 200 ferner Sensormodalitäten 305 beinhalten. Diese können GPS-Daten 310 oder andere geeignete Ortungssensordaten, Ausrichtungsinformationen 311, Zeit 320, Blickwinkel und Richtungsdaten 330 und dergleichen beinhalten. Somit kombiniert eine Ausführungsform den Bildinhalt (z. B. den visuellen Inhalt 205) mit den Sensormodalitäten 305, um die Bilderkennungsgenauigkeit und den Wirkungsgrad zu verbessern. So können beispielsweise bei einer GPS-Position, einem Blickwinkel, einer Richtung usw. zwei Bilder des gleichen Objekts, die aus verschiedenen Betrachtungswinkeln und Richtungen aufgenommen werden, unter Verwendung von Blickwinkel und Richtungsdaten 330 ausgerichtet werden, bevor die Keypoints-Extraktion erfolgt. Auf diese Weise können identische Objekte, die mit verschiedenen Drehungen 331, Sichtperspektiven usw. erfasst werden, genauer abgestimmt werden. Als weiteres Beispiel, wenn die Aufnahmezeit 320 zeigt, dass ein Bild während des Tages und das andere während der Abendstunden aufgenommen wurde, wird der Farbvergleich nicht verwendet, um Anpassungsfehler zu reduzieren, die andernfalls aus den großen Farbveränderungen durch Tag/Abend- und Tag/Nacht-Beleuchtungsunterschieden resultieren würden. Darüber hinaus erfordert die OCR-Genauigkeit, dass sich der Text in horizontaler Position befindet. Mit Hilfe der Sensorinformation 330 wie beispielsweise Blickwinkel, Richtung usw. können Bilder gegebenenfalls in eine horizontale Position gedreht werden, um die Genauigkeit des OCR-Prozesses 231 zu erhöhen. Wie in 3 gezeigt, können die Sensormodalitäten 305 als ein anfänglicher Schritt in dem visuellen Erkennungsalgorithmus 200 auftreten. Die Sensormodalitäten 305 können als eine zusätzliche Verfeinerungsschicht in dem Bildidentifizierungsprozess wirken, die die Größe des Bildsuchraums verringern kann. Es versteht sich, dass visuelle Erkennungsalgorithmen, die hierin erläutert werden (2-4), einen Teil oder eine beliebige Ausführungsform eines beschränkungsbasierten Erkennungsmoduls 200 bilden können. Es wurde in Betracht gezogen, dass andere Algorithmen in die Substanz des Moduls 100 integriert werden können.
  • NOCKENSCHALT-MODUL
  • Wie in 5 gezeigt, kann eine Ausführungsform des Reservierungsmoduls 99 ein Nockenschaltmodul 400 beinhalten, um den Benutzer bei der Verfolgung der Position der Zeichen und Symbole des Fahrzeugkennzeichens am Frontend-GUI des visuellen Erkennungsalgorithmus 200 zu unterstützen. Das Nockenschaltmodul 400 benachrichtigt den Benutzer darüber hinaus, wenn er sich ordnungsgemäß auf den visuellen Inhalt 205 ausgerichtet hat, um die richtigen Zeichen und Symbole zu erfassen. Der Gegenstand des Nockenschaltmoduls 400 ist im U.S. Patent 6,394,557 mit dem Titel „Verfahren und Vorrichtung zur Verfolgung eines Objekts unter Verwendung einer kontinuierlich anpassungsfähigen Mittelwertverschiebung “vom 28. Mai 2002 offenbart, das ursprünglich der Intel Corporation zugeordnet war und dessen relevante Abschnitte hierin aufgenommen sind.
  • Bei den Schritten 410 und 420 wird eine anfängliche Suchfenstergröße und ein anfänglicher Suchstandort ausgewählt. Dies kann durch die Einstellmöglichkeiten der digitalen Kamera 55 auf der mobilen Datenverarbeitungsvorrichtung 57 oder deren Bewegung erfolgen, wie allgemein bekannt ist. Bei Schritt 430 führt das Nockenschaltmodul 400 eine oder mehrere Wiederholungen des Verfahrens der Mittelwertverschiebung durch, um das Suchfenster zu verschieben, wie allgemein bekannt ist. Bei Schritt 440 passt das Verfahren die Größe des Suchfensters an. Schritt 440 kann durch die physischen Bewegungen des Benutzers der mobilen Datenverarbeitungsvorrichtung 57 und/oder der digitalen Kamera 55 durchgeführt werden. Anschließend bestimmt das Nockenschaltmodul 400 bei Schritt 450, ob es, wie allgemein bekannt, auf das Zentrum der Wahrscheinlichkeitsverteilung konvergiert ist. Wenn das Verfahren der Mittelwertverschiebung konvergiert ist, ist das Verfahren abgeschlossen. Wenn das CAMSHIFT-Verfahren nicht konvergiert ist, kehrt das Nockenschaltmodul 400 zu Schritt 430 zurück, wobei das Verfahren der Mittelwertverschiebung unter Verwendung des neuen Suchortes mit der neuen Suchfenstergröße berechnet wird.
  • VERFAHREN
  • Fortführend und vergleichend zu den 6 bis 9 ist die Anwendung eines Verfahrens zum Erzeugen von Reservierungsinformationen durch das Reservierungsmodul 99 zu erkennen. Ein oder mehrere Aspekte dieses Verfahrens können über die Steuerung 52 ausgeführt werden, z. B. die Implementierung der Backend-Funktionalität des Teils des Reservierungsmoduls 99, der auf der Datenbank 56 oder dem mobilen Speicher 61 gespeichert ist. Aspekte können ansonsten über die mobile Datenvorrichtung 57 ausgeführt werden, beispielsweise durch Implementieren der Frontend-Funktionalität des auf dem mobilen Speicher 61 gespeicherten Teils des Reservierungsmoduls 99. Es ist auch zu beachten, dass Aspekte dieses Verfahrens durchgeführt werden können, nachdem ein Benutzer über das Reservierungsmodul 99 auf sein Reservierungskonto zugegriffen hat.
  • Mit Bezug auf 6 beginnt ein Benutzer 74 der mobilen Datenverarbeitungsvorrichtung 57 mit der Nutzung des Reservierungsmoduls 99 durch Zeigen des Sichtfeldes 75, das durch die Kameralinse gesehen wird, in die allgemeine Richtung eines Fahrzeugs 12, in dem er reservieren möchte (d. h. den gewünschten visuellen Inhalt). Der Benutzer 74 muss dann die Kamera 55 so einstellen, dass sie sich auf den Zielabschnitt des Fahrzeugs 12 ausrichtet, der die korrekten Informationen für die gewünschten Ergebnisse liefert. In dieser Ausführungsform konzentriert sich der Nutzer auf das Fahrzeugkennzeichen 76 und zwar so, dass die Zeichen und Symbole, aus denen sich das Fahrzeugkennzeichen zusammensetzt, genau erfasst werden.
  • Mit Bezug auf 7, kann der Benutzer 74 das Reservierungsmodul 99, wenn es einmal eingestellt ist, bedienen, um Bilder von Fahrzeugkennzeichen 76 im Allgemeinen über die grafische Benutzeroberfläche der Anzeige 59 aufzunehmen. Wie gezeigt, kann, wenn das Reservierungsmodul 99 ein Nockenschaltmodul beinhaltet, eine Nockenschaltfunktion 78 ausgestellt werden, um den Benutzer 76 dabei zu unterstützen, sicherzustellen, dass er sich ordnungsgemäß auf die Zielzeichen und Symbole fokussiert hat, die die Registrierungsnummer 80 bilden. Die Nockenschaltfunktion 78 ist der selbsteinstellende Bereich, der um das Zielobjekt 80 zentriert ist, wie abgebildet (z. B. ein Rechteck). Durch die Verwendung der Größe und Position dieses Zielobjekts 80 wird das „Schloss “ des Bewegungsmelders (siehe oben) auf dem Zielobjekt verstärkt.
  • In dem in 7 dargestellten Beispiel ist die Wahrscheinlichkeitsverteilung für das Zielobjekt 80 groß und alle artikulierten Änderungen am visuellen Inhalt sind ebenfalls in einer absoluten Anzahl von übersetzten Pixeln groß, sodass der Berechnungsbereich groß sein muss. Umgekehrt wird die Wahrscheinlichkeitsverteilung von Nicht-Zielobjekten, wie beispielsweise, jedoch nicht beschränkt auf, Prüfkennzeichen 82, Lizenzierungszustandsname 84 und Zustandsslogan 86, gering sein und selbst wenn der Benutzer 74 die Kamera 55 ziemlich schnell bewegt, ist die Anzahl der Pixel, die übersetzt werden, ausreichend klein und bleibt durch das Nockenschaltmodul 400 unerkannt und wird nicht um dieses anvisierte Objekt zentriert.
  • Einmal aufgenommen, können ein oder mehrere kritische digitale Bilder an den mobilen Speicher 61 oder die Datenbanken 56 gesendet werden, um als ein oder mehrere digitale Bilder in einem digitalen Format (z. B..jpg) gespeichert zu werden. Wenn beispielsweise das Reservierungsmodul 99 dazu konfiguriert ist, alle methodischen Aspekte auf der mobilen Datenverarbeitungsvorrichtung 57 zu implementieren (und diese Bemühungen durch das periodische Herunterladen der Datensätze der Car-Sharing-Dienste aus den Datenbanken 56 unterstützt werden können), können die digitalen Bilder einfach im mobilen Speicher 61 verbleiben. In denjenigen Ausführungsformen, in denen das Reservierungsmodul 99 dazu konfiguriert ist, einen oder mehrere Aspekte als Backend-Funktionalität zu implementieren, können die Bilder jedoch mit dem Sende-Empfänger 53 an die Datenbanken 56 übertragen werden. Es sollte beachtet werden, dass unkritische digitale Bilder verworfen werden können, bevor sie in den mobilen Speicher 61 oder in die Datenbanken 56 heruntergeladen werden (z. B. diejenigen, deren Substanz das Zielobjekt 80 nicht adäquat widerspiegelt).
  • Wenn eines oder mehrere der kritischen digitalen Bilder heruntergeladen werden, entspricht das Reservierungsmodul 99 dem visuellen Erkennungsmodul 200, um die erforderlichen Schritte zum Identifizieren und Verifizieren des Zielobjekts 80 durchzuführen. Wie vorstehend erläutert, liefert das visuelle Erkennungsmodul 220 Identifizierungsergebnisse 140, wenn jedes der Kaskadenklassifizierungsmodule 210, MSER-Modul 220 und OCR-Scan-Modul 230 positive Ergebnisse liefert. Andernfalls werden keine Identifikationsergebnisse 140 erzeugt, zum Beispiel aufgrund unzureichender Daten in den digitalen Bildern. Dementsprechend führt das visuelle Erkennungsmodul 220 die erforderlichen Schritte auf einem oder mehreren anderen digitalen Bildern durch oder kommuniziert mit dem Reservierungsmodul 99, um anzuzeigen, dass keine Identifizierungsergebnisse 140 erzeugt werden können. Eine derartige Reflexion kann auch auf der Anzeige 55 ausgegeben werden.
  • Das Reservierungsmodul 99 kann dann die Identifizierungsergebnisse 140 übernehmen und sie abhängig von der Ausführungsform, wie vorstehend erläutert, im mobilen Speicher 61 oder in Datenbanken 56 speichern. Die Identifizierungsergebnisse 140 können auch unabhängig voneinander im mobilen Speicher 61 oder in den Datenbanken 56 gespeichert werden, um über das Reservierungsmodul 99 auf sie zuzugreifen.
  • Nach ordnungsgemäßer Speicherung können die Identifikationsergebnisse 140 mit den Datensätzen der Car-Sharing-Dienste verglichen werden. Auf diese Weise können die verarbeiteten Kennzeicheninformationen genutzt werden, um die Car-Sharing-Datensätze für ein entsprechendes Fahrzeug 12 nachzuschlagen. Diese Datensätze können dann entweder im mobilen Speicher 61 oder in den Datenbanken 56 gesucht, ausgewählt und abgerufen werden. Um diese Bemühungen zu unterstützen, können die Aufzeichnungen jeweils eine Markierung enthalten, das den Identifizierungsergebnissen 140 entspricht. Wenn beispielsweise die Identifizierungsergebnisse 140 die Zeichen und Symbole „ABC 1234 “ ergeben, kann das Reservierungsmodul 99 die Datensätze nach einer Markierung von „ABC 1234 “ (oder das Äquivalent in der jeweiligen Quellcode-Sprache) durchsuchen.
  • Wenn der Zugriff erfolgt, überprüft das Reservierungsmodul 99, ob alle Datensätze mit den Identifizierungsergebnissen 140 übereinstimmen. So kann beispielsweise das Reservierungsmodul 99 alle variablen Informationen (siehe nachstehend) im abgerufenen Datensatz überprüfen. Wenn sich herausstellt, dass Informationen unzureichend (z. B. der entsprechende Reservierungsprofil-Datensatz fehlt) oder unlogisch sind, z. B. im Hinblick auf die Sensormodalitäten (z. B. wenn der Datensatz zeigt, dass sein jeweiliges Fahrzeug an einem entfernten Ort geparkt werden soll), kann das Reservierungsmodul 99 den Benutzer oder das Call-Center 20 benachrichtigen. Das Reservierungsmodul 99 kann auch erneut mit dem mobilen Speicher 61 oder der Datenbank 56 korrespondieren, um die Datensätze zu durchsuchen, auszuwählen und auf einen anderen Datensatz zuzugreifen, der über ausreichende variable Informationen verfügt.
  • Sobald die variablen Informationen hinreichend verifiziert sind, erzeugt das Reservierungsmodul 99 Reservierungsinformationen 88, die organisiert und in einem sichtbaren Format vorliegen. Wie in 8 veranschaulicht, zeigt das Reservierungsmodul 99 seinerseits Reservierungsinformationen 88, z. B. die grafische Touchscreen-Benutzeroberfläche der Anzeige 59. In jenen Fällen, in denen die Reservierungsinformationen 88 in Datenbanken 56 erzeugt werden, können diese Informationen nach Abschluss der Generierung über das Drahtlosträgersystem 48 gesendet und am Sende-Empfänger 53 empfangen werden.
  • Das Reservierungsmodul 99 kann Reservierungsinformationen 88 in einem verpixelten Format über einen Aspekt anzeigen, der als Reservierungsinformationsbildschirm 89 angezeigt wird (über die grafische Touchscreen-Benutzeroberfläche der Anzeige 59). Die Reservierungsinformationen 88 können folgende Variablen beinhalten, jedoch nicht beschränkt auf Fahrzeugbezeichnung 90, Fahrzeugstandort 92, Reservierungskosten 94, Verfügbarkeit der Reservierung 96 und Optionen für Reservierungsanfragen 98. So kann beispielsweise der Fahrzeugname 90 generische beschreibende Informationen beinhalten, wie zum Beispiel, jedoch nicht beschränkt auf, das Fahrzeugjahr (z. B. „2016 “) und das Modell (z. B. „Chevrolet Tahoe“), die Fahrzeugfarbe (z. B. „Weiß“), das Kfz-Kennzeichen (z. B. „#M28“ oder „DLT-45XX“), oder es kann sogar ein vertrauter, kommerziell unverwechselbarer oder humorvoller Name für das Fahrzeug sein (z. B. „The Jenny Lee“, „Betsy Matilda“, „Nelly“ usw.). Der Fahrzeugstandort 92 kann den aktuellen Standort des Fahrzeugs, den Standort eines ausgewiesenen Fahrzeugparkplatzes oder einen Stellplatz, auf dem sich das Fahrzeug typischerweise befindet, beinhalten. Reservierungskosten 94 können Kosteninformationen beinhalten, die einer ausgewählten Zeitdauer entsprechen (z. B. „$25 USD für 2 Stunden“, „$55 USD für 8PM-10PM, Freitag, 3. November“ usw.). Die Reservierungsverfügbarkeitsdaten 96 können Kalenderplanungsinformationen bezüglich der Fahrzeugverfügbarkeit beinhalten (z. B. „NICHT VERFÜGBAR - 10PM-2AM, Freitag, 3 November“) oder Abhol- und Rückgabebedingungen („Abholung bei 123 E1 Segundo Street“ und „Rückgabe bei 345 Main Street “). Es sollte verstanden werden, dass jedes Teil der vorgenannten variablen Informationen aus einem individuellen, korrespondierenden Car-Sharing-Dienste-Datensatz stammen kann.
  • Reservierungsanfrage-Optionen 98 können zusätzlich Auswahlmöglichkeiten beinhalten, wie zum Beispiel, aber nicht beschränkt auf Reservierungszeitverlängerungen, Kraftstoffinformationen, Reiseinformationen, Live-Berater 58 Kontaktoptionen und Optionen für Reservierungskostenverhandlungen. Es ist zu verstehen, dass die Liste der Fahrzeugbezeichnung 90, der Fahrzeugposition 92, der Reservierungskosten 94, der Verfügbarkeitsfakten 96 und der Reservierungsanfrageoptionen 98 nicht als erschöpfende Liste anzusehen ist und andere Reservierungsinformationen angezeigt werden können.
  • Wie in 9 veranschaulicht, kann das Reservierungsmodul 99 zum Anzeigen von Reservierungsinformationen 88, als Bestätigungsinformationen, in einem verpixelten Format durch einen Aspekt dargestellt werden, der als Reservierungsbestätigungsbildschirm 101 angezeigt wird (über die grafische Touchscreen-Benutzeroberfläche der Anzeige 59). Basierend auf der persönlichen Verfügbarkeit des Benutzers 74 und in Reaktion auf die Reservierungsparameter, die durch die variablen Informationen in der Reservierungsinformation 88 (8) festgelegt sind, kann der Benutzer 74 den Reservierungsinformationsbildschirm 101 verwenden, um eine Fahrzeugreservierung anzufordern. Wenn sich beispielsweise der Zeitplan des Benutzers 74 und die Reservierungsparameter angleichen, kann der Benutzer den Wunsch äußern, das Fahrzeug 12 entsprechend zu reservieren. Der Benutzer 74 kann über einen virtuellen Bestätigungsknopf 97 eine Reservierungsanfrage erzeugen und somit über das Reservierungsmodul 99 eine Reservierungstransaktion durchführen. Daher kann, vorbehaltlich unvorhergesehener Folgen, aus der Reservierungsanfrage eine abgeschlossene Reservierung über das Reservierungsmodul 99 abgeleitet werden, und die Aufzeichnungen über die Car-Sharing-Dienste können entsprechend aktualisiert werden. Wie zu sehen ist, kann das Reservierungsbestätigungsfenster 101 Kopien der Reservierungsinformationen 88 Variablen (Fahrzeugbezeichnung 90', Fahrzeugstandort 92', Reservierungskosten 94', Verfügbarkeitsfakten 96' und Reservierungsanfrageoptionen 98') als Bestätigungsinformationen beinhalten, jedoch können andere Konfigurationen des Reservierungsbestätigungsbildschirms 101 mehr, weniger oder andere nicht offenbarte Variablen beinhalten.
  • Basierend auf dem Vorstehenden wird in 10 eine Ausführungsform des Reservierungsmoduls 99 dargestellt, das dazu konfiguriert ist, die Durchführung einer Fahrzeugreservierung zu unterstützen. Wie vorstehend ausgeführt, kann das Reservierungsmodul 99 entweder auf der Datenbank 56 oder auf der mobilen Datenverarbeitungsvorrichtung 57 oder ein Teil davon auf der Datenbank 56 und der mobilen Datenverarbeitungsvorrichtung 57 installiert werden. Als Ergebnis können Aspekte des Reservierungsmoduls 99 im Backend (d. h. über die Datenbank 56 und den Server 54 oder die mobile Datenverarbeitungsvorrichtung 57 und mobile Speicher 61) und andere Aspekte im Frontend (d. h. über die mobile Datenverarbeitungsvorrichtung 57 und den mobilen Speicher 61) implementiert werden.
  • In Schritt 510 bedient das Reservierungsmodul 99, wie vorstehend erwähnt, die Kamera 55, um Bilder eines visuellen Inhalts (z. B. Fahrzeugkennzeichen) aufzunehmen. In Schritt 520 speichert das Reservierungsmodul 99 die aufgenommenen Bilder entweder auf dem mobilen Speicher 61 oder in der Datenbank 56 in digitaler Form (als ein oder mehrere digitale Bilder). Es ist zu verstehen, dass Aus führungs formen des Reservierungsmoduls 99 möglicherweise nicht erforderlich sind, um die digitalen Bilder zu speichern oder vorübergehend zu speichern.
  • In Schritt 530 greift das Reservierungsmodul 99 auf ein oder mehrere gespeicherte digitale Bilder zu, arbeitet mit diesem zusammen und führt anschließend ein visuelles Erkennungsmodul 200 aus, um mindestens ein Zielobjekt 80 innerhalb eines oder mehrerer gespeicherter digitaler Bilder zu identifizieren. In Schritt 540 bewirkt das Reservierungsmodul 99, dass das visuelle Erkennungsmodul 200 die Identifizierungsergebnisse 140 erzeugt. In Schritt 560 greift das Reservierungsmodul 99 auf die Datenbank 56 zu und vergleicht die Identifizierungsergebnisse mit den Datensätzen der Car-Sharing-Dienste. In Schritt 570 erzeugt das Reservierungsmodul 99 Reservierungsinformationen aus dem Ergebnis des Vergleichs von Schritt 560. In Schritt 580 führt das Reservierungsmodul 99 die Anzeige 59 aus, um die Reservierungsinformationen anzuzeigen. Darüber hinaus kann das Reservierungsmodul 99 konfiguriert werden, um einen optionalen Schritt (nicht dargestellt) zum Erstellen einer Reservierung in Übereinstimmung mit dem Inhalt der Reservierungsinformationen zu beinhalten. In diesem Schritt kann das Reservierungsmodul 99 aus der Reservierungsanforderung eine abgeschlossene Reservierung erzeugen, wie vorstehend erläutert, beispielsweise beim Abgleich von Fahrplänen. Es ist zu verstehen, dass das Reservierungsmodul einen oder mehrere dieser Schritte durch die Anwendung des Sende-Empfängers 53 abschließen kann.
  • Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können von einer Verarbeitungsvorrichtung, einer Steuerung oder einem Computer, der jede vorhandene programmierbare elektronische Steuereinheit oder eine dedizierte elektronische Steuereinheit beinhalten kann, bereitgestellt und/oder implementiert werden. Desgleichen können die Prozesse, Verfahren oder Algorithmen als Daten oder ausführbare Anweisungen durch eine Steuerung oder einen Computer in vielfältiger Weise gespeichert werden, darunter ohne Einschränkung die dauerhafte Speicherung auf nicht beschreibbaren Speichermedien, wie einem ROM, und als änderbare Information auf beschreibbaren Speichermedien, wie Disketten, Magnetbändern, CDs, RAM sowie anderen magnetischen und optischen Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem softwareausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen ganz oder teilweise mit geeigneten Hardwarekomponenten, wie beispielsweise anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate Arrays (FPGAs), Zustandsmaschinen, Steuerungen oder anderen Hardwarekomponenten oder Vorrichtungen oder einer Kombination von Hardware, Software und Firmwarekomponenten verkörpert werden.
  • Verschiedene exemplarische Ausführungsformen wurden in der vorstehenden ausführlichen Beschreibung dargestellt, es versteht sich jedoch, dass es eine große Anzahl von Variationen gibt. Es versteht sich zudem, dass die exemplarischen Ausführungsformen lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenbarung nicht in irgendeiner Weise einschränken sollen. Die vorstehende ausführliche Beschreibung bietet Fachleuten auf dem Gebiet vielmehr eine zweckmäßige Roadmap zur praktischen Anwendung der exemplarischen Ausführungsformen. Es versteht sich, dass verschiedene Veränderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne vom Umfang der Offenbarung, wie er in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt ist, abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8447139 [0036]
    • US 2009/0232358 [0041]
    • US 5131053 [0043]
    • US 6394557 [0046]
  • Zitierte Nicht-Patentliteratur
    • K. Mikolajczyk, T. Tuytelaars, C. Schmid, A. Zisserman, J. Matas, F. Schaffalitzky, T. Kadir und L. van Gool mit dem Titel „Ein Vergleich von Detektoren für affine Regionen“ im International Journal of Computer Vision, 65(7), erörtert: 43-72 [0038]
    • J. Matas, O. Chum, U. Martin und T. Pajdla mit dem Titel „Robustes breites Baseline-Stereo aus maximal stabilen extremalen Regionen “ in den Vorträgen der British Machine Vision Conference, Band 1, Seiten 384-393, erschienen 2002 [0038]

Claims (10)

  1. Verfahren zum Erzeugen von Reservierungsinformationen, das Verfahren umfassend: (a) das Bereitstellen eines Speichers, der dazu konfiguriert ist, mindestens ein Modul von ausführbaren Anweisungen zu umfassen, wobei der Speicher ferner dazu konfiguriert ist, eine Datenbank mit Reservierungsinformationen zu umfassen; (b) das Bereitstellen einer Steuerung, die zum Ausführen des Moduls und zur Kommunikation mit der Datenbank konfiguriert ist; (c) das Bereitstellen einer mobilen Datenverarbeitungsvorrichtung mit einer Anzeige, die dazu konfiguriert ist, Informationen auszugeben; (d) das Bereitstellen einer Kamera auf der mobilen Datenverarbeitungsvorrichtung, wobei die Kamera dazu konfiguriert ist, Bilder eines visuellen Inhalts aufzunehmen; (e) das Bereitstellen eines visuellen Erkennungsmoduls, das dazu konfiguriert ist, mindestens ein Zielobjekt zu identifizieren; (f) das Aufnehmen von Bildern des visuellen Inhalts über die Kamera; (g) das Speichern der mit der Kamera aufgenommenen Bilder über die Steuerung in digitaler Form als digitale Bilder im Speicher; (h) das Ausführen des visuellen Erkennungsmoduls über die Steuerung, um mindestens ein Zielobjekt innerhalb mindestens eines digitalen Bildes zu identifizieren; (i) das Erstellen der Identifizierungsergebnisse des visuellen Erkennungsmoduls über die Steuerung; (j) das Überprüfen der Identifizierungsergebnisse der Reservierungsinformationen über die Steuerung; und (k) das Ausgeben der Reservierungsinformationen über die Anzeige, basierend auf dem Ergebnis von Schritt (j).
  2. Verfahren nach Anspruch 1, ferner umfassend: (l) das Bereitstellen eines Sende-Empfängers auf der mobilen Datenverarbeitungsvorrichtung, wobei der Sende-Empfänger dazu konfiguriert ist, eine oder mehrere Datenübertragungen zu kommunizieren; (m) basierend auf dem Ergebnis von Schritt (j), das Übermitteln der digitalen Bilder über den Sende-Empfänger an die Steuerung; und (o) nach Schritt (m), das Empfangen der Reservierungsinformationen am Sende-Empfänger.
  3. Verfahren nach Anspruch 2, worin der Speicher und die Steuerung in einem Call-Center angeordnet sind.
  4. Verfahren nach Anspruch 1, worin das Modul der ausführbaren Anweisungen ein Reservierungsmodul ist, das dazu konfiguriert ist, beim Vervollständigen einer Fahrzeugreservierung zu unterstützen.
  5. Verfahren nach Anspruch 4, ferner umfassend: (l) basierend auf dem Ergebnis von Schritt (j), das Anfordern einer Reservierung in Übereinstimmung mit dem Inhalt der Reservierungsinformationen über den für die Verarbeitung Verantwortlichen; und (m) basierend auf Schritt (1), das Erzeugen einer abgeschlossenen Reservierung aus der Reservierungsanforderung über die Steuerung.
  6. Verfahren nach Anspruch 4, worin: das Reservierungsmodul ferner ein Nockenschaltmodul umfasst, das dazu konfiguriert ist, die Verfolgung der Position mindestens eines Zielobjekts zu unterstützen; und das Verfahren ferner umfassend: (n) nach Schritt (g), das Ausführen des Nockenschaltmoduls über die Steuerung, um die Verfolgung der Position mindestens eines Zielobjekts innerhalb mindestens eines digitalen Bildes zu unterstützen.
  7. Verfahren nach Anspruch 1, das visuelle Erkennungsmodul umfassend: ein Kaskadenklassifizierungsmodul, das dazu konfiguriert ist, ein Schiebefenster-Suchschema zu verwenden, in dem Fenster verschiedener Maßstäbe über die Substanz mindestens eines digitalen Bildes geschoben werden können; ein MSER-Modul, das dazu konfiguriert ist, alle interessierenden Bereiche in der Substanz von mindestens einem digitalen Bild zu erfassen; und ein OCR-Modul, das dazu konfiguriert ist, jeglichen Text aus den erfassten interessierenden Bereichen innerhalb der Substanz mindestens eines digitalen Bildes zu extrahieren.
  8. Verfahren nach Anspruch 1, worin die Substanz von mindestens einem digitalen Bild mindestens ein Teil einer Fahrzeugkennzeichentafel ist.
  9. System zum Erzeugen von Fahrzeugreservierungsinformationen, das System umfassend: einen Speicher, der dazu konfiguriert ist, mindestens ein Modul von ausführbaren Anweisungen zu umfassen, wobei der Speicher ferner dazu konfiguriert ist, eine Datenbank mit Fahrzeug-Reservierungsinformationen zu umfassen; eine Steuerung, die zum Ausführen des Moduls und zur Kommunikation mit der Datenbank konfiguriert ist; eine mobile Datenverarbeitungsvorrichtung mit einer Anzeige, die dazu konfiguriert ist, Informationen auszugeben; eine Kamera auf der mobilen Datenverarbeitungsvorrichtung, wobei die Kamera dazu konfiguriert ist, Bilder eines visuellen Inhalts aufzunehmen; ein visuelles Erkennungsmodul, das dazu konfiguriert ist, mindestens ein Zielobjekt zu identifizieren; worin das Modul der Steuerung Folgendes ermöglicht: das Bedienen der Kamera, um Bilder des visuellen Inhalts aufzunehmen; das Speichern der aufgenommenen Bilder im Speicher, wobei die aufgenommenen Bilder in digitaler Form als digitale Bilder vorliegen; das Ausführen des visuellen Erkennungsmoduls, um mindestens ein Zielobjekt innerhalb mindestens eines digitalen Bildes zu identifizieren; das Generieren der Identifizierungsergebnisse des visuellen Erkennungsmoduls; das Überprüfen der Identifizierungsergebnisse auf die Fahrzeugreservierungsinformationen; und das Bedienen der Anzeige, um die Reservierungsinformationen anzuzeigen, wenn die Identifizierungsergebnisse im Hinblick auf die Fahrzeugreservierungsinformationen überprüft wurden.
  10. Nicht-flüchtiges und maschinenlesbares Medium, auf dem ein Modul von ausführbaren Anweisungen zum Erzeugen von Fahrzeugreservierungsinformationen gespeichert ist, umfassend maschinenausführbaren Code, der, wenn er mit einer Kamera und einer Anzeige versehen und von mindestens einer Maschine ausgeführt wird, die Maschine veranlasst zum: Bedienen der Kamera, um Bilder eines visuellen Inhalts aufzunehmen; Speichern der aufgenommenen Bilder auf dem maschinenlesbaren Medium, wobei die aufgenommenen Bilder in digitaler Form als digitale Bilder vorliegen; Ausführen eines visuellen Erkennungsmoduls, um mindestens ein Zielobjekt innerhalb mindestens eines digitalen Bildes zu identifizieren; Generieren der Identifizierungsergebnisse des visuellen Erkennungsmoduls; Vergleichen und Überprüfen der Identifizierungsergebnisse auf die Fahrzeugreservierunggsinformationen; und Bedienen der Anzeige, um die Reservierungsinformationen anzuzeigen, wenn die Identifizierungsergebnisse im Hinblick auf die Fahrzeugreservierungsinformationen positiv überprüft wurden.
DE102018100094.4A 2017-01-05 2018-01-03 System und verfahren zum identifizieren eines fahrzeugs und zum erzeugen von reservierungsinformationen Pending DE102018100094A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/399,252 2017-01-05
US15/399,252 US10115016B2 (en) 2017-01-05 2017-01-05 System and method to identify a vehicle and generate reservation

Publications (1)

Publication Number Publication Date
DE102018100094A1 true DE102018100094A1 (de) 2018-07-05

Family

ID=62568377

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018100094.4A Pending DE102018100094A1 (de) 2017-01-05 2018-01-03 System und verfahren zum identifizieren eines fahrzeugs und zum erzeugen von reservierungsinformationen

Country Status (3)

Country Link
US (1) US10115016B2 (de)
CN (1) CN108280524B (de)
DE (1) DE102018100094A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10508925B2 (en) 2017-08-31 2019-12-17 Uber Technologies, Inc. Pickup location selection and augmented reality navigation
KR102445514B1 (ko) * 2017-10-26 2022-09-21 현대자동차주식회사 차량 및 차량 시스템
US11417124B2 (en) * 2018-02-26 2022-08-16 Videonetics Technology Private Limited System for real-time automated segmentation and recognition of vehicle's license plates characters from vehicle's image and a method thereof
JP2020060974A (ja) * 2018-10-10 2020-04-16 トヨタ自動車株式会社 使用管理装置、使用管理方法、およびプログラム
US11057521B2 (en) 2018-11-12 2021-07-06 GM Global Technology Operations LLC System and method for providing a telematics service using third-party authentication
US10740615B2 (en) 2018-11-20 2020-08-11 Uber Technologies, Inc. Mutual augmented reality experience for users in a network system
JP2020149476A (ja) * 2019-03-14 2020-09-17 トヨタ自動車株式会社 プログラム、情報処理装置、及び制御方法
CN110659568B (zh) * 2019-08-15 2023-06-23 创新先进技术有限公司 验车方法及装置
CN111199374B (zh) * 2019-12-31 2023-07-21 河南云煤网网络科技有限责任公司 一种货物进出厂身份识别与计量结算方法及***
US11605031B2 (en) * 2020-04-20 2023-03-14 Geotab Inc. System for shared vehicle utilization management
US11613265B2 (en) 2020-04-20 2023-03-28 Geotab Inc. Device for shared vehicle maintenance and recovery
US11537955B2 (en) 2020-04-20 2022-12-27 Geotab Inc. Device for shared vehicle utilization management
US11605032B2 (en) * 2020-04-20 2023-03-14 Geotab Inc. System for shared vehicle maintenance and recovery
US20210327168A1 (en) 2020-04-20 2021-10-21 Geotab Inc. Device for sharing and monitoring vehicles
US12003367B2 (en) * 2022-07-29 2024-06-04 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for fast vehicular micro cloud formation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5131053A (en) 1988-08-10 1992-07-14 Caere Corporation Optical character recognition method and apparatus
US6394557B2 (en) 1998-05-15 2002-05-28 Intel Corporation Method and apparatus for tracking an object using a continuously adapting mean shift
US20090232358A1 (en) 2008-03-11 2009-09-17 Geoffrey Mark Timothy Cross Method and apparatus for processing an image
US8447139B2 (en) 2010-04-13 2013-05-21 International Business Machines Corporation Object recognition using Haar features and histograms of oriented gradients

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3979499B2 (ja) * 2001-07-18 2007-09-19 ヒュンジャエ テック カンパニー リミテッド 監視車両を利用した被監視車両の車両番号の自動認識システム及び方法
US7587064B2 (en) 2004-02-03 2009-09-08 Hrl Laboratories, Llc Active learning system for object fingerprinting
US9552599B1 (en) * 2004-09-10 2017-01-24 Deem, Inc. Platform for multi-service procurement
US20140369566A1 (en) * 2006-04-04 2014-12-18 Cyclops Technologies, Inc. Perimeter Image Capture and Recognition System
US20100022221A1 (en) * 2008-07-25 2010-01-28 Yahoo! Inc. Real-time inventory tracking via mobile device
CN101794385B (zh) * 2010-03-23 2012-11-21 上海交通大学 用于视频序列的多角度多目标快速人脸跟踪方法
US9652462B2 (en) * 2010-04-29 2017-05-16 Google Inc. Identifying responsive resources across still images and videos
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US9055067B1 (en) * 2012-03-26 2015-06-09 Amazon Technologies, Inc. Flexible-location reservations and pricing for network-accessible resource capacity
US9489839B2 (en) * 2012-08-06 2016-11-08 Cloudparc, Inc. Tracking a vehicle using an unmanned aerial vehicle
WO2014030233A1 (ja) * 2012-08-22 2014-02-27 Kamisawa Teruhiko レンタカー管理システム、レンタカー管理方法、及びレンタカー管理プログラム
US9043349B1 (en) * 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
KR20160024002A (ko) * 2014-08-21 2016-03-04 삼성전자주식회사 비쥬얼 사운드 이미지를 제공하는 방법 및 이를 구현하는 전자 장치
US20160217157A1 (en) * 2015-01-23 2016-07-28 Ebay Inc. Recognition of items depicted in images
US11126933B2 (en) * 2015-04-28 2021-09-21 Ncr Corporation Reservation processing
US10223732B2 (en) * 2015-09-04 2019-03-05 Accenture Global Solutions Limited Identifying items in images
US20170109661A1 (en) * 2015-10-20 2017-04-20 John H. Bergman Reservation System
US20170351977A1 (en) * 2016-06-07 2017-12-07 Uber Technologies, Inc. Facilitating user action based on transmissions of data to mobile devices
US20170364835A1 (en) * 2016-06-15 2017-12-21 Bliss BAKER Online reservation system for open deck chairs
US20180126222A1 (en) * 2016-11-10 2018-05-10 International Business Machines Corporation Scheduling exercise equipment based on medical data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5131053A (en) 1988-08-10 1992-07-14 Caere Corporation Optical character recognition method and apparatus
US6394557B2 (en) 1998-05-15 2002-05-28 Intel Corporation Method and apparatus for tracking an object using a continuously adapting mean shift
US20090232358A1 (en) 2008-03-11 2009-09-17 Geoffrey Mark Timothy Cross Method and apparatus for processing an image
US8447139B2 (en) 2010-04-13 2013-05-21 International Business Machines Corporation Object recognition using Haar features and histograms of oriented gradients

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J. Matas, O. Chum, U. Martin und T. Pajdla mit dem Titel „Robustes breites Baseline-Stereo aus maximal stabilen extremalen Regionen " in den Vorträgen der British Machine Vision Conference, Band 1, Seiten 384-393, erschienen 2002
K. Mikolajczyk, T. Tuytelaars, C. Schmid, A. Zisserman, J. Matas, F. Schaffalitzky, T. Kadir und L. van Gool mit dem Titel „Ein Vergleich von Detektoren für affine Regionen" im International Journal of Computer Vision, 65(7), erörtert: 43-72

Also Published As

Publication number Publication date
US20180189566A1 (en) 2018-07-05
US10115016B2 (en) 2018-10-30
CN108280524B (zh) 2021-11-02
CN108280524A (zh) 2018-07-13

Similar Documents

Publication Publication Date Title
DE102018100094A1 (de) System und verfahren zum identifizieren eines fahrzeugs und zum erzeugen von reservierungsinformationen
DE102017121076B4 (de) Verfahren zum Identifizieren eines Zielfahrzeugs unter Verwendung von Anwendungssoftware auf einer mobilen Vorrichtung
DE102019103819A1 (de) Überwachen der versorgungsqualität am fahrzeug
DE102018100153B4 (de) Verfahren und system zur fernbetätigten änderung von informationen für eine geräteaktivierungsübertragung
DE102017122170A1 (de) System und verfahren zur platzierung subjektiver nachrichten an einem fahrzeug
DE102017123687A1 (de) Dynamisches aktualisieren der routenauswahl für halb-autonomes fahren
DE102018110430A1 (de) Verfahren und vorrichtung zur erkennung und klassifizierung von objekten in verbindung mit einem fahrzeug
DE102015108498A1 (de) Bereitstellen einer fahrzeugbenutzerhandbuchinformation unter verwendung einer objekterkennung an einer mobilen einrichtung
DE102018113258A1 (de) Fahrzeugortung und -führung
DE102019110790A1 (de) System und verfahren für den zugang zu eingeschränkten bereichen durch ein autonomes fahrzeug
DE102017121962A1 (de) Beziehungsverwaltung für fahrgemeinschaftssysteme
DE102019107797A1 (de) FAHRZEUGPROGNOSEN UND ABHILFEMAßNAHMEN
DE102020121631A1 (de) Systeme und verfahren zum authentifizieren der fahrzeugnutzung
DE102018101611A1 (de) System und Verfahren zum Anzeigen von Fahrzeuginformationen
DE102019114392A1 (de) System und verfahren zum bereitstellen einer fehlplatzierungsbenachrichtigung
DE102019109671A1 (de) Vorrichtung und verfahren zum erfassen eines radeinstellungszustands
DE102019115640A1 (de) Bestimmung der metriken einer gemeinsamen fahrt
DE102018128286A1 (de) Fahrzeugführung basierend auf dem räumlichen modell des standorts
DE102015213538A1 (de) Verfahren und System zum Warnen vor einer Falschfahrt eines Fahrzeugs
DE102015218962A1 (de) Verfahren und System zur Bereitstellung von Nutzinformation über Verkehrsteilnehmer
DE102015205978A1 (de) Dokumentieren eines Kraftfahrzeug-Zustands
DE102019101240A1 (de) Sicherer zugang zu den verbundenen fahrzeugperipheriegeräten
DE102019102487A1 (de) System und Verfahren zur gesicherten Übertragung und Verarbeitung von Daten
DE102017115064A1 (de) Sicheres ermitteln von zeitwerten bei angeschlossenen vorrichtungen
DE102016110026A1 (de) Verfahren und Vorrichtung zur Fahrzeugidentifikation mit Crowdsourcing

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R016 Response to examination communication