DE102018119239B4 - Benutzererkennungssystem und -verfahren für autonome fahrzeuge - Google Patents

Benutzererkennungssystem und -verfahren für autonome fahrzeuge Download PDF

Info

Publication number
DE102018119239B4
DE102018119239B4 DE102018119239.8A DE102018119239A DE102018119239B4 DE 102018119239 B4 DE102018119239 B4 DE 102018119239B4 DE 102018119239 A DE102018119239 A DE 102018119239A DE 102018119239 B4 DE102018119239 B4 DE 102018119239B4
Authority
DE
Germany
Prior art keywords
user
data
autonomous vehicle
recognition
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018119239.8A
Other languages
English (en)
Other versions
DE102018119239A1 (de
Inventor
Robert B. Cooley
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018119239A1 publication Critical patent/DE102018119239A1/de
Application granted granted Critical
Publication of DE102018119239B4 publication Critical patent/DE102018119239B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/0042Coin-freed apparatus for hiring articles; Coin-freed facilities or services for hiring of objects
    • G07F17/0057Coin-freed apparatus for hiring articles; Coin-freed facilities or services for hiring of objects for the hiring or rent of vehicles, e.g. cars, bicycles or wheelchairs
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0645Rental transactions; Leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00571Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated by interacting with a central unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Computer Security & Cryptography (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Social Psychology (AREA)
  • General Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)

Abstract

Benutzererkennungssystem (100, 200) zur automatischen Benutzererkennung in einem autonomen Fahrzeug (10, 207), umfassend:eine Steuerung (34, 300) mit mindestens einem Prozessor (320, 44), der Funktionen für die automatische Benutzererkennung in dem autonomen Fahrzeug (10, 207) bereitstellt;mindestens einen Umgebungssensor (40a-40n), der konfiguriert ist, um eine Umgebung des autonomen Fahrzeugs (10, 207) zu scannen und Scandaten der Umgebung zu einem biometrischen Erkennungsmodul (30, 301) des autonomen Fahrzeugs (10, 207) zu übertragen;ein biometrisches Erkennungsmodul (30, 301), das konfiguriert ist, um die Scandaten der Umgebung basierend auf einem Gestenerkennungsalgorithmus unter Verwendung des mindestens einen Prozessors (320, 44) zu analysieren;wobei der mindestens eine Prozessor (320, 44) konfiguriert ist, um die Scandaten der Umgebung basierend auf mindestens einem biometrischen Merkmal zu analysieren;wobei das mindestens eine biometrische Merkmal mindestens eine Herbeiwinken-Geste umfasst; undwobei die Steuerung (34, 300) konfiguriert ist, das autonome Fahrzeug (10, 207) an einer Position relativ zu dem Benutzer (209) anzuhalten und das autonome Fahrzeug (10, 207) so konfiguriert ist, dass es dem Benutzer (209) die Verwendung des autonomen Fahrzeugs (10, 207) anbietet, wenn der Gestenerkennungsalgorithmus einen Benutzer (209) erkennt, der eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft allgemein autonome Fahrzeuge und betrifft insbesondere Systeme und Verfahren zum Bereitstellen von automatisierten Benutzererkennungsfunktionen in einem autonomen Fahrzeug.
  • Die US 2017 / 0 153 714 A1 beschreibt beispielsweise ein autonomes Fahrzeug, das einen Umgebungssensor aufweist, der eine Umgebung des autonomen Fahrzeugs scannt und die Scandaten zu einer Steuerung überträgt, wobei die Steuerung die Scandaten basierend auf einem Gestenerkennungsalgorithmus analysiert und das autonome Fahrzeug entsprechend steuert.
  • EINLEITUNG
  • Ein autonomes Fahrzeug ist ein Fahrzeug, das in der Lage ist, seine Umgebung zu erfassen und mit geringfügiger oder gar keiner Benutzereingabe zu navigieren. Ein autonomes Fahrzeug tastet seine Umgebung mithilfe von einer oder mehreren Sensorvorrichtungen, wie beispielsweise RADAR, LIDAR, Bildsensoren und dergleichen ab. Ein autonomes Fahrzeugsystem nutzt weiterhin Informationen von Positionierungssystemen wie (GPS)-Technologie, Navigationssystemen, Fahrzeug-Fahrzeug-Kommunikationen, Fahrzeug-Infrastruktur-Technologien und/oder drahtgesteuerten Systemen, um das Fahrzeug zu navigieren.
  • Autonome Fahrzeuge können als Taxis oder Mietwagen genutzt werden. Für ein Abrechnungs- oder Vermietungsverfahren muss eine Identität eines bestimmten Benutzers durch ein bestimmtes autonomes Fahrzeug bestimmt werden. Um die Identität des Benutzers zu bestimmen, werden Identifikationsdaten von einem Speicher, wie einem Mobiltelefon oder einer anderen persönlichen elektronischen Vorrichtung, zu dem autonomen Fahrzeug übertragen. Dies bedeutet, dass der Benutzer eine persönliche elektronische Vorrichtung haben muss, um das autonome Fahrzeug zu mieten oder zu benutzen.
  • Dementsprechend ist es wünschenswert, ein autonomes Fahrzeug zu mieten oder zu verwenden, ohne eine persönliche elektronische Vorrichtung zu verwenden. Darüber hinaus ist es wünschenswert, einen Benutzer basierend auf biometrischen Informationen zu erkennen. Ferner werden andere wünschenswerte Funktionen und Merkmale der vorliegenden Erfindung aus der nachfolgenden ausführlichen Beschreibung und den beigefügten Ansprüchen, in Verbindung mit den beigefügten Zeichnungen, sowie mit dem vorangehenden technischen Gebiet und Hintergrund ersichtlich offensichtlich.
  • KURZDARSTELLUNG
  • In verschiedenen Aspekten beinhaltet ein Benutzererkennungssystem zur automatischen Benutzererkennung in einem autonomen Fahrzeug eine Steuerung mit mindestens einem Prozessor, der Funktionen für die automatische Benutzererkennung in dem autonomen Fahrzeug bereitstellt. Das Benutzererkennungssystem beinhaltet mindestens einen Umgebungssensor, der konfiguriert ist, um eine Umgebung des autonomen Fahrzeugs zu scannen und Scandaten der Umgebung zu einem biometrischen Erkennungsmodul des autonomen Fahrzeugs zu übertragen. Das Benutzererkennungssystem beinhaltet ferner ein biometrisches Erkennungsmodul, das konfiguriert ist, um die Scandaten der Umgebung basierend auf einem Gestenerkennungsalgorithmus unter Verwendung des mindestens einen Prozessors zu analysieren. Der Gestenerkennungsalgorithmus analysiert die Scandaten der Umgebung basierend auf mindestens einem biometrischen Merkmal unter Verwendung des mindestens einen Prozessors. Das mindestens eine biometrische Merkmal beinhaltet mindestens eine Herbeiwinken-Geste. Die Steuerung ist konfiguriert, um das autonome Fahrzeug in der Nähe des Benutzers anzuhalten, d. h. an einer Position des Benutzers, d. h. eine deutliche Entfernung von dem Benutzer, und um das autonome Fahrzeug so zu konfigurieren, dass es dem Benutzer die Verwendung des autonomen Fahrzeugs anbietet, wenn der Gestenerkennungsalgorithmus erkennt, dass ein Benutzer eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt.
  • In verschiedenen Ausführungsformen beschreibt ein biometrisches Merkmal eine Bewegung von mindestens einer Gliedmaße eines Benutzers. In dieser Ausführungsform wird die Herbeiwinken-Geste durch einen Satz vorgegebener Merkmale beschrieben, die Informationen über eine Ausrichtung von Gliedmaßen eines Benutzers in bestimmten Winkeln zueinander oder eine Bewegung der Gliedmaßen des Benutzers relativ zu seiner Umgebung, d. h. relativ zu aktuellen Hintergrunddaten, umfassen.
  • In verschiedenen Ausführungsformen fokussiert die Steuerung mindestens einen Sensor des autonomen Fahrzeugs auf den Benutzer, wenn der Gestenerkennungsalgorithmus einen Benutzer erkennt, der eine Herbeiwinken-Geste in den Scandaten der Umgebung gemäß dem mindestens einen biometrischen Merkmal zeigt.
  • Um einen Sensor auf einen Benutzer zu fokussieren, ermittelt der Sensor Daten bezüglich des Benutzers. Somit wird der Sensor beispielsweise in Richtung des Benutzers bewegt oder bestimmt nur Daten, die sich auf den Benutzer beziehen.
  • In verschiedenen Ausführungsformen analysiert das biometrische Erkennungsmodul eine Gangart des Benutzers unter Verwendung eines Gangartanalysieralgorithmus, der aktuelle Scandaten der Umgebung analysiert, während sich der Benutzer dem Fahrzeug nähert.
  • In verschiedenen Ausführungsformen wird eine Gangart eines Benutzers analysiert, indem eine Bewegung von mindestens einer Gliedmaße und/oder einem Kopf und/oder einem anderen Körperteil des Benutzers verfolgt wird.
  • In verschiedenen Ausführungsformen beinhaltet das Benutzererkennungssystem einen Server und die Steuerung überträgt Ergebnisse des Gangartanalysieralgorithmus und/oder Ergebnisse des Gestenerkennungsalgorithmus unter Verwendung eines Kommunikationsmoduls an den Server. Der Server ist konfiguriert, um nach Daten zu suchen, die sich auf die Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysieralgorithmus in einer Datenbank beziehen, und um die Daten, die sich auf die Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysieralgorithmus beziehen, unter Verwendung des Kommunikationsmoduls an die Steuerung zu übertragen.
  • Das Kommunikationsmodul kann konfiguriert sein, um Informationen zu und von Einheiten außerhalb des autonomen Fahrzeugs drahtlos zu übermitteln, wie beispielsweise Server, die Teil anderer Fahrzeuge („V2V“-Kommunikation) oder einer bestimmten Infrastruktur („V21“-Kommunikation) sein können. Das Kommunikationssystem kann ein drahtloses Kommunikationssystem sein, das so konfiguriert ist, dass es über ein drahtloses lokales Netzwerk (WLAN oder WIFI) unter Verwendung von IEEE 802.11-Standards oder unter Verwendung einer zellularen Datenkommunikation kommuniziert. Im Geltungsbereich der vorliegenden Erfindung werden jedoch auch zusätzliche oder alternative Kommunikationsverfahren, wie beispielsweise ein dedizierter Nahbereichskommunikations-(DSRC)-Kanal, berücksichtigt.
  • In verschiedenen Ausführungsformen beinhalten Daten, die von dem Server zu der Steuerung übertragen werden, mindestens Daten eines Profils des Benutzers, erwartete Gesichtsdaten des Benutzers und eine Sprachkarte des Benutzers.
  • In verschiedenen Ausführungsformen kann der Server eine Datenbank von Benutzerdaten wie Daten eines Profils eines Benutzers, erwartete Gesichtsdaten eines Benutzers und eine Sprachkarte eines Benutzers für zahlreiche Benutzer umfassen.
  • In verschiedenen Ausführungsformen ist die Steuerung so konfiguriert, dass sie den Benutzer von der Verwendung des autonomen Fahrzeugs ausschließt, wenn der Server keine Daten bezüglich der Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysieralgorithmus in der Datenbank findet.
  • In verschiedenen Ausführungsformen beinhaltet das Benutzererkennungssystem mindestens ein Gesichtserkennungssystem, das konfiguriert ist, um ein Gesicht des Benutzers unter Verwendung eines Gesichtsscansensors, wie z. B. eines zur Abtastung eines Gesichts eines Benutzers konfigurierten Sensors, abzutasten, und um die Scandaten des Gesichts des Benutzers mit den erwarteten Gesichtsdaten abzugleichen, die von dem Server unter Verwendung des mindestens einen Prozessors der Steuerung übertragen werden. Die Steuerung ist konfiguriert, das autonome Fahrzeug zu entsperren und einen Dialog mit dem Benutzer zu starten, wenn die Scandaten des Gesichts des Benutzers mit den erwarteten Gesichtsdaten übereinstimmen, die vom Server übertragen werden.
  • In verschiedenen Ausführungsformen ist der Gesichtsscansensor ein optischer Sensor, wie zum Beispiel eine Kamera, ein Infrarotsensor, ein Laserscanner oder dergleichen.
  • In verschiedenen Ausführungsformen beinhaltet das Benutzererkennungssystem mindestens ein Spracherkennungssystem, das konfiguriert ist, um Sprachdaten, die von dem Benutzer während des Dialogs bereitgestellt werden, unter Verwendung eines Spracherkennungssensors abzutasten. Die Steuerung ist konfiguriert, um die Identität des Benutzers zu bestätigen, wenn die Scandaten der Stimme des Benutzers mit der von dem Server übertragenen Sprachkarte übereinstimmen.
  • In verschiedenen Ausführungsformen ist der Spracherkennungssensor ein Akustiksensor, beispielsweise ein Mikrofon oder dergleichen.
  • In verschiedenen Ausführungsformen beinhaltet der Dialog mindestens eine Frage bezüglich eines Bestimmungsortes des Benutzers.
  • In verschiedenen Ausführungsformen ist das Spracherkennungssystem dazu konfiguriert, Informationen bezüglich des Bestimmungsortes des Benutzers aus Sprachdaten zu extrahieren, die von dem Spracherkennungssensor bereitgestellt werden. Die Steuerung ist konfiguriert, um eine Strecke zu dem Bestimmungsort des Benutzers zu bestimmen und das autonome Fahrzeug zu konfigurieren, um den Benutzer zu dem Bestimmungsort des Benutzers zu fahren.
  • In verschiedenen Ausführungsformen enthalten Daten, die von dem Server zu der Steuerung übertragen werden, eine Liste von Identifikationsdaten von Benutzern, die basierend auf den Ergebnissen des Gangartanalysieralgorithmus und/oder den dem Server übermittelten Ergebnissen des Gestenerkennungsalgorithmus zu erkennen sind. Die Steuerung ist konfiguriert, um die Identität eines einzelnen Benutzers basierend auf den von dem Server übertragenen Daten unter Verwendung eines Gesichtserkennungssystems und/oder eines Spracherkennungssystems zu bestätigen und/oder um Daten, die durch das Gesichtserkennungssystem und/oder das Spracherkennungssystem bestimmt werden zu dem Server zu übertragen, wenn die Identität eines einzelnen Benutzers nicht basierend auf Daten bestätigt wird, die von dem Server unter Verwendung des Gesichtserkennungssystems und/oder des Spracherkennungssystems übertragen werden. Wenn die Steuerung Daten, die durch das Gesichtserkennungssystem und/oder das Spracherkennungssystem bestimmt wurden, an den Server überträgt, ist der Server konfiguriert, um die Identität eines einzelnen Benutzers basierend auf den durch das Gesichtserkennungssystem und/oder das Spracherkennungssystem bestimmten Daten und eine Datenbank mit Gesichtsdaten und/oder Sprachdaten einer Vielzahl von Benutzern zu bestätigen, und zum Übertragen der bestätigten Identität des einen einzelnen Benutzers an die Steuerung.
  • Die Menge an persönlicher Profilinformation, die an die Steuerung des Benutzererkennungssystems gesendet wird, kann auf eine Liste von wahrscheinlichen Kandidaten unter Verwendung der Ergebnisse des Gangartanalysieralgorithmus und/oder der dem Server übermittelten Ergebnisse des Gestenerkennungsalgorithmus reduziert werden. Die Liste der wahrscheinlichen Kandidaten kann für ein Vergleichsverfahren verwendet werden, d. h. für ein Abgleichverfahren, das Daten von bestimmten Kandidaten der Liste wahrscheinlicher Kandidaten mit Ergebnissen von Daten abgleicht, die durch das Gesichtserkennungssystem und/oder das Spracherkennungssystem bestimmt werden. Wenn die Ergebnisse der Daten, die durch das Gesichtserkennungssystem und/oder das Spracherkennungssystem bestimmt wurden, nicht eindeutig sind oder die Ergebnisse nicht mit persönlichen Profilinformationen von mindestens einem Kandidaten übereinstimmen, kann die Steuerung konfiguriert sein, um durch ein Gesichtserkennungssystem bestimmte Gesichtsinformationen an den Server zu senden, wobei eine Analyse, d. h. eine Abgleichverfahren der Daten, die durch das Gesichtserkennungssystem und/oder das Spracherkennungssystem bestimmt werden, gegen einen vollständigen Satz von auf dem Server gespeicherten Benutzerprofilen ausgeführt werden kann.
  • In verschiedenen Ausführungsformen ist die Steuerung konfiguriert, um die Strecke zu dem Bestimmungsort des Benutzers zu bestimmen, indem Informationen bezüglich des Bestimmungsortes des Benutzers, extrahiert aus den Sprachdaten, die durch den Spracherkennungssensor bereitgestellt werden, zu einem Server übertragen werden. Der Server ist konfiguriert, basierend auf den Sprachdaten eine Strecke zu dem Bestimmungsort des Benutzers zu erzeugen und die Strecke unter Verwendung eines Kommunikationsmoduls an die Steuerung zu übertragen.
  • In verschiedenen Ausführungsformen ist das Spracherkennungssystem dazu konfiguriert, Informationen bezüglich eines emotionalen Zustands des Benutzers aus den Sprachdaten zu extrahieren, die von dem Spracherkennungssensor bereitgestellt werden. Ferner ist die Steuerung dazu konfiguriert, ein Fahrverhalten basierend auf dem aktuellen emotionalen Zustand des Benutzers zu modifizieren.
  • In verschiedenen Ausführungsformen analysiert das Spracherkennungssystem Frequenzen und/oder Amplituden in den durch den Spracherkennungssensor bereitgestellten Sprachdaten, und gleicht die Frequenzen und/oder Amplituden mit einem Satz gegebener emotionaler Zustände ab.
  • In verschiedenen Ausführungsformen ist das biometrische Erkennungsmodul so konfiguriert, dass es benutzerbezogene Daten aus den Scandaten der Umgebung extrahiert, indem die Scandaten der Umgebung mit Daten der Umgebung abgeglichen werden, die von mindestens einem zusätzlichen Umgebungssensor des autonomen Fahrzeugs bereitgestellt werden, sodass nur Daten, die sich auf den Benutzer beziehen, von dem Gestenerkennungsalgorithmus verwendet werden, um die Herbeiwinken-Geste zu erkennen, und Daten, die sich auf einen bestimmten Hintergrund beziehen, werden subtrahiert.
  • Durch Subtrahieren von Hintergrundinformationen von einem Datensatz bleiben Daten bezüglich eines bestimmten Benutzers erhalten. Somit können Algorithmen zur Benutzererkennung, wie die Gesten- und/oder Gangartanalysealgorithmen, optimiert werden, da sie nur unter Verwendung von Benutzerdaten ausgeführt werden und daher sehr genau sind.
  • In verschiedenen Ausführungsformen wird der mindestens eine zusätzliche Umgebungssensor aus der folgenden Liste ausgewählt: RADAR-Sensor, LIDAR-Sensor, Ultraschallsensor, Kamera-Sensoren in mehreren Winkeln und Mikrofon-Sensor.
  • In verschiedenen Ausführungsformen basiert der Gestenerkennungsalgorithmus auf einem Verfolgungsalgorithmus des autonomen Fahrzeugs, um Straßenteilnehmer zu verfolgen.
  • In verschiedenen Ausführungsformen ist die Steuerung dazu konfiguriert, das autonome Fahrzeug an einer Position relativ zu dem Benutzer anzuhalten und dem Benutzer das Mieten des autonomen Fahrzeugs anzubieten und durch Identifizieren des Benutzers basierend auf biometrischen Daten des Benutzers, die durch mindestens einen Sensor des autonomen Fahrzeugs erfasst wurden, in Rechnung gestellt zu werden, wenn der Gestenerkennungsalgorithmus einen Benutzer erkennt, der eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt.
  • Sofern nicht anders angegeben oder auf eine andere Ausführungsform verwiesen wird, können zwei oder mehrere der vorstehend genannten Ausführungsformen mit dem Benutzererkennungssystem kombiniert werden, insbesondere mit der Steuerung des Benutzererkennungssystems.
  • In verschiedenen Aspekten wird ein autonomes Fahrzeug bereitgestellt, das die Steuerung des Benutzererkennungssystems alleine oder in Kombination mit einer oder mehreren der hierin beschriebenen Ausführungsformen des Benutzererkennungssystems beinhaltet.
  • In verschiedenen Ausführungsformen beinhaltet die Steuerung mindestens einen Umgebungssensor, der zum Scannen einer Umgebung des autonomen Fahrzeugs und zum Senden von Scandaten der Umgebung an ein biometrisches Erkennungsmodul konfiguriert ist, mindestens einen Prozessor, und ein biometrisches Erkennungsmodul zum Analysieren der Scandaten der Umgebung basierend auf einem Gestenerkennungsalgorithmus unter Verwendung des mindestens einen Prozessors der Steuerung. Der Gestenerkennungsalgorithmus analysiert die Scandaten der Umgebung basierend auf mindestens einem biometrischen Merkmal unter Verwendung des mindestens einen Prozessors. Das mindestens eine biometrische Merkmal beinhaltet mindestens eine Herbeiwinken-Geste. Die Steuerung ist konfiguriert, um das autonome Fahrzeug in einer Position relativ zu dem Benutzer anzuhalten und dem Benutzer die Verwendung des autonomen Fahrzeugs anzubieten, wenn der Gestenerkennungsalgorithmus erkennt, dass ein Benutzer eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt.
  • Gemäß einem Aspekt wird ein Verfahren zur automatisierten Benutzererkennung in einem autonomen Fahrzeug bereitgestellt.
  • In verschiedenen Ausführungsformen beinhaltet das Verfahren die Schritte: Scannen einer Umgebung des autonomen Fahrzeugs durch Verwenden mindestens eines Umgebungssensors des autonomen Fahrzeugs und Übertragen von Scandaten der Umgebung an ein biometrisches Erkennungsmodul, Analysieren der Scandaten der Umgebung basierend auf einem Gestenerkennungsalgorithmus unter Verwendung des mindestens einen Prozessors der Steuerung, der ein Prozessor des biometrischen Erkennungsmoduls sein kann, Analysieren der Scandaten der Umgebung basierend auf dem Gestenerkennungsalgorithmus unter Verwendung von mindestens einem biometrischen Merkmal unter Verwendung des mindestens einen Prozessors. Das mindestens eine biometrische Merkmal beinhaltet mindestens eine Herbeiwinken-Geste und, wenn der Gestenerkennungsalgorithmus einen Benutzer erkennt, der eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt, Anhalten des autonomen Fahrzeugs bei dem Benutzer und dem Benutzer die Verwendung des autonome Fahrzeugs anbieten.
  • In verschiedenen Ausführungsformen beinhaltet das Verfahren die Schritte: Analysieren einer Gangart des Benutzers unter Verwendung eines Gangartanalysieralgorithmus, der aktuelle Scandaten der Umgebung analysiert, während sich der Benutzer dem Fahrzeug nähert, Übertragen von Ergebnissen des Gangartanalysieralgorithmus und/oder von Ergebnissen des Gestenerkennungsalgorithmus an einen Server unter Verwendung eines Kommunikationsmoduls und Suchen nach Daten bezüglich der Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysealgorithmus in einer Datenbank und Übertragen der Daten bezüglich der Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysealgorithmus unter Verwendung des mindestens einen Prozessors an die Steuerung. Die von dem Server zu der Steuerung übertragenen Daten beinhalten mindestens Daten eines Profils des Benutzers, erwartete Gesichtsdaten des Benutzers und eine Sprachkarte des Benutzers, Scannen eines Gesichts des Benutzers unter Verwendung eines Gesichtsscansensors und Abgleichen der Scandaten des Gesichts des Benutzers mit den erwarteten Gesichtsdaten, die von dem Server unter Verwendung eines Gesichtserkennungssystems übertragen werden, Entsperren des autonomen Fahrzeugs und Beginnen eines Dialogs mit dem Benutzer, wenn die Scandaten des Gesichts des Benutzers mit den von dem Server unter Verwendung der Steuerung übertragenen erwarteten Gesichtsdaten übereinstimmen, Scannen von Sprachdaten, die von dem Benutzer während des Dialogs bereitgestellt werden, Abgleichen der Scandaten der Sprache des Benutzers mit der von dem Server übertragenen Sprachkarte durch Verwenden des mindestens einen Prozessors, der ein Prozessor des Spracherkennungssystems sein kann, Bestätigen einer Identität des Benutzers, wenn die Scandaten der Stimme des Benutzers mit der von dem Server unter Verwendung der Steuerung gesendeten Sprachkarte übereinstimmen, Extrahieren von Informationen über den Bestimmungsort des Benutzers aus Sprachdaten, die unter Verwendung des Spracherkennungssystems durch den Spracherkennungssensor bereitgestellt werden, Bestimmen einer Strecke zu dem Bestimmungsort des Benutzers und Konfigurieren des autonomen Fahrzeugs zum Fahren des Benutzer zum dem Bestimmungsort des Benutzers unter Verwendung der Steuerung. Der Dialog beinhaltet mindestens eine Frage bezüglich eines Bestimmungsortes des Benutzers.
  • In verschiedenen Ausführungsformen sind das biometrische Erkennungsmodul und/oder das Kommunikationsmodul in der Steuerung enthalten. Alternativ sind das biometrische Erkennungsmodul und/oder das Kommunikationsmodul in einer Box implementiert, die von einer Box getrennt ist, die den Prozessor der Steuerung umfasst. Eine Box, die das biometrische Erkennungsmodul und/oder das Kommunikationsmodul implementiert, kann einen zusätzlichen Prozessor umfassen, der konfiguriert ist, logische und mathematische Operationen des biometrischen Erkennungsmoduls und/oder des Kommunikationsmoduls auszuführen.
  • Es wird angemerkt, dass das Verfahren in verschiedenen Ausführungsformen in Übereinstimmung mit den Funktionen einer oder mehrerer der oben beschriebenen Ausführungsformen des Benutzererkennungssystems und/oder des autonomen Fahrzeugs modifiziert wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die exemplarischen Ausführungsformen werden nachfolgend in Verbindung mit den folgenden Zeichnungen beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei gilt:
    • 1 ist ein Funktionsblockdiagramm, das ein autonomes Fahrzeug mit einem Benutzererkennungssystem gemäß einer Ausführungsform veranschaulicht;
    • 2 ist ein Funktionsblockdiagramm, das ein Verfahren veranschaulicht, das Funktionen für die automatische Benutzererkennung in einem wie in 1 gezeigten autonomen Fahrzeug bereitstellt, gemäß einer Ausführungsform;
    • 3 ist ein Funktionsblockdiagramm, das eine Steuerung gemäß einer Ausführungsform veranschaulicht; und
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung dient lediglich als Beispiel. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Kurzzusammenfassung oder der folgenden ausführlichen Beschreibung an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Der hierin verwendete Begriff „Modul“ bezieht sich auf alle Hardware-, Software-, Firmwareprodukte, elektronische Steuerkomponenten, Verarbeitungslogik und/oder Prozessorgeräte, einzeln oder in allen Kombinationen, unter anderem beinhaltend, eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder Gruppenprozessor) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, die die beschriebene Funktionalität bieten.
  • Ausführungen der vorliegenden Erfindung können hierin als funktionale und/oder logische Blockkomponenten und verschiedene Verarbeitungsschritte beschrieben sein. Es ist zu beachten, dass derartige Blockkomponenten aus einer beliebigen Anzahl an Hardware-, Software- und/oder Firmware-Komponenten aufgebaut sein können, die zur Ausführung der erforderlichen Funktionen konfiguriert sind. Zum Beispiel kann eine Ausführungsform der vorliegenden Erfindung eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, z. B. Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Wertetabellen oder dergleichen, einsetzen, die mehrere Funktionen unter der Steuerung eines oder mehrerer Mikroprozessoren oder anderer Steuervorrichtungen durchführen können. Zudem werden Fachleute auf dem Gebiet erkennen, dass die exemplarischen Ausführungsformen der vorliegenden Erfindung in Verbindung mit einer beliebigen Anzahl an Systemen eingesetzt werden können, und dass das hierin beschriebene System lediglich eine exemplarische Ausführungsform der vorliegenden Erfindung darstellt.
  • Der Kürze halber sind konventionelle Techniken in Verbindung mit der Signalverarbeitung, Datenübertragung, Signalgebung, Steuerung und weiteren funktionalen Aspekten der Systeme (und den einzelnen Bedienelementen der Systeme) hierin ggf. nicht im Detail beschrieben. Weiterhin sollen die in den verschiedenen Figuren dargestellten Verbindungslinien exemplarische Funktionsbeziehungen und/oder physikalische Verbindungen zwischen den verschiedenen Elementen darstellen. Es sollte beachtet werden, dass viele alternative oder zusätzliche funktionale Beziehungen oder physikalische Verbindungen in einer Ausführungsform der vorliegenden Erfindung vorhanden sein können.
  • Mit Bezug auf 1 wird ein Benutzererkennungssystem 100 zur automatischen Benutzererkennung in einem autonomen Fahrzeug gemäß verschiedener Ausführungsformen und Aspekte gezeigt. Das Benutzererkennungssystem 100 umfasst ein autonomes Fahrzeug 10, das im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorderräder 16 und Hinterräder 18 beinhaltet. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und umhüllt im Wesentlichen die anderen Komponenten des Fahrzeugs 10. Die Karosserie 14 und das Fahrgestell 12 können gemeinsam einen Rahmen bilden. Die Räder 16 und 18 sind jeweils mit dem Fahrgestell 12 in der Nähe einer jeweiligen Ecke der Karosserie 14 drehbar gekoppelt.
  • Das autonome Fahrzeug 10 ist beispielsweise ein Fahrzeug, das automatisch gesteuert wird, um Passagiere von einem Ort zum anderen zu befördern. Das Fahrzeug 10 ist in der veranschaulichten Ausführungsform als Pkw dargestellt, es sollte jedoch beachtet werden, dass auch jedes andere Fahrzeug, einschließlich Motorräder, Lastwagen, Sportfahrzeuge (SUVs), Freizeitfahrzeuge (RVs), Schiffe, Flugzeuge usw. verwendet werden können. In einer exemplarischen Ausführungsform ist das autonome Fahrzeug 10 ein sogenanntes Level-Vier oder Level-Fünf Automatisierungssystem. In verschiedenen Ausführungsformen erzeugt das autonome Fahrsystem ein Notrufsignal und sendet das Notrufsignal an ein Kommunikationssystem, nachdem das Fahrzeug in den vorbestimmten Zustand gebracht wurde und wenn das Bedienerunfähigkeitsauslösesignal noch für eine vorbestimmte Zeitdauer vorhanden ist oder falls der Bediener nicht innerhalb der vorbestimmten Zeitdauer reagiert. Ein Level-Fünf-System zeigt eine „Vollautomatisierung“ an und verweist auf die Vollzeitleistung eines automatisierten Fahrsystems aller Aspekte der dynamischen Fahraufgabe unter allen Fahrbahn- und Umgebungsbedingungen, die von einem menschlichen Fahrer verwaltet werden können.
  • Wie dargestellt, beinhaltet das autonome Fahrzeug 10 im Allgemeinen ein Antriebssystem 20, ein Getriebesystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellantriebsystem 30, mindestens einen Datenspeicher 32, mindestens eine Steuerung 34 und ein Kommunikationsmodul 36. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten. Das Übertragungssystem 22 ist dazu konfiguriert, Leistung vom Antriebssystem 20 auf die Fahrzeugräder 16 und 18 gemäß den wählbaren Übersetzungsverhältnissen zu übertragen. Gemäß verschiedenen Ausführungsformen kann das Getriebesystem 22 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten. Das Bremssystem 26 ist dazu konfiguriert, den Fahrzeugrädern 16 und 18 ein Bremsmoment bereitzustellen. Das Bremssystem 26 kann in verschiedenen Ausführungsformen Reibungsbremsen, Brake-by-Wire, ein regeneratives Bremssystem, wie beispielsweise eine elektrische Maschine und/oder andere geeignete Bremssysteme beinhalten. Das Lenksystem 24 beeinflusst die Position der Fahrzeugräder 16 und 18. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Erfindung zur Veranschaulichung als ein Lenkrad dargestellt, kann das Lenksystem 24 kein Lenkrad beinhalten.
  • Das Sensorsystem 28 beinhaltet eine oder mehrere Umgebungssensoren 40a-40n, die beobachtbare Zustände der äußeren Umgebung und/oder der inneren Umgebung des autonomen Fahrzeugs 10 erfassen. Die Sensorvorrichtungen 40a-40n können RADARE, LIDARE, optische Kameras, Wärmebildkameras, Ultraschallsensoren, Mikrofone und/oder andere Sensoren beinhalten, sind aber nicht darauf beschränkt. Einer oder mehrere der Sensoren des Sensorsystems 28 sind biometrische Sensoren, die biometrische Merkmale eines Benutzers in der Umgebung des Fahrzeugs 10 erfassen. In verschiedenen Ausführungsformen können die biometrischen Sensoren Bildsensoren beinhalten, die konfiguriert sind, um ein Bild eines Gesichts eines Benutzers oder andere Merkmale aufzunehmen, Mikrofone, die konfiguriert sind, um die Stimme eines Benutzers aufzuzeichnen, etc., sind aber nicht auf diese beschränkt. Das Stellgliedsystem 30 beinhaltet ein oder mehrere Stellgliedvorrichtungen, um Steuerbefehle von der Steuerung 34 zu empfangen, um ein oder mehrere Fahrzeugeigenschaften, wie zum Beispiel das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und das Bremssystem 26, steuern, sind aber nicht darauf beschränkt. In verschiedenen Ausführungsformen können die Fahrzeugmerkmale ferner Innen- und/oder Außenfahrzeugmerkmale, wie beispielsweise Türen, einen Kofferraum und Innenraummerkmale, wie z. B. Luft, Musik, Beleuchtung usw., beinhalten, sind jedoch nicht auf diese beschränkt (nicht nummeriert).
  • Das Kommunikationsmodul 36 ist konfiguriert, um Informationen zu und von anderen Einheiten 48 drahtlos zu übermitteln, wie beispielsweise, aber nicht beschränkt auf Server, die Teil anderer Fahrzeuge („V2V“-Kommunikation) oder einer bestimmten Infrastruktur („V21“-Kommunikation) sein können. In einer exemplarischen Ausführungsform ist das Kommunikationsmodul 36 ein drahtloses Kommunikationsmodul, das konfiguriert ist, um über ein drahtloses lokales Netzwerk (WLAN) unter Verwendung des IEEE 802.11-Standards oder mittels einer zellularen Datenkommunikation zu kommunizieren. Im Geltungsbereich der vorliegenden Erfindung werden jedoch auch zusätzliche oder alternative Kommunikationsverfahren, wie beispielsweise ein dedizierter Nahbereichskommunikations-(DSRC)-Kanal, berücksichtigt. DSRC-Kanäle beziehen sich auf Einweg- oder Zweiwege-Kurzstrecken- bis Mittelklasse-Funkkommunikationskanäle, die speziell für den Automobilbau und einen entsprechenden Satz von Protokollen und Standards entwickelt wurden. In verschiedenen Ausführungsformen ist das Kommunikationsmodul 36 zum Empfangen von Informationen von einem externen Server 48 konfiguriert.
  • Die Datenspeichervorrichtung 32 speichert Daten zur Verwendung des automatischen Steuerns des autonomen Fahrzeugs 10 und/oder der automatischen Erkennung eines Benutzers. In verschiedenen Ausführungsformen speichert die Datenspeichervorrichtung 32 Daten, die durch die Umgebungssensoren 40a-40n bestimmt werden
  • Die Steuerung 34 beinhaltet mindestens einen Prozessor 44 und eine computerlesbare Speichervorrichtung oder ein computerlesbares Speichermedium 46. Der Prozessor 44 kann eine Spezialanfertigung oder ein handelsüblicher Prozessor sein, eine Zentraleinheit (CPU), eine Grafikprozessoreinheit (GPU) unter mehreren Prozessoren verbunden mit der Steuerung 34, ein Mikroprozessor auf Halbleiterbasis (in Form eines Mikrochips oder Chip-Satzes), ein Mikroprozessor, eine Kombination derselben oder allgemein jede beliebige Vorrichtung zur Ausführung von Anweisungen. Die computerlesbare Speichervorrichtung oder Medien 46 können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Keep-Alive-Memory (KAM) beinhalten. KAM ist ein persistenter oder nicht-flüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder Medien 46 können unter Verwendung einer beliebigen einer Anzahl an bekannten Speichervorrichtungen, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebige andere elektrischen, magnetischen, optischen oder kombinierten Speichervorrichtungen implementiert werden, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuerung 34 beim Steuern des autonomen Fahrzeugs 10 verwendet werden.
  • In verschiedenen Ausführungsformen beinhalten die von der Steuerung 34 bereitgestellten Steuerbefehle ein oder mehrere separate Programme, von denen jedes eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen umfasst. Die Steuerbefehle, wenn diese vom Prozessor 44 ausgeführt werden, empfangen und verarbeiten Signale vom Sensorsystem 28, führen Logik, Berechnungen, Verfahren und/oder Algorithmen zur automatischen Steuerung der Komponenten des autonomen Fahrzeugs 10 durch und steuern die Komponenten des autonomen Fahrzeugs 10 basierend auf der Logik, den Berechnungen, den Verfahren und/oder Algorithmen automatisch. Obwohl in 1 nur eine Steuerung 34 dargestellt ist, können Ausführungsformen des autonomen Fahrzeugs 10 eine beliebige Anzahl an Steuerungen 34 beinhalten, die über ein geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren und zusammenwirken, um die Sensorsignale zu verarbeiten, Logiken, Berechnungen, Verfahren und/oder Algorithmen durchzuführen, und Steuersignale zu erzeugen, um die Funktionen des autonomen Fahrzeugs 10 automatisch zu steuern.
  • In verschiedenen Ausführungsformen sind eine oder mehrere Anweisungen der Steuerung 34 zum Bereitstellen von automatisierten Gestenerkennungsfunktionen, wie sie in Bezug auf eine oder mehrere der hierin beschriebenen Ausführungsformen beschrieben sind, verkörpert. Beispielsweise sind eine oder mehrere der Anweisungen in einem Gestenerkennungsmodul enthalten, das einen oder mehrere Gestenerkennungsalgorithmen ausführt, um automatisch eine Geste eines Benutzers zu erkennen. Zum Beispiel analysiert ein Gestenerkennungsalgorithmus die Scandaten der Umgebung, die von den Umgebungssensoren 40a-40n bereitgestellt werden. Das Gestenerkennungsmodul analysiert die Daten basierend auf mindestens einem definierten biometrischen Merkmal eines Benutzers. In einer Konfiguration des hierin offenbarten Benutzererkennungssystems 100 erfasst der Gestenerkennungsalgorithmus Muster in den von den Umgebungssensoren 40a-40n bereitgestellten Scandaten der Umgebung, beispielsweise Muster, die eine Bewegung eines physischen Merkmals eines Benutzers anzeigen, insbesondere Muster, die eine Herbeiwinken-Geste des Arms oder der Hand anzeigen. In verschiedenen Ausführungsformen wird das Muster, das eine Herbeiwinken-Geste anzeigt, durch Anpassen von Daten erkannt, die von den Umgebungssensoren 40a-40n an mindestens ein definiertes biometrisches Merkmal bereitgestellt werden. In verschiedenen Ausführungsformen kann das definierte biometrische Merkmal eine Bewegung von mindestens einer Gliedmaße eines Benutzers beschreiben. In verschiedenen Ausführungsformen kann das definierte biometrische Merkmal von dem externen Server 48 an die Steuerung 34 übertragen werden. In verschiedenen Ausführungsformen können ein oder mehrere definierte biometrische Merkmale durch einen Techniker an die Steuerung 34 bereitgestellt werden. Beispielsweise definiert der Techniker ein bestimmtes biometrisches Merkmal durch Spezifizieren von Bewegungen von Gliedmaßen und/oder einer Ausrichtung von Gliedmaßen zueinander, die für das bestimmte biometrische Merkmal charakteristisch sind.
  • In verschiedenen Ausführungsformen wird die Herbeiwinken-Geste durch einen Satz vorgegebener Merkmale beschrieben, die Informationen über eine Ausrichtung von Gliedmaßen eines Benutzers in bestimmten Winkeln zueinander umfassen. Zum Beispiel wird die Herbeiwinken-Geste durch einen Satz biometrischer Merkmale definiert, die eine Haltung und/oder einen Blick eines Fußgängers beschreiben. Eine Haltung, die als Herbeiwinken-Geste erkannt wird, kann eine in Richtung des autonomen Fahrzeugs 10 zeigende Bewegung eines Arms eines Benutzers, ein in Richtung des autonomen Fahrzeugs bewegter Daumen, ein in einem Kreis bewegter Arm, ein „x“ bildende Arme, ein sich zu dem autonomen Fahrzeug 10 drehender Körper oder dergleichen sein. Insbesondere kann eine Bewegung, die eine Herbeiwinken-Geste anzeigt, nur für diejenigen Benutzer mit Körperausrichtungen erkannt werden, die angeben, dass sie in Richtung des Fahrzeugs blicken. Somit kann die Herbeiwinken-Geste durch ein biometrisches Merkmal definiert werden, das die Ausrichtung eines Kopfes eines Benutzers beschreibt, der in Richtung des autonomen Fahrzeugs 10 zeigt. Dies bedeutet, wenn der Benutzer nicht in die Richtung des autonomen Fahrzeugs 10 schaut, wird die Herbeiwinken-Geste nicht erkannt und das autonome Fahrzeug 10 wird nicht bei dem Benutzer anhalten.
  • Die Steuerung 34 ist konfiguriert, um das autonome Fahrzeug 10 an einer Position relativ zu einem Benutzer anzuhalten, das bedeutet in einem deutlichen Abstand von dem Benutzer, und das autonome Fahrzeug 10 zu konfigurieren, um dem Benutzer die Verwendung des autonomen Fahrzeugs 10 anzubieten, wenn der Gestenerkennungsalgorithmus erkennt, dass ein Benutzer eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den durch die Umgebungssensoren 40a-40n bereitgestellten Scandaten der Umgebung zeigt. Somit steuert die Steuerung 34 das autonome Fahrzeug in Reaktion auf einen Befehl, der von dem biometrischen Erkennungsmodul 30 an die Steuerung 34 übertragen wird, was eine erkannte Herbeiwinken-Geste anzeigt.
  • Die Position relativ zu dem Benutzer wird durch ein Fußgängererkennungssystem des autonomen Fahrzeugs oder durch die Steuerung 34 bestimmt. Somit wird die Position des Benutzers unter Verwendung von GPS-Koordinaten oder beliebiger anderer Koordinaten bestimmt, und eine Position relativ zu dem Benutzer, wie beispielsweise eine Position in einer deutlichen Entfernung von dem Benutzer, wird ausgewählt, um das autonome Fahrzeug anzuhalten. Das heißt, die autonomen Steuerfunktionen des autonomen Fahrzeugs werden verwendet, um das autonome Fahrzeug an der Position anzuhalten, die als relativ zu der Position des Benutzers bestimmt ist.
  • Die Steuerung 34 ist konfiguriert, um Steuerbefehle an das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und/oder das Bremssystem 26 zu senden, um das autonome Fahrzeug 10 an einer Koordinate des Benutzers, d. h. an einer von dem Benutzer entfernten Koordinate, anzuhalten, die durch das biometrische Erkennungsmodul 30 unter Verwendung des Gestenerkennungsalgorithmus und der von den Umgebungssensoren 40a-40n bereitgestellten Scandaten der Umgebung bestimmt wurden.
  • Wenn das autonome Fahrzeug 10 bei den Koordinaten des Benutzers anhält, überträgt die Steuerung 34 Steuerbefehle an ein Kommunikationsmodul 36, um dem Benutzer die Verwendung des autonomen Fahrzeugs anzubieten.
  • Um dem Benutzer die Verwendung des autonomen Fahrzeugs 10 anzubieten, beginnt das Kommunikationsmodul 36 unter Verwendung eines Lautsprechers einen Dialog mit dem Benutzer. Natürlich kann das Kommunikationsmodul 36 zusätzlich oder alternativ eine Anzeige oder eine beliebige andere Benutzerschnittstelle verwenden, um den Benutzer zu kontaktieren.
  • Die Steuerung 34 oder eines ihrer funktionalen Module ist konfiguriert, um mindestens einen Benutzer, basierend auf von den Umgebungssensoren 40a-40n bereitgestellten Scandaten der Umgebung, zu identifizieren. Somit analysiert die Steuerung 34 die Scandaten der Umgebung in Bezug auf mindestens ein biometrisches Merkmal, das eine Gangart und/oder eine Geste beschreiben kann. Basierend auf dem mindestens einen biometrischen Merkmal, das beispielsweise von einem Techniker unter Verwendung des Kommunikationsmoduls 36 bereitgestellt werden kann, wird die Steuerung 34 und/oder ein Server, beispielsweise der externe Server 48, verwendet, um eine Liste von Benutzern auf einen Satz von wahrscheinlichen Kandidaten einzugrenzen. Das heißt, die wahrscheinlichen Kandidaten können aus einer Liste von Benutzern basierend auf Daten ausgewählt werden, die sich auf ihre Gangart und/oder Bewegung gemäß den Scandaten der Umgebung beziehen.
  • Um wahrscheinliche Kandidaten aus der Benutzerliste auszuwählen, kann die Steuerung 34 die Scandaten der Umgebung in Bezug auf mindestens ein biometrisches Merkmal analysieren. Dies bedeutet, dass auf das mindestens eine biometrische Merkmal bezogene Daten aus den Scandaten der Umgebung extrahiert und mit vorgegebenen Parametern des mindestens einen biometrischen Merkmals abgeglichen werden. Das Abgleichverfahren kann durch einen Gestenerkennungsalgorithmus wie etwa ein künstliches neuronales Netzwerk, eine Unterstützungsvektormaschine, einen Mustererkennungsalgorithmus oder dergleichen durchgeführt werden.
  • Der Gestenerkennungsalgorithmus basiert auf überwachten oder nicht überwachten Algorithmen. Somit wird der Gestenerkennungsalgorithmus trainiert, indem Trainingsdaten bestimmter Benutzer verwendet werden.
  • Das mindestens eine biometrische Merkmal, das von dem Gestenerkennungsalgorithmus verwendet wird, ist eine Gangart oder eine Herbeiwinken-Geste.
  • Ein biometrisches Merkmal, das eine Herbeiwinken-Geste beschreibt, kann Informationen über eine Ausrichtung von Gliedmaßen eines Benutzers in bestimmten Winkeln zueinander umfassen. Insbesondere kann ein biometrisches Merkmal, das eine Herbeiwinken-Geste beschreibt, Informationen über einen Daumen eines Benutzers umfassen, der in eine Richtung einer Straße zeigt, auf der das autonome Fahrzeug fährt oder der direkt auf das autonome Fahrzeug zeigt. Alternativ oder zusätzlich kann ein biometrisches Merkmal, das eine Herbeiwinken-Geste beschreibt, Informationen über einen Arm eines Benutzers umfassen, der angehoben oder gewunken wird. Natürlich kann das biometrische Merkmal, das eine Herbeiwinken-Geste beschreibt, Informationen über eine spezielle Bewegung umfassen, von der gesagt wird, dass sie von einem Benutzer als eine Herbeiwinken-Geste verwendet werden soll, wie eine Bewegung, die einen Kreis, ein Kreuz oder dergleichen bildet.
  • Wenn der Gestenerkennungsalgorithmus einen oder mehrere Benutzer, d. h. wahrscheinliche Kandidaten, identifiziert, die mit einem bestimmten Satz biometrischer Merkmale oder einem bestimmten biometrischen Merkmal auf der Grundlage von Scandaten der Umgebung übereinstimmen, wird eine Identität eines bestimmten Kandidaten bzw. Benutzers durch Verwendung eines Gesichtserkennungsalgorithmus bestätigt.
  • Der Gesichtserkennungsalgorithmus kann basierend auf einem Satz von Gesichtsmerkmalen ausgeführt werden, die einen Benutzer charakterisieren. Der Satz von Gesichtsmerkmalen wird aus einer Datenbank basierend auf den Benutzern ausgewählt, die durch den Gestenerkennungsalgorithmus erkannt werden. Der Satz von Gesichtsmerkmalen wird durch die Steuerung 34 unter Verwendung des Prozessors 44 der Steuerung 34 und einer Datenbank in dem autonomen Fahrzeug 10 oder durch den externen Server 48 unter Verwendung einer auf dem externen Server 48 gespeicherten Datenbank oder eines mit dem externen Server verbundenen Servers 48 ausgewählt.
  • Der Satz von Gesichtsmerkmalen, der verwendet werden soll, um die Identität des Benutzers zu bestätigen, kann durch den externen Server 48 basierend auf einer Tabelle ausgewählt werden, die die wahrscheinlichen Kandidaten umfasst, wobei die Tabelle, die die wahrscheinlichen Kandidaten umfasst, basierend auf den Ergebnissen des Gestenerkennungsalgorithmus ausgewählt wird. Die Tabelle mit den wahrscheinlichen Kandidaten wird von dem externen Server 48 über das Kommunikationsmodul 36 an die Steuerung 34 übertragen.
  • Wenn das autonome Fahrzeug 10 ein Gesichtserkennungsverfahren basierend auf Benutzerdaten durchführt, die aus einer Datenbank des autonomen Fahrzeugs ausgewählt werden und das Gesichtserkennungsverfahren nicht mit einer Konformation eines Benutzers, d. h. mit einer Konformation eines Kandidaten aus der Liste von wahrscheinlichen Kandidaten, endet, kann der externe Server 48 verwendet werden, um basierend auf Benutzerdaten, die aus einer auf dem externen Server 48 gespeicherten Datenbank oder einem mit dem externen Server 48 verbundenen Server ausgewählt sind, eine zweite Gesichtserkennung durchzuführen.
  • Da der Satz von Gesichtsmerkmalen, der für die Bestätigung der Identität des Benutzers verwendet werden soll, durch den externen Server 48 basierend auf einer Tabelle ausgewählt werden kann, die die durch den Gestenerkennungsalgorithmus erkannten Benutzer umfasst, ist die Anzahl der für die Gesichtserkennung zu verwendenden Benutzern oder wahrscheinlichen Kandidaten in Bezug auf eine Gesamtzahl von wahrscheinlichen Kandidaten beschränkt, die von dem Benutzererkennungssystem erkannt werden können. Somit kann die Gesichtserkennungsgeschwindigkeit erhöht werden, und die Anzahl der Vergleiche, d. h. Übereinstimmungen, wird reduziert, indem wahrscheinliche Kandidaten unter Verwendung des Gestenerkennungsalgorithmus vorausgewählt werden.
  • Die Kombination des Gesichtserkennungsalgorithmus mit dem Gestenerkennungsalgorithmus wird verwendet, um die Identität eines Benutzers zu bestätigen. Es kann jedoch Situationen geben, in denen nach Durchführung des Gesichtserkennungsalgorithmus eine sehr geringe Anzahl wahrscheinlicher Kandidaten übrigbleibt. In diesem Fall können der Gestenerkennungsalgorithmus und der Gesichtserkennungsalgorithmus mit einem Spracherkennungsalgorithmus kombiniert werden.
  • Der Spracherkennungsalgorithmus wird verwendet, um Sprachdaten eines bestimmten Benutzers, der mit dem autonomen Fahrzeug 10 interagiert, mit Spracherkennungsmerkmalen zu vergleichen, die aus einer Datenbank auf der Basis der Benutzer ausgewählt werden, die nach Durchführung der Gesichtserkennung als wahrscheinliche Kandidaten verbleiben. Natürlich kann der Spracherkennungsalgorithmus auch durchgeführt werden, wenn nur ein Benutzer als ein wahrscheinlicher Kandidat übrigbleibt, nachdem beispielsweise die Gesichtserkennung durchgeführt wurde, um ein Sicherheitsniveau zu erhöhen.
  • Die Spracherkennungsmerkmale werden von dem externen Server 48 beispielsweise aus einer Datenbank ausgewählt, die auf dem externen Server 48 gespeichert ist, oder einem Server, der mit dem externen Server 48 verbunden ist. Der externe Server 48 wählt die Spracherkennungsmerkmale, wie beispielsweise eine Sprachkarte eines Benutzers, in Bezug auf die Ergebnisse aus, die durch den Gestenerkennungsalgorithmus und/oder den Gesichtserkennungsalgorithmus bereitgestellt werden.
  • Sobald ein bestimmter Benutzer bekannt ist, bedeutet dies, dass, sobald die Identität des Benutzers aufgrund von Ergebnissen des Gestenerkennungsalgorithmus und des Gesichtserkennungsalgorithmus und/oder des Spracherkennungsalgorithmus bestätigt wird, der Benutzer beispielsweise Zugriff auf Gebühren für sein Konto oder Zugriff auf seine gespeicherten Orte erhält.
  • Da das autonome Fahrzeug 10 für das autonome Fahren konfiguriert, ist das autonome Fahrzeug 10 dazu konfiguriert, während der Bewegung unter Verwendung der Umgebungssensoren 40a-40n eine Umgebung zu verfolgen, wobei die während der Bewegung des autonomen Fahrzeugs bestimmten Daten als Daten zur Durchführung des hierein beschriebenen Verfahrens verwendet werden können oder zum Modifizieren der Daten, die zum Ausführen des hierin beschriebenen Verfahrens verwendet werden. Somit kann die Gangartanalyse optimiert werden, da das autonome Fahrzeug 10 bereits einen erwarteten Hintergrund von LIDAR-Sensoren und Kamera-Sensoren kennt und eine Hintergrundsubtraktion durchführen kann, d. h. eine Subtraktion von Daten, die für die Gangartanalyse eines bestimmten Benutzers irrelevant sind.
  • Ferner kann die zum autonomen Fahren verwendete Fähigkeit zum Verfolgen von Straßenteilnehmern verwendet werden, um einen spezifischen Kunden zu erkennen, der sich dem Fahrzeug nähert.
  • Durch die Verwendung von redundanten Umgebungssensoren 40a-40n kann ein Benutzer aus mehreren Winkeln aufgezeichnet werden, wodurch die Wahrscheinlichkeit einer Okklusion von Benutzermerkmalen minimiert wird.
  • Das hierin beschriebene Benutzererkennungssystem erzeugt eine saubere Benutzererfahrung für autonome Fahrzeugfahrgemeinschafts-Kunden, insbesondere in stark frequentierten Bereichen, in denen zu jeder Zeit mehrere Fahrzeuge verfügbar sein können.
  • Das hierin beschriebene Benutzererkennungssystem kann als ein Verfahren zum Herbeirufen oder Mieten eines Autos ohne Verwendung einer Benutzervorrichtung, wie zum Beispiel eines Smartphones, verwendet werden.
  • Mit Bezug auf 2 ist in verschiedenen Ausführungsformen das in Bezug auf 1 beschrieben autonome Fahrzeug für den Einsatz im Rahmen eines Taxi- oder Shuttle-Systems geeignet. So kann beispielsweise das autonome Fahrzeug mit einem autonomen fahrzeugbasierten Beförderungssystem verbunden sein. 2 veranschaulicht eine exemplarische Ausführungsform eines Benutzererkennungssystems 200 zur automatisierten Benutzererkennung in einem autonomen Fahrzeug 207, wie es in Bezug auf 1 beschrieben wurde.
  • In verschiedenen Ausführungsformen beinhaltet das Benutzererkennungssystem 200 einen Kontoserver 201, einen Abgleichserver 203, einen Streckenserver 205 und das autonome Fahrzeug 207 zum Erkennen, d. h. zum Bestätigen einer Identität eines Benutzers 209, der mit dem Benutzererkennungssystem 200 interagiert.
  • Der Kontoserver 201 enthält eine Kundenprofildatenbank 211, die ein biometrisches Modul 213 und ein Kontomodul 215 beinhaltet.
  • Das biometrische Modul 213 speichert eine Datenbank 217 für biometrische Merkmale, eine Gesichtsmerkmalsdatenbank 219 und eine Spracherkennungsmerkmalsdatenbank 221.
  • Das Kontenmodul 215 speichert Benutzernamen in der Benutzernamensdatenbank 223, benutzerspezifische Orte in der Standortdatenbank 225 und Benutzerabrechnungsinformationen in der Abrechnungsinformationsdatenbank 227.
  • Das autonome Fahrzeug 207 tastet kontinuierlich eine Umgebung des autonomen Fahrzeugs 207 ab, indem Umgebungssensoren wie LIDAR, RADAR, Kameras oder dergleichen in dem Abtastschritt 229 verwendet werden. Wenn der Benutzer 209 im Gestenschritt 231 eine Herbeiwinken-Geste zeigt, wird der Benutzer 209 im Erfassungsschritt 233 unter Verwendung eines Gestenerkennungsalgorithmus erfasst, der die von den Umgebungssensoren ermittelten Daten analysiert. Wenn kein Benutzer erfasst wird, fährt das autonome Fahrzeug 207 fort, die Umgebung im Abtastschritt 229 abzutasten, wie es durch den Pfeil 235 angedeutet ist.
  • Sobald ein Benutzer im Erfassungsschritt 233 erfasst wird, ist das autonome Fahrzeug so konfiguriert, dass es im Anhalteschritt 237 an einer Position relativ zum Benutzer 209 am Straßenrand anhält. Ferner scannt das autonome Fahrzeug 207 den Benutzer 207 in dem Annäherungsabtastschritt 239 unter Verwendung der Umgebungssensoren, während sich der Benutzer dem Fahrzeug nähert. Das heißt, wenn sich der Benutzer 209 dem autonomen Fahrzeug 207 im Annäherungsschritt 241 nähert, extrahiert das autonome Fahrzeug 207 beispielsweise Informationen 243 aus den Daten, die von den Umgebungssensoren gemäß seiner Gangart bereitgestellt werden. Informationen, die verwendet werden können, um die Gangart eines Benutzers zu analysieren, können die Länge und/oder die Häufigkeit und/oder die Trittfrequenz bestimmter Schritte sein. Natürlich kann auch die Größe eines Benutzers verwendet werden, um die Gangart des Benutzers zu analysieren.
  • In einem Abgleichverfahren 245 gleicht der Abgleichserver 203, der Teil des autonomen Fahrzeugs 207 oder ein externer Server sein kann, die Informationen 243 mit biometrischen Merkmalen aus der im biometrischen Modul 213 des Kontoservers 201 gespeicherten biometrischen Merkmaldatenbank 217 ab. Wenn ein Ergebnis des Abgleichverfahrens 245 größer als ein gegebener Schwellenwert ist, fährt das Benutzererkennungssystem 200 mit dem Übertragen von wahrscheinlichen Gesichtskarten und/oder Sprachkarten potenzieller Benutzer gemäß den biometrischen Merkmalen der biometrischen Merkmalsdatenbank 217 fort, die die Informationen 243 in dem Abgleichverfahren 245 mit dem autonomen Fahrzeug 207 abgeglichen haben, wie durch den Pfeil 246 angedeutet. Basierend auf den wahrscheinlichen Gesichtskarten und/oder Sprachkarten potenzieller Benutzer führt das autonome Fahrzeug 207 einen Gesichtserkennungsalgorithmus 247 durch, der die wahrscheinlichen Gesichtskarten potenzieller Benutzer mit Gesichtsdaten des Benutzers 209 abgleicht, die im Gesichtsabgleichschritt 249 durch einen Gesichtserkennungssensor des Fahrzeugs 207 bestimmt werden, wenn der Benutzer 209 im Ankunftsschritt 251 bei dem autonomen Fahrzeug 207 ankommt.
  • Wenn der durch das autonome Fahrzeug 207 durchgeführte Gesichtserkennungsalgorithmus 247 mit einer Erkennungsrate endet, die größer als ein gegebener Schwellenwert ist, wird eine Tür des autonomen Fahrzeugs 207 im Entsperrschritt 253 entsperrt.
  • Wenn der durch das autonome Fahrzeug 207 durchgeführte Gesichtserkennungsalgorithmus 247 mit einer Erkennungsrate endet, die kleiner als ein gegebener Schwellenwert ist, wird ein zweiter Gesichtserkennungsalgorithmus 255 unter Verwendung des Abgleichservers 203 durchgeführt. Der Abgleichserver 203 gleicht die Gesichtsdaten des Benutzers 209, die durch den Gesichtserkennungssensor des Fahrzeugs 207 in Schritt 249 bestimmt wurden, mit jedem Datensatz ab, der in der Gesichtsmerkmalsdatenbank 219 verfügbar ist. Somit ist der zweite Gesichtserkennungsalgorithmus 255, der durch den Abgleichserver 203 durchgeführt wird, viel komplexer als der Gesichtserkennungsalgorithmus 247, der von dem autonomen Fahrzeug 207 ausgeführt wird, da der zweite Gesichtserkennungsalgorithmus 255 durch den Abgleichserver 203 eine viel größere Anzahl von Datensätze von Benutzern verwendet als der Gesichtserkennungsalgorithmus 247, der von dem autonomen Fahrzeug 207 durchgeführt wird, der auf wahrscheinlichen Gesichtskarten und wahrscheinlichen Sprachkarten von Benutzern basiert, die basierend auf der Information 243 ausgewählt werden.
  • Wenn das Ergebnis des zweiten Gesichtserkennungsalgorithmus 255, das durch den Abgleichserver 203 durchgeführt wird, nicht größer als ein gegebener Schwellenwert ist, endet das gesamte Verfahren im Beendigungsschritt 257.
  • Wenn das Ergebnis des zweiten Gesichtserkennungsalgorithmus 255, das durch den Abgleichserver 203 durchgeführt wird, größer als ein gegebener Schwellenwert ist, wird das Verfahren mit einem Spracherkennungsalgorithmus 259 fortgesetzt und die Tür in Schritt 253 entsperrt. Ferner werden Sprachkarten von Benutzern, die wahrscheinlich gemäß des durch den Abgleichserver 203 durchgeführten zweiten Gesichtserkennungsalgorithmus 255 erkannt werden, an das autonome Fahrzeug 207 übertragen.
  • Wenn der durch das autonome Fahrzeug 207 durchgeführte Gesichtserkennungsalgorithmus 247 mit einer Erkennungsrate endet, die größer als der gegebene Schwellenwert ist, wird das Verfahren direkt mit dem Spracherkennungsalgorithmus 259 fortgesetzt, wie durch den Pfeil 261 angedeutet.
  • Wenn der Benutzer 209 beim Eintrittsschritt 263 in das autonome Fahrzeug 207 eintritt, beginnt das autonome Fahrzeug 207 im Dialogschritt 267 einen Dialog mit dem Benutzer 209, indem er den Benutzer 209 mit einem Namen begrüßt, der gemäß der Benutzernamendatenbank 223 den in Schritt 247 bzw. 245 erkannten Gesichtsdaten entspricht und durch Abfragen eines gewünschten Ortes in Frageschritt 265.
  • Wenn der Benutzer 209 in dem Informationsschritt 270 mit dem autonomen Fahrzeug 207 spricht, um sein gewünschtes Ziel einzugeben und/oder Informationen über die Dauer der Reise zu seinem Bestimmungsort zu erhalten, wird ein Spracherkennungsalgorithmus 259 durchgeführt, der Sprachdaten, die von dem Benutzer 209 bereitgestellt und durch Spracherkennungssensoren des autonomen Fahrzeugs 207 bestimmt werden, mit den in Schritt 255 oder 247 übertragenen Sprachkennfeldern abgleicht. Wenn ein Ergebnis des Spracherkennungsalgorithmus 259 größer als ein gegebener Schwellenwert ist, wird auf Standorte, die in der Standortdatenbank 225 gespeichert sind, im Zugriffsschritt 269 durch den Streckenserver 203 zugegriffen.
  • Wenn ein Ergebnis des Spracherkennungsalgorithmus 259 kleiner als der gegebene Schwellenwert ist, ist das autonome Fahrzeug 207 so konfiguriert, dass es den Benutzer 209 im manuellen Schritt 275, als Reaktion auf eine entsprechende Anforderung des Benutzers 209 in Schritt 277, zur manuellen Eingabe seiner Bestimmungsort- und/oder Abrechnungsinformationen auffordert.
  • Wenn der Benutzer 209 seine Bestimmungsort und/oder Abrechnungsinformationen in Reaktion auf Schritt 275 nicht eingibt, endet das Verfahren im Beendigungsschritt 271.
  • Wenn der Benutzer 209 seine Bestimmungsort- und/oder Abrechnungsinformationen als Reaktion auf Schritt 275 eingibt, wird der Bestimmungsort an den Streckenserver 203 übertragen. Der Streckenserver 203 erzeugt im Streckenschritt 273 eine Strecke zum Bestimmungsort und sendet die Strecke an das autonome Fahrzeug 207.
  • Wenn ferner der Benutzer 209 seine Bestimmungsort- und/oder Abrechnungsinformationen als Reaktion auf Schritt 275 eingibt, wird der Benutzer 209 durch Bearbeiten der Benutzerabrechnungsinformation in der Abrechnungsinformationsdatenbank 227 im Abrechnungsschritt 277 belastet.
  • Sobald die Strecke an das autonome Fahrzeug 207 übertragen wird, wird dem Benutzer 207 mitgeteilt, dass die Fahrt im Startschritt 279 startet.
  • Im Fahrschritt 281 wird der Benutzer 209 durch das autonome Fahrzeug 207 zu seinem Bestimmungsort gefahren.
  • Im Ankunftsschritt 283 kommen das autonome Fahrzeug 207 und der Benutzer 209 am Bestimmungsort des Benutzers an.
  • Der Benutzer 209 verlässt das autonome Fahrzeug 207 im Beendigungsschritt 285 und das Verfahren endet.
  • Die wichtigsten Schritte, die die Steuerung durchführen muss, sind: Erkennen der Herbeiwinken-Geste in Schritt 233, dann Analysieren der Gangart des Benutzers für das Abgleichverfahren 245, dann Ausführen einer Gesichtserkennung in Schritt 245 und Schritt 255 und schließlich Ausführen des Spracherkennungsalgorithmus 259.
  • In verschiedenen Ausführungsformen können die Anweisungen der Steuerung je nach Funktion oder System gegliedert sein. Zum Beispiel beinhaltet, wie gemäß einer Ausführungsform in 3 gezeigt, eine Steuerung 300 ein biometrisches Erkennungsmodul 301. Das biometrische Erkennungsmodul 301 beinhaltet das Gestenerkennungsmodul 303, das Gesichtserkennungssystem 305 und das Spracherkennungssystem 307. Die Steuerung 300 steht in kommunikativer Verbindung mit einem Kommunikationsmodul 309. Wie ersichtlich ist, können die Anweisungen in verschiedenen Ausführungsformen in beliebig viele Systeme (z. B. kombiniert, weiter unterteilt usw.) gegliedert werden, da die Erfindung nicht auf die vorliegenden Beispiele beschränkt ist. In verschiedenen Ausführungsformen wird das Verfahren durch die in 1 gezeigte Steuerung 34 implementiert.
  • Das Kommunikationsmodul 309 beinhaltet eine Antenne 311 und einen Transceiver 313. Der Transceiver 313 ist konfiguriert, um ein Signal von externen Quellen wie einem Server 315 zu empfangen und um empfangene Signale an die Steuerung 300 zu übertragen.
  • Der Transceiver 313 ist ferner konfiguriert, um Signale von der Steuerung 300 zu einem externen Empfänger wie dem Server 315 zu übertragen.
  • Das biometrische Erkennungsmodul 301 kann den Prozessor 320 der Steuerung 300 verwenden, um Berechnungen durchzuführen oder einen Prozessor zu verwenden, der in dem biometrischen Erkennungsmodul 301 enthalten ist.
  • Das biometrische Erkennungsmodul 301 ist so konfiguriert, dass es gegebene Daten, die eine Identität eines Benutzers anzeigen, mit Daten abgleicht, die von Sensoren des Benutzererkennungssystems wie in 1 gezeigt erfasst werden, indem ein maschineller Lernansatz verwendet wird, wie beispielsweise ein künstliches neuronales Netzwerk.
  • Das biometrische Erkennungsmodul 301 analysiert Daten, die von einem Umgebungssensor bestimmt wurden. Dies bedeutet, dass das Gestenerkennungsmodul 303 basierend auf Abgleichverfahren, die von dem Gestenerkennungsmodul 303, dem Gesichtserkennungssystem 305 und dem Spracherkennungssystem 307 durchgeführt werden, ein Signal erzeugt, das eine positive oder negative Erkennung eines bestimmten Benutzers anzeigt.
  • Liste der Bezugszeichen
  • 10
    Fahrzeug
    12
    Chassis
    14
    Körper
    16
    Vorderräder
    18
    Hinterräder
    20
    Antriebssystem
    22
    Übertragungssystem
    24
    Lenksystem
    26
    Bremsanlage
    28
    Sensorsystem
    30
    biometrisches Erkennungsmodul
    32
    Datenspeichervorrichtung
    34
    Steuerung
    36
    Kommunikationsmodul
    40a-40n
    Umgebungssensoren
    42a
    scannende Sensoren
    42b
    Spracherkennungssensor
    42n
    Prozessor
    44
    Prozessor
    46
    Computerlesbare(s) Speichervorrichtung oder Medium
    48
    externer Server
    100
    Benutzererkennungssystem
    200
    Benutzererkennungssystem
    201
    Kontoserver
    203
    Abgleichserver
    205
    Streckenserver
    207
    autonomes Fahrzeug
    209
    Benutzer
    211
    Profildatenbank
    213
    biometrisches Modul
    215
    Kontomodul
    217
    biometrische Merkmalsdatenbank
    219
    Gesichtsmerkmalsdatenbank
    221
    Spracherkennungsmerkmaldatenbank
    223
    Benutzernamendatenbank
    225
    Standortdatenbank
    227
    Abrechnungsinformationsdatenbank
    229
    Abtastschritt
    231
    Gestenschritt
    233
    Erfassungsschritt
    235
    Pfeil
    237
    Anhalteschritt
    239
    Annäherungsabtastschritt
    241
    Annäherungsschritt
    243
    Information
    245
    Abgleichverfahren
    246
    Pfeil
    247
    Gesichtserkennungsalgorithmus
    249
    Gesichtsabgleichschritt
    251
    Ankunftsschritt
    253
    Entsperrschritt
    255
    Gesichtserkennungsalgorithmus
    257
    Beendigungsschritt
    259
    Spracherkennungsalgorithmus
    261
    Pfeil
    263
    Eintrittsschritt
    265
    Frageschritt
    267
    Dialogschritt
    269
    Zugriffsschritt
    271
    Beendigungsschritt
    270
    Informationsschritt
    273
    Streckenschritt
    275
    manueller Schritt
    277
    Abrechnungsschritt
    279
    Startschritt
    281
    Fahrschritt
    283
    Ankunftsschritt
    285
    Beendigungsschritt
    300
    Steuerung
    301
    biometrisches Erkennungsmodul
    303
    Gestenerkennungsmodul
    305
    Gesichtserkennungssystem
    307
    Spracherkennungssystem
    309
    Kommunikationsmodul
    311
    Antenne
    313
    Transceiver
    315
    Server
    320
    Prozessor
    400
    Verfahren
    401
    Gestenschritt
    403
    Annäherungsschritt
    405
    Übertragungsschritt
    407
    Ankunftsschritt
    409
    Frageschritt
    411
    Bestätigungsschritt
    413
    Streckenschritt
    415
    Fahrschritt

Claims (10)

  1. Benutzererkennungssystem (100, 200) zur automatischen Benutzererkennung in einem autonomen Fahrzeug (10, 207), umfassend: eine Steuerung (34, 300) mit mindestens einem Prozessor (320, 44), der Funktionen für die automatische Benutzererkennung in dem autonomen Fahrzeug (10, 207) bereitstellt; mindestens einen Umgebungssensor (40a-40n), der konfiguriert ist, um eine Umgebung des autonomen Fahrzeugs (10, 207) zu scannen und Scandaten der Umgebung zu einem biometrischen Erkennungsmodul (30, 301) des autonomen Fahrzeugs (10, 207) zu übertragen; ein biometrisches Erkennungsmodul (30, 301), das konfiguriert ist, um die Scandaten der Umgebung basierend auf einem Gestenerkennungsalgorithmus unter Verwendung des mindestens einen Prozessors (320, 44) zu analysieren; wobei der mindestens eine Prozessor (320, 44) konfiguriert ist, um die Scandaten der Umgebung basierend auf mindestens einem biometrischen Merkmal zu analysieren; wobei das mindestens eine biometrische Merkmal mindestens eine Herbeiwinken-Geste umfasst; und wobei die Steuerung (34, 300) konfiguriert ist, das autonome Fahrzeug (10, 207) an einer Position relativ zu dem Benutzer (209) anzuhalten und das autonome Fahrzeug (10, 207) so konfiguriert ist, dass es dem Benutzer (209) die Verwendung des autonomen Fahrzeugs (10, 207) anbietet, wenn der Gestenerkennungsalgorithmus einen Benutzer (209) erkennt, der eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt.
  2. Benutzererkennungssystem (100, 200) nach Anspruch 1, wobei die Steuerung (34, 300) konfiguriert ist, um mindestens einen Sensor des autonomen Fahrzeugs (10, 207) auf den Benutzer (209) zu fokussieren, wenn der Gestenerkennungsalgorithmus einen Benutzer (209) erkennt, der eine Herbeiwinken-Geste in den Scandaten der Umgebung gemäß dem mindestens einen biometrischen Merkmal zeigt, und/oder wobei das biometrische Erkennungsmodul (30, 301) zum Analysieren einer Gangart des Benutzers (209) unter Verwendung eines Gangartanalysieralgorithmus konfiguriert ist, der aktuelle Scandaten der Umgebung analysiert, während sich der Benutzer (209) dem Fahrzeug (10, 207) nähert.
  3. Benutzererkennungssystem (100, 200) nach Anspruch 2, wobei das Benutzererkennungssystem (100, 200) einen Server (48, 315) und ein Kommunikationsmodul (36, 309) umfasst; und wobei die Steuerung (34, 300) konfiguriert ist, um Ergebnisse des Gangartanalysieralgorithmus und/oder Ergebnisse des Gestenerkennungsalgorithmus über das Kommunikationsmodul (36, 309) an den Server (48, 315) zu übertragen; und wobei der Server (48, 315) konfiguriert ist, nach Daten bezüglich der Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysieralgorithmus in einer Datenbank (219) zu suchen, und um die Daten, die sich auf die Ergebnisse des Gestenerkennungsalgorithmus und/oder die Ergebnisse des Gangartanalysieralgorithmus beziehen, unter Verwendung des Kommunikationsmoduls (36, 309) an die Steuerung (34, 300) zu übertragen.
  4. Benutzererkennungssystem (100, 200) nach Anspruch 3, wobei die von dem Server (48, 315) zu der Steuerung (34, 300) übertragenen Daten mindestens Daten eines Profils des Benutzers (209), erwartete Gesichtsdaten des Benutzers (209) und eine Sprachkarte des Benutzers (209) umfassen; und wobei die Steuerung (34, 300) ein Spracherkennungssystem (307) und/oder ein Gesichtserkennungssystem (305) umfasst; und wobei Daten, die von dem Server (48, 315) zu der Steuerung (34, 300) übertragen werden, eine Liste von Identifikationsdaten von Benutzern (209) umfassen, die basierend auf den Ergebnissen des Gangartanalysieralgorithmus und/oder den dem Server (48, 315) übermittelten Ergebnissen des Gestenerkennungsalgorithmus zu erkennen sind; und wobei die Steuerung (34, 300) konfiguriert ist, um die Identität eines einzelnen Benutzers (209) basierend auf den Daten zu bestätigen, die von dem Server (48, 315) an das Gesichtserkennungssystem (305) und/oder das Spracherkennungssystem (307) übertragen werden; und wobei die Steuerung (34, 300) dazu konfiguriert ist, durch das Gesichtserkennungssystem (305) und/oder das Spracherkennungssystem (307) bestimmte Daten zu dem Server (48, 315) zu übertragen, wenn die Identität eines einzelnen Benutzers (209) nicht basierend auf den Daten, die von dem Server (48, 315) unter Verwendung eines Gesichtserkennungssystems (305) und/oder eines Spracherkennungssystem (307) übertragen werden, bestätigt wird; und wobei der Server (48, 315) konfiguriert ist, um die Identität eines einzelnen Benutzers (209) basierend auf den durch das Gesichtserkennungssystem (305) und/oder das Spracherkennungssystem (307) und einer Datenbank mit Gesichtsdaten und/oder Sprachdaten einer Vielzahl von Benutzern (209) zu bestätigen und die bestätigte Identität des einzelnen Benutzers (209) an die Steuerung (34, 300) zu übertragen, und/oder wobei die Steuerung (34, 300) konfiguriert ist, den Benutzer (209) von der Verwendung des autonomen Fahrzeugs (10, 207) auszuschließen, wenn der Server (48, 315) keine Daten bezüglich der Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysieralgorithmus in der Datenbank findet, oder wobei das Benutzererkennungssystem (100, 200) mindestens ein Gesichtserkennungssystem (305) umfasst, das konfiguriert ist, um ein Gesicht des Benutzers (209) unter Verwendung eines Gesichtsscansensors abzutasten und die Abtastdaten des Gesichts des Benutzers (209) mit den erwarteten Gesichtsdaten, die von dem Server (48, 315) unter Verwendung des mindestens einen Prozessors (320, 44) übertragen werden, abzugleichen; und/oder wobei die Steuerung (34, 300) konfiguriert ist, das autonome Fahrzeug (10, 207) zu entsperren und einen Dialog mit dem Benutzer (209) zu beginnen, wenn die Scandaten des Gesichts des Benutzers (209) mit den erwarteten Gesichtsdaten übereinstimmen, die von dem Server (48, 315) übertragen werden.
  5. Benutzererkennungssystem (100, 200) nach Anspruch 4, wobei das Benutzererkennungssystem (100, 200) mindestens ein Spracherkennungssystem (307) umfasst, das zum Abtasten von Sprachdaten konfiguriert ist, die vom Benutzer (209) während des Dialogs unter Verwendung eines Spracherkennungssensors (42b) bereitgestellt werden; und wobei die Steuerung (34, 300) konfiguriert ist, um die Identität des Benutzers (209) zu bestätigen, wenn die Scandaten der Stimme des Benutzers (209) mit der Sprachkarte übereinstimmen, die von dem Server (48, 315) übertragen wird und wobei der Dialog mindestens eine Frage bezüglich eines Bestimmungsortes des Benutzers (209) umfasst, und/oder wobei die Steuerung (34, 300) konfiguriert ist zum Bestimmen der Strecke zu dem Bestimmungsort des Benutzers (209) durch Übertragen von Information über den Bestimmungsort des Benutzers (209), extrahiert aus den Sprachdaten, die durch den Spracherkennungssensor (42b) bereitgestellt werden, zu einem Server (48, 315); und/oder wobei der Server (48, 315) konfiguriert ist, basierend auf den Sprachdaten eine Strecke zu dem Ziel des Benutzers (209) zu erzeugen und die Stecke unter Verwendung eines Kommunikationsmoduls (36, 309) an die Steuerung (34, 300) zu übertragen.
  6. Benutzererkennungssystem (100, 200) nach Anspruch 5, wobei das Spracherkennungssystem (307) zum Extrahieren von Informationen bezüglich des Bestimmungsortes des Benutzers (209) aus von dem Spracherkennungssensor (42b) bereitgestellten Sprachdaten konfiguriert ist; und wobei die Steuerung (34, 300) konfiguriert ist, um eine Strecke zu dem Bestimmungsort des Benutzers (209) zu bestimmen und das autonome Fahrzeug (10, 207) zu konfigurieren, um den Benutzer (209) zu dem Bestimmungsort des Benutzers (209) zu fahren, und/oder wobei das Spracherkennungssystem (307) konfiguriert ist, um Informationen über einen emotionalen Zustand des Benutzers (209) aus den Sprachdaten, die von dem Spracherkennungssensor (42b) bereitgestellt werden, zu extrahieren; und/oder wobei die Steuerung (34, 300) konfiguriert ist, um ein Fahrverhalten basierend auf dem aktuellen emotionalen Zustand des Benutzers (209) zu modifizieren, und/oder wobei das biometrische Erkennungsmodul (30, 301) konfiguriert ist, um benutzerbezogene Daten aus den Scandaten der Umgebung zu extrahieren, indem die Scandaten der Umgebung mit Daten der Umgebung verglichen werden, die durch mindestens einen zusätzlichen Umgebungssensor (40a-40n) des autonomen Fahrzeugs (10, 207) bereitgestellt werden, sodass nur Daten, die mit dem Benutzer (209) in Beziehung stehen, von dem Gestenerkennungsalgorithmus verwendet werden, um die Herbeiwinken-Geste zu erkennen, und Daten, die sich auf einen bestimmten Hintergrund beziehen, werden subtrahiert, oder wobei der Gestenerkennungsalgorithmus auf einem Verfolgungsalgorithmus des autonomen Fahrzeugs (10, 207) zum Verfolgen von Straßenteilnehmern basiert, wobei der mindestens eine zusätzliche Umgebungssensor (40a-40n) mindestens einer oder eine Kombination ist von: LIDAR-Sensor, Kamera-Sensoren in mehreren Winkeln und Mikrofon-Sensor.
  7. Benutzererkennungssystem (100, 200) nach Anspruch 1, wobei, wenn der Gestenerkennungsalgorithmus einen Benutzer (209) erkennt, der eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt, die Steuerung (34, 300) konfiguriert ist, das autonome Fahrzeug (10, 207) an der Position relativ zum Benutzer (209) anzuhalten und dem Benutzer (209) die Vermietung des autonomen Fahrzeugs (10, 207) anzubieten und in Rechnung zu stellen, indem der Benutzer basierend auf biometrischen Daten des Benutzers (209), die von mindestens einem Sensor des autonomen Fahrzeugs (10, 207) erfasst wurden, identifiziert wird.
  8. Autonomes Fahrzeug (10, 207) umfassend eine Steuerung (34, 300) mit mindestens einem Prozessor, der Funktionen für die automatische Benutzererkennung bereitstellt; mindestens einen Umgebungssensor (40a-40n), der konfiguriert ist, um eine Umgebung des autonomen Fahrzeugs (10, 207) zu scannen und Scandaten der Umgebung zu einem biometrischen Erkennungsmodul (30, 301) zu übertragen; ein biometrisches Erkennungsmodul (30, 301), das konfiguriert ist, um die Scandaten der Umgebung basierend auf einem Gestenerkennungsalgorithmus unter Verwendung des mindestens einen Prozessors (320, 44) zu analysieren; wobei der Gestenerkennungsalgorithmus die Scandaten der Umgebung basierend auf mindestens einem biometrischen Merkmal unter Verwendung des mindestens einen Prozessors (320, 44) analysiert; wobei das mindestens eine biometrische Merkmal mindestens eine Herbeiwinken-Geste umfasst; und wobei, wenn der Gestenerkennungsalgorithmus einen Benutzer (209) erkennt, der eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt, die Steuerung (34, 300) konfiguriert ist, das autonome Fahrzeug (10, 207) an einer Position relativ zu dem Benutzer anzuhalten und dem Benutzer (209) die Verwendung des autonomen Fahrzeugs (10, 207) anzubieten.
  9. Verfahren zur Bereitstellung von Funktionen zur automatisierten Benutzererkennung in einem autonomen Fahrzeug (10, 207), umfassend die Schritte: Scannen einer Umgebung des autonomen Fahrzeugs (10, 207) unter Verwendung von mindestens einem Umgebungssensor (40a-40n) des autonomen Fahrzeugs (10, 207) und Übertragen von Scandaten der Umgebung an ein biometrisches Erkennungsmodul (30, 301); Analysieren der Scandaten der Umgebung basierend auf einem Gestenerkennungsalgorithmus unter Verwendung von mindestens einem Prozessor (320, 44) einer Steuerung (34, 300), die das biometrische Erkennungsmodul (30, 301) umfasst; Analysieren der Scandaten der Umgebung basierend auf mindestens einem biometrischen Merkmal basierend auf dem Gestenerkennungsalgorithmus unter Verwendung des mindestens einen Prozessors (320, 44); wobei das mindestens eine biometrische Merkmal mindestens eine Herbeiwinken-Geste umfasst; und, wenn der Gestenerkennungsalgorithmus einen Benutzer (209) erkennt, der eine Herbeiwinken-Geste gemäß dem mindestens einen biometrischen Merkmal in den Scandaten der Umgebung zeigt, das autonome Fahrzeug (10, 207) bei dem Benutzer (209) anzuhalten und dem Benutzer (209) die Verwendung des autonomen Fahrzeugs (10, 207) anzubieten.
  10. Verfahren nach Anspruch 9, folgende Schritte umfassend: Analysieren einer Gangart des Benutzers (209) unter Verwendung eines Gangartanalysieralgorithmus, der aktuelle Scandaten der Umgebung analysiert, während sich der Benutzer (209) dem Fahrzeug (10, 207) nähert; Übertragen von Ergebnissen des Gangartanalysieralgorithmus und/oder von Ergebnissen des Gestenerkennungsalgorithmus an einen Server (48, 315) unter Verwendung eines Kommunikationsmoduls (36, 309) der Steuerung (34, 300); und Suchen nach Daten bezüglich der Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysieralgorithmus in einer Datenbank, und Übertragen der Daten bezüglich der Ergebnisse des Gestenerkennungsalgorithmus und/oder der Ergebnisse des Gangartanalysieralgorithmus unter Verwendung des Servers (48, 315) an die Steuerung; wobei die von dem Server (48, 315) zu der Steuerung (34, 300) übertragenen Daten, mindestens Daten eines Profils des Benutzers (209), erwartete Gesichtsdaten des Benutzers (209) und eine Sprachkarte des Benutzers (209) umfassen; Scannen eines Gesichts des Benutzers (209) unter Verwendung eines Gesichtsscansensors und Abgleichen der Abtastdaten des Gesichts des Benutzers (209) mit den erwarteten Gesichtsdaten, die von dem Server (48, 315) unter Verwendung eines Gesichtserkennungssystems (305) der Steuerung (34, 300) übertragen werden; Entsperren des autonomen Fahrzeugs (10, 207) und Beginnen eines Dialogs mit dem Benutzer (209), wenn die Scandaten des Gesichts des Benutzers (209) mit den erwarteten Gesichtsdaten übereinstimmen, die von dem Server (48, 315) unter Verwendung der Steuerung (34, 300) übertragen werden; wobei der Dialog mindestens eine Frage umfasst, die einen Bestimmungsort des Benutzers (209) betrifft; Scannen von Sprachdaten, die von dem Benutzer (209) während des Dialogs bereitgestellt werden, unter Verwendung eines Spracherkennungssensors (42b) eines Spracherkennungssystems (307) der Steuerung (34, 300); Abgleichen der Scandaten der Stimme des Benutzers (209) mit der Sprachkarte, die von dem Server (48, 315) unter Verwendung des mindestens einen Prozessors (320, 44) übertragen wird; Bestätigen einer Identität des Benutzers (209), wenn die Scandaten der Sprache des Benutzers (209) mit der von dem Server (48, 315) übertragenen Sprachkarte übereinstimmen; Extrahieren von Informationen über den Bestimmungsort des Benutzers (209) aus Sprachdaten, die von dem Spracherkennungssensor (42b) bereitgestellt werden, unter Verwendung des Spracherkennungssystems (307); Bestimmen einer Strecke zu dem Bestimmungsort des Benutzers (209) und Konfigurieren des autonomen Fahrzeugs (10, 207), um den Benutzer (209) unter Verwendung des mindestens einen Prozessors (320, 44) zum Bestimmungsort des Benutzers (209) zu fahren.
DE102018119239.8A 2017-08-10 2018-08-07 Benutzererkennungssystem und -verfahren für autonome fahrzeuge Active DE102018119239B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/674,105 2017-08-10
US15/674,105 US10395457B2 (en) 2017-08-10 2017-08-10 User recognition system and methods for autonomous vehicles

Publications (2)

Publication Number Publication Date
DE102018119239A1 DE102018119239A1 (de) 2019-02-14
DE102018119239B4 true DE102018119239B4 (de) 2024-03-07

Family

ID=65084727

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018119239.8A Active DE102018119239B4 (de) 2017-08-10 2018-08-07 Benutzererkennungssystem und -verfahren für autonome fahrzeuge

Country Status (3)

Country Link
US (1) US10395457B2 (de)
CN (1) CN109389766B (de)
DE (1) DE102018119239B4 (de)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671076B1 (en) 2017-03-01 2020-06-02 Zoox, Inc. Trajectory prediction of third-party objects using temporal logic and tree search
US10353390B2 (en) 2017-03-01 2019-07-16 Zoox, Inc. Trajectory generation and execution architecture
US10788829B2 (en) * 2017-12-20 2020-09-29 International Business Machines Corporation Self-driving vehicle passenger management
US10955851B2 (en) 2018-02-14 2021-03-23 Zoox, Inc. Detecting blocking objects
US10414395B1 (en) 2018-04-06 2019-09-17 Zoox, Inc. Feature-based prediction
US11126873B2 (en) * 2018-05-17 2021-09-21 Zoox, Inc. Vehicle lighting state determination
US10576934B2 (en) * 2018-07-20 2020-03-03 Ford Global Technologies, Llc Decentralized cloud-based authentication for autonomous vehicles
US11068893B2 (en) * 2018-07-20 2021-07-20 Ford Global Technologies, Llc Decentralized cloud-based authentication for vehicles and associated transactions
CN112489253B (zh) 2018-08-31 2022-10-14 创新先进技术有限公司 智能锁的解锁方法、移动终端、服务器及可读存储介质
WO2020069517A2 (en) * 2018-09-30 2020-04-02 Strong Force Intellectual Capital, Llc Intelligent transportation systems
JP7013407B2 (ja) * 2019-03-07 2022-01-31 矢崎総業株式会社 車両管理システム
JP7237684B2 (ja) * 2019-03-27 2023-03-13 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11269353B2 (en) * 2019-03-28 2022-03-08 Gm Cruise Holdings Llc Autonomous vehicle hailing and pickup location refinement through use of an identifier
DE102019108159A1 (de) * 2019-03-29 2020-10-01 B-Horizon GmbH Carsharing Verwaltungssystem
US11458929B1 (en) * 2019-05-10 2022-10-04 Gm Cruise Holdings Llc Unlocking vehicle doors with facial recognition
DE102019212998B4 (de) * 2019-08-29 2022-08-04 Volkswagen Aktiengesellschaft Fortbewegungsmittel, Vorrichtung und Verfahren zum Positionieren eines automatisiert fahrfähigen Fortbewegungsmittels
CN110843790A (zh) * 2019-11-21 2020-02-28 大众问问(北京)信息科技有限公司 一种车辆内的硬件协同控制方法、装置及设备
US11794695B2 (en) 2020-02-20 2023-10-24 B-Horizon GmbH Car sharing management system
WO2021181462A1 (ja) * 2020-03-09 2021-09-16 日本電気株式会社 車両、ロック解除装置、方法、及びコンピュータ可読媒体
US11163372B2 (en) * 2020-04-01 2021-11-02 Toyota Motor North America, Inc Transport gait and gesture interpretation
DE102020204362A1 (de) 2020-04-03 2021-10-07 Volkswagen Aktiengesellschaft Verfahren zum Bewerten einer Geste eines Fahrzeuginsassen in einem Innenraum eines Fahrzeugs, ein Verfahren zum Beleuchten eines Objekts sowie ein Beleuchtungssystem
CN111523460A (zh) * 2020-04-23 2020-08-11 上海铠盾科技有限公司 一种标准作业行为检测***
CN113935392A (zh) * 2020-06-29 2022-01-14 比亚迪股份有限公司 驾驶员身份识别方法、装置、电子设备及可读存储介质
CN112053505B (zh) * 2020-08-21 2022-07-01 杭州小电科技股份有限公司 移动电源租借方法、装置、***、电子装置和存储介质
US11685401B2 (en) * 2020-09-29 2023-06-27 Waymo Llc Semantic identification of pickup locations
EP4246267A4 (de) * 2020-12-25 2024-01-17 Huawei Technologies Co., Ltd. Fahrzeuganrufverfahren, intelligentes fahrzeug und vorrichtung
CN113525508B (zh) * 2021-07-23 2022-04-15 深圳华一精品科技有限公司 一种方向盘的控制方法、控制***、车辆、计算机设备及计算机可读存储介质
US11884238B2 (en) * 2021-10-21 2024-01-30 Zoox, Inc. Vehicle door interface interactions
US11932200B2 (en) * 2021-12-03 2024-03-19 Ford Global Technologies, Llc Vehicle and method of controlling a powered door based on user identification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170153714A1 (en) 2016-03-03 2017-06-01 Cruise Automation, Inc. System and method for intended passenger detection
DE102016217770A1 (de) 2016-09-16 2018-03-22 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs
EP3611712A1 (de) 2017-04-14 2020-02-19 Panasonic Intellectual Property Corporation of America Autonomes fahrzeug, verfahren zum anhalten eines autonomen fahrzeugs und programm

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1590762A4 (de) * 2003-01-16 2007-07-25 Intelitrac Inc Verfahren und/oder system für automatisierte gesichtserkennung und automatisierten gesichtsvergleich unter verwendung von mehreren aus einem aufgenommenen 3d-gesichtsbild geparsten 2d-gesichtsbildern
US7917768B2 (en) * 2007-01-23 2011-03-29 Dp Technologies, Inc. System control via characteristic gait signature
US10552661B2 (en) * 2011-02-04 2020-02-04 Sciometrics, Llc Systems and methods for biometric identification
KR101499101B1 (ko) * 2013-07-08 2015-03-06 체이시로보틱스(주) 차량의 자동주차 장치
CN103955215B (zh) * 2014-04-15 2016-10-05 桂林电子科技大学 基于手势识别的自动避障小车及其控制装置和控制方法
US10096216B1 (en) * 2014-12-16 2018-10-09 Amazon Technologies, Inc. Activation of security mechanisms through accelerometer-based dead reckoning
WO2016170764A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
CN104786988B (zh) * 2015-04-22 2018-07-13 北京兴科迪科技有限公司 一种用于车辆的双重认证进门控制方法
KR101942793B1 (ko) * 2015-07-03 2019-01-28 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
KR101709521B1 (ko) * 2015-07-30 2017-03-09 주식회사 한글과컴퓨터 무인 스마트카를 이용한 공익서비스 시스템 및 방법
US10220705B2 (en) * 2015-08-12 2019-03-05 Madhusoodhan Ramanujam Sharing autonomous vehicles
CN105069736A (zh) * 2015-08-25 2015-11-18 北京丰华联合科技有限公司 一种针对自动驾驶的租车管理***
CN107924523A (zh) * 2015-09-04 2018-04-17 罗伯特·博世有限公司 通过感测车辆乘员的人口统计信息来选择性地显示广告的广告牌显示器和方法
US20170217445A1 (en) * 2016-01-29 2017-08-03 GM Global Technology Operations LLC System for intelligent passenger-vehicle interactions
US20170221480A1 (en) * 2016-01-29 2017-08-03 GM Global Technology Operations LLC Speech recognition systems and methods for automated driving
US20170349184A1 (en) * 2016-06-06 2017-12-07 GM Global Technology Operations LLC Speech-based group interactions in autonomous vehicles
US20180018179A1 (en) * 2016-07-12 2018-01-18 Ford Global Technologies, Llc Intelligent pre-boot and setup of vehicle systems
US10244094B2 (en) * 2016-08-18 2019-03-26 nuTonomy Inc. Hailing a vehicle
US20180053276A1 (en) * 2016-08-18 2018-02-22 nuTonomy Inc. Hailing a vehicle
US20180225307A1 (en) * 2016-08-31 2018-08-09 Robert William Kocher Two-stage, facial recognition and identification system (two-stage facial R & I system)
KR102003940B1 (ko) * 2016-11-11 2019-10-01 엘지전자 주식회사 자율 주행 차량 및 그 제어방법
CN106650633A (zh) * 2016-11-29 2017-05-10 上海智臻智能网络科技股份有限公司 一种驾驶员情绪识别方法和装置
CN106627589A (zh) * 2016-12-27 2017-05-10 科世达(上海)管理有限公司 一种车辆行驶安全辅助方法、***及车辆
US20180189547A1 (en) * 2016-12-30 2018-07-05 Intel Corporation Biometric identification system
US20180284783A1 (en) * 2017-03-31 2018-10-04 GM Global Technology Operations LLC Autonomous vehicle routing based on occupant characteristics
US20180283889A1 (en) * 2017-03-31 2018-10-04 Intel Corporation Navigation based on user intentions
US11244252B2 (en) * 2017-06-21 2022-02-08 Chian Chiu Li Autonomous driving under user instructions and hailing methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170153714A1 (en) 2016-03-03 2017-06-01 Cruise Automation, Inc. System and method for intended passenger detection
DE102016217770A1 (de) 2016-09-16 2018-03-22 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs
EP3611712A1 (de) 2017-04-14 2020-02-19 Panasonic Intellectual Property Corporation of America Autonomes fahrzeug, verfahren zum anhalten eines autonomen fahrzeugs und programm

Also Published As

Publication number Publication date
US20190051069A1 (en) 2019-02-14
DE102018119239A1 (de) 2019-02-14
CN109389766A (zh) 2019-02-26
US10395457B2 (en) 2019-08-27
CN109389766B (zh) 2021-07-27

Similar Documents

Publication Publication Date Title
DE102018119239B4 (de) Benutzererkennungssystem und -verfahren für autonome fahrzeuge
DE102018129066B4 (de) Systeme und verfahren für ungeschütztes linksabbiegen in situationen mit hohem verkehrsaufkommen in autonomen fahrzeugen
DE102018129295A1 (de) Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen
DE102018121595A1 (de) Unbeaufsichtigtes anlernen von agenten für autonome fahranwendungen
DE102018122588A1 (de) Systeme und verfahren zur zusammenarbeit zwischen autonomen fahrzeugen
DE102018129064A1 (de) Systeme und verfahren zur geschwindigkeitsanpassung für einen bevorstehenden spurwechsel in autonomen fahrzeugen
DE102019100569A1 (de) Systeme und verfahren zum mindern von ungeschützten manövern in autonomen fahrzeugen
DE102018117529A1 (de) Ladesysteme für autonome Fahrzeuge
DE102019102195A1 (de) Systeme und verfahren zur kollisionserkennung in autonomen fahrzeugen
DE102018129074A1 (de) Systeme und verfahren zum umfahren von hindernissen in autonomen fahrzeugen
DE102019100572A1 (de) Systeme und verfahren für die wegplanung in autonomen fahrzeugen
DE102017116582A1 (de) Fahrzeugferneinparkhilfe mit insassenerfassung
DE102018121791A1 (de) Systeme und Verfahren zur Bestimmung des Vorhandenseins von Verkehrssteuerungspersonal und Verkehrsleitschildern
DE102017125421A1 (de) Objektklassifikationsanpassung anhand einer fahrzeugkommunikation
EP2915152B1 (de) Verfahren zum identifizieren eines von einer sensoreinrichtung erfassten fahrzeugs
DE102017106685A1 (de) Systeme und verfahren zur entdeckung von objekten in einem fahrzeug
DE102018123464A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen
DE102018123467A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen
DE102020108791A1 (de) Schlüsseltransponder für ferneinparkhilfe eines fahrzeugs
DE102018129101A1 (de) Aktiver verkehrsteilnehmer
DE102019107485A1 (de) Bewegung eines autonomen fahrzeugs um stationäre fahrzeuge herum
DE112014001845T5 (de) Authentifizierung für Erkennungssysteme
DE102018110428A1 (de) Einstellung des türstellglieds für autonome fahrzeuge
DE102018129846A1 (de) Systeme und Verfahren zum Erkennen, Klassifizieren und Geolokalisieren von Verkehrsobjekten
DE102019102565A1 (de) Mitfahrerbewertungssysteme und -verfahren für gemeinsam genutzte autonome fahrzeuge

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0025000000

Ipc: B60R0025250000

R016 Response to examination communication
R018 Grant decision by examination section/examining division