DE102017126925A1 - Automatisierte Co-Pilotsteuerung für autonome Fahrzeuge - Google Patents

Automatisierte Co-Pilotsteuerung für autonome Fahrzeuge Download PDF

Info

Publication number
DE102017126925A1
DE102017126925A1 DE102017126925.8A DE102017126925A DE102017126925A1 DE 102017126925 A1 DE102017126925 A1 DE 102017126925A1 DE 102017126925 A DE102017126925 A DE 102017126925A DE 102017126925 A1 DE102017126925 A1 DE 102017126925A1
Authority
DE
Germany
Prior art keywords
vehicle
pose
controller
algorithm
vehicle pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017126925.8A
Other languages
English (en)
Inventor
Upali P. Mudalige
Padma Sundaram
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102017126925A1 publication Critical patent/DE102017126925A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/10Conjoint control of vehicle sub-units of different type or different function including control of change-speed gearings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • B60W10/184Conjoint control of vehicle sub-units of different type or different function including control of braking systems with wheel brakes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/023Avoiding failures by using redundant parts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0077Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements using redundant signals or controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/08Electric propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/10Change speed gearings
    • B60W2710/1005Transmission ratio engaged
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Steuerungssystem für ein Fahrzeug beinhaltet mindestens eine Steuerung. Die Steuerung ist programmiert, um erste Sensormesswerte von einer ersten Gruppe von Sensoren zu empfangen und eine erste Fahrzeugpose basierend auf den ersten Sensormesswerten zu erhalten. Die erste Fahrzeugpose beinhaltet einen ersten Standort und eine erste Orientierung des Fahrzeugs. Die Steuerung ist auch programmiert, um zweite Sensormesswerte von einer zweiten Gruppe von Sensoren zu empfangen und eine zweite Fahrzeugpose basierend auf den zweiten Sensormesswerten bereitzustellen. Die zweite Fahrzeugpose beinhaltet einen zweiten Standort und eine zweite Orientierung des Fahrzeugs. Die Steuerung ist ferner programmiert, um in Reaktion auf die erste Fahrzeugpose außerhalb eines vorbestimmten Bereichs der zweiten Fahrzeugpose ein Diagnosesignal zu erzeugen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich auf Fahrzeuge, die durch automatisierte Fahrsysteme gesteuert werden, insbesondere jene, die konfiguriert sind, um die Fahrzeuglenkung, die Beschleunigung und das Bremsen während eines Antriebszyklus ohne menschliches Eingreifen automatisch zu steuern.
  • EINLEITUNG
  • Der Betrieb von modernen Fahrzeugen wird zunehmend automatisierter, d. h. Fahrzeuge übernehmen die Fahrsteuerung mit geringerem Eingriff des Fahrers. Die Fahrzeugautomatisierung wurde kategorisiert nach nummerischen Ebenen von null, entsprechend keiner Automatisierung mit voller menschlicher Kontrolle, bis Fünf, entsprechend der vollen Automatisierung ohne menschliche Kontrolle. Verschiedene automatisierte Fahrerassistenzsysteme, wie beispielsweise Geschwindigkeitsregelung, adaptive Geschwindigkeitsregelung und Parkassistenzsysteme, entsprechen niedrigeren Automatisierungsebenen, während echte „fahrerlosen“ Fahrzeuge mit höheren Automatisierungsebenen übereinstimmen.
  • ZUSAMMENFASSUNG
  • Ein Kraftfahrzeug gemäß der vorliegenden Offenbarung beinhaltet eine Vielzahl von Sensoren, die konfiguriert sind, um externe Merkmale im Umkreis des Fahrzeugs zu erfassen. Das Fahrzeug beinhaltet zusätzlich ein Stellglied, das dazu konfiguriert ist, die Fahrzeuglenkung, die Beschleunigung, das Bremsen oder die Gangschaltung zu steuern. Das Fahrzeug beinhaltet ferner mindestens eine Steuerung in elektronischer Verbindung mit den jeweiligen Sensoren der Vielzahl von Sensoren und dem Stellglied. Die Steuerung ist mit einem automatisierten Steuerungsalgorithmus für das Antriebssystem programmiert und konfiguriert, um das Stellglied basierend auf dem Steuerungsalgorithmus für das automatisierte Antriebssystem automatisch zu steuern. Der automatisierte Steuerungsalgorithmus für das Antriebssystem beinhaltet einen ersten Lokalisierungsalgorithmus, einen zweiten Lokalisierungsalgorithmus und einen Arbitrationsalgorithmus für die Lokalisierung. Der erste Lokalisierungsalgorithmus ist konfiguriert, um erste Sensormesswerte von einer ersten Gruppe von entsprechenden Sensoren der Vielzahl von Sensoren zu empfangen und eine erste Fahrzeugposition basierend auf den ersten Sensormesswerten zu erhalten. Die erste Fahrzeugpose beinhaltet eine erste Lokalisierung und eine erste Orientierung des Fahrzeugs. Der zweite Lokalisierungsalgorithmus ist konfiguriert, um zweite Sensormesswerte von einer zweiten Gruppe von entsprechenden Sensoren der Vielzahl von Sensoren zu empfangen und eine zweite Fahrzeugpose basierend auf den zweiten Sensormesswerten bereitzustellen. Die zweite Fahrzeugpose beinhaltet einen zweiten Standort und eine zweite Orientierung des Fahrzeugs. Der Arbitrierungsalgorithmus zur Lokalisierung ist konfiguriert, um in Reaktion auf die erste Fahrzeugpose außerhalb eines vorbestimmten Bereichs der zweiten Fahrzeugposen ein Diagnosesignal zu erzeugen.
  • In einer exemplarischen Ausführungsform wird die mindestens eine Steuerung ferner programmiert, um in Reaktion darauf, dass die erste Fahrzeugpose innerhalb des vorbestimmten Bereichs der zweiten Fahrzeugpose liegt, eine primäre Fahrzeugpose zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose zu bestimmen und das Stellglied gemäß dem Steuerungsalgorithmus des automatisierten Antriebssystems basierend auf der primären Stellung zu steuern.
  • In einer exemplarischen Ausführungsform beinhaltet das Diagnosesignal einen Parameter, der repräsentativ für die Differenz zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose ist.
  • In einer exemplarischen Ausführungsvariante ist die Steuerung ferner programmiert, in Reaktion auf das Diagnosesignal das Stellglied nach einem Rückfallbefehl zu steuern.
  • In einer exemplarischen Ausführungsform beinhaltet die mindestens eine erste Steuerung eine zweite Steuerung. Die erste Steuerung wird mit dem ersten Lokalisierungsalgorithmus und die zweite Steuerung mit dem zweiten Lokalisierungsalgorithmus programmiert.
  • In einer exemplarischen Ausführungsform beinhaltet der erste Lokalisationsalgorithmus eine visuelle Odometrie-3D-Posenschätzung und der zweite Lokalisationsalgorithmus eine LiDAR-Odometrie-3D-Posenschätzung.
  • Ein Verfahren zum Steuern eines Fahrzeugs gemäß der vorliegenden Offenbarung beinhaltet auch das Ausstatten des Fahrzeugs mit einer Vielzahl von Sensoren, die konfiguriert sind, um externe Merkmale in der Umgebung des Fahrzeugs zu erfassen. Das Verfahren beinhaltet auch das Ausstatten des Fahrzeugs mit einem Stellglied, das dazu konfiguriert ist, das Lenken, Gasgeben, Bremsen oder Schalten des Fahrzeugs zu steuern. Das Verfahren beinhaltet zusätzlich das Ausstatten des Fahrzeugs mit mindestens einer Steuerung in elektronischer Verbindung mit entsprechenden Sensoren der Vielzahl von Sensoren und des Stellglieds. Die Steuerung ist mit einem automatisierten Antriebssteuerungsalgorithmus programmiert. Das Verfahren beinhaltet ferner das Empfangen von ersten Sensormesswerten einer ersten Gruppe von entsprechenden Sensoren der Vielzahl von Sensoren über die mindestens eine Steuerung. Das Verfahren beinhaltet das Bestimmen einer ersten Fahrzeugposition basierend auf den ersten Sensormesswerten über die mindestens eine Steuerung. Die erste Fahrzeugpose beinhaltet eine erste Lokalisierung und eine erste Orientierung des Fahrzeugs. Das Verfahren beinhaltet zusätzlich das Empfangen von zweiten Sensormesswerten aus einer zweiten Gruppe entsprechender Sensoren der Vielzahl von Sensoren über die mindestens eine Steuerung. Das Verfahren beinhaltet ferner das Ermitteln einer zweiten Fahrzeugpose basierend auf den zweiten Sensormesswerten über die mindestens eine Steuerung. Die zweite Fahrzeugpose beinhaltet einen zweiten Standort und eine zweite Orientierung des Fahrzeugs. Das Verfahren beinhaltet ferner in Reaktion auf die erste Fahrzeugpose außerhalb eines vorbestimmten Bereichs der zweiten Fahrzeugpose das automatische Erzeugen eines Diagnosesignals.
  • In einer exemplarischen Ausführungsform beinhaltet das Verfahren zusätzlich in Reaktion darauf, dass die erste Fahrzeugpose innerhalb des vorbestimmten Bereichs der zweiten Fahrzeugposen liegt, das Bestimmen, über die mindestens eine Steuerung, einer primären Fahrzeugpose zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose und das Steuern, über die mindestens eine Steuerung, des Stellglieds gemäß dem Steuerungsalgorithmus des automatisierten Antriebssystems basierend auf der primären Position.
  • In einer exemplarischen Ausführungsform beinhaltet das Diagnosesignal einen Parameter, der repräsentativ für die Differenz zwischen der ersten Fahrzeugposition und der zweiten Fahrzeugposition ist.
  • In einer exemplarischen Ausführungsform beinhaltet das Verfahren zusätzlich in Reaktion auf das Diagnosesignal das automatische Steuern des Stellglieds gemäß einem Rückfallbefehl.
  • In einer exemplarischen Ausführungsform beinhaltet das Ausstatten des Fahrzeugs mit mindestens einer Steuerung das Bereitstellen einer ersten Steuerung und einer zweiten Steuerung. In derartigen Ausführungsformen erfolgt das Empfangen erster Sensormesswerte über die erste Steuerung, das Bestimmen einer ersten Fahrzeugpose über die erste Steuerung, das Empfangen zweiter Sensormesswerte über die zweite Steuerung und das Bestimmen einer zweiten Fahrzeugpose über die zweite Steuerung.
  • In einer exemplarischen Ausführungsform beinhaltet das Bestimmen einer ersten Fahrzeugpose das Ausführen einer visuellen Odometrie-3D-Positionsschätzung und das Bestimmen einer zweiten Fahrzeugpose das Ausführen einer LiDAR-Odometrie-3D-Positionsschätzung.
  • Ein Steuerungssystem für ein Fahrzeug gemäß der vorliegenden Offenbarung beinhaltet mindestens eine Steuerung. Die Steuerung ist programmiert, um erste Sensormesswerte von einer ersten Gruppe von Sensoren zu empfangen und eine erste Fahrzeugpose basierend auf den ersten Sensormesswerten zu erhalten. Die erste Fahrzeugpose beinhaltet eine erste Lokalisierung und eine erste Orientierung des Fahrzeugs. Die Steuerung ist auch programmiert, um zweite Sensormesswerte von einer zweiten Gruppe von Sensoren zu empfangen und eine zweite Fahrzeugpose basierend auf den zweiten Sensormesswerten bereitzustellen. Die zweite Fahrzeugpose beinhaltet einen zweiten Standort und eine zweite Orientierung des Fahrzeugs. Die Steuerung ist ferner programmiert, um in Reaktion auf die erste Fahrzeugpose außerhalb eines vorbestimmten Bereichs der zweiten Fahrzeugpose ein Diagnosesignal zu erzeugen.
  • In einer exemplarischen Ausführungsform ist die Steuerung ferner programmiert, um in Reaktion darauf, dass die erste Fahrzeugpose innerhalb des vorbestimmten Bereichs der zweiten Fahrzeugpose liegt, eine primäre Fahrzeugpose zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose zu bestimmen und das Stellglied gemäß dem Steuerungsalgorithmus des automatisierten Antriebssystems basierend auf der primären Stellung zu steuern.
  • In einer exemplarischen Ausführungsform beinhaltet das Diagnosesignal einen Parameter, der repräsentativ für die Differenz zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose ist.
  • In einer exemplarischen Ausführungsvariante ist die mindestens eine Steuerung ferner programmiert, in Reaktion auf das Diagnosesignal das mindestens eine Stellglied gemäß einem Rückfallbefehl zu steuern.
  • In einer exemplarischen Ausführungsform ist die mindestens eine Steuerung ferner programmiert, um in Reaktion auf ein nicht erzeugtes Diagnosesignal eine primäre Fahrzeugpose zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose zu bestimmen und mindestens ein Stellglied gemäß dem Steuerungsalgorithmus des automatisierten Antriebssystems basierend auf der primären Position zu steuern.
  • Ausführungsformen gemäß der vorliegenden Offenbarung bieten eine Reihe von Vorteilen. So können beispielsweise Ausführungsformen gemäß der vorliegenden Offenbarung eine unabhängige Validierung von Sensormesswerten autonomer Fahrzeuge ermöglichen, um die Diagnose von Software- oder Hardwarezuständen in den Sensoren und Steuerungen zu erleichtern. Somit können Ausführungsformen gemäß der vorliegenden Offenbarung robuster sein, wodurch die Kundenzufriedenheit erhöht wird.
  • Die vorstehenden Vorteile und andere Vorteile und Merkmale der vorliegenden Offenbarung werden aus der folgenden ausführlichen Beschreibung der bevorzugten Ausführungsformen in Verbindung mit den zugehörigen Zeichnungen ersichtlich.
  • Figurenliste
    • 1 ist ein schematisches Diagramm eines Kommunikationssystems, das ein autonom gesteuertes Fahrzeug gemäß einer Ausführungsform beinhaltet;
    • 2 ist ein schematisches Blockdiagramm eines automatisierten Fahrassistenzsystems (ADS) für ein Fahrzeug gemäß einer Ausführungsform;
    • 3 ist ein schematisches Blockdiagramm eines Lokalisierungssystems gemäß einer Ausführungsform der vorliegenden Offenbarung; und
    • 4A-4C ist eine Darstellung als Flussdiagramm einer fünften Ausführungsform eines Verfahrens zum Steuern eines Fahrzeugs gemäß der vorliegenden Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen der vorliegenden Offenbarung werden hierin beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht unbedingt maßstabsgerecht; einige Merkmale können größer oder kleiner dargestellt sein, um die Einzelheiten bestimmter Komponenten zu veranschaulichen. Daher sind die hierin offenbarten spezifischen strukturellen und funktionellen Details nicht als Einschränkung zu verstehen, sondern lediglich als repräsentative Grundlage. Die verschiedenen Merkmale, die mit Bezug auf beliebige der Figuren dargestellt und beschrieben werden, können mit Merkmalen kombiniert werden, die in einer oder mehreren anderen Figuren dargestellt sind, um Ausführungsformen zu erzeugen, die nicht explizit dargestellt oder beschrieben sind. Die dargestellten Kombinationen von Merkmalen stellen repräsentative Ausführungsformen für typische Anwendungen bereit. Beliebige Kombinationen und Modifikationen der Merkmale, die mit den Lehren dieser Offenbarung übereinstimmen, könnten jedoch für bestimmte Anwendungen und Implementierungen erwünscht sein.
  • 1 veranschaulicht schematisch eine Betriebsumgebung, die ein mobiles Fahrzeugkommunikations- und Steuersystem 10 für ein Kraftfahrzeug 12 umfasst. Das Kommunikations- und Steuersystem 10 für das Fahrzeug 12 beinhaltet im Allgemeinen ein oder mehrere Drahtlosträgersysteme 60, ein Festnetz 62, einen Computer 64, eine vernetzte drahtlose Vorrichtung 57, einschließlich, aber nicht beschränkt auf ein Smartphone, Tablet oder eine tragbare Vorrichtung, wie beispielsweise eine Uhr, und eine Fernzugriffszentrale 78.
  • Das Fahrzeug 12, das in 1 schematisch dargestellt ist, beinhaltet ein Antriebssystem 13, das in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine Elektromaschine, wie z. B. einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem beinhalten kann. Das Fahrzeug 12 ist in der dargestellten Ausführungsform als Pkw dargestellt, es ist jedoch zu beachten, dass jedes andere Fahrzeug, einschließlich Motorräder, Lastwagen, Geländelimousinen (SUVs), Wohnmobile (RVs), Wasserfahrzeuge, Luftfahrzeuge usw. ebenfalls verwendet werden kann.
  • Das Fahrzeug 12 beinhaltet zudem ein Getriebe 14, das so konfiguriert ist, dass es Leistung von dem Antriebssystem 13 auf eine Vielzahl von Fahrzeugrädern 15 gemäß wählbaren Drehzahlverhältnissen überträgt. Nach verschiedenen Ausführungsformen kann das Getriebe 14 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten. Das Fahrzeug 12 beinhaltet zusätzlich Radbremsen 17, die so konfiguriert sind, dass sie ein Bremsmoment an die Fahrzeugräder 15 liefern. Die Radbremsen 17 können in verschiedenen Ausführungsformen Reibungsbremsen, ein regeneratives Bremssystem, wie z. B. eine Elektromaschine und/oder andere geeignete Bremssysteme, beinhalten.
  • Das Fahrzeug 12 beinhaltet zudem ein Lenksystem 16. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Offenbarung zur Veranschaulichung als ein Lenkrad dargestellt, kann das Lenksystem 16 kein Lenkrad beinhalten.
  • Das Fahrzeug 12 beinhaltet ein drahtloses Kommunikationssystem 28, das dazu konfiguriert ist, drahtlos mit anderen Fahrzeugen („V2V“) und/oder Infrastruktur („V2I“) zu kommunizieren. In einer exemplarischen Ausführungsform ist das drahtlose Kommunikationssystem 28 konfiguriert, um über ein drahtloses lokales Netzwerk (WLAN) unter Verwendung des IEEE 802.11-Standards oder mittels einer mobilen Datenkommunikation zu kommunizieren. Im Geltungsbereich der vorliegenden Offenbarung werden jedoch auch zusätzliche oder alternative Kommunikationsverfahren, wie beispielsweise ein dedizierter Nahbereichskommunikations (DSRC)-kanal, berücksichtigt. DSRC-Kanäle beziehen sich auf Einweg- oder Zweiwege-Kurzstrecken- bis Mittelklasse-Funkkommunikationskanäle, die speziell für den Automobilbau und einen entsprechenden Satz von Protokollen und Standards entwickelt wurden.
  • Das Antriebssystem 13, das Getriebe 14, das Lenksystem 16 und die Radbremsen 17 stehen mit oder unter der Steuerung von mindestens einer Steuereinheit 22 in Verbindung. Obgleich zu Veranschaulichungszwecken als eine einzige Einheit dargestellt, kann die Steuereinheit 22 zusätzlich eine oder mehrere andere „Steuereinheiten“ beinhalten. Die Steuerung 22 kann einen Mikroprozessor, wie beispielsweise eine zentrale Verarbeitungseinheit (CPU) oder eine grafische Verarbeitungseinheit (GPU) beinhalten, die mit verschiedenen Arten von computerlesbaren Speichervorrichtungen oder Medien in Verbindung steht. Computerlesbare Speichergeräte oder Medien können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Aufrechterhaltungsspeicher („Keep-Alive-Memory, KAM“) beinhalten. KAM ist ein persistenter oder nichtflüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während die CPU ausgeschaltet ist. Computerlesbare Speichergeräte oder Medien können unter Verwendung einer beliebigen Anzahl an bekannten Speichergeräten, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebigen anderen elektrischen, magnetischen, optischen oder kombinierten Speichergeräten implementiert sein, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuereinheit 22 beim Steuern des Fahrzeugs verwendet werden.
  • Die Steuereinheit 22 beinhaltet ein automatisiertes Antriebssystem (ADS) 24 zum automatischen Steuern verschiedener Stellglieder im Fahrzeug. In einer exemplarischen Ausführungsform ist das ADS 24 ein sogenanntes Level-Vier- oder Level-Fünf-Automatisierungssystem. Ein Level-Vier-System zeigt eine „hohe Automatisierung“ unter Bezugnahme auf die Fahrmodus-spezifische Leistung durch ein automatisiertes Fahrsystem aller Aspekte der dynamischen Fahraufgabe an, selbst wenn ein menschlicher Fahrer nicht angemessen auf eine Anforderung einzugreifen, reagiert. Ein Level-Fünf-System zeigt eine „Vollautomatisierung“ an und verweist auf die Vollzeitleistung eines automatisierten Fahrsystems aller Aspekte der dynamischen Fahraufgabe unter allen Fahrbahn- und Umgebungsbedingungen, die von einem menschlichen Fahrer verwaltet werden können. In einer exemplarischen Ausführungsform ist das ADS 24 so konfiguriert, dass es das Antriebssystem 13, das Getriebe 14, das Lenksystem 16 und die Radbremsen 17 steuert, um die Fahrzeugbeschleunigung, das Lenken und das Bremsen ohne menschliches Eingreifen über eine Vielzahl von Stellgliedern 30 in Reaktion auf Eingaben von einer Vielzahl von Sensoren 26, wie z. B. GPS, RADAR, LIDAR, optischen Kameras, thermischen Kameras, Ultraschallsensoren und/oder, falls erforderlich, zusätzlichen Sensoren zu steuern.
  • 1 veranschaulicht mehrere vernetzte Geräte, die mit dem drahtlosen Kommunikationssystem 28 des Fahrzeugs 12 kommunizieren können. Eines der vernetzten Geräte, das über das drahtlose Kommunikationssystem 28 mit dem Fahrzeug 12 kommunizieren kann, ist das drahtlose vernetzte Gerät 57. Das drahtlose vernetzte Gerät 57 kann eine Computerverarbeitungsfähigkeit, einen Sender-Empfänger, der mit einem drahtlosen Nahbereichsprotokoll kommunizieren kann, und eine visuelle Anzeige 59 beinhalten. Die Computerverarbeitungsfähigkeit beinhaltet einen Mikroprozessor in Form einer programmierbaren Vorrichtung, die eine oder mehrere in einer internen Speicherstruktur gespeicherte Befehle beinhaltet und angewendet wird, um binäre Eingaben zu empfangen und binäre Ausgaben zu erzeugen. In einigen Ausführungsformen beinhaltet das drahtlose vernetzte Gerät 57 ein GPS-Modul, das GPS-Satellitensignale empfangen und GPS-Koordinaten basierend auf diesen Signalen erzeugen kann. In weiteren Ausführungsformen beinhaltet das drahtlose vernetzte Gerät 57 eine Mobilfunk-Kommunikationsfunktionalität, wodurch das drahtlose vernetzte Gerät 57, wie hierin erläutert, Sprach- und/oder Datenkommunikationen über das Mobilfunkanbietersystem 60 unter Verwendung eines oder mehrerer Mobilfunk-Kommunikationsprotokolle durchführt. Die visuelle Anzeige 59 kann zudem einen Berührungsbildschirm als grafische Benutzeroberfläche beinhalten.
  • Das Mobilfunkanbietersystem 60 ist vorzugsweise ein Mobiltelefonsystem, das eine Vielzahl von Mobilfunktürmen 70 (nur einer dargestellt), eine oder mehrere Mobilvermittlungsstellen (MSCs) 72, sowie alle anderen Netzwerkkomponenten beinhaltet, die zum Verbinden des Mobilfunkanbietersystems 60 mit dem Festnetz 62 erforderlich sind. Jeder Mobilfunkturm 70 beinhaltet Sende- und Empfangsantennen und eine Basisstation, wobei die Basisstationen von unterschiedlichen Mobilfunktürmen mit der MSC 72 entweder direkt oder über zwischengeschaltete Geräte, wie z. B. eine Basisstationssteuereinheit, verbunden sind. Das Drahtlosträgersystem 60 kann jede geeignete Kommunikationstechnologie implementieren, beispielsweise digitale Technologien wie CDMA (z. B. CDMA2000), LTE (z. B. 4G LTE oder 5G LTE), GSM/GPRS oder andere aktuelle oder neu entstehende drahtlose Technologien. Andere Mobilfunkturm/Basisstation/MSC-Anordnungen sind möglich und könnten mit dem Mobilfunkanbietersystem 60 verwendet werden. So könnten sich beispielsweise die Basisstation und der Mobilfunkturm an derselben Stelle oder entfernt voneinander befinden, jede Basisstation könnte für einen einzelnen Mobilfunkturm zuständig sein oder eine einzelne Basisstation könnte verschiedene Mobilfunktürme bedienen, oder verschiedene Basisstationen könnten mit einer einzigen MSC gekoppelt werden, um nur einige der möglichen Anordnungen zu nennen.
  • Abgesehen vom Verwenden des Mobilfunkanbietersystems 60 kann ein unterschiedliches Mobilfunkanbietersystem in der Form von Satellitenkommunikation verwendet werden, um unidirektionale oder bidirektionale Kommunikation mit dem Fahrzeug 12 bereitzustellen. Dies kann unter Verwendung von einem oder mehreren Kommunikationssatelliten 66 und einer Uplink-Sendestation 67 erfolgen. Bei der unidirektionalen Kommunikation kann es sich beispielsweise um Satellitenradiodienste handeln, wobei die Programmierinhalte (Nachrichten, Musik usw.) von der Sendestation 67 empfangen, für das Hochladen gepackt und anschließend an den Satelliten 66 gesendet wird, der die Programmierung an die Teilnehmer ausstrahlt. Bei der bidirektionalen Kommunikation kann es sich beispielsweise um Satellitentelefondienste handeln, die den Satelliten 66 verwenden, um Telefonkommunikationen zwischen dem Fahrzeug 12 und der Station 67 weiterzugeben. Die Satellitentelefonie kann entweder zusätzlich oder anstelle des Mobilfunkanbietersystems 60 verwendet werden.
  • Das Festnetz 62 kann ein herkömmliches landgebundenes Telekommunikationsnetzwerk sein, das mit einem oder mehreren Festnetztelefonen verbunden ist und das Mobilfunkanbietersystem 60 mit der Fernzugriffszentrale 78 verbindet. So kann beispielsweise das Festnetz 62 ein öffentliches Telekommunikationsnetz (PSTN) beinhalten, wie es beispielsweise verwendet wird, um fest verdrahtete Telefonie, paketvermittelte Datenkommunikationen und die Internetinfrastruktur bereitzustellen. Ein oder mehrere Segmente des Festnetzes 62 könnten durch Verwenden eines normalen drahtgebundenen Netzwerks, eines Lichtleiter- oder eines anderen optischen Netzwerks, eines Kabelnetzes, von Stromleitungen, anderen drahtlosen Netzwerken, wie z. B. drahtlosen lokalen Netzwerken (WLANs) oder Netzwerken, die drahtlosen Breitbandzugang (BWA) bereitstellen oder einer Kombination derselben implementiert sein. Weiterhin muss die Fernzugriffszentrale 78 nicht über das Festnetz 62 verbunden sein, sondern könnte Funktelefonausrüstung beinhalten, sodass sie direkt mit einem drahtlosen Netzwerk, wie z. B. dem Mobilfunkanbietersystem 60, kommunizieren kann.
  • Obgleich in 1 als ein einziges Gerät dargestellt, kann der Computer 64 eine Anzahl an Computern beinhalten, die über ein privates oder öffentliches Netzwerk, wie z. B. das Internet, zugänglich sind. Jeder Computer 64 kann für einen oder mehrere Zwecke verwendet werden. In einer exemplarischen Ausführungsform kann der Computer 64 als ein Webserver konfiguriert sein, der durch das Fahrzeug 12 über das drahtlose Kommunikationssystem 28 und den Mobilfunkanbieter 60 zugänglich ist. Zu anderen derart zugänglichen Computern 64 können beispielsweise gehören: ein Computer in einer Reparaturwerkstatt, der Diagnoseinformationen und andere Fahrzeugdaten vom Fahrzeug über das drahtlose Kommunikationssystem 28 oder einen Speicherort eines Drittanbieters hochgeladen werden können oder aus welchem Fahrzeugdaten oder sonstigen Informationen, entweder durch Kommunikation mit dem Fahrzeug 12, der Fernzugriffszentrale 78, dem drahtlosen vernetzten Gerät 57 oder einer Kombination aus diesen bereitgestellt werden. Der Computer 64 kann eine durchsuchbare Datenbank und ein Datenbankverwaltungssystem instandhalten, das die Eingabe, Löschung und Änderung von Daten, sowie den Empfang von Anfragen ermöglicht, um Daten innerhalb der Datenbank zu lokalisieren. Der Computer 64 kann zudem für die Bereitstellung von Internetverbindungen, wie z. B. DNS-Diensten, oder als Netzwerkadressenserver verwendet werden, der DHCP oder ein anderes geeignetes Protokoll verwendet, um dem Fahrzeug 12 eine IP-Adresse zuzuweisen.
  • Wie in 2 dargestellt, beinhaltet das ADS 24 mehrere verschiedene Steuersysteme, einschließlich mindestens eines Wahrnehmungssystem 32 zum Feststellen des Vorhandenseins, der Position, der Klassifizierung und der Bahn der erkannten Eigenschaften oder Objekte in der Nähe des Fahrzeugs. Das Wahrnehmungssystem 32 ist so konfiguriert, dass es Eingaben, wie beispielsweise in 1 veranschaulicht, von einer Vielzahl von Sensoren 26 empfängt und Sensoreingaben synthetisiert und verarbeitet, um Parameter zu erzeugen, die als Eingaben für andere Steueralgorithmen des ADS 24 verwendet werden.
  • Das Wahrnehmungssystem 32 beinhaltet ein Sensorfusions- und Vorverarbeitungsmodul 34, das die Sensordaten 27 aus der Vielzahl der Sensoren 26 verarbeitet und synthetisiert. Das Sensorfusions- und Vorverarbeitungsmodul 34 führt eine Kalibrierung der Sensordaten 27 durch, einschließlich, aber nicht beschränkt auf LiDAR-LiDAR-Kalibrierung, Kamera-LiDAR-Kalibrierung, LiDAR-Chassis-Kalibrierung und LiDAR-Strahlintensitätskalibrierung. Das Sensorfusions- und Vorverarbeitungsmodul 34 gibt vorverarbeitete Sensorausgaben 35 aus.
  • Ein Klassifizierungs- und Segmentierungsmodul 36 empfängt die vorverarbeitete Sensorausgabe 35 und führt Objektklassifizierung, Bildklassifizierung, Ampelklassifizierung, Objektsegmentierung, Bodensegmentierung und Objektverfolgungsprozesse durch. Die Objektklassifizierung beinhaltet, ist aber nicht beschränkt auf die Identifizierung und Klassifizierung von Objekten in der Umgebung, einschließlich Identifizierung und Klassifizierung von Verkehrssignalen und -zeichen, RADAR-Fusion und -verfolgung, um die Platzierung und das Sichtfeld (FOV) des Sensors und die falsche positive Ablehnung über die LiDAR-Fusion zu berücksichtigen, um die vielen falschen Positiven zu beseitigen, die in einer städtischen Umgebung existieren, wie zum Beispiel Schachtabdeckungen, Brücken, in die Fahrbahn ragende Bäume oder Lichtmasten und andere Hindernisse mit einem hohen RADAR-Querschnitt, die aber nicht die Fähigkeit des Fahrzeugs beeinflussen, entlang seines Kurses zu fahren. Zusätzliche Objektklassifizierungs- und Verfolgungsprozesse, die durch das Klassifizierungs- und Segmentierungsmodell 36 durchgeführt werden, umfassen, sind aber nicht beschränkt auf Freespace-Erkennung und High-Level-Tracking, die Daten von RADAR-Spuren, LiDAR-Segmentierung, LiDAR-Klassifizierung, Bildklassifizierung, Objektform-Passmodellen, semantischen Informationen, Bewegungsvorhersage, Rasterkarten, statischen Hinderniskarten und andere Quellen verschmelzen, um qualitativ hochwertige Objektspuren zu erzeugen.
  • Das Klassifizierungs- und Segmentierungsmodul 36 führt zusätzlich eine Verkehrssteuerungs-Klassifizierungs- und Verkehrssteuerungsvorrichtungsverschmelzung mit Spurassoziations- und Verkehrssteuerungsvorrichtungsverhaltensmodellen durch. Das Klassifizierungs- und Segmentierungsmodul 36 erzeugt eine Objektklassifizierungs- und Segmentierungsausgabe 37, die eine Objektidentifikationsinformation enthält.
  • Ein Lokalisierungs- und Abbildungsmodul 40 verwendet die Objektklassifizierungs- und Segmentierungsausgabe 37, um Parameter zu berechnen, einschließlich, aber nicht beschränkt auf Schätzungen der Pose, z. B. Position und Orientierung des Fahrzeugs 12 in sowohl typischen als auch anspruchsvollen Fahrszenarien. Zu diesen anspruchsvollen Fahrszenarien gehören unter anderem dynamische Umgebungen mit vielen Autos (z. B. dichter Verkehr), Umgebungen mit großflächigen Obstruktionen (z. B. Fahrbahnbaustellen oder Baustellen), Hügel, mehrspurige Straßen, einspurige Straßen, eine Vielzahl von Straßenmarkierungen und Gebäuden oder deren Fehlen (z. B. Wohn- und Geschäftsbezirke) und Brücken und Überführungen (sowohl oberhalb als auch unterhalb eines aktuellen Straßensegments des Fahrzeugs).
  • Das Lokalisierungs- und Abbildungsmodul 40 enthält auch neue Daten, die als Ergebnis von erweiterten Kartenbereichen erfasst werden, die durch fahrzeugeigene Abbildungsfunktionen erhalten werden, die durch das Fahrzeug 12 während des Betriebs ausgeführt werden, und Kartierungsdaten, die über das drahtlose Kommunikationssystem 28 an das Fahrzeug 12 „geschoben“ werden. Das Lokalisierungs- und Abbildungsmodul 40 aktualisiert die vorherigen Kartendaten mit den neuen Informationen (z. B. neue Spurmarkierungen, neue Gebäudestrukturen, Hinzufügen oder Entfernen von Baustellenzonen usw.), während unbeeinflusste Kartenbereiche unverändert bleiben. Beispiele von Kartendaten, die erzeugt oder aktualisiert werden können, umfassen, sind aber nicht beschränkt auf die Ausweichspurkategorisierung, die Spurgrenzerzeugung, die Spurverbindung, die Klassifizierung von Neben- und Hauptstraßen, die Klassifizierung der Links- und Rechtskurven und die Kreuzungsspurerstellung.
  • In einigen Ausführungsformen verwendet das Lokalisierungs- und Abbildungsmodul 40 Simultanlokalisierungs- und Abbildungs („SLAM“)-Techniken, um Karten der Umgebung zu entwickeln. SLAM-Techniken konstruieren eine Karte einer Umgebung und verfolgen die Position eines Objekts innerhalb der Umgebung. GraphSLAM, eine Variante von SLAM, verwendet sparsame Matrizen, die zum Erstellen eines Graphen mit Beobachtungsabhängigkeiten verwendet werden.
  • Die Objektposition innerhalb einer Karte wird durch eine Gaußsche Wahrscheinlichkeitsverteilung dargestellt, die sich um den vorhergesagten Pfad des Objekts zentriert. SLAM verwendet in seiner einfachsten Form drei Einschränkungen: eine anfängliche Standortbeschränkung; eine relative Bewegungseinschränkung, die der Pfad des Objekts ist; und eine relative Messeinschränkung, die eine oder mehrere Messungen eines Objekts zu einer Landmarke ist.
  • Die anfängliche Bewegungseinschränkung ist die Ausgangsposition (z. B. Position und Orientierung) des Fahrzeugs, die sich aus der Position des Fahrzeugs im zweidimensionalen oder dreidimensionalen Raum einschließlich Pitch, Roll und Gierdaten zusammensetzt. Die relative Bewegungseinschränkung ist die Verschiebung des Objektes, die eine gewisse Flexibilität zur Anpassung an die Kartenkonsistenz enthält. Die relative Messeinschränkung beinhaltet eine oder mehrere Messungen von den Objektsensoren bis zu einer Landmarke. Die anfängliche Positionsbeschränkung, die relative Bewegungseinschränkung und die relative Messeinschränkung sind typischerweise Gaußsche Wahrscheinlichkeitsverteilungen. Objektortungsverfahren innerhalb einer sensorerzeugten Karte können Kalman-Filter, verschiedene statistische Korrelationsverfahren, wie die Pearson-Produkt-Moment-Korrelation, und/oder Partikelfilter verwenden.
  • In einigen Ausführungsformen wird nach dem Erstellen einer Karte die Fahrzeuglokalisierung in Echtzeit über einen Partikelfilter erreicht. Partikelfilter sind im Gegensatz zu Bayes- oder Kalman-Filtern für nichtlineare Systeme geeignet. Zur Ortung eines Fahrzeugs werden Partikel um einen erwarteten Mittelwert über eine Gaußsche Wahrscheinlichkeitsverteilung erzeugt. Jedem Partikel wird ein numerisches Gewicht zugeordnet, das die Genauigkeit der Partikelposition zur vorhergesagten Position repräsentiert. Die Sensordaten werden berücksichtigt und die Partikelgewichte den Sensordaten angepasst. Je enger die Annäherung des Partikels an die eingestellte Position des Sensors ist, desto größer ist der numerische Wert der Partikelgewichte.
  • Sobald ein Aktionsbefehl auftritt, wird jedes Partikel an eine neue vorhergesagte Position aktualisiert. Die Sensordaten werden an der neuen vorhergesagten Position beobachtet und jedem Partikel wird ein neues Gewicht zugewiesen, das die Genauigkeit der Partikelposition in Bezug auf die vorhergesagte Position und die Sensordaten angibt. Die Partikel werden neu abgetastet, wobei die Gewichte mit der größten numerischen Größe ausgewählt werden, was die Genauigkeit der vorhergesagten und sensorkorrigierten Objektposition erhöht. Typischerweise ergibt sich aus Mittelwert, Varianz und Standardabweichung der neu abgetasteten Daten die Wahrscheinlichkeit einer neuen Objektposition.
  • Die Verarbeitung des Partikelfilters wird ausgedrückt als: P ( H t | H t I , A t , D t )
    Figure DE102017126925A1_0001
    wobei Ht die aktuelle Hypothese ist, welche die Objektposition ist. Ht-l ist die vorhergehende Objektposition, At ist die Handlung, die typischerweise ein Motorbefehl ist, und Dt sind die beobachtbaren Daten.
  • In einigen Ausführungsformen behält das Lokalisierungs- und Abbildungsmodul 40 eine Schätzung der globalen Position des Fahrzeugs bei, indem es Daten aus mehreren Quellen einbezieht, wie zuvor in einem erweiterten Kalman-Filter (EKF)-Framework erläutert. Kalman-Filter sind lineare Filter, die auf rekursiven Bayes'schen Filtern basieren. Rekursive Bayes'sche Filter, die auch als Rekursive Bayes'sche Schätzung bezeichnet werden, ersetzen im Wesentlichen das Posterior einer Schätzung in die vorherige Position, um ein neues Posterior auf einer neuen Iteration der Schätzung zu berechnen. Dies ergibt effektiv: P ( H t | H t I , D t )
    Figure DE102017126925A1_0002
    wobei die Wahrscheinlichkeit einer Hypothese Ht durch die Hypothese bei der vorhergehenden Iteration Ht-l und die Daten Dt zur aktuellen Zeit t bewertet wird.
  • Ein Kalman-Filter fügt eine Aktionsvariable At hinzu, wobei t eine Zeit-Iteration ist, woraus sich ergibt: P ( H t | H t I , A t , D t )
    Figure DE102017126925A1_0003
    wobei die Wahrscheinlichkeit einer Hypothese Ht auf der vorhergehenden Hypothese Ht-l, einer Handlung At, und der Daten Dt zum gegenwärtigen Zeitpunkt t basiert.
  • Ein Kalman-Filter schätzt eine aktuelle Position, die eine gemeinsame Wahrscheinlichkeitsverteilung ist und basierend auf einem Aktionsbefehl eine neue Position voraussagt, die auch eine gemeinsame Wahrscheinlichkeitsverteilung ist, die auch als Zustandsvorhersage bezeichnet wird. Es werden Sensordaten erfasst und eine getrennte gemeinsame Wahrscheinlichkeitsverteilung berechnet, die als Sensorvorhersage bezeichnet wird.
  • Die Zustandsvorhersage wird ausgedrückt als: X t ' = A X t I + B μ + ε t
    Figure DE102017126925A1_0004
    wobei X t '
    Figure DE102017126925A1_0005
    ein neuer Zustand ist, der auf dem vorherigen Zustand AXt-l, Bµ und ξι basiert. Die Konstanten A und B sind von der Physik des Interesses bestimmt, wobei µ er Befehl des Robotermotors sein kann und ξt ist eine Gauß'sche Zustandsfehlervorhersage.
  • Die Sensorvorhersage wird ausgedrückt als: Z t ' = C X t + ε z
    Figure DE102017126925A1_0006
    wobei Z t '
    Figure DE102017126925A1_0007
    der neue Sensorschätzwert, C eine Funktion und ξz eine Gauß'sche Sensorfehlervorhersage ist.
  • Eine neue Schätzung des vorhergesagten Zustandes wird ausgedrückt als: X E S T = X t ' + K ( Z t Z t ' )
    Figure DE102017126925A1_0008
    wobei das Produkt K ( Z t Z t ' )
    Figure DE102017126925A1_0009
    als Kalman-Verstärkungsfaktor bezeichnet wird. Wenn der Unterschied zwischen der Sensorvorhersage Z t '
    Figure DE102017126925A1_0010
    und den tatsächlichen Sensordaten Zt ist. (das heißt wenn Z t Z t '
    Figure DE102017126925A1_0011
    ) relativ annähernd Null ist, dann gilt X t '
    Figure DE102017126925A1_0012
    als die neue Zustandsschätzung. Wenn Z t Z t '
    Figure DE102017126925A1_0013
    relativ größer als Null ist, wird der K ( Z t Z t ' )
    Figure DE102017126925A1_0014
    Faktor hinzugefügt, um eine neue Zustandsschätzung zu erhalten.
  • Sobald die Fahrzeugbewegungsinformationen empfangen werden, aktualisiert das EKF die Fahrzeugpositionsschätzung und erweitert gleichzeitig die geschätzte Kovarianz. Sobald die Sensorkovarianz in das EKF integriert ist, erzeugt das Lokalisierungs- und Abbildungsmodul 40 einen Lokalisierungs- und Abbildungsausgang 41, der die Position und Orientierung des Fahrzeugs 12 in Bezug auf erfasste Hindernisse und Straßenmerkmale beinhaltet.
  • Ein Fahrzeug-Odometrie-Modul 46 empfängt Daten 27 von den Fahrzeugsensoren 26 und erzeugt eine Fahrzeug-Odometrie-Ausgabe 47, die beispielsweise Fahrzeugkurs- und Geschwindigkeits- und Entfernungsinformationen enthält. Ein absolutes Positionierungsmodul 42 empfängt die Lokalisierungs- und Abbildungsausgabe 41 und die Fahrzeug-Odometrieinformation 47 und erzeugt eine Fahrzeugpositionsausgabe 43, die in getrennten Berechnungen verwendet wird, wie unten erörtert wird.
  • Ein Objektvorhersagemodul 38 verwendet die Objektklassifizierungs- und Segmentierungsausgabe 37, um Parameter zu erzeugen, einschließlich, aber nicht beschränkt auf eine Position eines erkannten Hindernisses relativ zum Fahrzeug, einen vorhergesagten Weg des erkannten Hindernisses relativ zum Fahrzeug und eine Position und Orientierung der Fahrbahnen relativ zum Fahrzeug. Bayes'sche Modelle können in einigen Ausführungsformen verwendet werden, um die Absicht eines Fahrers oder Fußgängers basierend auf semantischen Informationen, vorheriger Trajektorien und unmittelbarer Pose vorherzusagen, wobei die Pose die Kombination von Position und Orientierung eines Objekts ist.
  • Der Bayes'sche Satz, auch als Bayes'scher Filter bezeichnet, ist eine Form der bedingten Wahrscheinlichkeit. Der Bayes'sche Satz, nachfolgend in Gleichung 7 dargestellt, enthält die These, dass die Wahrscheinlichkeit einer Hypothese H mit Daten D gleich der Wahrscheinlichkeit einer Hypothese H mal die Wahrscheinlichkeit der Daten D mit der Hypothese H ist, dividiert durch die Wahrscheinlichkeit der Daten P (D). P ( H | D ) = P ( H )   P ( D | H ) P ( D )
    Figure DE102017126925A1_0015
  • P(H/D) wird als Posterior bezeichnet und P(H) wird als Prior bezeichnet. Der Bayes'sche Satz misst einen Wahrscheinlichkeitsgrad der Überzeugung in einem Satz vor (dem Vorherigen) und nach (dem Nachfolgenden), wobei in Anbetracht der in den Daten enthaltenen Beweisen, der D. Bayes Satz bei der Iteration rekursiv verwendet werden kann. Bei jeder neuen Iteration wird der vorherige Posterior zu dem vorhergehenden, um einen neuen Posterior zu erzeugen, bis die Iteration abgeschlossen ist. Daten über den vorhergesagten Weg von Objekten (einschließlich Fußgänger, umliegende Fahrzeuge und andere bewegte Objekte) werden als Objektvorhersageausgabe 39 ausgegeben und in getrennten Berechnungen verwendet, wie unten erörtert wird.
  • Das ADS 24 beinhaltet auch ein Beobachtungsmodul 44 und ein Interpretationsmodul 48. Das Beobachtungsmodul 44 erzeugt eine Beobachtungsausgabe 45, die vom Interpretationsmodul 48 empfangen wird. Das Beobachtungsmodul 44 und das Interpretationsmodul 48 erlauben den Zugriff durch die Fernzugriffszentrale 78. Das Interpretationsmodul 48 erzeugt eine interpretierte Ausgabe 49, die eine zusätzliche Eingabe beinhaltet, die von der Fernzugriffszentrale 78 bereitgestellt wird.
  • Ein Wegplanungsmodul 50 verarbeitet und synthetisiert die Objektvorhersageausgabe 39, die interpretierte Ausgabe 49 und zusätzliche Kursinformationen 79, die von einer Online-Datenbank oder der Fernzugriffszentrale 78 empfangen werden, um einen Fahrzeugweg zu bestimmen, der verfolgt werden soll, um das Fahrzeug unter Beachtung der Verkehrsgesetze und Vermeidung von erkannten Hindernissen auf dem gewünschten Kurs zu halten. Das Wegplanungsmodul 50 verwendet Algorithmen, die konfiguriert sind, um beliebige erkannte Hindernisse in der Nähe des Fahrzeugs zu vermeiden, das Fahrzeug in einer gegenwärtigen Fahrspur zu halten und das Fahrzeug auf dem gewünschten Kurs zu halten. Das Wegplanungsmodul 50 nutzt Positions-Graph-Optimierungstechniken, einschließlich der nichtlinearen kleinstquadratischen Positions-Graph-Optimierung, um die Karte der Fahrzeugtrajektorien in sechs Freiheitsgraden zu optimieren und Wegfehler zu reduzieren. Das Wegplanungsmodul 50 gibt die Fahrzeugweginformationen als Wegplanungsausgabe 51 aus. Der Wegplanungsausgangswert 51 beinhaltet eine vorgegebene Fahrzeugroute auf der Grundlage der Route, eine Fahrzeugposition relativ zu der Route, Position und Orientierung der Fahrspuren und das Vorhandensein und den Weg erfasster Hindernisse.
  • Ein erstes Steuermodul 52 verarbeitet und synthetisiert die Wegplanungsausgabe 51 und die Fahrzeugpositionsausgabe 43 zum Erzeugen einer ersten Steuerausgabe 53. Das erste Steuermodul 52 enthält auch die Kursinformation 79, die von der Fernzugriffszentrale 78, im Falle einer Fernübernahmebetriebsart des Fahrzeugs bereitgestellt wird.
  • Ein Fahrzeugsteuermodul 54 empfängt die erste Steuerausgabe 53 sowie die Geschwindigkeits- und Kursinformation 47, die von der Fahrzeug-Odometrie 46 empfangen wird, und erzeugt einen Fahrzeugsteuerausgabe 55. Die Fahrzeugsteuerausgabe 55 beinhaltet einen Satz Stellgliedbefehle, um den befohlenen Weg vom Fahrzeugsteuermodul 54 zu erreichen, einschließlich, jedoch nicht beschränkt auf einen Lenkbefehl, einen Schaltbefehl, einen Drosselbefehl und einen Bremsbefehl.
  • Die Fahrzeugsteuerausgabe 55 wird an die Stellglieder 30 übermittelt. In einer exemplarischen Ausführungsform beinhalten die Stellglieder 30 eine Lenksteuerung, eine Schaltsteuerung, eine Drosselsteuerung und eine Bremssteuerung. Die Lenksteuerung kann beispielsweise ein Lenksystem 16 steuern, wie in 1 veranschaulicht. Die Gangschaltsteuerung kann beispielsweise ein Getriebe 14 steuern, wie in 1 veranschaulicht. Die Drosselklappensteuerung kann beispielsweise ein Antriebssystem 13 steuern, wie in 1 veranschaulicht. Die Bremssteuerung kann beispielsweise die Radbremsen 17 steuern, wie in 1 veranschaulicht.
  • Es versteht sich, dass das offenbarte Verfahren mit einer beliebigen Anzahl an unterschiedlichen Systemen verwendet werden kann und nicht speziell auf die hierin dargestellte Betriebsumgebung einschränkt ist. Die Architektur, der Aufbau, die Konfiguration und der Betrieb des Systems 10 und dessen einzelne Komponenten sind allgemein bekannt. Darüber hinaus können weitere hier nicht dargestellte Systeme ebenfalls die offenbarten Verfahren verwenden.
  • Mit Bezug auf 3 ist nun eine exemplarische Ausführungsform eines Lokalisierungs- und Abbildungsmoduls 100 schematisch veranschaulicht. Das Lokalisierungs- und Abbildungsmodul 100 kann in einer exemplarischen Ausführungsform ähnlich wie das in 2 veranschaulichte Modul 40 in einem automatisierten Antriebssystem realisiert werden.
  • Das Lokalisierungs- und Abbildungsmodul 100 beinhaltet ein primäres Positionsschätzmodul 102 und ein sekundäres Positionsschätzmodul 104.
  • Das primäre Positionsschätzmodul 102 beinhaltet ein primäres Positionierungsmodul 106. Das Positionierungsmodul 106 empfängt Satellitennavigationsdaten 108 von einem Satellitennavigationssystem, z. B. GPS, GLONASS, einem anderen globalen Satellitennavigationssystem oder einer Kombination derselben. Das Postionierungsmodul 106 empfängt auch Trägheitsdaten 110 von einer Inertialmesseinheit (IMU). Die IMU ist eine elektronische Vorrichtung, welche die körpereigene Kraft, die Winkelgeschwindigkeit und manchmal das Magnetfeld, das den Körper umgibt, unter Verwendung einer Kombination von Beschleunigungsmessern und Gyroskopen sowie Magnetometern misst und berichtet. Die Satellitennavigationsdaten 108 und Trägheitsdaten 110 werden durch einen Satellitennavigationsalgorithmus 112 kombiniert. Somit ermöglicht die IMU dem Satellitennavigationsempfänger zu arbeiten, wenn Satellitensignale nicht verfügbar sind, wie zum Beispiel in Tunneln, in Gebäuden oder wenn elektronische Störungen vorhanden sind.
  • Korrekturfaktoren werden auch zur Steigerung der Standortgenauigkeit empfangen, wie bei Block 114 dargestellt. Die Korrekturfaktoren können beispielsweise Einzel- oder Mehrfrequenz-Echtzeitkinematik-(RTK) oder Differential Global Positioning System (DGPS)-Korrekturen beinhalten. Das DGPS nutzt ein Netz von festen, erdgebundenen Referenzstationen, um die Differenz zwischen den von den Ortungssatellitensystemen angezeigten Positionen und den bekannten festen Positionen auszustrahlen. Diese Stationen übertragen die Differenz zwischen gemessenen Satelliten-Pseudo-Reichweiten und tatsächlichen (intern berechneten) Pseudo-Reichweiten, und die Empfangsstationen korrigieren ihre Pseudo-Reichweiten um den gleichen Betrag. Das digitale Korrektursignal wird typischerweise lokal über erdgebundene Sender mit geringerer Reichweite übertragen. RTK verwendet die Phasenmessungen der Trägerwelle des Signals anstelle des Informationsinhalts des Signals und stützt sich auf eine einzelne Referenzstation oder eine interpolierte virtuelle Station, um Echtzeitkorrekturen bereitzustellen. Die Korrekturfaktoren 114 werden mit der Satelliten- und Totpunktposition aus dem Algorithmus 112 durch einen präzisen GNSS-Positionsabschätzalgorithmus 112 kombiniert.
  • Das sekundäre Positionsschätzmodul 104 empfängt Signale vom primären Positionsschätzmodul 102 und fügt über einen ersten Lokalisierungsalgorithmus und einen zweiten Lokalisierungsalgorithmus weitere Genauigkeiten hinzu.
  • Im ersten Lokalisierungsalgorithmus empfängt ein LiDAR-Odometriemodul 118 die Satelliten- und Totpunktposition aus Block 112. Das LiDAR-Odometriemodul 118 schätzt mithilfe von Sensormesswerten aus einem LiDAR-Array die vom Fahrzeug zurückgelegten Wegstrecken während eines bestimmten Zeitraums und verfeinert die Satelliten- und Totpunktposition aus Block 112 basierend auf der geschätzten zurückgelegten Wegstrecke. Dies wird im Folgenden unter Bezugnahme auf 4B näher erläutert. Der LiDAR-Odometrieausgang wird zusammen mit den Odometriemessungen von einem hochauflösenden Radgeberalgorithmus 120 und der geschätzten Position aus dem Präzisions-GNSS-Positionsabschätzungsalgorithmus 116 mit einem ersten EKF 122 gefiltert, um eine erste Fahrzeugposition zu erhalten, wie vorstehend im Allgemeinen erläutert.
  • Der zweite Lokalisierungsalgorithmus wird parallel zum ersten Lokalisierungsalgorithmus durchgeführt. Im zweiten Lokalisationsalgorithmus empfängt ein Stereokamera-Odometriemodul 124 die geschätzte Position aus dem Präzisions-GNSS-Positionsabschätzungsalgorithmus 116. Das Odometriemodul 124 der Stereokamera verwendet Bilder, die von einem Stereokamera-Array erhalten wurden, um eine vom Fahrzeug gefahrene Entfernung während eines bestimmten Zeitraums abzuschätzen, und verfeinert die geschätzte Position aus dem Präzisions-GNSS-Positionsabschätzungsalgorithmus 116 basierend auf der geschätzten Entfernung. Dies wird im Folgenden unter Bezugnahme auf 4C näher erläutert. Der Stereokamera-Odometrieausgang wird zusammen mit den Odometriemessungen von einem hochauflösenden Radgeberalgorithmus 120 und der geschätzten Position aus dem PräzisionsGNSS-Positionsabschätzungsalgorithmus 116 mit einem zweiten EKF 128 gefiltert, um eine zweite Fahrzeugpose zu erhalten, wie vorstehend im Allgemeinen erläutert.
  • Ein Auswahlalgorithmus 130 empfängt die erste Fahrzeugpose aus der ersten EKF 122 und die zweite Fahrzeugpose aus der zweiten EKF 128 und wählt eine primäre Fahrzeugpose zwischen der ersten und der zweiten Fahrzeugpose aus. Als Beispiel kann der Auswahlalgorithmus die primäre Fahrzeugpose basierend auf der weniger fehlerhaften Kovarianzmatrix zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose identifizieren, wie im Folgenden in Bezug auf 3A näher erläutert wird.
  • Zusätzlich berechnet der Auswahlalgorithmus 130 eine Differenz zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose. Wenn die Differenz einen vorgegebenen Schwellenwert überschreitet, erzeugt der Auswahlalgorithmus ein Diagnosesignal, das die Abweichung in der ersten Fahrzeugpose und der zweiten Fahrzeugpose anzeigt. Eine Abweichung kann darauf hindeuten, dass in mindestens einem Sensor oder einer Steuerung, die dem automatisierten Antriebssystem zugeordnet ist, ein Diagnosezustand vorliegt. Die Intensität des Diagnosesignals kann beispielsweise den Unstimmigkeitsgrad zwischen der ersten und der zweiten Pose darstellen. Als Reaktion auf das Diagnosesignal können geeignete Diagnosemaßnahmen ergriffen werden. In einer exemplarischen Ausführungsform kann das Fahrzeug in Reaktion auf das Diagnosesignal autonom ein alternatives Manöver durchführen. Das alternative Manöver kann zum Beispiel einen Sicherheitsbefehl zum sicheren Anhalten des Fahrzeugs beinhalten. Derartige Manöver können als „Manöver mit minimalem Risiko“ bezeichnet werden.
  • Die primäre Pose aus dem Auswahlalgorithmus 130 sowie optionale Genauigkeitsverbesserungen, wie zum Beispiel die V2X-Kommunikation bei Block 132 und die Positionierung mittels semantischer 3D- oder 2D-Kartendatenbankfunktionen bei Block 134, werden mit einem dritten EKF 136 gefiltert, um eine endgültige Fahrzeugpose zu erhalten, wie zuvor im Allgemeinen erläutert. Die endgültige Fahrzeugpose kann dann vom automatisierten Antriebssystem zur autonomen Steuerung des Fahrzeugs verwendet werden.
  • Unter Bezugnahme nun auf die 4A-4C ist ein Verfahren zum Steuern eines Fahrzeugs gemäß der vorliegenden Offenbarung in Form eines Flussdiagramms veranschaulicht. Der Algorithmus beginnt bei Block 150.
  • Pseudoreichweiten-/Träger-GNSS Signale werden von einem Satellitennavigationsempfänger empfangen, wie bei Block 152 veranschaulicht. Anschließend wird bestimmt, ob Korrekturen vorhanden sind, wie bei Operation 154 veranschaulicht. Diese Korrekturen beinhalten RTK oder DGPS, wie vorstehend erläutert. Wenn die Bestimmung der Operation 154 positiv ist, werden GNSS-Korrekturen von einem Satelliten, einer Cloud, einem Ad-hoc-Netzwerk oder lokalen Basisstationen empfangen, wie bei Block 156 veranschaulicht. Die Beobachtungen aus dem Basissatz werden heruntergeladen und entpackt, wie bei Block 158 veranschaulicht. Die Beobachtungen aus dem Satellitennavigationsempfänger des Fahrzeugs werden mit den Beobachtungen der Basisstation zu doppelten Differenzen ausgerichtet, wie bei Block 160 veranschaulicht. Die Fahrzeugposition wird dann mittels eines rekursiven Verfahrens der kleinsten Quadrate bestimmt, wie bei Block 162 veranschaulicht.
  • Wenn die Bestimmung von Operation 154 negativ ist, dann geht die Steuerung direkt zu Block 162 über und die Fahrzeugposition wird mittels eines rekursiven Verfahrens der kleinsten Quadrate bestimmt.
  • Die aktuelle Position des Fahrzeugs wird mittels der bei Block 164 dargestellten Sensormesswerte der Inertialmesseinheit und der Fahrzeuggeschwindigkeit hochgerechnet, z. B. unter Verwendung von WGS-84-Koordinaten.
  • Anschließend wird bestimmt, ob Raddrehzahldaten vorhanden sind, wie bei Operation 166 veranschaulicht. Wenn die Bestimmung positiv ist, wird die aktuelle Fahrzeugposition mit den Daten des Raddrehzahlsensors fusioniert, wie bei Block 168 veranschaulicht. Die Steuerung fährt dann mit Block 170 fort. Wenn die Bestimmung der Operation 166 negativ ist, geht die Steuerung direkt zu Block 170 über.
  • Eine erste Fahrzeugpose C wird von einem ersten Lokalisierungsalgorithmus und eine zweite Fahrzeugpose D wird von einem zweiten Lokalisierungsalgorithmus erhalten, wie bei Block 170 veranschaulicht. Diese Algorithmen werden im Folgenden in Bezug auf die 4B und 4C näher erläutert.
  • Es wird bestimmt, ob der Unterschied der Differenz zwischen der ersten Fahrzeugpose C und der zweiten Fahrzeugpose D einen vorbestimmten Schwellenwert überschreitet, wie bei Operation 172 veranschaulicht. Wenn die Bestimmung der Operation 172 positiv ist, wird ein Diagnosesignal erzeugt, wie in Block 174 veranschaulicht. Die Intensität des Diagnosesignals kann beispielsweise den Unstimmigkeitsgrad zwischen der ersten und der zweiten Pose darstellen. Als Reaktion auf das Diagnosesignal können geeignete Diagnosemaßnahmen ergriffen werden, wie vorstehend erläutert.
  • Wenn die Bestimmung der Operation 172 negativ ist, d. h. die Differenz zwischen der ersten Fahrzeugpose C und der zweiten Fahrzeugpose D geringer ist als der vorgegebene Schwellenwert, dann wird bestimmt, ob eine Fehler-Kovarianzmatrix für die erste Fahrzeugpose C kleiner ist als eine Fehler-Kovarianzmatrix für die zweite Fahrzeugpose D, wie bei Operation 176 veranschaulicht.
  • Ist die Bestimmung positiv, so wird die erste Fahrzeugpose C als primäre Pose ausgewählt, wie bei Block 178 veranschaulicht. Ist die Bestimmung negativ, so wird die zweite Fahrzeugpose D als primäre Pose ausgewählt, wie bei Block 180 veranschaulicht. In beiden Fällen geht die Steuerung dann zu Operation 182 über.
  • Es wird bestimmt, ob semantische 3D-Kartierungsmerkmale zur Verfügung stehen, wie bei Operation 182 veranschaulicht. Ist die Bestimmung positiv, so wird die primäre Fahrzeugpose mittels der 3D-Semantik verfeinert, wie bei Block 184 veranschaulicht. Die Steuerung geht dann zu Operation 186 über. Wenn die Bestimmung negativ ist, geht die Steuerung direkt zu Operation 186 über.
  • Es wird bestimmt, ob WiFi-Reichweiten- oder V2X-Informationen verfügbar sind, wie bei Betrieb 186 veranschaulicht. Wenn die Bestimmung positiv ist, so wird die Fahrzeugpose mit WiFi-Reichweiten- oder V2X-Informationen verfeinert, wie bei Block 188 veranschaulicht. Der Algorithmus endet dann bei Block 190. Wenn die Bestimmung negativ ist, endet der Algorithmus bei Block 190.
  • Betrachtet man 4B, so wird ein erster Lokalisierungsalgorithmus in Form eines Flussdiagramms veranschaulicht. Es werden LiDAR-Scan-Daten empfangen, wie bei Block 192 veranschaulicht. Eine Sweep-to-Sweep Punktwolkenverfeinerung und Kartenregistrierung wird dann an den LiDAR-Scan-Daten durchgeführt, wie bei Block 194 veranschaulicht. Aus den Punktwolkendaten werden dann Merkmale extrahiert, wie bei Block 196 veranschaulicht. Bewegungs- und Messungsaktualisierungen werden an den extrahierten Merkmalen durchgeführt, wie bei Block 198 veranschaulicht. Die extrahierten Merkmale werden dann mit einer LiDAR-Kartendatenbank verglichen, wie bei Block 200 veranschaulicht. Eine wahrscheinlichste 3D-Pose wird dann geschätzt, wie bei Block 202 veranschaulicht.
  • Betrachtet man 4C, so wird ein zweiter Lokalisierungsalgorithmus in Form eines Flussdiagramms veranschaulicht. Es werden Stereo-Bilddaten empfangen, wie bei Block 204 veranschaulicht. Die Bild-für-Bild-Merkmalerfassung wird durchgeführt, um 3D-Cues zu finden, wie bei Block 206 veranschaulicht. Die erfassten Merkmale werden dann mit einer visuellen Merkmalsdatenbank abgeglichen oder verfolgt, wie bei Block 208 veranschaulicht. Die Bewegungs- und Positionsabschätzung wird dann durchgeführt, wie bei Block 210 veranschaulicht, was sowohl eine 3D-3D-Schätzung als auch eine 3D-2D-Schätzung beinhalten kann. Eine lokale Optimierung, wie zum Beispiel die Bündelausgleichung, erfolgt dann an der Pose, wie bei Block 212 veranschaulicht.
  • Obgleich die vorgenannten exemplarischen Ausführungsformen in Verbindung mit einem autonomen Fahrzeug erläutert werden, wird ein Fachmann im Bereich der Technik zu schätzen wissen, dass Lokalisierungs- und Kartierungssysteme gemäß der vorliegenden Offenbarung in Verbindung mit von Menschen gesteuerten Fahrzeugen eingesetzt werden können, z. B. in Verbindung mit einem adaptiven Geschwindigkeitsregelsystem oder automatischen Notbremssystemen.
  • Wie ersichtlich können Ausführungsformen gemäß der vorliegenden Offenbarung eine unabhängige Validierung von Steuerbefehlen autonomer Fahrzeuge ermöglichen, um eine Diagnose von Software- oder Hardwarezuständen im primären Steuersystem zu erleichtern. Somit können Ausführungsformen gemäß der vorliegenden Offenbarung robuster sein, wodurch die Kundenzufriedenheit erhöht wird.
  • Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können von einer Verarbeitungsvorrichtung, einer Steuereinheit oder einem Computer, der eine beliebige vorhandene programmierbare elektronische Steuereinheit oder eine dedizierte elektronische Steuereinheit beinhalten kann, bereitgestellt und/oder implementiert werden. Desgleichen können die Prozesse, Verfahren oder Algorithmen als Daten oder ausführbare Anweisungen durch eine Steuerung oder einen Computer in vielfältiger Weise gespeichert werden, darunter ohne Einschränkung die dauerhafte Speicherung auf nicht beschreibbaren Speichermedien, wie einem ROM, und als änderbare Information auf beschreibbaren Speichermedien, wie Disketten, Magnetbändern, CDs, RAM sowie anderen magnetischen und optischen Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem softwareausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen ganz oder teilweise mit geeigneten Hardwarekomponenten, wie beispielsweise anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate Arrays (FPGAs), Zustandsmaschinen, Steuerungen oder anderen Hardwarekomponenten oder Vorrichtungen oder einer Kombination von Hardware, Software und Firmwarekomponenten, verkörpert werden. Die besagten exemplarischen Vorrichtungen können sich als Teil eines Fahrzeugcomputersystems On-Bord oder Off-Board befinden und eine Fernkommunikation mit Vorrichtungen an einem oder mehreren Fahrzeugen durchführen.
  • Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere Ausführungsformen der Erfindung zu bilden, die nicht explizit beschrieben oder veranschaulicht werden. Obgleich verschiedene Ausführungsformen beschrieben worden sein könnten, um Vorteile zu bieten oder anderen Ausführungsformen oder Implementierungen des Standes der Technik in Bezug auf eine oder mehrere gewünschte Merkmale vorgezogen zu werden, werden Fachleute auf dem Gebiet erkennen, dass eine oder mehrere Merkmale oder Charakteristika beeinträchtigt werden können, um die gewünschten Gesamtsystemeigenschaften zu erreichen, die von der spezifischen Anwendung und Implementierung abhängen. Diese Eigenschaften können unter anderem Kosten, Festigkeit, Haltbarkeit, Lebenszykluskosten, Marktfähigkeit, Aussehen, Verpackung, Größe, Gebrauchstauglichkeit, Gewicht, Herstellbarkeit, Montagefreundlichkeit usw., beinhalten. Daher liegen Ausführungsformen, die im Vergleich zu anderen Ausführungsformen oder Implementierungen des Standes der Technik als weniger wünschenswert in Bezug auf eine oder mehrere Merkmale beschrieben sind, nicht außerhalb des Umfangs der Offenbarung und können für bestimmte Anwendungen wünschenswert sein.
  • Obgleich exemplarische Ausführungsformen vorstehend beschrieben sind, sollen diese Ausführungsformen in keiner Weise alle möglichen Formen beschreiben, die die Ansprüche in sich begreifen. Vielmehr dienen die in der Spezifikation verwendeten Worte der Beschreibung und nicht der Einschränkung und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne vom Erfindungsgedanken und Umfang der Offenbarung abzuweichen. Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere Ausführungsformen der Erfindung zu bilden, die nicht explizit beschrieben oder veranschaulicht werden. Obgleich verschiedene Ausführungsformen beschrieben worden sein könnten, um Vorteile zu bieten oder anderen Ausführungsformen oder Implementierungen des Standes der Technik in Bezug auf eine oder mehrere gewünschte Merkmale vorgezogen zu werden, werden Fachleute auf dem Gebiet erkennen, dass eine oder mehrere Merkmale oder Charakteristika beeinträchtigt werden können, um die gewünschten Gesamtsystemeigenschaften zu erreichen, die von der spezifischen Anwendung und Implementierung abhängen. Diese Eigenschaften können unter anderem Kosten, Festigkeit, Haltbarkeit, Lebenszykluskosten, Marktfähigkeit, Aussehen, Verpackung, Größe, Gebrauchstauglichkeit, Gewicht, Herstellbarkeit, Montagefreundlichkeit usw., beinhalten. Daher liegen Ausführungsformen, die im Vergleich zu anderen Ausführungsformen oder Implementierungen des Standes der Technik als weniger wünschenswert in Bezug auf eine oder mehrere Merkmale beschrieben sind, nicht außerhalb des Umfangs der Offenbarung und können für bestimmte Anwendungen wünschenswert sein.

Claims (6)

  1. Kraftfahrzeug, umfassend: eine Vielzahl von Sensoren, die konfiguriert sind, um externe Merkmale im Umfeld des Kraftfahrzeugs zu erfassen; ein Stellglied, das dazu konfiguriert ist, die Fahrzeuglenkung, die Beschleunigung, das Bremsen oder das Schalten zu steuern; und mindestens eine Steuerung in elektronischer Verbindung mit entsprechenden Sensoren der Vielzahl von Sensoren und des Stellglieds, wobei die mindestens eine Steuerung mit einem Steuerungsalgorithmus für ein automatisiertes Antriebssystem programmiert und dazu konfiguriert ist, das Stellglied basierend auf dem Steuerungsalgorithmus für ein automatisiertes Antriebssystem automatisch zu steuern, wobei der Steuerungsalgorithmus für ein automatisiertes Antriebssystem Folgendes beinhaltet: einen ersten Lokalisierungsalgorithmus, der dazu konfiguriert ist, erste Sensormesswerte von einer ersten Gruppe von entsprechenden Sensoren der Vielzahl von Sensoren zu empfangen und eine erste Fahrzeugpose basierend auf den ersten Sensormesswerten bereitzustellen, wobei die erste Fahrzeugpose einen ersten Standort und eine erste Orientierung des Fahrzeugs beinhaltet, einen zweiten Lokalisierungsalgorithmus, der dazu konfiguriert ist, zweite Sensormesswerte von einer zweiten Gruppe von entsprechenden Sensoren der Vielzahl von Sensoren zu empfangen und eine zweite Fahrzeugpose basierend auf den zweiten Sensormesswerten bereitzustellen, wobei die zweite Fahrzeugpose einen zweiten Standort und eine zweite Orientierung des Fahrzeugs beinhaltet, und einen Arbitrierungsalgorithmus zum Lokalisieren, der dazu konfiguriert ist, in Reaktion darauf, dass die erste Fahrzeugpose außerhalb eines vorbestimmten Bereichs der zweiten Fahrzeugpose liegt, ein Diagnosesignal zu erzeugen.
  2. Kraftfahrzeug nach Anspruch 1, worin die mindestens eine Steuerung ferner dazu programmiert ist, in Reaktion darauf, dass die erste Fahrzeugpose innerhalb des vorbestimmten Bereichs der zweiten Fahrzeugpose liegt, eine primäre Fahrzeugpose zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose zu bestimmen und das Stellglied gemäß dem Steuerungsalgorithmus des automatisierten Antriebssystems basierend auf der primären Pose zu steuern.
  3. Kraftfahrzeug nach Anspruch 1, worin das Diagnosesignal einen Parameter beinhaltet, der repräsentativ für eine Differenz zwischen der ersten Fahrzeugpose und der zweiten Fahrzeugpose ist.
  4. Kraftfahrzeug nach Anspruch 1, worin die mindestens eine Steuerung ferner dazu programmiert ist, in Reaktion auf das Diagnosesignal das mindestens eine Stellglied gemäß einem Rückfallbefehl zu steuern.
  5. Kraftfahrzeug nach Anspruch 1, worin die mindestens eine Steuerung eine erste Steuerung und eine zweite Steuerung beinhaltet, wobei die erste Steuerung mit dem ersten Lokalisierungsalgorithmus programmiert ist und die zweite Steuerung mit dem zweiten Lokalisierungsalgorithmus programmiert ist.
  6. Fahrzeug nach Anspruch 1, worin der erste Lokalisationsalgorithmus eine visuelle Odometrie-3D-Posenschätzung und der zweite Lokalisationsalgorithmus eine LiDAR-Odometrie-3D-Posenschätzung beinhaltet.
DE102017126925.8A 2016-11-17 2017-11-15 Automatisierte Co-Pilotsteuerung für autonome Fahrzeuge Withdrawn DE102017126925A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/353,852 US9971352B1 (en) 2016-11-17 2016-11-17 Automated co-pilot control for autonomous vehicles
US15/353,852 2016-11-17

Publications (1)

Publication Number Publication Date
DE102017126925A1 true DE102017126925A1 (de) 2018-05-17

Family

ID=62026837

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017126925.8A Withdrawn DE102017126925A1 (de) 2016-11-17 2017-11-15 Automatisierte Co-Pilotsteuerung für autonome Fahrzeuge

Country Status (3)

Country Link
US (1) US9971352B1 (de)
CN (1) CN108068792A (de)
DE (1) DE102017126925A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544964A (zh) * 2018-12-29 2019-03-29 同济大学 一种无人驾驶车的航线传输***
US20210048312A1 (en) * 2018-04-04 2021-02-18 Samsung Electronics Co., Ltd. Electronic device for generating map data and operation method thereof
DE102019114626B4 (de) 2018-08-02 2023-07-20 GM Global Technology Operations LLC Kraftfahrzeug mit einem System zur Hardware-Überprüfung in einem Kraftfahrzeug
WO2023139010A1 (de) * 2022-01-24 2023-07-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur ermittlung von posedaten in bezug auf die pose eines fahrzeugs
DE102022110431A1 (de) 2022-04-28 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Steuerung eines Fahrzeugs

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10173698B2 (en) * 2015-02-09 2019-01-08 General Electric Company Communication system and method of a vehicle consist
US11150357B2 (en) * 2017-04-24 2021-10-19 The Charles Stark Draper Laboratory, Inc. Multi-source distributed navigation system architecture
US11043132B1 (en) 2017-02-17 2021-06-22 The Charles Stark Draper Laboratory, Inc. Systems and methods for determining quality and integrity of source information to determine navigation information of an object
US11774602B1 (en) * 2017-04-24 2023-10-03 The Charles Stark Draper Laboratory, Inc. Multi-source distributed navigation system architecture
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
US10902387B2 (en) * 2017-08-25 2021-01-26 The Boeing Company Aircraft digital event ledger
US10671083B2 (en) 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10552979B2 (en) * 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
DE102018206786A1 (de) * 2018-05-03 2019-11-07 Robert Bosch Gmbh Verfahren zur satellitengestützten Ermittlung einer Fahrzeugposition mittels eines Bewegungs- und Positionssensors
US10434935B1 (en) * 2018-06-29 2019-10-08 Nissan North America, Inc. Interactive external vehicle-user communication
US11243531B2 (en) * 2018-08-09 2022-02-08 Caterpillar Paving Products Inc. Navigation system for a machine
DE102018122054A1 (de) 2018-09-10 2020-03-12 Wabco Gmbh Querlenkverfahren und Querlenkvorrichtung für das Bewegen eines Fahrzeugs in eine Zielposition, und Fahrzeug dafür
CN111174777A (zh) * 2018-11-09 2020-05-19 阿里巴巴集团控股有限公司 定位方法、装置以及电子设备
DE102018221945A1 (de) * 2018-12-17 2020-06-18 Continental Automotive Gmbh Sensordatensystem für ein Fahrzeug
US10507841B1 (en) * 2019-01-23 2019-12-17 GM Global Technology Operations LLC System and method for sensor diagnostics
JPWO2020189462A1 (ja) * 2019-03-15 2021-11-18 ヤマハ発動機株式会社 既定ルート走行車両
US20200311455A1 (en) * 2019-03-27 2020-10-01 GM Global Technology Operations LLC Methods and systems for correcting sensor information
US10962371B2 (en) * 2019-04-02 2021-03-30 GM Global Technology Operations LLC Method and apparatus of parallel tracking and localization via multi-mode slam fusion process
US11835342B2 (en) * 2019-06-27 2023-12-05 Nvidia Corporation Calibration of inertial measurement units of vehicles using localization
US11500104B2 (en) * 2019-08-16 2022-11-15 Ford Global Technologies, Llc Localizing a moving object
US11262759B2 (en) * 2019-10-16 2022-03-01 Huawei Technologies Co., Ltd. Method and system for localization of an autonomous vehicle in real time
JP7074118B2 (ja) * 2019-11-08 2022-05-24 トヨタ自動車株式会社 制御装置、方法、プログラム、及び車両
US11107227B1 (en) * 2020-02-19 2021-08-31 GM Cruise Holdings, LLC Object detection based on three-dimensional distance measurement sensor point cloud data
DE102020107542A1 (de) 2020-03-19 2021-09-23 Bayerische Motoren Werke Aktiengesellschaft Bestimmen einer Position eines Fahrzeugs
CN114440928A (zh) * 2022-01-27 2022-05-06 杭州申昊科技股份有限公司 激光雷达与里程计的联合标定方法、机器人、设备和介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2391556T3 (es) * 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
US6718259B1 (en) * 2002-10-02 2004-04-06 Hrl Laboratories, Llc Adaptive Kalman filter method for accurate estimation of forward path geometry of an automobile
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
GB2492748B (en) * 2011-07-04 2014-05-07 Jaguar Land Rover Ltd Vehicle control system and method for controlling a vehicle
EP2615598B1 (de) * 2012-01-11 2017-12-06 Honda Research Institute Europe GmbH Fahrzeug mit Rechnereinrichtung zur Überwachung und Vorhersage von Verkehrsteilnehmerobjekten
KR20140021317A (ko) * 2012-08-10 2014-02-20 주식회사 만도 주차 보조 장치 및 그 주차 보조 방법
JP6179820B2 (ja) * 2015-02-18 2017-08-16 トヨタ自動車株式会社 車両の運転支援制御装置
US10150505B2 (en) * 2015-04-14 2018-12-11 Continental Automotive Systems, Inc. Automated hitching assist system
KR102388448B1 (ko) * 2015-06-09 2022-04-21 삼성전자주식회사 이동 로봇 및 그 제어 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210048312A1 (en) * 2018-04-04 2021-02-18 Samsung Electronics Co., Ltd. Electronic device for generating map data and operation method thereof
US11859997B2 (en) * 2018-04-04 2024-01-02 Samsung Electronics Co., Ltd. Electronic device for generating map data and operation method thereof
DE102019114626B4 (de) 2018-08-02 2023-07-20 GM Global Technology Operations LLC Kraftfahrzeug mit einem System zur Hardware-Überprüfung in einem Kraftfahrzeug
CN109544964A (zh) * 2018-12-29 2019-03-29 同济大学 一种无人驾驶车的航线传输***
WO2023139010A1 (de) * 2022-01-24 2023-07-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur ermittlung von posedaten in bezug auf die pose eines fahrzeugs
DE102022110431A1 (de) 2022-04-28 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Steuerung eines Fahrzeugs

Also Published As

Publication number Publication date
US9971352B1 (en) 2018-05-15
US20180136665A1 (en) 2018-05-17
CN108068792A (zh) 2018-05-25

Similar Documents

Publication Publication Date Title
DE102017126877B4 (de) Kraftfahrzeug
DE102017126925A1 (de) Automatisierte Co-Pilotsteuerung für autonome Fahrzeuge
DE102018105293A1 (de) Verfahren und vorrichtung zur vernetzten szenendarstellung und -erweiterung in fahrzeugumgebungen in autonomen fahrsystemen
DE102018109441A1 (de) Verfahren und Vorrichtung zur Pulswiederholungssequenz mit hoher Bearbeitungsverstärkung
DE102018119469A1 (de) System und verfahren zur verbesserten hinderniserkennung unter verwendung eines v2x-kommunikationssystems
DE102019110759A1 (de) System und verfahren zum steuern eines autonomen fahrzeugs
DE102018102027A1 (de) Effizientes situationsbewusstsein durch ereigniserzeugung und episodischen speicherabruf für autonome antriebssysteme
DE102018113926A1 (de) Autonome Fahrzeugantriebssysteme und Verfahren für kritische Zustände
DE102018113007A1 (de) Trajektorienplaner zum autonomen fahren mittels bézier-kurven
DE102019110772A1 (de) Verfahren und vorrichtung zum überlagern und zur mehrweggeräuschminderung in einem lidar-system
DE102018101505A1 (de) Effizientes situationsbewusstsein von wahrnehmungsströmen in autonomen fahrsystemen
DE102018118142A1 (de) Vorrichtung zum erhöhen des sichtfeldes für lidar-detektoren und -beleuchter
DE102019108644A1 (de) Verfahren und vorrichtung zum automatischen lernen von regeln für autonomes fahren
DE102018115265A1 (de) Verfahren und vorrichtung zur objektoberflächenschätzung mittels reflexionsverzögerungs-aufspreizung
DE102020101140A1 (de) Verfahren und system zum bestimmen einer aktion eines autonomen fahrzeugs (av) basierend auf fahrzeug- und edge-sensordaten
DE102018121009A1 (de) System und verfahren zur abstandsregelung für ein autonomes fahrzeug
DE102019112649A1 (de) Vorrichtung und verfahren zur verbesserten radarstrahlformung
DE102018111252A1 (de) Diagnoseverfahren für einen stellantrieb in einem autonomen fahrzeug
DE102019134351A1 (de) System und verfahren zur sensordiagnose
DE102019114792B4 (de) System und verfahren zur autonomen steuerung eines pfades eines fahrzeugs
DE102018118528A1 (de) Verfahren und Vorrichtung zur Segment-übergreifenden Erfassung in einem Lidar-System
DE102019116056A1 (de) System und verfahren zur steuerung eines autonomen fahrzeugs
DE102018118679A1 (de) Verfahren und vorrichtung zur parallelen aufnahme in ein lidar-array
DE102020100941A1 (de) System und verfahren zum steuern eines autonomen fahrzeugs
DE102019115984A1 (de) System und verfahren zur steuerung eines autonomen fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee