DE102013202377A1 - Verfahren zum Ermitteln einer Objektsensorfalschausrichtung - Google Patents

Verfahren zum Ermitteln einer Objektsensorfalschausrichtung Download PDF

Info

Publication number
DE102013202377A1
DE102013202377A1 DE102013202377A DE102013202377A DE102013202377A1 DE 102013202377 A1 DE102013202377 A1 DE 102013202377A1 DE 102013202377 A DE102013202377 A DE 102013202377A DE 102013202377 A DE102013202377 A DE 102013202377A DE 102013202377 A1 DE102013202377 A1 DE 102013202377A1
Authority
DE
Germany
Prior art keywords
sensor
path
vehicle
host vehicle
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013202377A
Other languages
English (en)
Inventor
Daniel Gandhi
Satish Rayarapu
Dmitriy Feldman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013202377A1 publication Critical patent/DE102013202377A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0088Adaptive recalibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93275Sensor installation details in the bumper area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden ein Fahrzeugsystem und -verfahren bereitgestellt, die eine Objektsensorfalschausrichtung ermitteln können, während ein Host-Fahrzeug gefahren wird, und wobei dies erfolgen kann, ohne dass mehrere Sensoren mit überlappenden Sichtfeldern erforderlich sind. Bei einer beispielhaften Ausführungsform, bei der das Host-Fahrzeug im Wesentlichen geradeaus fährt, verwendet das Verfahren einen Objektsensor, um den Pfad eines stationären Objekts zu verfolgen, wenn es sich durch das Sensorsichtfeld bewegt, und vergleicht es den erfassten Objektpfad mit einem erwarteten Objektpfad. Wenn der erfasste und der erwartete Pfad des stationären Objekts um mehr als einen Betrag voneinander abweichen, ermittelt das Verfahren, dass der Objektsensor verdreht oder auf andere Weise falsch ausgerichtet ist.

Description

  • GEBIET
  • Die vorliegende Erfindung bezieht sich allgemein auf Objektsensoren und insbesondere auf an einem Fahrzeug angebrachte Objektsensoren, die externe Objekte detektieren können, während das Fahrzeug fährt.
  • HINTERGRUND
  • Fahrzeuge verwenden zunehmend verschiedene Typen von Objektsensoren, wie beispielsweise jene, die auf RADAR, LIDAR und/oder Kameras basieren, um eine Information bezüglich des Vorhandenseins und der Position externer Objekte, die ein Host-Fahrzeug umgeben, zu erfassen. Es ist jedoch möglich, dass ein Objektsensor auf irgendeine Art falsch ausgerichtet oder verdreht wird, so dass er ungenaue Sensorauslesungen bereitstellt. Wenn beispielsweise ein Host-Fahrzeug an einer geringfügigen Kollision beteiligt ist, kann dies die interne Anbringung oder Orientierung eines Objektsensors unbemerkt beschädigen und bewirken, dass dieser geringfügig ungenaue Sensorauslesungen bereitstellt. Dies kann ein Problem sein, wenn die fehlerhaften Sensorauslesungen dann anderen Fahrzeugmodulen (z. B. einem Sicherheitssteuermodul, einem Modul eines adaptiven Tempomaten, einem Modul für einen automatischen Spurwechsel etc.) geliefert werden und bei deren Berechnungen verwendet werden.
  • ZUSAMMENFASSUNG
  • Gemäß einer Ausführungsform wird ein Verfahren zur Verwendung bei einem Objektsensor, der sich an einem Host-Fahrzeug befindet, bereitgestellt. Das Verfahren kann die Schritte umfassen, dass: (a) ermittelt wird, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; (b) wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt, ein Objekt mit dem Objektsensor, wenn es sich durch das Objektsensorsichtfeld bewegt, verfolgt wird, so dass ein erfasster Objektpfad hergestellt wird; und (c) der erfasste Objektpfad mit einem erwarteten Objektpfad verglichen wird, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist.
  • Gemäß einer weiteren Ausführungsform wird ein Verfahren zur Verwendung bei einem Objektsensor, der sich an einem Host-Fahrzeug befindet, bereitgestellt. Das Verfahren kann die Schritte umfassen, dass: (a) ermittelt wird, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; (b) wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt, ein Objekt mit dem Objektsensor verfolgt wird, indem ein Objekteintrittspunkt, an dem das Objekt in ein Objektsensorsichtfeld eintritt, und ein Objektaustrittspunkt, an dem das Objekt aus dem Objektsensorsichtfeld austritt, ermittelt werden; (c) der Objekteintrittspunkt und der Objektaustrittspunkt verwendet werden, um zu ermitteln, ob das Objekt stationär ist; (d) wenn das Objekt stationär ist, ein erfasster Objektpfad bewertet wird, der sich von dem Objekteintrittspunkt zu dem Objektaustrittspunkt erstreckt, indem ein erfasster Objektwinkel (θs), der dem erfassten Objektpfad entspricht, und ein erwarteter Objektwinkel (θe), der einem erwarteten Objektpfad entspricht, ermittelt werden; und (e) der erfasste Objektwinkel (θs) und der erwartete Objektwinkel (θe) verwendet werden, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist.
  • Gemäß einer weiteren Ausführungsform wird ein Fahrzeugsystem an einem Host-Fahrzeug bereitgestellt. Das Fahrzeugsystem kann umfassen: einen oder mehrere Fahrzeugsensoren, die Sensorauslesungen bereitstellen, wobei die Fahrzeugsensorauslesungen angeben, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; einen oder mehrere Objektsensoren, die Sensorauslesungen bereitstellen, wobei die Objektsensorauslesungen einen erfassten Objektpfad für ein Objekt herstellen, wenn es sich durch ein Objektsensorsichtfeld bewegt; und ein Steuermodul, das mit dem einen oder den mehreren Fahrzeugsensoren gekoppelt ist, um die Fahrzeugsensorauslesungen zu empfangen, und mit dem einen oder den mehreren Objektsensoren gekoppelt ist, um die Objektsensorauslesungen zu empfangen. Das Steuermodul ist ausgestaltet, um den erfassten Objektpfad mit einem erwarteten Objektpfad zu vergleichen, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist, wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt.
  • ZEICHNUNGEN
  • Hierin nachfolgend werden bevorzugte beispielhafte Ausführungsformen in Verbindung mit den beigefügten Zeichnungen beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei:
  • 1 eine schematische Ansicht eines Host-Fahrzeugs mit einem beispielhaften Fahrzeugsystem ist; und
  • 2 ein Flussdiagramm ist, das ein beispielhaftes Verfahren zum Ermitteln einer Objektsensorfalschausrichtung darstellt und das bei einem Fahrzeugsystem wie beispielsweise dem, das in 1 gezeigt ist, verwendet werden kann.
  • BESCHREIBUNG
  • Das beispielhafte Fahrzeugsystem und -verfahren, die hierin beschrieben sind, können eine Objektsensorfalschausrichtung ermitteln, während ein Host-Fahrzeug gefahren wird, und können dies tun, ohne dass mehrere Sensoren mit überlappenden Sichtfeldern erforderlich sind. Wenn eine Falschausrichtung detektiert wird, können das Fahrzeugsystem und -verfahren eine entsprechende Mitteilung an den Benutzer, das Fahrzeug oder an eine andere Quelle senden, die angibt, dass eine Sensorfalschausrichtung vorliegt, die behoben werden sollte. Dies kann insbesondere unter Umständen vorteilhaft sein, bei denen andere Fahrzeugmodule – beispielsweise ein Sicherheitssteuermodul, ein Modul eines adaptiven Tempomaten, ein Modul für einen automatischen Spurwechsel etc. – von dem Ausgang des falsch ausgerichteten Objektsensors abhängen und diesen verwenden. Bei einer beispielhaften Ausführungsform, bei der das Host-Fahrzeug geradeaus fährt, verwendet das vorliegende Verfahren einen Objektsensor, um den Pfad eines stationären Objekts zu verfolgen, wenn es sich durch das Sensorsichtfeld bewegt, und vergleicht es den erfassten Objektpfad mit einem erwarteten Objektpfad. Wenn der erfasste und der erwartete Pfad des stationären Objekts um mehr als einen Betrag abweichen, ermittelt das Verfahren, dass der Objektsensor verdreht oder auf andere Weise falsch ausgerichtet ist.
  • Mit Bezug auf 1 ist eine allgemeine und schematische Ansicht eines beispielhaften Host-Fahrzeugs 10 mit einem daran installierten oder angebrachten Fahrzeugsystem 12 gezeigt, wobei das Fahrzeugsystem einen oder mehrere Objektsensoren umfasst, die in Bezug auf deren angestrebte Orientierung verdreht oder falsch ausgerichtet sein können. Es sei angemerkt, dass das vorliegende System und Verfahren mit einem beliebigen Typ von Fahrzeug verwendet werden können, der herkömmliche Personenkraftwagen, Geländewagen (SUVs von sports utility vehicles), Cross-Over-Fahrzeuge, Lastkraftwagen, Transporter, Busse, Wohnmobile (RVs von recreational vehicles) etc. umfasst. Dies sind lediglich einige der möglichen Anwendungen, da das hierin beschriebene System und Verfahren nicht auf die in den Figuren gezeigten beispielhaften Ausführungsformen beschränkt sind und durch eine beliebige Anzahl von verschiedenen Arten realisiert sein könnten. Gemäß einem Beispiel umfasst das Fahrzeugsystem 12 Fahrzeugsensoren 20 (z. B. ein Inertialnavigationssystem (IMU von inertial measurement unit), einen Lenkwinkelsensor (SAS von steering angle sensor), Raddrehzahlsensoren etc.), Objektsensoren 3036 und ein Steuermodul 40, und das Fahrzeugsystem kann einem Benutzer eine Mitteilung oder eine andere Sensorstatusinformation über eine Benutzerschnittstelle 50 oder eine andere Komponente, eine andere Einrichtung, ein anderes Modul und/oder ein System 60 liefern.
  • Eine beliebige Anzahl von verschiedenen Sensoren, Komponenten, Einrichtungen, Modulen, Systemen etc. kann dem Fahrzeugsystem 12 eine Information oder einen Eingang liefern, die oder der durch das vorliegende Verfahren verwendet werden kann. Diese umfassen beispielsweise die in 1 gezeigten beispielhaften Sensoren sowie andere Sensoren, die in der Technik bekannt sind, jedoch hier nicht gezeigt sind. Es sei angemerkt, dass die Fahrzeugsensoren 20, die Objektsensoren 3036 sowie jeder andere Sensor, der in dem Fahrzeugsystem 12 angeordnet ist und/oder durch dieses verwendet wird, in Hardware, Software, Firmware oder einer Kombination hiervon umfasst sein können. Diese Sensoren können die Bedingungen, für die sie vorgesehen sind, direkt erfassen oder messen, oder sie können solche Bedingungen indirekt auf der Grundlage einer Information bewerten, die durch andere Sensoren, Komponenten, Einrichtungen, Module, Systeme etc. geliefert wird. Ferner können diese Sensoren direkt mit dem Steuermodul 40 gekoppelt sein, indirekt über andere elektronische Einrichtungen, einen Fahrzeugkommunikationsbus, ein Netz etc. gekoppelt sein oder gemäß einer anderen in der Technik bekannten Anordnung gekoppelt sein. Diese Sensoren können in eine andere Komponente, eine andere Einrichtung, ein anderes Modul, ein anderes System des Fahrzeugs etc. integriert sein oder Teil hiervon sein (z. B. Fahrzeug- oder Objektsensoren, die bereits Teil eines Motorsteuermoduls (ECM von engine control module), Traktionssteuersystems (TCS von traction control system), Systems einer elektronischen Stabilitätssteuerung (ESC von electronic stability control), Antiblockiersystems (ABS von antilock brake system) etc. sind), sie können unabhängige Komponenten sein (wie es schematisch in 1 gezeigt ist), oder sie können gemäß einer anderen Anordnung bereitgestellt sein. Es ist möglich, dass einige der nachstehend beschriebenen verschiedenen Sensorauslesungen durch eine andere Komponente, eine andere Einrichtung, ein anderes Modul, ein anderes System etc. in dem Host-Fahrzeug 10 bereitgestellt werden, anstatt durch ein tatsächliches Sensorelement bereitgestellt zu werden. In einigen Fällen könnten mehrere Sensoren eingesetzt werden, um einen einzelnen Parameter zu erfassen (z. B. um eine Redundanz bereitzustellen), obwohl dies nicht notwendig ist. Es sei angemerkt, dass die vorstehenden Szenarien lediglich einige der Möglichkeiten darstellen, da das Fahrzeugsystem 12 nicht auf irgendeinen bestimmten Sensor oder irgendeine bestimmte Sensoranordnung beschränkt ist.
  • Die Fahrzeugsensoren 20 stellen dem Fahrzeugsystem 12 verschiedene Auslesungen, Messungen oder andere Informationen bereit, die für das Verfahren 100 nützlich sein können. Beispielsweise können die Fahrzeugsensoren 20 folgendes messen: die Raddrehzahl, die Radbeschleunigung, die Fahrzeuggeschwindigkeit, die Fahrzeugbeschleunigung, die Fahrzeugdynamik, die Gierrate, den Lenkwinkel, die Längsbeschleunigung, die Querbeschleunigung oder jegliche andere Fahrzeugbetriebsparameter, die für das Verfahren 100 nützlich sein können. Die Fahrzeugsensoren 20 können eine Vielzahl von verschiedenen Sensortypen und Techniken verwenden, die jene umfassen, die die Raddrehzahl, die Geschwindigkeit über dem Boden, die Gaspedalstellung, die Gangschalthebelauswahl, Beschleunigungsmesser, die Motordrehzahl, den Motorausgang und die Drosselklappenstellung verwenden, nur um einige zu nennen. Fachleute werden erkennen, dass diese Sensoren gemäß optischen, elektromagnetischen oder anderen Technologien arbeiten können und dass andere Parameter aus diesen Auslesungen abgeleitet oder berechnet werden können (z. B. kann die Beschleunigung aus der Geschwindigkeit berechnet werden). Gemäß einer beispielhaften Ausführungsform umfassen die Fahrzeugsensoren 20 einen Lenkwinkelsensor und einen Fahrzeuggeschwindigkeitssensor.
  • Die Objektsensoren 3036 stellen dem Fahrzeugsystem 12 Sensorauslesungen oder andere Informationen bereit, die sich auf ein oder mehrere Objekte um das Host-Fahrzeug 10 herum beziehen und durch das vorliegende Verfahren verwendet werden können. Bei einem Beispiel erzeugen die Objektsensoren 3036 Sensorauslesungen oder einen Ausgang, der das Vorhandensein, die Position, die Geschwindigkeit und/oder die Beschleunigung von Objekten um das Host-Fahrzeug 10 herum darstellt. Diese Auslesungen können absoluter Natur sein (z. B. eine Objektpositionsauslesung) oder sie können relativer Natur sein (z. B. eine Auslesung einer relativen Distanz, die sich auf die Entfernung oder Distanz zwischen dem Host-Fahrzeug 10 und einem Objekt bezieht). Jeder der Objektsensoren 3036 kann ein einzelner Sensor oder eine Kombination von Sensoren sein, und kann eine Light Detection and Ranging-Einrichtung (LIDAR-Einrichtung), eine Radio Detection and Ranging-Einrichtung (RADAR-Einrichtung), eine Lasereinrichtung, eine Sichteinrichtung (z. B. eine Kamera etc.) oder eine beliebige andere Erfassungseinrichtung sein, die die zweidimensionale Position eines externen Objekts bereitstellen kann. Gemäß einer beispielhaften Ausführungsform umfasst der Objektsensor 30 eine nach vorn gerichtete Fernbereichs-RADAR- oder -LIDAR-Einrichtung, die an der Front des Fahrzeugs, wie beispielsweise der Frontstoßstange oder hinter dem Kühlergrill des Fahrzeugs, angebracht ist und einen Bereich vor dem Fahrzeug überwacht, der die aktuelle Spur plus eine oder mehrere Spuren auf jeder Seite der aktuellen Spur umfasst. Ähnliche Typen von Sensoren können für den nach hinten gerichteten Objektsensor 34, der am Heck des Fahrzeugs, wie beispielsweise der hinteren Stoßstange oder in der Heckscheibe, angebracht ist und für die seitlichen oder seitwärts gerichteten Objektsensoren 32 und 36, die auf jeder Seite des Fahrzeugs (z. B. Fahrer- und Beifahrerseite) angebracht sind, verwendet werden; diese Sensoren können eine kleinere oder kürzere Reichweite als ihre nach vorn gerichteten Pendants aufweisen. Es könnten eine Kamera oder eine andere Sichteinrichtung in Verbindung mit solchen Sensoren verwendet werden, da auch andere Ausführungsformen möglich sind.
  • Das Steuermodul 40 kann eine beliebige Vielzahl von elektronischen Verarbeitungseinrichtungen, Speichereinrichtungen, Eingabe/Ausgabe-Einrichtungen (I/O-Einrichtungen von input/output devices) und/oder andere bekannte Komponenten umfassen und kann verschiedene steuerungs- und/oder kommunikationsbezogene Funktionen durchführen. Bei einer beispielhaften Ausführungsform umfasst das Steuermodul 40 eine elektronische Speichereinrichtung 42, die verschiedene Sensorauslesungen (z. B. Sensorauslesungen von den Sensoren 20 und 3036), Nachschlagetabellen oder andere Datenstrukturen, Algorithmen (z. B. den Algorithmus, der in dem nachstehend beschriebenen beispielhaften Verfahren umfasst ist) etc. speichert. Die Speichereinrichtung 42 kann auch entsprechende Eigenschaften und eine Hintergrundinformation bezüglich des Host-Fahrzeugs 10 speichern, wie beispielsweise eine Information, die sich auf eine erwartete Sensoranbringung oder -Orientierung, eine Sensorreichweite, ein Sensorsichtfeld etc. bezieht. Das Steuermodul 40 kann auch eine elektronische Verarbeitungseinrichtung 44 (z. B. einen Mikroprozessor, einen Mikrocontroller, einen anwendungsspezifischen Schaltkreis (ASIC von application specific integrated circuit) etc.) umfassen, die Anweisungen für Software, Firmware, Programme, Algorithmen, Skripte etc. ausführt, die in der Speichereinrichtung 42 gespeichert sind und die hierin beschriebenen Prozesse und Verfahren überwachen können. Das Steuermodul 40 kann elektronisch mit anderen Fahrzeugeinrichtungen, Modulen und Systemen über geeignete Fahrzeugkommunikationen verbunden sein und kann mit ihnen in Interaktion treten, wenn dies erforderlich ist. Dies sind natürlich nur einige der möglichen Anordnungen, Funktionen und Fähigkeiten des Steuermoduls 40, da auch andere Ausführungsformen verwendet werden könnten.
  • In Abhängigkeit von der bestimmten Ausführungsform kann das Steuermodul 40 ein unabhängiges Fahrzeugmodul sein (z. B. ein Objektdetektionscontroller, ein Sicherheitscontroller, etc.), kann es in ein anderes Fahrzeugmodul einbezogen sein oder in diesem umfasst sein (z. B. ein(em) Sicherheitssteuermodul, ein(em) Modul eines adaptiven Tempomaten, ein(em) Modul für einen automatischen Spurwechsel, ein(em) Einparkunterstützungsmodul, ein(em) Bremssteuermodul, ein(em) Lenksteuermodul etc.) oder kann es Teil eines größeren Netzes oder Systems sein (z. B. eines Traktionssteuersystems (TCS), eines Systems einer elektronischen Stabilitätssteuerung (ESC-Systems), eines Antiblockiersystems (ABS), eines Fahrerunterstützungssystems, eines Systems eines adaptiven Tempomaten, eines Spurverlassenswarnsystems etc.), nur um einige Möglichkeiten zu nennen. Das Steuermodul 40 ist nicht auf irgendeine bestimmte Ausführungsform oder Anordnung beschränkt.
  • Die Benutzerschnittstelle 50 tauscht eine Information oder Daten mit Insassen des Host-Fahrzeugs 10 aus und kann eine beliebige Kombination von visuellen, akustischen und/oder anderen Typen von Komponenten hierfür umfassen. In Abhängigkeit von der bestimmten Ausführungsform kann die Benutzerschnittstelle 50 eine Eingabe/Ausgabe-Einrichtung sein, die sowohl eine Information von dem Fahrer (z. B. eine Touch-Screen-Anzeige oder eine Spracherkennungs-Mensch-Maschine-Schnittstelle (Spracherkennungs-HMI von voice-recognition human-machine interface)), lediglich einer Eingabeeinrichtung (z. B. ein Mikrofon), lediglich einer Ausgabeeinrichtung (z. B. ein Lautsprecher, eine Instrumentenbrettanzeige oder ein visueller Hinweis an dem Rückspiegel) oder einer anderen Komponente empfangen kann als auch eine Information an diese liefern kann. Die Benutzerschnittstelle 50 kann ein unabhängiges Modul sein; sie kann Teil einer Rückspiegelanordnung sein, sie kann Teil eines Infotainment-Systems oder Teil eines anderen Moduls, einer anderen Einrichtung oder eines anderen Systems in dem Fahrzeug sein; sie kann an einem Armaturenbrett angebracht sein (z. B. mit einem Fahrerinformationszentrum (DIC von driver information center)); sie kann an eine Frontscheibe projiziert werden (z. B. mit einer Head-Up-Anzeige); oder sie kann in einem existierenden Audiosystem integriert sein, um einige Beispiele zu nennen. Bei der in 1 gezeigten beispielhaften Ausführungsform ist die Benutzerschnittstelle 50 in einem Instrumentenbrett des Host-Fahrzeugs 10 umfasst und alarmiert sie einen Fahrer hinsichtlich eines falsch ausgerichteten Objektsensors, indem eine geschriebene oder graphische Mitteilung oder dergleichen gesendet wird. Bei einer anderen Ausführungsform sendet die Benutzerschnittstelle 50 eine elektronische Nachricht (z. B. einen Diagnosefehlercode (DTC von diagnostic trouble code) etc.) an ein internes oder externes Ziel, die es hinsichtlich der Sensorfalschausrichtung alarmiert. Es können auch andere geeignete Benutzerschnittstellen verwendet werden.
  • Das Modul 60 stellt eine beliebige Fahrzeugkomponente, eine beliebige Fahrzeugeinrichtung, ein beliebiges Fahrzeugmodul, ein beliebiges Fahrzeugsystem etc. dar, die oder das eine Sensorauslesung von einem oder mehreren Objektsensoren 3036 benötigt, um ihren oder seinen Betrieb durchzuführen. Zur Erläuterung könnte das Modul 60 ein System einer aktiven Sicherheit, ein System eines adaptiven Tempomaten (ACC-System von adaptive cruise control system), ein System für einen automatischen Spurwechsel (LCX-System von automated lane change system) oder ein anderes Fahrzeugsystem sein, das Sensorauslesungen bezüglich sich in der Nähe befindender Fahrzeuge oder Objekte für einen Betrieb verwendet. Bei dem Beispiel eines Systems eines adaptiven Tempomaten (ACC-Systems) kann das Steuermodul 40 dem ACC-System 60 eine Warnung liefern, Sensorauslesungen von einem spezifischen Sensor zu ignorieren, wenn das vorliegende Verfahren ermittelt, dass der Sensor falsch ausgerichtet ist; Ungenauigkeiten in den Sensorauslesungen könnten das Leistungsvermögen des ACC-Systems 60 negativ beeinflussen. In Abhängigkeit von der bestimmten Ausführungsform kann das Modul 60 eine Eingabe/Ausgabe-Einrichtung sein, die sowohl eine Information von dem Steuermodul 40 empfangen kann als auch diesem eine Information liefern kann, und es kann ein unabhängiges Fahrzeugelektronikmodul sein oder es kann Teil eines größeren Netzes oder Systems sein (z. B. eines Traktionssteuersystems (TCS), eines Systems einer elektronischen Stabilitätssteuerung (ESC-Systems), eines Antiblockiersystems (ABS), eines Fahrerunterstützungssystems, eines Systems eines adaptiven Tempomaten (ACC-Systems), eines Spurverlassenswarnsystems etc.), um einige Möglichkeiten zu nennen. Es ist sogar möglich, dass das Modul 60 mit dem Steuermodul 40 kombiniert ist oder in dieses integriert ist, da das Modul 60 nicht auf irgendeine bestimmte Ausführungsform oder Anordnung beschränkt ist.
  • Wieder sollen die vorstehende Beschreibung des beispielhaften Fahrzeugsystems 12 und die Zeichnung in 1 nur eine mögliche Ausführungsform darstellen, da das folgende Verfahren nicht auf die Verwendung mit nur diesem System begrenzt ist. Stattdessen kann eine beliebige Anzahl von anderen Systemanordnungen, -kombinationen und -architekturen verwendet werden, die jene umfassen, die sich erheblich von der in 1 gezeigten unterscheiden.
  • Nun auf 2 Bezug nehmend ist ein beispielhaftes Verfahren 100 gezeigt, das bei dem Fahrzeugsystem 12 verwendet werden kann, um zu ermitteln, ob ein oder mehrere Objektsensoren 3036 falsch ausgerichtet, verdreht oder auf andere Weise ungeeignet orientiert sind. Wie oben erwähnt kann ein Objektsensor als Ergebnis einer Kollision, eines erheblichen Schlaglochs oder einer anderen Unterbrechung auf der Fahrbahn oder nur durch den normalen Verschleiß über die Jahre des Fahrzeugbetriebs, um einige Möglichkeiten zu nennen, falsch ausgerichtet werden. Das Verfahren 100 kann in Ansprechen auf eine beliebige Anzahl von verschiedenen Ereignissen initiiert oder gestartet werden und kann auf einer periodischen, aperiodischen und/oder anderen Basis ausgeführt werden, da das Verfahren nicht auf irgendeine bestimmte Initialisierungssequenz beschränkt ist. Gemäß einigen nicht einschränkenden Beispielen kann das Verfahren 100 kontinuierlich im Hintergrund laufen, kann es nach einem Zündereignis initiiert werden oder kann es nach einer Kollision gestartet werden, um einige Möglichkeiten zu nennen.
  • Beginnend mit Schritt 110 erfasst das Verfahren Sensorauslesungen von einem oder mehreren Fahrzeugsensoren 20. Die erfassten Auslesungen können umfassen: die Raddrehzahl, die Radbeschleunigung, die Fahrzeuggeschwindigkeit, die Fahrzeugbeschleunigung, die Fahrzeugdynamik, die Gierrate, den Lenkwinkel, die Längsbeschleunigung, die Querbeschleunigung oder einen beliebigen anderen geeigneten Fahrzeugbetriebsparameter. Bei einem Beispiel erhält Schritt 110 Lenkwinkelauslesungen, Gierratenauslesungen und/oder andere Auslesungen, die angeben, ob das Host-Fahrzeug 10 im Wesentlichen geradeaus fährt, sowie Fahrzeuggeschwindigkeitsauslesungen, die angeben, wie schnell sich das Host-Fahrzeug bewegt. Fachleute werden erkennen, dass Schritt 110 auch andere Sensorauslesungen erfassen oder auf andere Weise erhalten kann, da die zuvor genannten Auslesungen lediglich einige der Möglichkeiten darstellen.
  • Dann ermittelt Schritt 114, ob sich das Host-Fahrzeug 10 im Wesentlichen geradeaus bewegt oder im Wesentlichen geradeaus fährt. Wenn das Host-Fahrzeug geradeaus fährt – beispielsweise über eine Strecke einer Autobahn oder einer anderen Straße – können bestimmte Annahmen gemacht werden, die die durch das Verfahren 100 durchgeführten Berechnungen vereinfachen und auf diese Weise den entsprechenden Algorithmus weniger gewichtig und weniger ressourcenintensiv machen, wie es nachfolgend ausführlicher erklärt wird. Bei einer beispielhaften Ausführungsform bewertet Schritt 114 die Sensorauslesungen von dem vorherigen Schritt (z. B. Lenkwinkelauslesungen, Gierratenauslesungen, Raddrehzahlauslesungen etc.) und verwendet er diese Information, um zu ermitteln, ob sich das Host-Fahrzeug 10 im Großen und Ganzen geradeaus bewegt. Dieser Schritt kann erfordern, dass der Lenkwinkel oder die Gierrate für eine bestimmte Zeitdauer oder Distanz kleiner als ein vorbestimmter Schwellenwert sind, oder er kann erfordern, dass die verschiedenen Raddrehzahlauslesungen innerhalb eines vorbestimmten Bereiches zueinander liegen, oder er kann andere Techniken verwenden, um die Linearität des Pfads des Host-Fahrzeugs zu bewerten. Es ist sogar möglich, dass Schritt 114 eine Information von einem Typ von GPS-basiertem Fahrzeugnavigationssystem verwendet, um zu ermitteln, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt. Der Begriff ”im Wesentlichen geradeaus” sowie seine verschiedenen Varianten soll jene Fahrzeugpfade umfassen, die für die für eine Anwendung der später beschriebenen algorithmischen Annahmen gerade oder linear genug sind; er bedeutet nicht, dass sich das Host-Fahrzeug perfekt geradeaus oder in einer perfekt geraden Richtung bewegen muss. Der lineare Status des Fahrzeugpfads könnte durch eine andere Einrichtung, ein anderes Modul, ein anderes System etc. bereitgestellt werden, die oder das sich in dem Host-Fahrzeug befindet, da diese Information bereits verfügbar sein kann. Wenn sich das Host-Fahrzeug 10 im Wesentlichen geradeaus bewegt, fährt das Verfahren mit Schritt 118 fort; ansonsten springt das Verfahren in einer Schleife zurück zum Beginn.
  • Schritt 118 erfasst Sensorauslesungen von einem oder mehreren Objektsensoren 3036, die an dem Host-Fahrzeug angeordnet sind. Die Sensorauslesungen geben an, ob ein Objekt in das Sichtfeld eines bestimmten Objektsensors eingetreten ist, wie es erklärt wird, und können auf eine Vielzahl von verschiedenen Formen bereitgestellt werden. Bei einer Ausführungsform überwacht Schritt 118 ein Sichtfeld 70 des Objektsensors 30, der an der Front des Host-Fahrzeugs 10 angeordnet ist. Das Sichtfeld 70 ist in gewisser Weise kuchenstückförmig und befindet sich vor dem Host-Fahrzeug, wobei das Sichtfeld jedoch in Abhängigkeit von der Reichweite des Sensors (z. B. Fernbereich, Nahbereich etc.), dem Typ des Sensors (z. B. Radar, LIDAR, LADAR, Laser etc.), dem Ort und der Anbringungsorientierung des Sensors (z. B. ein vorderer Sensor 30, Seitensensoren 32 und 36, ein hinterer Sensor 34 etc.) oder von einigen anderen Eigenschaften variieren kann. Schritt 118 kann mit Schritt 114 oder einem anderen geeigneten Schritt in dem Verfahren kombiniert werden, da er nicht separat durchgeführt werden muss.
  • Schritt 122 ermittelt, ob ein Objekt in dem Sichtfeld eines oder mehrerer der Objektsensoren vorliegt. Gemäß einem Beispiel überwacht Schritt 122 das Sichtfeld 70 für den nach vorn gerichteten Objektsensor 30 und verwendet er eine beliebige Anzahl von geeigneten Techniken, um zu ermitteln, ob ein oder mehrere Objekte in das Sichtfeld eingetreten ist oder sind. Die durch diesen Schritt eingesetzten Techniken können für verschiedene Umgebungen (z. B. Umgebungen mit hoher Objektdichte wie Stadtgebiete, Umgebungen mit geringer Objektdichte wie ländliche Bereiche etc.) variieren. Es ist möglich, dass Schritt 122 mehrere Objekte in dem Sichtfeld 70 gleichzeitig, sowohl sich bewegende als auch stationäre Objekte, sowie andere Objektszenarien in Betracht zieht und bewertet. Dieser Schritt kann eine Vielzahl von geeigneten Filter- und/oder anderen Signalverarbeitungstechniken verwenden, um die Sensorauslesungen zu bewerten und um zu ermitteln, ob ein Objekt wirklich existiert. Einige nicht einschränkende Beispiele solcher Techniken umfassen die Verwendung von vorbestimmten Rauschabstandschwellenwerten (SNR-Schwellenwerten von signal-to-noise ratio thresholds) bei vorhandenem Hintergrundrauschen sowie andere bekannte Verfahren. Wenn Schritt 122 ermittelt, dass ein Objekt vorhanden ist, fährt das Verfahren mit Schritt 126 fort; ansonsten springt das Verfahren in einer Schleife zurück zum Beginn für eine weitere Überwachung.
  • Als Nächstes verfolgt Schritt 126 das Objekt, wenn es sich durch das Sichtfeld eines oder mehrerer der Objektsensoren bewegt. Durch Verfolgen oder Überwachen des Objekts, wenn es durch ein Sensorsichtfeld gelangt, kann dieser Schritt einen erfassten Objektpfad entwickeln oder herstellen, der in nachfolgenden Schritten nützlich sein kann. Der erfasste Objektpfad kann beispielsweise. angeben, ob das Objekt ein stationäres Objekt oder ein sich bewegendes ist. Gemäß einer beispielhaften Ausführungsform zeichnet Schritt 126 eine Information bezüglich eines Objekteintrittspunkts 72 und eines Objektaustrittspunkts 74 für jedes Objekt, das in das Sichtfeld 70 eintritt, auf. Einige Beispiele der Typen von Information oder Daten, die für jeden Objekteintritts- und/oder -austrittspunkt gespeichert werden könnten, umfassen einen jedem Punkt zugehörigen Zeitpunkt, eine jedem Punkt zugehörige Position (z. B. kartesische, Polar- oder andere Koordinaten, eine Distanz zum Host-Fahrzeug etc.) oder einige andere geeignete Daten. Beispielsweise kann Schritt 126 den Zeitpunkt und die Position eines Objekts, zu dem und an der es in das Sichtfeld 70 eintritt, ermitteln und diese Daten in Verbindung mit dem Objekteintrittspunkt 72 speichern, und den Zeitpunkt und die Position des Objekts, zu dem und an der es aus dem Sichtfeld austritt oder dieses verlässt, ermitteln und diese Daten in Verbindung mit dem Objektaustrittspunkt 74 speichern. Es ist auch möglich, dass Schritt 126 das Objekt verfolgt oder überwacht, während es sich innerhalb des Objektsensorsichtfelds befindet – nicht nur an den Grenzen des Sichtfelds – und die resultierenden Daten bewertet und/oder speichert. Bei einer beispielhaften Ausführungsform wird das Objekt durch das Sichtfeld 70 verfolgt, indem kontinuierlich temporäre Datenpunkte 68 erzeugt und aktualisiert werden, bis das Objekt nicht mehr detektiert wird (d. h. Objektaustrittspunkt 74), wobei zu diesem Zeitpunkt nur der erste und letzte Datenpunkt in der Speichereinrichtung 42 gespeichert werden; ein Speichern von nur dem ersten und letzten Datenpunkt kann die Menge an gespeicherten Daten reduzieren und Speicher- und/oder Rechenressourcen freigeben. In Abhängigkeit von der bestimmten Anwendung kann auch eine Information bezüglich der temporären oder Zwischendatenpunkte 68 gespeichert und verwendet werden. Schritt 126 kann Techniken zum Filtern oder Verifizieren der Daten, wie beispielsweise Mitteln oder Glätten von zwei oder mehr Datenpunkten etc., einsetzen. Es sind auch andere Ausführungsformen möglich.
  • Schritt 130 ermittelt dann, ob das erfasste Objekt verwendet werden kann, um die Ausrichtung oder Orientierung des Objektsensors zu bewerten. Zwei Kriterien, die durch Schritt 130 in Betracht gezogen werden können, umfassen: die Länge des Objektpfads und ob das Objekt stationär ist. Wenn das Objekt das Sichtfeld 70 kaum anschneiden oder durchlaufen würde, könnte es beispielsweise einen Objektpfad 76 mit einer kurzen Länge (d') erzeugen, der zur exakten Verwendung bei dem Verfahren 100 nicht lang genug ist (die algorithmischen Annahmen oder Abkürzungen, die nachstehend beschrieben werden, sind mit ausreichend langen Objektpfaden typischerweise exakter). Eine Möglichkeit für Schritt 130, um zu ermitteln, ob das erfasste Objekt ein guter Kandidat zur Verwendung bei dem vorliegenden Verfahren ist, umfasst, die Länge (d) zwischen dem Objekteintrittspunkt 72 und dem Objektaustrittspunkt 74 (d. h. die Objektpfadlänge) zu berechnen und dann diese Länge mit einem Pfadlängenschwellenwert zu vergleichen. Der Pfadlängenschwellenwert oder die minimale Pfadlänge hängt von einer Anzahl von Faktoren ab, die den Typ, die Qualität und/oder den Ort des bewerteten Objektsensors umfassen. Wenn beispielsweise der Objektsensor 30 ein Fernbereichssensor geringerer Qualität ist, kann ein längerer Pfadlängenschwellenwert erforderlich sein; wenn er ein Sensor mit höherer Qualität oder ein Nahbereichssensor ist, kann ein kürzerer Pfadlängenschwellenwert ausreichen. Es ist auch möglich, dass Schritt 130 die Hinlänglichkeit oder Nutzbarkeit des erfassten Objekts ermittelt, indem betrachtet wird, wo der Objektpfad durch das Sichtfeld läuft (je näher an der Sensormittellinie SCL, desto nützlicher kann er sein). Wie oben erwähnt, ist die Objektpfadlänge nur eines der möglichen Kriterien, die durch Schritt 130 in Betracht gezogen werden können, um die Hinlänglichkeit des erfassten Objekts zu ermitteln; ob das Objekt stationär ist, ist ein anderes.
  • Bei dem vorliegenden Verfahren werden stationäre Objekte zu Zwecken des Bewertens der Ausrichtung oder Orientierung eines Objektsensors für gewöhnlich sich bewegenden Objekten vorgezogen. Somit kann Schritt 130 überprüfen, ob das erfasste Objekt stationär ist oder sich bewegt, und dies kann auf eine Anzahl von verschiedenen Arten erfolgen. Gemäß einer beispielhaften Ausführungsform ermittelt Schritt 130 die offensichtliche oder mittlere Geschwindigkeit des erfassten Objekts, während es sich in dem Sichtfeld 70 befindet, und vergleicht er dann diese mit der Geschwindigkeit des Host-Fahrzeugs 10; wenn der Unterschied zwischen den beiden Geschwindigkeiten kleiner als ein gewisser Betrag ist, wird das Objekt als stationär betrachtet. Bei einem Beispiel berechnet Schritt 130 die offensichtliche oder mittlere Geschwindigkeit des erfassten Objekts, indem die Distanz zwischen Objekteintritts- und -austrittspunkt durch die Zeit zwischen diesen Punkten geteilt wird: Objektgeschwindigkeit = = (Objektaustrittspunktposition – Objekteintrittspunktposition)/(Objektaustrittspunktzeitpunkt – Objekteintrittspunktzeitpunkt)
  • Die vorstehende Berechnung kann in kartesischen Koordinaten, Polarkoordinaten oder einem anderen geeigneten Koordinatensystem durchgeführt werden, und die Genauigkeit der Berechnung basiert zumindest teilweise auf Annahmen, die auf den im Wesentlichen geraden oder linearen Pfad des Fahrzeugs zurückzuführen sind. Wenn das Host-Fahrzeug 10 um eine Biegung oder Kurve gefahren wurde, gelten die dieser Berechnung zugehörigen Annahmen möglicherweise nicht. Durch Durchführen der obigen Berechnung kann vermieden werden, dass das Host-Fahrzeug 10 teure und hochentwickelte Objektsensoren verwenden muss, die intern die Objektgeschwindigkeit berechnen, da solche Sensoren unerwünschte Kosten bei dem Fahrzeug erzeugen können. Schritt 130 kann die Fahrzeuggeschwindigkeit durch Abfragen des Steuermoduls 40 oder einer anderen Quelle erfassen, so dass er die Geschwindigkeiten von Objekt und Fahrzeug miteinander vergleichen kann. Wenn der Unterschied zwischen den Geschwindigkeiten von Fahrzeug und Objekt kleiner als ein Geschwindigkeitsschwellenwert ist (z. B. ein fester Schwellenwert, ein variabler Schwellenwert, der ein Bruchteil oder Prozentsatz der Fahrzeuggeschwindigkeit ist, oder ein anderer Typ von Schwellenwert), ist es wahrscheinlich, dass das erfasste Objekt stationär ist; andernfalls nimmt das Verfahren an, dass das Objekt ein sich bewegendes Ziel, wie beispielsweise ein anderes Fahrzeug, ist. Bei einer Ausführungsform vergleicht Schritt 130 den Unterschied der Geschwindigkeiten von Fahrzeug und Objekt mit einem festen Schwellenwert, wie beispielsweise 8 km/h (5 m. p. h.), der ausgewählt wird, um ein normales Sensorrauschen zu berücksichtigen.
  • Bei dem vorstehenden Beispiel, bei dem zwei Kriterien verwendet wurden, überprüft Schritt 130, ob die Objektpfadlänge ausreichend lang ist und ob das Objekt stationär ist. Wenn diese beiden Kriterien erfüllt sind, schließt das beispielhafte Verfahren daraus, dass das erfasste Objekt ein guter Kandidat zur Verwendung bei den nachstehend beschriebenen Sensorausrichtungstechniken ist und fährt es mit Schritt 146 fort. Wenn nicht beide Kriterien erfüllt sind, springt das Verfahren zu Schritt 110 zurück, und es fährt damit fort, nach einem geeigneten Objekt zu suchen, das verwendet werden kann, um die Ausrichtung des Objektsensors zu bewerten. Es sei angemerkt, dass andere Kriterien und Kombinationen von Kriterien für die Bewertung in Schritt 130 verwendet werden können, da das vorliegende Verfahren nicht auf die oben beschriebenen beispielhaften Kriterien beschrankt ist.
  • An dieser Stelle hat das Verfahren ermittelt, dass sich das Fahrzeug im Wesentlichen geradeaus bewegt (Schritt 114), hat es das Vorhandensein eines Objekts in dem Objektsensorsichtfeld detektiert (Schritt 122), hat es ermittelt, dass das Objekt zur Verwendung beim Bewerten einer Sensorausrichtung geeignet ist (Schritt 130), und nun kann das Verfahren die Ausrichtung oder Orientierung des betreffenden Objektsensors bewerten.
  • Schritt 146 bewertet eine Sensorausrichtung, indem ein erfasster Objektwinkel (θs) und ein erwarteter Objektwinkel (θe) ermittelt werden und dann diese beiden Winkel miteinander verglichen werden. Der erfasste Objektwinkel (θs) bezieht sich im Allgemeinen auf den erfassten oder gemessenen Winkel des Objektpfads 76, und gemäß der in 1 gezeigten Ausführungsform stellt der erfasste Objektwinkel (θs) den Winkel zwischen dem Objektpfad 76 (d. h. der zwischen Objekteintritts- und -austrittspunkt 72, 74 gezogenen Linie) und der Sensormittellinie SCL dar. Der erwartete Objektwinkel (θe) bezieht sich im Allgemeinen auf den erwarteten oder vorbestimmten Anbringungswinkel des betreffenden Objektsensors, und der erwartete Objektwinkel (θe) stellt gemäß 1 den Winkel zwischen der Fahrzeugmittellinie VCL und der Sensormittellinie SCL dar. Der erwartete Objektwinkel (θe) kann die bekannte Anbringungsorientierung des betreffenden Objektsensors sein und wird für gewöhnlich festgelegt, wenn das Fahrzeug entworfen, getestet wird oder sich in einer anderen Entwicklungsstufe befindet, und kann in der Speichereinrichtung 42 oder an einem anderen Ort gespeichert sein. Es sei angemerkt, dass sich der erwartete Objektwinkel (θe) von der Orientierung von ungefähr 20°, die in der Zeichnung dargestellt ist, unterscheiden kann. Beispielsweise kann der Objektsensor 30 absichtlich gemäß anderen Orientierungen angebracht sein – beispielsweise θe = 5°, 10°, 30°, 45° etc. Die exakte Orientierung oder Anbringung des betreffenden Objektsensors kann in Abhängigkeit von dem Typ, der Qualität und dem beabsichtigten Zweck des Objektsensors sowie der bestimmten Anwendung, bei der er verwendet wird, variieren. Ferner können sich die tatsächlichen Winkel, Koordinatenrahmen, etc., die verwendet werden, um (θs) und (θe) darzustellen, von den hier gezeigten Beispielen unterscheiden.
  • Schritt 154 ermittelt dann, ob der Objektsensor falsch ausgerichtet oder anderweitig verdreht ist. Bei einer Ausführungsform vergleicht dieser Schritt den erwarteten Objektwinkel (θe), der in dem Speicher 42 gespeichert ist, mit dem erfassten Objektwinkel (θs), der jüngst ermittelt wurde, um den Unterschied zwischen den beiden Winkeln zu berechnen. Die Vorzeichen dieser Winkel sollten berücksichtigt werden; beispielsweise können die erfassten Objektwinkel (θs) auf der rechten Seite der Sensormittellinie SCL ein Vorzeichen haben und können die erfassten Objektwinkel (θs) auf der linken Seite der Sensormittellinie SCL (wie der in 1 gezeigte) ein anderes Vorzeichen haben. Wenn der Unterschied zwischen diesen beiden Winkeln einen Objektwinkelschwellenwert übersteigt, wird ermittelt, dass der Objektsensor falsch ausgerichtet ist. Wie zuvor kann der Objektwinkelschwellenwert ein fester Schwellenwert (z. B. 0°, 1°, 2°, 5° etc.), ein variabler Schwellenwert (z. B. ein Prozentsatz oder Bruchteil des erfassten oder erwarteten Objektwinkels) oder ein Schwellenwert sein, der von dem verwendeten Sensor, dem Rauschniveau des Sensors, der Fahrzeuggeschwindigkeit etc. oder einem anderen geeigneten Faktor abhängt. Wenn Schritt 154 ermittelt, dass der Unterschied zwischen dem erwarteten und dem erfassten Objektwinkel θe und θs größer als der Objektwinkelschwellenwert ist, wird der betreffende Objektsensor als falsch ausgerichtet oder auf andere Weise verdreht betrachtet. Wenn der Winkelunterschied kleiner als der Objektwinkelschwellenwert ist, wird der Objektsensor als korrekt ausgerichtet betrachtet. Es ist anzumerken, dass Schritt 154 nicht nur eine Sensorfalschausrichtung detektieren kann, sondern dass er auch den Sensor, der falsch ausgerichtet oder verdreht ist, ohne Information von irgendeinem anderen Objektsensor identifizieren kann. In den Objektwinkelschwellenwert sollten geeignete Toleranzen einbezogen werden, um typische Herstellungs- und Anbringungsfehler zu berücksichtigen. Fachleute werden auch erkennen, dass eine geeignete Nutzung der Vorzeichen der Winkel (d. h. positiv oder negativ) beim Ermitteln einer Falschausrichtung hilft, auch wenn der Sensor einen gleichen, jedoch entgegengesetzten Winkel umfasst (z. B. wird eine Falschausrichtung detektiert werden, wenn θs = -θe) Fachleute werden erkennen, dass das vorliegende Verfahren eine oder mehrere Redundanzprüfungen oder andere Techniken einsetzen kann, um sicherzustellen, dass eine Feststellung einer Objektsensorfalschausrichtung korrekt ist. Beispielsweise kann das Verfahren einen Typ von Programmierschleife einsetzen, der erfordert, dass das Verfahren für eine bestimmte Anzahl von aufeinander folgenden Iterationen (z. B. fünf Iterationen) oder ein bestimmtes Verhältnis von Iterationen (z. B. vier von fünf Iterationen) herausfindet, dass der Sensor falsch ausgerichtet ist, bevor gefolgert wird, dass der Sensor tatsächlich falsch ausgerichtet ist. Bei einem anderen Beispiel kann das vorliegende Verfahren erfordern, dass mehrere stationäre Objekte identifiziert und verwendet werden, bevor gefolgert wird, dass ein Objektsensor falsch ausgerichtet ist. In solch einem Fall müsste Schritt 154 die Feststellung einer Sensorfalschausrichtung unter Verwendung von mehreren und verschiedenen stationären Objekten erreichen. Bei noch einem weiteren Beispiel kann das Verfahren 100 in Verbindung mit Objektsensoren mit einem sich überlappenden Sichtfeld oder einem anderen Typ von Hardwareredundanz verwendet werden, um die Genauigkeit der Feststellungen sicherzustellen. Sicherlich sind auch andere Typen von Redundanzen und Techniken möglich.
  • Wenn der vorherige Schritt ermittelt, dass der betreffende Objektsensor falsch ausgerichtet ist, kann Schritt 158 eine oder mehrere Abhilfemaßnahmen treffen. Einige Beispiele geeigneter Abhilfemaßnahmen umfassen: Senden einer Warnnachricht an den Fahrer über die Benutzerschnittstelle 50, zu einem anderen Teil des Host-Fahrzeugs wie dem Modul 60 oder zu einer entfernt angeordneten Backend-Einrichtung (nicht gezeigt); Setzen eines Sensorfehler-Flags oder Herstellen eines Diagnosefehlercodes (DTC von diagnostic trouble code); oder Deaktivieren einer anderen Einrichtung, eines anderen Moduls, eines anderen Systems und/oder eines anderen Merkmals in dem Host-Fahrzeug, die oder das von den Sensorauslesungen von dem falsch ausgerichteten Objektsensor für einen korrekten Betrieb abhängt, um einige Möglichkeiten zu nennen. Bei einer Ausführungsform sendet Schritt 158 eine Warnnachricht an die Benutzerschnittstelle 50, die den Fahrer informiert, dass der Objektsensor 30 falsch ausgerichtet ist, und sendet er Befehlssignale an das Modul 60, die das Modul anweisen, das Verwenden von Sensorauslesungen von dem falsch ausgerichteten oder verdrehten Objektsensor zu vermeiden, bis er repariert werden kann. Sicherlich sind auch andere Typen und Kombinationen von Abhilfemaßnahmen möglich.
  • Das hierin beschriebene beispielhafte Verfahren kann in einem leichten Algorithmus umfasst sein, der weniger speicher- und prozessorintensiv ist als vorherige Verfahren, die große Sammlungen von Datenpunkten erfassen und analysieren. Beispielsweise kann die Verwendung eines erfassten Objektpfads anstatt aller zwischen dem Objekteintritts- und -austrittspunkt liegenden Datenpunkte die mit einem Speicher und Prozessor in Verbindung stehenden Belastungen an dem System reduzieren. Diese algorithmische Leistungsfähigkeit ermöglicht dem Verfahren 100, ausgeführt oder durchgeführt zu werden, während das Host-Fahrzeug 10 gefahren wird, anstatt den Sensor in einen Ausrichtungsmodus zu bringen und auf einer vordefinierten Route zu fahren oder zu erfordern, dass das Host-Fahrzeug zu einer Werkstatt gebracht wird und mit speziellen Diagnosewerkzeugen geprüft wird. Ferner ist es nicht notwendig, dass das Host-Fahrzeug 10 teure Objektsensoren verwendet, die die Geschwindigkeit von detektierten Objekten intern berechnen und bereitstellen, oder dass mehrere Objektsensoren mit überlappenden Sichtfeldern erforderlich sind, wie es einige Systeme erfordern.
  • Es ist zu verstehen, dass die vorangehende Beschreibung keine Definition der Erfindung ist, sondern eine Beschreibung einer oder mehrerer bevorzugter beispielhafter Ausführungsformen der Erfindung ist. Die Erfindung ist nicht auf die bestimmte(n) hierin offenbarte(n) Ausführungsform(en) beschränkt, sondern ist lediglich durch die nachstehenden Ansprüche definiert. Ferner beziehen sich die in der vorangehenden Beschreibung enthaltenen Aussagen auf spezielle Ausführungsformen und sollen diese nicht als Einschränkungen des Schutzumfangs der Erfindung oder der Definition von in den Ansprüchen verwendeten Begriffen betrachtet werden, es sei denn, ein Begriff oder eine Phrase ist oben ausdrücklich definiert. Verschiedene andere Ausführungsformen und verschiedene Änderungen und Abwandlungen der offenbarten Ausführungsform(en) werden für Fachleute ersichtlich werden. Beispielsweise ist die spezifische Kombination und Reihenfolge von Schritten nur eine Möglichkeit, da das vorliegende Verfahren eine Kombination von Schritten umfassen kann, die weniger, mehr oder andere Schritte aufweist als die hier gezeigten. Alle solchen anderen Ausführungsformen, Änderungen und Abwandlungen sollen innerhalb des Schutzumfangs der beigefügten Ansprüche umfasst sein.
  • Wie in dieser Beschreibung und in den Ansprüchen verwendet sollen die Begriffe ”zum Beispiel”, ”z. B.”, ”beispielsweise”, ”wie beispielsweise” und ”wie” und die Verben ”umfassen”, ”aufweisen”, ”einschließen” und ihre anderen Verbformen, wenn sie in Verbindung mit einer Auflistung einer oder mehrerer Komponenten oder eines oder mehrerer anderer Elemente verwendet werden, jeweils als ein offenes Ende aufweisend betrachtet werden, was bedeutet, dass die Auflistung nicht als andere, zusätzliche Komponenten oder Elemente ausschließend betrachtet werden soll. Andere Begriffe sollen als ihre breiteste vernünftige Bedeutung umfassend betrachtet werden, wenn sie nicht in einem Kontext verwendet werden, der eine andere Interpretation erfordert.

Claims (14)

  1. Verfahren zur Verwendung bei einem Objektsensor, der sich an einem Host-Fahrzeug befindet, umfassend die Schritte, dass: (a) ermittelt wird, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; (b) wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt, ein Objekt mit dem Objektsensor verfolgt wird, wenn es sich durch das Objektsensorsichtfeld bewegt, so dass ein erfasster Objektpfad hergestellt wird; und (c) der erfasste Objektpfad mit einem erwarteten Objektpfad verglichen wird, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist.
  2. Verfahren nach Anspruch 1, wobei Schritt (a) ferner umfasst, dass Sensorauslesungen von einem Lenkwinkelsensor und/oder einem Gierratensensor und/oder einem Raddrehzahlsensor empfangen werden und die Sensorauslesungen von dem Lenkwinkelsensor und/oder dem Gierratensensor und/oder dem Raddrehzahlsensor verwendet werden, um zu ermitteln, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt.
  3. Verfahren nach Anspruch 1, wobei Schritt (b) ferner umfasst, dass das Objekt mit dem Objektsensor verfolgt wird, wenn es sich durch das Objektsensorsichtfeld bewegt, indem eine Information bezüglich eines Objekteintrittspunkts und eines Objektaustrittspunkts gespeichert wird.
  4. Verfahren nach Anspruch 3, wobei die Information bezüglich des Objekteintrittspunkts einen Zeitpunkt und eine Position des Objekts, zu dem und an der es in das Objektsensorsichtfeld eintritt, umfasst, und die Information bezüglich des Objektaustrittspunkts einen Zeitpunkt und eine Position des Objekts, zu dem und an der es aus dem Objektsensorsichtfeld austritt, umfasst.
  5. Verfahren nach Anspruch 1, wobei Schritt (b) ferner umfasst, dass das Objekt mit dem Objektsensor verfolgt wird, wenn es sich durch das Objektsensorsichtfeld bewegt, und dann ermittelt wird, ob das Objekt zur Verwendung beim Bewerten der Ausrichtung des Objektsensors geeignet ist.
  6. Verfahren nach Anspruch 5, wobei Schritt (b) ferner umfasst, dass ermittelt wird, ob das Objekt zur Verwendung beim Bewerten der Ausrichtung des Objektsensors geeignet ist, indem eine Objektpfadlänge für den erfassten Objektpfad berechnet wird und die Objektpfadlänge mit einem Pfadlängenschwellenwert verglichen wird.
  7. Verfahren nach Anspruch 5, wobei Schritt (b) ferner umfasst, dass ermittelt wird, ob das Objekt zur Verwendung beim Bewerten der Ausrichtung des Objektsensors geeignet ist, indem ermittelt wird, ob das Objekt stationär ist.
  8. Verfahren nach Anspruch 1, wobei Schritt (c) ferner umfasst, dass der erfasste Objektpfad mit dem erwarteten Objektpfad verglichen wird, indem ein erfasster Objektwinkel (θs), der dem erfassten Objektpfad entspricht, und ein erwarteter Objektwinkel (θe), der dem erwarteten Objektpfad entspricht, ermittelt werden, und dann diese beiden Winkel miteinander verglichen werden.
  9. Verfahren nach Anspruch 8, wobei Schritt (c) ferner umfasst, dass der Unterschied zwischen dem erfassten Objektwinkel (θs) und dem erwarteten Objektwinkel (θe) ermittelt wird und der Unterschied mit einem Objektwinkelschwellenwert verglichen wird.
  10. Verfahren nach Anspruch 1, das ferner den Schritt umfasst, dass: (d) eine oder mehrere Abhilfemaßnahmen getroffen wird oder werden, wenn ermittelt wird, dass der Objektsensor falsch ausgerichtet ist.
  11. Verfahren nach Anspruch 10, wobei Schritt (d) ferner umfasst, dass eine Warnnachricht an eine Benutzerschnittstelle gesendet wird, die den Fahrer informiert, dass der Objektsensor falsch ausgerichtet ist.
  12. Verfahren nach Anspruch 10, wobei Schritt (d) ferner umfasst, dass Befehlssignale an ein Modul an dem Host-Fahrzeug gesendet werden, die das Modul anweisen, das Verwenden von Sensorauslesungen von dem falsch ausgerichteten Sensor zu vermeiden.
  13. Verfahren zur Verwendung bei einem Objektsensor, der sich an einem Host-Fahrzeug befindet, umfassend die Schritte, dass: (a) ermittelt wird, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; (b) wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt, ein Objekt mit dem Objektsensor verfolgt wird, indem ein Objekteintrittspunkt, an dem das Objekt in ein Objektsensorsichtfeld eintritt, und ein Objektaustrittspunkt, an dem das Objekt aus dem Objektsensorsichtfeld austritt, ermittelt werden; (c) der Objekteintrittspunkt und der Objektaustrittspunkt verwendet werden, um zu ermitteln, ob das Objekt stationär ist; (d) wenn das Objekt stationär ist, ein erfasster Objektpfad bewertet wird, der sich von dem Objekteintrittspunkt zu dem Objektaustrittspunkt erstreckt, indem ein erfasster Objektwinkel (θs), der dem erfassten Objektpfad entspricht, und ein erwarteter Objektwinkel (θe), der einem erwarteten Objektpfad entspricht, ermittelt werden; und (e) der erfasste Objektwinkel (θs) und der erwartete Objektwinkel (θe) verwendet werden, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist.
  14. Fahrzeugsystem an einem Host-Fahrzeug, umfassend: einen oder mehrere Fahrzeugsensoren, der oder die Sensorauslesungen bereitstellt oder bereitstellen, wobei die Fahrzeugsensorauslesungen angeben, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; einen oder mehrere Objektsensoren, der oder die Sensorauslesungen bereitstellt oder bereitstellen, wobei die Objektsensorauslesungen einen erfassten Objektpfad für ein Objekt herstellen, wenn es sich durch ein Objektsensorsichtfeld bewegt; und ein Steuermodul, das mit dem einen oder den mehreren Fahrzeugsensoren gekoppelt ist, um die Fahrzeugsensorauslesungen zu empfangen, und mit dem einen oder den mehreren Objektsensoren gekoppelt ist, um die Objektsensorauslesungen zu empfangen, wobei das Steuermodul ausgestaltet ist, um den erfassten Objektpfad mit einem erwarteten Objektpfad zu vergleichen, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist, wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt.
DE102013202377A 2012-02-22 2013-02-14 Verfahren zum Ermitteln einer Objektsensorfalschausrichtung Pending DE102013202377A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/402,089 2012-02-22
US13/402,089 US8930063B2 (en) 2012-02-22 2012-02-22 Method for determining object sensor misalignment

Publications (1)

Publication Number Publication Date
DE102013202377A1 true DE102013202377A1 (de) 2013-08-22

Family

ID=48915393

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013202377A Pending DE102013202377A1 (de) 2012-02-22 2013-02-14 Verfahren zum Ermitteln einer Objektsensorfalschausrichtung

Country Status (3)

Country Link
US (1) US8930063B2 (de)
CN (1) CN103287358B (de)
DE (1) DE102013202377A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017067914A1 (de) * 2015-10-23 2017-04-27 Valeo Schalter Und Sensoren Gmbh Verfahren zum korrigieren einer fehlerhaften ausrichtung eines optischen sensors eines kraftfahrzeugs, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
WO2018121914A1 (de) * 2016-12-29 2018-07-05 Robert Bosch Gmbh Verfahren zum betrieb eines fahrerassistenzsystems für kraftfahrzeuge
DE102017214293A1 (de) * 2017-08-16 2019-02-21 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten von Daten in einem Kraftfahrzeug für einen Versand an ein Backend
DE102015105278B4 (de) * 2014-04-23 2019-11-07 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Diagnostizieren eines Gesundheitszustands eines Fahrspurerfassungssystems
DE102020112289A1 (de) 2020-05-06 2021-11-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs mit unmittelbarer Validierung sowie Recheneinrichtung
DE102017105305B4 (de) 2016-03-14 2024-04-25 GM Global Technology Operations LLC Verfahren zur automatischen bestimmung einer sensorstellung

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012017669A1 (de) * 2012-09-07 2014-03-13 Valeo Schalter Und Sensoren Gmbh Anordnung mit einem Verkleidungsteil und einem Radarsensor, Kraftfahrzeug und Verfahren zum Herstellen einer Anordnung
US9274525B1 (en) * 2012-09-28 2016-03-01 Google Inc. Detecting sensor degradation by actively controlling an autonomous vehicle
DE102012020906A1 (de) * 2012-10-24 2014-04-24 Audi Ag Verfahren und System zum Betreiben eines Antriebsstrangs eines Kraftwagens
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
JP6048083B2 (ja) * 2012-11-12 2016-12-21 富士通株式会社 物体検出装置及びプログラム
US9563951B2 (en) 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US20150070207A1 (en) * 2013-09-06 2015-03-12 Valeo Radar Systems, Inc. Method and Apparatus For Self Calibration of A Vehicle Radar System
DE102013220016A1 (de) * 2013-10-02 2015-04-02 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Funktionsüberwachung eines Fahrerassistenzsystems
EP2902802B1 (de) * 2014-01-31 2016-10-26 S.M.S. Smart Microwave Sensors GmbH Sensorvorrichtung
JP6413097B2 (ja) * 2014-02-05 2018-10-31 パナソニックIpマネジメント株式会社 物体検知装置
JP6365251B2 (ja) * 2014-02-28 2018-08-01 パナソニック株式会社 レーダ装置
US10024955B2 (en) * 2014-03-28 2018-07-17 GM Global Technology Operations LLC System and method for determining of and compensating for misalignment of a sensor
DE102014220687A1 (de) * 2014-10-13 2016-04-14 Continental Automotive Gmbh Kommunikationsvorrichtung für ein Fahrzeug und Verfahren zum Kommunizieren
WO2016065375A1 (en) * 2014-10-27 2016-05-06 Fts Computertechnik Gmbh Computer vision monitoring for a computer vision system
JP6356586B2 (ja) * 2014-11-28 2018-07-11 株式会社デンソー 車両の走行制御装置
US20160209211A1 (en) * 2015-01-16 2016-07-21 GM Global Technology Operations LLC Method for determining misalignment of an object sensor
US9886801B2 (en) * 2015-02-04 2018-02-06 GM Global Technology Operations LLC Vehicle sensor compensation
US9903945B2 (en) * 2015-02-04 2018-02-27 GM Global Technology Operations LLC Vehicle motion estimation enhancement with radar data
JP6432423B2 (ja) * 2015-03-31 2018-12-05 株式会社デンソー 物体検知装置、及び物体検知方法
DE102015119658A1 (de) * 2015-11-13 2017-05-18 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Objektklassifizierung, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
US10046713B2 (en) * 2016-01-04 2018-08-14 Ford Global Technologies, Llc Sensor apparatus
DE102016204011A1 (de) * 2016-03-11 2017-09-14 Robert Bosch Gmbh Vorrichtung zur Ermittlung einer Dejustage einer an einem Fahrzeug befestigten Detektionseinrichtung
DE102016204113A1 (de) 2016-03-14 2017-09-14 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Detektion eines Objekts
JP6439728B2 (ja) * 2016-03-23 2018-12-19 株式会社デンソー 搭載角度学習装置
EP3239737B1 (de) * 2016-04-29 2018-11-28 Veoneer Sweden AB Fehlausrichtungserkennung für einen fahrzeugradarsensor
US10690757B1 (en) 2016-08-25 2020-06-23 AI Incorporated Method and apparatus for improving range finding system readings
JP6622167B2 (ja) * 2016-09-26 2019-12-18 株式会社デンソー 軸ずれ推定装置
US10481243B2 (en) * 2016-10-31 2019-11-19 Aptiv Technologies Limited Automated vehicle radar system with self-calibration
US10452067B2 (en) * 2017-02-23 2019-10-22 GM Global Technology Operations LLC System and method for detecting improper sensor installation within a vehicle to mitigate hazards associated with object detection
WO2018163277A1 (ja) * 2017-03-07 2018-09-13 三菱電機株式会社 故障検出装置、故障検出方法及び故障検出プログラム
JP6769898B2 (ja) * 2017-03-17 2020-10-14 株式会社デンソー 方位誤差検出方法および装置
JP6939368B2 (ja) 2017-10-04 2021-09-22 トヨタ自動車株式会社 画像表示装置
US11699207B2 (en) 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
CN109188438B (zh) * 2018-09-12 2021-04-06 百度在线网络技术(北京)有限公司 偏航角确定方法、装置、设备和介质
TWI734932B (zh) * 2018-09-17 2021-08-01 為昇科科技股份有限公司 雷達偵測角度校正系統及其方法
CN109459246A (zh) * 2018-10-12 2019-03-12 武汉科技大学 一种车辆行驶速度波动引起的角度误差修正方法
DE102018127059A1 (de) * 2018-10-30 2020-04-30 Daimler Ag Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102018221427B4 (de) * 2018-12-11 2020-08-06 Volkswagen Aktiengesellschaft Verfahren zur Ermittlung einer vorliegenden Dejustage wenigstens eines Sensors innerhalb eines Sensorverbundes
DE102018133693B3 (de) * 2018-12-28 2020-06-04 Volkswagen Aktiengesellschaft Verfahren zur Kalibrierung der Ausrichtung eines sich bewegenden Objektsensors
US11235804B2 (en) * 2019-08-06 2022-02-01 Fca Us Llc Automated vehicle lane change control techniques
US11402468B2 (en) * 2019-12-30 2022-08-02 Woven Planet North America, Inc. Systems and methods for blind online calibration of radar systems on a vehicle
CN116670538A (zh) * 2021-02-03 2023-08-29 日立安斯泰莫株式会社 雷达信号处理装置
US11662430B2 (en) * 2021-03-17 2023-05-30 Infineon Technologies Ag MmWave radar testing
US11967122B2 (en) 2021-04-19 2024-04-23 Argo AI, LLC Context aware verification for sensor pipelines
JP2022176641A (ja) * 2021-05-17 2022-11-30 日立Astemo株式会社 レーダ装置
DE102022102322A1 (de) * 2022-02-01 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur korrektur eines bauartbedingten abbildungsfehlers eines lidar-sensors, recheneinrichtung, lidar-sensorsystem, computerprogramm sowie computerlesbares (speicher)medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5583495A (en) * 1992-09-02 1996-12-10 Ben Lulu; Dani Vehicle alarm system
US6121916A (en) * 1999-07-16 2000-09-19 Eaton-Vorad Technologies, L.L.C. Method and apparatus for recognizing stationary objects with a moving side-looking radar
US6882287B2 (en) * 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
US6542111B1 (en) * 2001-08-13 2003-04-01 Yazaki North America, Inc. Path prediction for vehicular collision warning system
US6801843B2 (en) * 2002-05-24 2004-10-05 Ford Global Technologies, Llc Vehicle pre-crash sensing based conic target threat assessment system
DE10231362A1 (de) * 2002-07-11 2004-01-22 Robert Bosch Gmbh Vorrichtung zur Umfeldüberwachung in einem Fahrzeug
US6728617B2 (en) * 2002-07-23 2004-04-27 Ford Global Technologies, Llc Method for determining a danger zone for a pre-crash sensing system in a vehicle having a countermeasure system
US7406199B2 (en) * 2004-05-12 2008-07-29 Northrop Grumman Corporation Event capture and filtering system
US7337650B1 (en) * 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
EP1729147A1 (de) * 2005-06-02 2006-12-06 Northrop Grumman Corporation System zur Ereigniserfassung und -filterung
JP4304517B2 (ja) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 物体検出装置
US8244408B2 (en) * 2009-03-09 2012-08-14 GM Global Technology Operations LLC Method to assess risk associated with operating an autonomic vehicle control system
KR101117970B1 (ko) * 2009-11-06 2012-02-15 기아자동차주식회사 하이브리드 차량의 안티 저크 제어 장치 및 방법

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015105278B4 (de) * 2014-04-23 2019-11-07 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Diagnostizieren eines Gesundheitszustands eines Fahrspurerfassungssystems
DE102015118085A1 (de) * 2015-10-23 2017-04-27 Valeo Schalter Und Sensoren Gmbh Verfahren zum Korrigieren einer fehlerhaften Ausrichtung eines optischen Sensors eines Kraftfahrzeugs, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2017067914A1 (de) * 2015-10-23 2017-04-27 Valeo Schalter Und Sensoren Gmbh Verfahren zum korrigieren einer fehlerhaften ausrichtung eines optischen sensors eines kraftfahrzeugs, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102017105305B4 (de) 2016-03-14 2024-04-25 GM Global Technology Operations LLC Verfahren zur automatischen bestimmung einer sensorstellung
JP7265587B2 (ja) 2016-12-29 2023-04-26 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自動車用の運転者支援システムを作動させるための方法
WO2018121914A1 (de) * 2016-12-29 2018-07-05 Robert Bosch Gmbh Verfahren zum betrieb eines fahrerassistenzsystems für kraftfahrzeuge
JP2020514695A (ja) * 2016-12-29 2020-05-21 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 自動車用の運転者支援システムを作動させるための方法
US10809374B2 (en) 2016-12-29 2020-10-20 Robert Bosch Gmbh Method for operating a driver assistance system for motor vehicles
JP2021144055A (ja) * 2016-12-29 2021-09-24 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 自動車用の運転者支援システムを作動させるための方法
DE102017214293A1 (de) * 2017-08-16 2019-02-21 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten von Daten in einem Kraftfahrzeug für einen Versand an ein Backend
US11455840B2 (en) 2017-08-16 2022-09-27 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing data in a motor vehicle for forwarding to a back end
DE102017214293B4 (de) 2017-08-16 2019-10-10 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten von Daten in einem Kraftfahrzeug für einen Versand an ein Backend
DE102020112289A1 (de) 2020-05-06 2021-11-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs mit unmittelbarer Validierung sowie Recheneinrichtung

Also Published As

Publication number Publication date
CN103287358B (zh) 2016-03-30
US20130218398A1 (en) 2013-08-22
CN103287358A (zh) 2013-09-11
US8930063B2 (en) 2015-01-06

Similar Documents

Publication Publication Date Title
DE102013202377A1 (de) Verfahren zum Ermitteln einer Objektsensorfalschausrichtung
DE102016100401A1 (de) Verfahren zum Ermitteln einer Falschausrichtung eines Objektsensors
EP2097770B1 (de) Vertikale ausrichtung eines lidar-sensors
DE102017201717B4 (de) Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens
DE102018120786B4 (de) Verfahren zum Überwachen eines autonomen Fahrzeugs sowie entsprechend eingerichtetes Fahrzeug
DE102017131118A1 (de) Fahrassistenzvorrichtung
DE102016119013A1 (de) Verfahren und system zur steuerung eines fahrzeugs mit automatisiertem antriebssystem
DE102019216071A1 (de) Fahrzeugsensor-feldkalibrierung unter nutzung anderer fahrzeuge
DE102012215173A1 (de) Verfahren zum Betreiben eines Fahrzeugsicherheitssystems
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102017221691A1 (de) Verfahren und Vorrichtung zur Eigenlokalisierung eines Fahrzeugs
EP2619608B1 (de) Standortbestimmungseinrichtung in einem kraftfahrzeug und informationsfusionsverfahren
DE112016002470T5 (de) Fahrzeugmontierte Vorrichtung
DE102008010119A1 (de) Vorrichtung zum Erfassen eines Objekts und System zur Kommunikation zwischen Fahrzeugen
DE112015004817T5 (de) Hinderniswarnvorrichtung
DE102021101426A1 (de) Erkennung von fahrzeugbetriebsbedingungen
DE102005042989B3 (de) Verfahren zur Erkennung eines bevorstehenden Unfalls aufgrund eines Schleudervorgangs bei einem vorausfahrenden Fahrzeug
DE102018109404A1 (de) System und Verfahren zur Bestimmung der Position von Seitenaufprallvermeidungssensoren an einem Fahrzeug
DE102012223412A1 (de) Verfahren und System zum Einstellen eines Seitenspiegels
DE102014223408A1 (de) Zielerkennungsvorrichtung
WO2016207171A1 (de) Manövrierung eines gespannes mit einem kraftwagen und einem anhänger
WO2017067914A1 (de) Verfahren zum korrigieren einer fehlerhaften ausrichtung eines optischen sensors eines kraftfahrzeugs, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102017104412A1 (de) Fahrzeugkollisionssystem und verfahren zu dessen verwendung
DE102019133708A1 (de) Verfahren und vorrichtung zum erfassen von statischen und dynamischen informationen auf spurniveau
DE102022201043A1 (de) Fahrerassistenzsystem und dessen steuerverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication