-
GEBIET
-
Die vorliegende Erfindung bezieht sich allgemein auf Objektsensoren und insbesondere auf an einem Fahrzeug angebrachte Objektsensoren, die externe Objekte detektieren können, während das Fahrzeug fährt.
-
HINTERGRUND
-
Fahrzeuge verwenden zunehmend verschiedene Typen von Objektsensoren, wie beispielsweise jene, die auf RADAR, LIDAR und/oder Kameras basieren, um eine Information bezüglich des Vorhandenseins und der Position externer Objekte, die ein Host-Fahrzeug umgeben, zu erfassen. Es ist jedoch möglich, dass ein Objektsensor auf irgendeine Art falsch ausgerichtet oder verdreht wird, so dass er ungenaue Sensorauslesungen bereitstellt. Wenn beispielsweise ein Host-Fahrzeug an einer geringfügigen Kollision beteiligt ist, kann dies die interne Anbringung oder Orientierung eines Objektsensors unbemerkt beschädigen und bewirken, dass dieser geringfügig ungenaue Sensorauslesungen bereitstellt. Dies kann ein Problem sein, wenn die fehlerhaften Sensorauslesungen dann anderen Fahrzeugmodulen (z. B. einem Sicherheitssteuermodul, einem Modul eines adaptiven Tempomaten, einem Modul für einen automatischen Spurwechsel etc.) geliefert werden und bei deren Berechnungen verwendet werden.
-
ZUSAMMENFASSUNG
-
Gemäß einer Ausführungsform wird ein Verfahren zur Verwendung bei einem Objektsensor, der sich an einem Host-Fahrzeug befindet, bereitgestellt. Das Verfahren kann die Schritte umfassen, dass: (a) ermittelt wird, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; (b) wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt, ein Objekt mit dem Objektsensor, wenn es sich durch das Objektsensorsichtfeld bewegt, verfolgt wird, so dass ein erfasster Objektpfad hergestellt wird; und (c) der erfasste Objektpfad mit einem erwarteten Objektpfad verglichen wird, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist.
-
Gemäß einer weiteren Ausführungsform wird ein Verfahren zur Verwendung bei einem Objektsensor, der sich an einem Host-Fahrzeug befindet, bereitgestellt. Das Verfahren kann die Schritte umfassen, dass: (a) ermittelt wird, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; (b) wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt, ein Objekt mit dem Objektsensor verfolgt wird, indem ein Objekteintrittspunkt, an dem das Objekt in ein Objektsensorsichtfeld eintritt, und ein Objektaustrittspunkt, an dem das Objekt aus dem Objektsensorsichtfeld austritt, ermittelt werden; (c) der Objekteintrittspunkt und der Objektaustrittspunkt verwendet werden, um zu ermitteln, ob das Objekt stationär ist; (d) wenn das Objekt stationär ist, ein erfasster Objektpfad bewertet wird, der sich von dem Objekteintrittspunkt zu dem Objektaustrittspunkt erstreckt, indem ein erfasster Objektwinkel (θs), der dem erfassten Objektpfad entspricht, und ein erwarteter Objektwinkel (θe), der einem erwarteten Objektpfad entspricht, ermittelt werden; und (e) der erfasste Objektwinkel (θs) und der erwartete Objektwinkel (θe) verwendet werden, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist.
-
Gemäß einer weiteren Ausführungsform wird ein Fahrzeugsystem an einem Host-Fahrzeug bereitgestellt. Das Fahrzeugsystem kann umfassen: einen oder mehrere Fahrzeugsensoren, die Sensorauslesungen bereitstellen, wobei die Fahrzeugsensorauslesungen angeben, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt; einen oder mehrere Objektsensoren, die Sensorauslesungen bereitstellen, wobei die Objektsensorauslesungen einen erfassten Objektpfad für ein Objekt herstellen, wenn es sich durch ein Objektsensorsichtfeld bewegt; und ein Steuermodul, das mit dem einen oder den mehreren Fahrzeugsensoren gekoppelt ist, um die Fahrzeugsensorauslesungen zu empfangen, und mit dem einen oder den mehreren Objektsensoren gekoppelt ist, um die Objektsensorauslesungen zu empfangen. Das Steuermodul ist ausgestaltet, um den erfassten Objektpfad mit einem erwarteten Objektpfad zu vergleichen, um zu ermitteln, ob der Objektsensor falsch ausgerichtet ist, wenn das Host-Fahrzeug im Wesentlichen geradeaus fährt.
-
ZEICHNUNGEN
-
Hierin nachfolgend werden bevorzugte beispielhafte Ausführungsformen in Verbindung mit den beigefügten Zeichnungen beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei:
-
1 eine schematische Ansicht eines Host-Fahrzeugs mit einem beispielhaften Fahrzeugsystem ist; und
-
2 ein Flussdiagramm ist, das ein beispielhaftes Verfahren zum Ermitteln einer Objektsensorfalschausrichtung darstellt und das bei einem Fahrzeugsystem wie beispielsweise dem, das in 1 gezeigt ist, verwendet werden kann.
-
BESCHREIBUNG
-
Das beispielhafte Fahrzeugsystem und -verfahren, die hierin beschrieben sind, können eine Objektsensorfalschausrichtung ermitteln, während ein Host-Fahrzeug gefahren wird, und können dies tun, ohne dass mehrere Sensoren mit überlappenden Sichtfeldern erforderlich sind. Wenn eine Falschausrichtung detektiert wird, können das Fahrzeugsystem und -verfahren eine entsprechende Mitteilung an den Benutzer, das Fahrzeug oder an eine andere Quelle senden, die angibt, dass eine Sensorfalschausrichtung vorliegt, die behoben werden sollte. Dies kann insbesondere unter Umständen vorteilhaft sein, bei denen andere Fahrzeugmodule – beispielsweise ein Sicherheitssteuermodul, ein Modul eines adaptiven Tempomaten, ein Modul für einen automatischen Spurwechsel etc. – von dem Ausgang des falsch ausgerichteten Objektsensors abhängen und diesen verwenden. Bei einer beispielhaften Ausführungsform, bei der das Host-Fahrzeug geradeaus fährt, verwendet das vorliegende Verfahren einen Objektsensor, um den Pfad eines stationären Objekts zu verfolgen, wenn es sich durch das Sensorsichtfeld bewegt, und vergleicht es den erfassten Objektpfad mit einem erwarteten Objektpfad. Wenn der erfasste und der erwartete Pfad des stationären Objekts um mehr als einen Betrag abweichen, ermittelt das Verfahren, dass der Objektsensor verdreht oder auf andere Weise falsch ausgerichtet ist.
-
Mit Bezug auf 1 ist eine allgemeine und schematische Ansicht eines beispielhaften Host-Fahrzeugs 10 mit einem daran installierten oder angebrachten Fahrzeugsystem 12 gezeigt, wobei das Fahrzeugsystem einen oder mehrere Objektsensoren umfasst, die in Bezug auf deren angestrebte Orientierung verdreht oder falsch ausgerichtet sein können. Es sei angemerkt, dass das vorliegende System und Verfahren mit einem beliebigen Typ von Fahrzeug verwendet werden können, der herkömmliche Personenkraftwagen, Geländewagen (SUVs von sports utility vehicles), Cross-Over-Fahrzeuge, Lastkraftwagen, Transporter, Busse, Wohnmobile (RVs von recreational vehicles) etc. umfasst. Dies sind lediglich einige der möglichen Anwendungen, da das hierin beschriebene System und Verfahren nicht auf die in den Figuren gezeigten beispielhaften Ausführungsformen beschränkt sind und durch eine beliebige Anzahl von verschiedenen Arten realisiert sein könnten. Gemäß einem Beispiel umfasst das Fahrzeugsystem 12 Fahrzeugsensoren 20 (z. B. ein Inertialnavigationssystem (IMU von inertial measurement unit), einen Lenkwinkelsensor (SAS von steering angle sensor), Raddrehzahlsensoren etc.), Objektsensoren 30–36 und ein Steuermodul 40, und das Fahrzeugsystem kann einem Benutzer eine Mitteilung oder eine andere Sensorstatusinformation über eine Benutzerschnittstelle 50 oder eine andere Komponente, eine andere Einrichtung, ein anderes Modul und/oder ein System 60 liefern.
-
Eine beliebige Anzahl von verschiedenen Sensoren, Komponenten, Einrichtungen, Modulen, Systemen etc. kann dem Fahrzeugsystem 12 eine Information oder einen Eingang liefern, die oder der durch das vorliegende Verfahren verwendet werden kann. Diese umfassen beispielsweise die in 1 gezeigten beispielhaften Sensoren sowie andere Sensoren, die in der Technik bekannt sind, jedoch hier nicht gezeigt sind. Es sei angemerkt, dass die Fahrzeugsensoren 20, die Objektsensoren 30–36 sowie jeder andere Sensor, der in dem Fahrzeugsystem 12 angeordnet ist und/oder durch dieses verwendet wird, in Hardware, Software, Firmware oder einer Kombination hiervon umfasst sein können. Diese Sensoren können die Bedingungen, für die sie vorgesehen sind, direkt erfassen oder messen, oder sie können solche Bedingungen indirekt auf der Grundlage einer Information bewerten, die durch andere Sensoren, Komponenten, Einrichtungen, Module, Systeme etc. geliefert wird. Ferner können diese Sensoren direkt mit dem Steuermodul 40 gekoppelt sein, indirekt über andere elektronische Einrichtungen, einen Fahrzeugkommunikationsbus, ein Netz etc. gekoppelt sein oder gemäß einer anderen in der Technik bekannten Anordnung gekoppelt sein. Diese Sensoren können in eine andere Komponente, eine andere Einrichtung, ein anderes Modul, ein anderes System des Fahrzeugs etc. integriert sein oder Teil hiervon sein (z. B. Fahrzeug- oder Objektsensoren, die bereits Teil eines Motorsteuermoduls (ECM von engine control module), Traktionssteuersystems (TCS von traction control system), Systems einer elektronischen Stabilitätssteuerung (ESC von electronic stability control), Antiblockiersystems (ABS von antilock brake system) etc. sind), sie können unabhängige Komponenten sein (wie es schematisch in 1 gezeigt ist), oder sie können gemäß einer anderen Anordnung bereitgestellt sein. Es ist möglich, dass einige der nachstehend beschriebenen verschiedenen Sensorauslesungen durch eine andere Komponente, eine andere Einrichtung, ein anderes Modul, ein anderes System etc. in dem Host-Fahrzeug 10 bereitgestellt werden, anstatt durch ein tatsächliches Sensorelement bereitgestellt zu werden. In einigen Fällen könnten mehrere Sensoren eingesetzt werden, um einen einzelnen Parameter zu erfassen (z. B. um eine Redundanz bereitzustellen), obwohl dies nicht notwendig ist. Es sei angemerkt, dass die vorstehenden Szenarien lediglich einige der Möglichkeiten darstellen, da das Fahrzeugsystem 12 nicht auf irgendeinen bestimmten Sensor oder irgendeine bestimmte Sensoranordnung beschränkt ist.
-
Die Fahrzeugsensoren 20 stellen dem Fahrzeugsystem 12 verschiedene Auslesungen, Messungen oder andere Informationen bereit, die für das Verfahren 100 nützlich sein können. Beispielsweise können die Fahrzeugsensoren 20 folgendes messen: die Raddrehzahl, die Radbeschleunigung, die Fahrzeuggeschwindigkeit, die Fahrzeugbeschleunigung, die Fahrzeugdynamik, die Gierrate, den Lenkwinkel, die Längsbeschleunigung, die Querbeschleunigung oder jegliche andere Fahrzeugbetriebsparameter, die für das Verfahren 100 nützlich sein können. Die Fahrzeugsensoren 20 können eine Vielzahl von verschiedenen Sensortypen und Techniken verwenden, die jene umfassen, die die Raddrehzahl, die Geschwindigkeit über dem Boden, die Gaspedalstellung, die Gangschalthebelauswahl, Beschleunigungsmesser, die Motordrehzahl, den Motorausgang und die Drosselklappenstellung verwenden, nur um einige zu nennen. Fachleute werden erkennen, dass diese Sensoren gemäß optischen, elektromagnetischen oder anderen Technologien arbeiten können und dass andere Parameter aus diesen Auslesungen abgeleitet oder berechnet werden können (z. B. kann die Beschleunigung aus der Geschwindigkeit berechnet werden). Gemäß einer beispielhaften Ausführungsform umfassen die Fahrzeugsensoren 20 einen Lenkwinkelsensor und einen Fahrzeuggeschwindigkeitssensor.
-
Die Objektsensoren 30–36 stellen dem Fahrzeugsystem 12 Sensorauslesungen oder andere Informationen bereit, die sich auf ein oder mehrere Objekte um das Host-Fahrzeug 10 herum beziehen und durch das vorliegende Verfahren verwendet werden können. Bei einem Beispiel erzeugen die Objektsensoren 30–36 Sensorauslesungen oder einen Ausgang, der das Vorhandensein, die Position, die Geschwindigkeit und/oder die Beschleunigung von Objekten um das Host-Fahrzeug 10 herum darstellt. Diese Auslesungen können absoluter Natur sein (z. B. eine Objektpositionsauslesung) oder sie können relativer Natur sein (z. B. eine Auslesung einer relativen Distanz, die sich auf die Entfernung oder Distanz zwischen dem Host-Fahrzeug 10 und einem Objekt bezieht). Jeder der Objektsensoren 30–36 kann ein einzelner Sensor oder eine Kombination von Sensoren sein, und kann eine Light Detection and Ranging-Einrichtung (LIDAR-Einrichtung), eine Radio Detection and Ranging-Einrichtung (RADAR-Einrichtung), eine Lasereinrichtung, eine Sichteinrichtung (z. B. eine Kamera etc.) oder eine beliebige andere Erfassungseinrichtung sein, die die zweidimensionale Position eines externen Objekts bereitstellen kann. Gemäß einer beispielhaften Ausführungsform umfasst der Objektsensor 30 eine nach vorn gerichtete Fernbereichs-RADAR- oder -LIDAR-Einrichtung, die an der Front des Fahrzeugs, wie beispielsweise der Frontstoßstange oder hinter dem Kühlergrill des Fahrzeugs, angebracht ist und einen Bereich vor dem Fahrzeug überwacht, der die aktuelle Spur plus eine oder mehrere Spuren auf jeder Seite der aktuellen Spur umfasst. Ähnliche Typen von Sensoren können für den nach hinten gerichteten Objektsensor 34, der am Heck des Fahrzeugs, wie beispielsweise der hinteren Stoßstange oder in der Heckscheibe, angebracht ist und für die seitlichen oder seitwärts gerichteten Objektsensoren 32 und 36, die auf jeder Seite des Fahrzeugs (z. B. Fahrer- und Beifahrerseite) angebracht sind, verwendet werden; diese Sensoren können eine kleinere oder kürzere Reichweite als ihre nach vorn gerichteten Pendants aufweisen. Es könnten eine Kamera oder eine andere Sichteinrichtung in Verbindung mit solchen Sensoren verwendet werden, da auch andere Ausführungsformen möglich sind.
-
Das Steuermodul 40 kann eine beliebige Vielzahl von elektronischen Verarbeitungseinrichtungen, Speichereinrichtungen, Eingabe/Ausgabe-Einrichtungen (I/O-Einrichtungen von input/output devices) und/oder andere bekannte Komponenten umfassen und kann verschiedene steuerungs- und/oder kommunikationsbezogene Funktionen durchführen. Bei einer beispielhaften Ausführungsform umfasst das Steuermodul 40 eine elektronische Speichereinrichtung 42, die verschiedene Sensorauslesungen (z. B. Sensorauslesungen von den Sensoren 20 und 30–36), Nachschlagetabellen oder andere Datenstrukturen, Algorithmen (z. B. den Algorithmus, der in dem nachstehend beschriebenen beispielhaften Verfahren umfasst ist) etc. speichert. Die Speichereinrichtung 42 kann auch entsprechende Eigenschaften und eine Hintergrundinformation bezüglich des Host-Fahrzeugs 10 speichern, wie beispielsweise eine Information, die sich auf eine erwartete Sensoranbringung oder -Orientierung, eine Sensorreichweite, ein Sensorsichtfeld etc. bezieht. Das Steuermodul 40 kann auch eine elektronische Verarbeitungseinrichtung 44 (z. B. einen Mikroprozessor, einen Mikrocontroller, einen anwendungsspezifischen Schaltkreis (ASIC von application specific integrated circuit) etc.) umfassen, die Anweisungen für Software, Firmware, Programme, Algorithmen, Skripte etc. ausführt, die in der Speichereinrichtung 42 gespeichert sind und die hierin beschriebenen Prozesse und Verfahren überwachen können. Das Steuermodul 40 kann elektronisch mit anderen Fahrzeugeinrichtungen, Modulen und Systemen über geeignete Fahrzeugkommunikationen verbunden sein und kann mit ihnen in Interaktion treten, wenn dies erforderlich ist. Dies sind natürlich nur einige der möglichen Anordnungen, Funktionen und Fähigkeiten des Steuermoduls 40, da auch andere Ausführungsformen verwendet werden könnten.
-
In Abhängigkeit von der bestimmten Ausführungsform kann das Steuermodul 40 ein unabhängiges Fahrzeugmodul sein (z. B. ein Objektdetektionscontroller, ein Sicherheitscontroller, etc.), kann es in ein anderes Fahrzeugmodul einbezogen sein oder in diesem umfasst sein (z. B. ein(em) Sicherheitssteuermodul, ein(em) Modul eines adaptiven Tempomaten, ein(em) Modul für einen automatischen Spurwechsel, ein(em) Einparkunterstützungsmodul, ein(em) Bremssteuermodul, ein(em) Lenksteuermodul etc.) oder kann es Teil eines größeren Netzes oder Systems sein (z. B. eines Traktionssteuersystems (TCS), eines Systems einer elektronischen Stabilitätssteuerung (ESC-Systems), eines Antiblockiersystems (ABS), eines Fahrerunterstützungssystems, eines Systems eines adaptiven Tempomaten, eines Spurverlassenswarnsystems etc.), nur um einige Möglichkeiten zu nennen. Das Steuermodul 40 ist nicht auf irgendeine bestimmte Ausführungsform oder Anordnung beschränkt.
-
Die Benutzerschnittstelle 50 tauscht eine Information oder Daten mit Insassen des Host-Fahrzeugs 10 aus und kann eine beliebige Kombination von visuellen, akustischen und/oder anderen Typen von Komponenten hierfür umfassen. In Abhängigkeit von der bestimmten Ausführungsform kann die Benutzerschnittstelle 50 eine Eingabe/Ausgabe-Einrichtung sein, die sowohl eine Information von dem Fahrer (z. B. eine Touch-Screen-Anzeige oder eine Spracherkennungs-Mensch-Maschine-Schnittstelle (Spracherkennungs-HMI von voice-recognition human-machine interface)), lediglich einer Eingabeeinrichtung (z. B. ein Mikrofon), lediglich einer Ausgabeeinrichtung (z. B. ein Lautsprecher, eine Instrumentenbrettanzeige oder ein visueller Hinweis an dem Rückspiegel) oder einer anderen Komponente empfangen kann als auch eine Information an diese liefern kann. Die Benutzerschnittstelle 50 kann ein unabhängiges Modul sein; sie kann Teil einer Rückspiegelanordnung sein, sie kann Teil eines Infotainment-Systems oder Teil eines anderen Moduls, einer anderen Einrichtung oder eines anderen Systems in dem Fahrzeug sein; sie kann an einem Armaturenbrett angebracht sein (z. B. mit einem Fahrerinformationszentrum (DIC von driver information center)); sie kann an eine Frontscheibe projiziert werden (z. B. mit einer Head-Up-Anzeige); oder sie kann in einem existierenden Audiosystem integriert sein, um einige Beispiele zu nennen. Bei der in 1 gezeigten beispielhaften Ausführungsform ist die Benutzerschnittstelle 50 in einem Instrumentenbrett des Host-Fahrzeugs 10 umfasst und alarmiert sie einen Fahrer hinsichtlich eines falsch ausgerichteten Objektsensors, indem eine geschriebene oder graphische Mitteilung oder dergleichen gesendet wird. Bei einer anderen Ausführungsform sendet die Benutzerschnittstelle 50 eine elektronische Nachricht (z. B. einen Diagnosefehlercode (DTC von diagnostic trouble code) etc.) an ein internes oder externes Ziel, die es hinsichtlich der Sensorfalschausrichtung alarmiert. Es können auch andere geeignete Benutzerschnittstellen verwendet werden.
-
Das Modul 60 stellt eine beliebige Fahrzeugkomponente, eine beliebige Fahrzeugeinrichtung, ein beliebiges Fahrzeugmodul, ein beliebiges Fahrzeugsystem etc. dar, die oder das eine Sensorauslesung von einem oder mehreren Objektsensoren 30–36 benötigt, um ihren oder seinen Betrieb durchzuführen. Zur Erläuterung könnte das Modul 60 ein System einer aktiven Sicherheit, ein System eines adaptiven Tempomaten (ACC-System von adaptive cruise control system), ein System für einen automatischen Spurwechsel (LCX-System von automated lane change system) oder ein anderes Fahrzeugsystem sein, das Sensorauslesungen bezüglich sich in der Nähe befindender Fahrzeuge oder Objekte für einen Betrieb verwendet. Bei dem Beispiel eines Systems eines adaptiven Tempomaten (ACC-Systems) kann das Steuermodul 40 dem ACC-System 60 eine Warnung liefern, Sensorauslesungen von einem spezifischen Sensor zu ignorieren, wenn das vorliegende Verfahren ermittelt, dass der Sensor falsch ausgerichtet ist; Ungenauigkeiten in den Sensorauslesungen könnten das Leistungsvermögen des ACC-Systems 60 negativ beeinflussen. In Abhängigkeit von der bestimmten Ausführungsform kann das Modul 60 eine Eingabe/Ausgabe-Einrichtung sein, die sowohl eine Information von dem Steuermodul 40 empfangen kann als auch diesem eine Information liefern kann, und es kann ein unabhängiges Fahrzeugelektronikmodul sein oder es kann Teil eines größeren Netzes oder Systems sein (z. B. eines Traktionssteuersystems (TCS), eines Systems einer elektronischen Stabilitätssteuerung (ESC-Systems), eines Antiblockiersystems (ABS), eines Fahrerunterstützungssystems, eines Systems eines adaptiven Tempomaten (ACC-Systems), eines Spurverlassenswarnsystems etc.), um einige Möglichkeiten zu nennen. Es ist sogar möglich, dass das Modul 60 mit dem Steuermodul 40 kombiniert ist oder in dieses integriert ist, da das Modul 60 nicht auf irgendeine bestimmte Ausführungsform oder Anordnung beschränkt ist.
-
Wieder sollen die vorstehende Beschreibung des beispielhaften Fahrzeugsystems 12 und die Zeichnung in 1 nur eine mögliche Ausführungsform darstellen, da das folgende Verfahren nicht auf die Verwendung mit nur diesem System begrenzt ist. Stattdessen kann eine beliebige Anzahl von anderen Systemanordnungen, -kombinationen und -architekturen verwendet werden, die jene umfassen, die sich erheblich von der in 1 gezeigten unterscheiden.
-
Nun auf 2 Bezug nehmend ist ein beispielhaftes Verfahren 100 gezeigt, das bei dem Fahrzeugsystem 12 verwendet werden kann, um zu ermitteln, ob ein oder mehrere Objektsensoren 30–36 falsch ausgerichtet, verdreht oder auf andere Weise ungeeignet orientiert sind. Wie oben erwähnt kann ein Objektsensor als Ergebnis einer Kollision, eines erheblichen Schlaglochs oder einer anderen Unterbrechung auf der Fahrbahn oder nur durch den normalen Verschleiß über die Jahre des Fahrzeugbetriebs, um einige Möglichkeiten zu nennen, falsch ausgerichtet werden. Das Verfahren 100 kann in Ansprechen auf eine beliebige Anzahl von verschiedenen Ereignissen initiiert oder gestartet werden und kann auf einer periodischen, aperiodischen und/oder anderen Basis ausgeführt werden, da das Verfahren nicht auf irgendeine bestimmte Initialisierungssequenz beschränkt ist. Gemäß einigen nicht einschränkenden Beispielen kann das Verfahren 100 kontinuierlich im Hintergrund laufen, kann es nach einem Zündereignis initiiert werden oder kann es nach einer Kollision gestartet werden, um einige Möglichkeiten zu nennen.
-
Beginnend mit Schritt 110 erfasst das Verfahren Sensorauslesungen von einem oder mehreren Fahrzeugsensoren 20. Die erfassten Auslesungen können umfassen: die Raddrehzahl, die Radbeschleunigung, die Fahrzeuggeschwindigkeit, die Fahrzeugbeschleunigung, die Fahrzeugdynamik, die Gierrate, den Lenkwinkel, die Längsbeschleunigung, die Querbeschleunigung oder einen beliebigen anderen geeigneten Fahrzeugbetriebsparameter. Bei einem Beispiel erhält Schritt 110 Lenkwinkelauslesungen, Gierratenauslesungen und/oder andere Auslesungen, die angeben, ob das Host-Fahrzeug 10 im Wesentlichen geradeaus fährt, sowie Fahrzeuggeschwindigkeitsauslesungen, die angeben, wie schnell sich das Host-Fahrzeug bewegt. Fachleute werden erkennen, dass Schritt 110 auch andere Sensorauslesungen erfassen oder auf andere Weise erhalten kann, da die zuvor genannten Auslesungen lediglich einige der Möglichkeiten darstellen.
-
Dann ermittelt Schritt 114, ob sich das Host-Fahrzeug 10 im Wesentlichen geradeaus bewegt oder im Wesentlichen geradeaus fährt. Wenn das Host-Fahrzeug geradeaus fährt – beispielsweise über eine Strecke einer Autobahn oder einer anderen Straße – können bestimmte Annahmen gemacht werden, die die durch das Verfahren 100 durchgeführten Berechnungen vereinfachen und auf diese Weise den entsprechenden Algorithmus weniger gewichtig und weniger ressourcenintensiv machen, wie es nachfolgend ausführlicher erklärt wird. Bei einer beispielhaften Ausführungsform bewertet Schritt 114 die Sensorauslesungen von dem vorherigen Schritt (z. B. Lenkwinkelauslesungen, Gierratenauslesungen, Raddrehzahlauslesungen etc.) und verwendet er diese Information, um zu ermitteln, ob sich das Host-Fahrzeug 10 im Großen und Ganzen geradeaus bewegt. Dieser Schritt kann erfordern, dass der Lenkwinkel oder die Gierrate für eine bestimmte Zeitdauer oder Distanz kleiner als ein vorbestimmter Schwellenwert sind, oder er kann erfordern, dass die verschiedenen Raddrehzahlauslesungen innerhalb eines vorbestimmten Bereiches zueinander liegen, oder er kann andere Techniken verwenden, um die Linearität des Pfads des Host-Fahrzeugs zu bewerten. Es ist sogar möglich, dass Schritt 114 eine Information von einem Typ von GPS-basiertem Fahrzeugnavigationssystem verwendet, um zu ermitteln, ob das Host-Fahrzeug im Wesentlichen geradeaus fährt. Der Begriff ”im Wesentlichen geradeaus” sowie seine verschiedenen Varianten soll jene Fahrzeugpfade umfassen, die für die für eine Anwendung der später beschriebenen algorithmischen Annahmen gerade oder linear genug sind; er bedeutet nicht, dass sich das Host-Fahrzeug perfekt geradeaus oder in einer perfekt geraden Richtung bewegen muss. Der lineare Status des Fahrzeugpfads könnte durch eine andere Einrichtung, ein anderes Modul, ein anderes System etc. bereitgestellt werden, die oder das sich in dem Host-Fahrzeug befindet, da diese Information bereits verfügbar sein kann. Wenn sich das Host-Fahrzeug 10 im Wesentlichen geradeaus bewegt, fährt das Verfahren mit Schritt 118 fort; ansonsten springt das Verfahren in einer Schleife zurück zum Beginn.
-
Schritt 118 erfasst Sensorauslesungen von einem oder mehreren Objektsensoren 30–36, die an dem Host-Fahrzeug angeordnet sind. Die Sensorauslesungen geben an, ob ein Objekt in das Sichtfeld eines bestimmten Objektsensors eingetreten ist, wie es erklärt wird, und können auf eine Vielzahl von verschiedenen Formen bereitgestellt werden. Bei einer Ausführungsform überwacht Schritt 118 ein Sichtfeld 70 des Objektsensors 30, der an der Front des Host-Fahrzeugs 10 angeordnet ist. Das Sichtfeld 70 ist in gewisser Weise kuchenstückförmig und befindet sich vor dem Host-Fahrzeug, wobei das Sichtfeld jedoch in Abhängigkeit von der Reichweite des Sensors (z. B. Fernbereich, Nahbereich etc.), dem Typ des Sensors (z. B. Radar, LIDAR, LADAR, Laser etc.), dem Ort und der Anbringungsorientierung des Sensors (z. B. ein vorderer Sensor 30, Seitensensoren 32 und 36, ein hinterer Sensor 34 etc.) oder von einigen anderen Eigenschaften variieren kann. Schritt 118 kann mit Schritt 114 oder einem anderen geeigneten Schritt in dem Verfahren kombiniert werden, da er nicht separat durchgeführt werden muss.
-
Schritt 122 ermittelt, ob ein Objekt in dem Sichtfeld eines oder mehrerer der Objektsensoren vorliegt. Gemäß einem Beispiel überwacht Schritt 122 das Sichtfeld 70 für den nach vorn gerichteten Objektsensor 30 und verwendet er eine beliebige Anzahl von geeigneten Techniken, um zu ermitteln, ob ein oder mehrere Objekte in das Sichtfeld eingetreten ist oder sind. Die durch diesen Schritt eingesetzten Techniken können für verschiedene Umgebungen (z. B. Umgebungen mit hoher Objektdichte wie Stadtgebiete, Umgebungen mit geringer Objektdichte wie ländliche Bereiche etc.) variieren. Es ist möglich, dass Schritt 122 mehrere Objekte in dem Sichtfeld 70 gleichzeitig, sowohl sich bewegende als auch stationäre Objekte, sowie andere Objektszenarien in Betracht zieht und bewertet. Dieser Schritt kann eine Vielzahl von geeigneten Filter- und/oder anderen Signalverarbeitungstechniken verwenden, um die Sensorauslesungen zu bewerten und um zu ermitteln, ob ein Objekt wirklich existiert. Einige nicht einschränkende Beispiele solcher Techniken umfassen die Verwendung von vorbestimmten Rauschabstandschwellenwerten (SNR-Schwellenwerten von signal-to-noise ratio thresholds) bei vorhandenem Hintergrundrauschen sowie andere bekannte Verfahren. Wenn Schritt 122 ermittelt, dass ein Objekt vorhanden ist, fährt das Verfahren mit Schritt 126 fort; ansonsten springt das Verfahren in einer Schleife zurück zum Beginn für eine weitere Überwachung.
-
Als Nächstes verfolgt Schritt 126 das Objekt, wenn es sich durch das Sichtfeld eines oder mehrerer der Objektsensoren bewegt. Durch Verfolgen oder Überwachen des Objekts, wenn es durch ein Sensorsichtfeld gelangt, kann dieser Schritt einen erfassten Objektpfad entwickeln oder herstellen, der in nachfolgenden Schritten nützlich sein kann. Der erfasste Objektpfad kann beispielsweise. angeben, ob das Objekt ein stationäres Objekt oder ein sich bewegendes ist. Gemäß einer beispielhaften Ausführungsform zeichnet Schritt 126 eine Information bezüglich eines Objekteintrittspunkts 72 und eines Objektaustrittspunkts 74 für jedes Objekt, das in das Sichtfeld 70 eintritt, auf. Einige Beispiele der Typen von Information oder Daten, die für jeden Objekteintritts- und/oder -austrittspunkt gespeichert werden könnten, umfassen einen jedem Punkt zugehörigen Zeitpunkt, eine jedem Punkt zugehörige Position (z. B. kartesische, Polar- oder andere Koordinaten, eine Distanz zum Host-Fahrzeug etc.) oder einige andere geeignete Daten. Beispielsweise kann Schritt 126 den Zeitpunkt und die Position eines Objekts, zu dem und an der es in das Sichtfeld 70 eintritt, ermitteln und diese Daten in Verbindung mit dem Objekteintrittspunkt 72 speichern, und den Zeitpunkt und die Position des Objekts, zu dem und an der es aus dem Sichtfeld austritt oder dieses verlässt, ermitteln und diese Daten in Verbindung mit dem Objektaustrittspunkt 74 speichern. Es ist auch möglich, dass Schritt 126 das Objekt verfolgt oder überwacht, während es sich innerhalb des Objektsensorsichtfelds befindet – nicht nur an den Grenzen des Sichtfelds – und die resultierenden Daten bewertet und/oder speichert. Bei einer beispielhaften Ausführungsform wird das Objekt durch das Sichtfeld 70 verfolgt, indem kontinuierlich temporäre Datenpunkte 68 erzeugt und aktualisiert werden, bis das Objekt nicht mehr detektiert wird (d. h. Objektaustrittspunkt 74), wobei zu diesem Zeitpunkt nur der erste und letzte Datenpunkt in der Speichereinrichtung 42 gespeichert werden; ein Speichern von nur dem ersten und letzten Datenpunkt kann die Menge an gespeicherten Daten reduzieren und Speicher- und/oder Rechenressourcen freigeben. In Abhängigkeit von der bestimmten Anwendung kann auch eine Information bezüglich der temporären oder Zwischendatenpunkte 68 gespeichert und verwendet werden. Schritt 126 kann Techniken zum Filtern oder Verifizieren der Daten, wie beispielsweise Mitteln oder Glätten von zwei oder mehr Datenpunkten etc., einsetzen. Es sind auch andere Ausführungsformen möglich.
-
Schritt 130 ermittelt dann, ob das erfasste Objekt verwendet werden kann, um die Ausrichtung oder Orientierung des Objektsensors zu bewerten. Zwei Kriterien, die durch Schritt 130 in Betracht gezogen werden können, umfassen: die Länge des Objektpfads und ob das Objekt stationär ist. Wenn das Objekt das Sichtfeld 70 kaum anschneiden oder durchlaufen würde, könnte es beispielsweise einen Objektpfad 76 mit einer kurzen Länge (d') erzeugen, der zur exakten Verwendung bei dem Verfahren 100 nicht lang genug ist (die algorithmischen Annahmen oder Abkürzungen, die nachstehend beschrieben werden, sind mit ausreichend langen Objektpfaden typischerweise exakter). Eine Möglichkeit für Schritt 130, um zu ermitteln, ob das erfasste Objekt ein guter Kandidat zur Verwendung bei dem vorliegenden Verfahren ist, umfasst, die Länge (d) zwischen dem Objekteintrittspunkt 72 und dem Objektaustrittspunkt 74 (d. h. die Objektpfadlänge) zu berechnen und dann diese Länge mit einem Pfadlängenschwellenwert zu vergleichen. Der Pfadlängenschwellenwert oder die minimale Pfadlänge hängt von einer Anzahl von Faktoren ab, die den Typ, die Qualität und/oder den Ort des bewerteten Objektsensors umfassen. Wenn beispielsweise der Objektsensor 30 ein Fernbereichssensor geringerer Qualität ist, kann ein längerer Pfadlängenschwellenwert erforderlich sein; wenn er ein Sensor mit höherer Qualität oder ein Nahbereichssensor ist, kann ein kürzerer Pfadlängenschwellenwert ausreichen. Es ist auch möglich, dass Schritt 130 die Hinlänglichkeit oder Nutzbarkeit des erfassten Objekts ermittelt, indem betrachtet wird, wo der Objektpfad durch das Sichtfeld läuft (je näher an der Sensormittellinie SCL, desto nützlicher kann er sein). Wie oben erwähnt, ist die Objektpfadlänge nur eines der möglichen Kriterien, die durch Schritt 130 in Betracht gezogen werden können, um die Hinlänglichkeit des erfassten Objekts zu ermitteln; ob das Objekt stationär ist, ist ein anderes.
-
Bei dem vorliegenden Verfahren werden stationäre Objekte zu Zwecken des Bewertens der Ausrichtung oder Orientierung eines Objektsensors für gewöhnlich sich bewegenden Objekten vorgezogen. Somit kann Schritt 130 überprüfen, ob das erfasste Objekt stationär ist oder sich bewegt, und dies kann auf eine Anzahl von verschiedenen Arten erfolgen. Gemäß einer beispielhaften Ausführungsform ermittelt Schritt 130 die offensichtliche oder mittlere Geschwindigkeit des erfassten Objekts, während es sich in dem Sichtfeld 70 befindet, und vergleicht er dann diese mit der Geschwindigkeit des Host-Fahrzeugs 10; wenn der Unterschied zwischen den beiden Geschwindigkeiten kleiner als ein gewisser Betrag ist, wird das Objekt als stationär betrachtet. Bei einem Beispiel berechnet Schritt 130 die offensichtliche oder mittlere Geschwindigkeit des erfassten Objekts, indem die Distanz zwischen Objekteintritts- und -austrittspunkt durch die Zeit zwischen diesen Punkten geteilt wird: Objektgeschwindigkeit =
= (Objektaustrittspunktposition – Objekteintrittspunktposition)/(Objektaustrittspunktzeitpunkt – Objekteintrittspunktzeitpunkt)
-
Die vorstehende Berechnung kann in kartesischen Koordinaten, Polarkoordinaten oder einem anderen geeigneten Koordinatensystem durchgeführt werden, und die Genauigkeit der Berechnung basiert zumindest teilweise auf Annahmen, die auf den im Wesentlichen geraden oder linearen Pfad des Fahrzeugs zurückzuführen sind. Wenn das Host-Fahrzeug 10 um eine Biegung oder Kurve gefahren wurde, gelten die dieser Berechnung zugehörigen Annahmen möglicherweise nicht. Durch Durchführen der obigen Berechnung kann vermieden werden, dass das Host-Fahrzeug 10 teure und hochentwickelte Objektsensoren verwenden muss, die intern die Objektgeschwindigkeit berechnen, da solche Sensoren unerwünschte Kosten bei dem Fahrzeug erzeugen können. Schritt 130 kann die Fahrzeuggeschwindigkeit durch Abfragen des Steuermoduls 40 oder einer anderen Quelle erfassen, so dass er die Geschwindigkeiten von Objekt und Fahrzeug miteinander vergleichen kann. Wenn der Unterschied zwischen den Geschwindigkeiten von Fahrzeug und Objekt kleiner als ein Geschwindigkeitsschwellenwert ist (z. B. ein fester Schwellenwert, ein variabler Schwellenwert, der ein Bruchteil oder Prozentsatz der Fahrzeuggeschwindigkeit ist, oder ein anderer Typ von Schwellenwert), ist es wahrscheinlich, dass das erfasste Objekt stationär ist; andernfalls nimmt das Verfahren an, dass das Objekt ein sich bewegendes Ziel, wie beispielsweise ein anderes Fahrzeug, ist. Bei einer Ausführungsform vergleicht Schritt 130 den Unterschied der Geschwindigkeiten von Fahrzeug und Objekt mit einem festen Schwellenwert, wie beispielsweise 8 km/h (5 m. p. h.), der ausgewählt wird, um ein normales Sensorrauschen zu berücksichtigen.
-
Bei dem vorstehenden Beispiel, bei dem zwei Kriterien verwendet wurden, überprüft Schritt 130, ob die Objektpfadlänge ausreichend lang ist und ob das Objekt stationär ist. Wenn diese beiden Kriterien erfüllt sind, schließt das beispielhafte Verfahren daraus, dass das erfasste Objekt ein guter Kandidat zur Verwendung bei den nachstehend beschriebenen Sensorausrichtungstechniken ist und fährt es mit Schritt 146 fort. Wenn nicht beide Kriterien erfüllt sind, springt das Verfahren zu Schritt 110 zurück, und es fährt damit fort, nach einem geeigneten Objekt zu suchen, das verwendet werden kann, um die Ausrichtung des Objektsensors zu bewerten. Es sei angemerkt, dass andere Kriterien und Kombinationen von Kriterien für die Bewertung in Schritt 130 verwendet werden können, da das vorliegende Verfahren nicht auf die oben beschriebenen beispielhaften Kriterien beschrankt ist.
-
An dieser Stelle hat das Verfahren ermittelt, dass sich das Fahrzeug im Wesentlichen geradeaus bewegt (Schritt 114), hat es das Vorhandensein eines Objekts in dem Objektsensorsichtfeld detektiert (Schritt 122), hat es ermittelt, dass das Objekt zur Verwendung beim Bewerten einer Sensorausrichtung geeignet ist (Schritt 130), und nun kann das Verfahren die Ausrichtung oder Orientierung des betreffenden Objektsensors bewerten.
-
Schritt 146 bewertet eine Sensorausrichtung, indem ein erfasster Objektwinkel (θs) und ein erwarteter Objektwinkel (θe) ermittelt werden und dann diese beiden Winkel miteinander verglichen werden. Der erfasste Objektwinkel (θs) bezieht sich im Allgemeinen auf den erfassten oder gemessenen Winkel des Objektpfads 76, und gemäß der in 1 gezeigten Ausführungsform stellt der erfasste Objektwinkel (θs) den Winkel zwischen dem Objektpfad 76 (d. h. der zwischen Objekteintritts- und -austrittspunkt 72, 74 gezogenen Linie) und der Sensormittellinie SCL dar. Der erwartete Objektwinkel (θe) bezieht sich im Allgemeinen auf den erwarteten oder vorbestimmten Anbringungswinkel des betreffenden Objektsensors, und der erwartete Objektwinkel (θe) stellt gemäß 1 den Winkel zwischen der Fahrzeugmittellinie VCL und der Sensormittellinie SCL dar. Der erwartete Objektwinkel (θe) kann die bekannte Anbringungsorientierung des betreffenden Objektsensors sein und wird für gewöhnlich festgelegt, wenn das Fahrzeug entworfen, getestet wird oder sich in einer anderen Entwicklungsstufe befindet, und kann in der Speichereinrichtung 42 oder an einem anderen Ort gespeichert sein. Es sei angemerkt, dass sich der erwartete Objektwinkel (θe) von der Orientierung von ungefähr 20°, die in der Zeichnung dargestellt ist, unterscheiden kann. Beispielsweise kann der Objektsensor 30 absichtlich gemäß anderen Orientierungen angebracht sein – beispielsweise θe = 5°, 10°, 30°, 45° etc. Die exakte Orientierung oder Anbringung des betreffenden Objektsensors kann in Abhängigkeit von dem Typ, der Qualität und dem beabsichtigten Zweck des Objektsensors sowie der bestimmten Anwendung, bei der er verwendet wird, variieren. Ferner können sich die tatsächlichen Winkel, Koordinatenrahmen, etc., die verwendet werden, um (θs) und (θe) darzustellen, von den hier gezeigten Beispielen unterscheiden.
-
Schritt 154 ermittelt dann, ob der Objektsensor falsch ausgerichtet oder anderweitig verdreht ist. Bei einer Ausführungsform vergleicht dieser Schritt den erwarteten Objektwinkel (θe), der in dem Speicher 42 gespeichert ist, mit dem erfassten Objektwinkel (θs), der jüngst ermittelt wurde, um den Unterschied zwischen den beiden Winkeln zu berechnen. Die Vorzeichen dieser Winkel sollten berücksichtigt werden; beispielsweise können die erfassten Objektwinkel (θs) auf der rechten Seite der Sensormittellinie SCL ein Vorzeichen haben und können die erfassten Objektwinkel (θs) auf der linken Seite der Sensormittellinie SCL (wie der in 1 gezeigte) ein anderes Vorzeichen haben. Wenn der Unterschied zwischen diesen beiden Winkeln einen Objektwinkelschwellenwert übersteigt, wird ermittelt, dass der Objektsensor falsch ausgerichtet ist. Wie zuvor kann der Objektwinkelschwellenwert ein fester Schwellenwert (z. B. 0°, 1°, 2°, 5° etc.), ein variabler Schwellenwert (z. B. ein Prozentsatz oder Bruchteil des erfassten oder erwarteten Objektwinkels) oder ein Schwellenwert sein, der von dem verwendeten Sensor, dem Rauschniveau des Sensors, der Fahrzeuggeschwindigkeit etc. oder einem anderen geeigneten Faktor abhängt. Wenn Schritt 154 ermittelt, dass der Unterschied zwischen dem erwarteten und dem erfassten Objektwinkel θe und θs größer als der Objektwinkelschwellenwert ist, wird der betreffende Objektsensor als falsch ausgerichtet oder auf andere Weise verdreht betrachtet. Wenn der Winkelunterschied kleiner als der Objektwinkelschwellenwert ist, wird der Objektsensor als korrekt ausgerichtet betrachtet. Es ist anzumerken, dass Schritt 154 nicht nur eine Sensorfalschausrichtung detektieren kann, sondern dass er auch den Sensor, der falsch ausgerichtet oder verdreht ist, ohne Information von irgendeinem anderen Objektsensor identifizieren kann. In den Objektwinkelschwellenwert sollten geeignete Toleranzen einbezogen werden, um typische Herstellungs- und Anbringungsfehler zu berücksichtigen. Fachleute werden auch erkennen, dass eine geeignete Nutzung der Vorzeichen der Winkel (d. h. positiv oder negativ) beim Ermitteln einer Falschausrichtung hilft, auch wenn der Sensor einen gleichen, jedoch entgegengesetzten Winkel umfasst (z. B. wird eine Falschausrichtung detektiert werden, wenn θs = -θe) Fachleute werden erkennen, dass das vorliegende Verfahren eine oder mehrere Redundanzprüfungen oder andere Techniken einsetzen kann, um sicherzustellen, dass eine Feststellung einer Objektsensorfalschausrichtung korrekt ist. Beispielsweise kann das Verfahren einen Typ von Programmierschleife einsetzen, der erfordert, dass das Verfahren für eine bestimmte Anzahl von aufeinander folgenden Iterationen (z. B. fünf Iterationen) oder ein bestimmtes Verhältnis von Iterationen (z. B. vier von fünf Iterationen) herausfindet, dass der Sensor falsch ausgerichtet ist, bevor gefolgert wird, dass der Sensor tatsächlich falsch ausgerichtet ist. Bei einem anderen Beispiel kann das vorliegende Verfahren erfordern, dass mehrere stationäre Objekte identifiziert und verwendet werden, bevor gefolgert wird, dass ein Objektsensor falsch ausgerichtet ist. In solch einem Fall müsste Schritt 154 die Feststellung einer Sensorfalschausrichtung unter Verwendung von mehreren und verschiedenen stationären Objekten erreichen. Bei noch einem weiteren Beispiel kann das Verfahren 100 in Verbindung mit Objektsensoren mit einem sich überlappenden Sichtfeld oder einem anderen Typ von Hardwareredundanz verwendet werden, um die Genauigkeit der Feststellungen sicherzustellen. Sicherlich sind auch andere Typen von Redundanzen und Techniken möglich.
-
Wenn der vorherige Schritt ermittelt, dass der betreffende Objektsensor falsch ausgerichtet ist, kann Schritt 158 eine oder mehrere Abhilfemaßnahmen treffen. Einige Beispiele geeigneter Abhilfemaßnahmen umfassen: Senden einer Warnnachricht an den Fahrer über die Benutzerschnittstelle 50, zu einem anderen Teil des Host-Fahrzeugs wie dem Modul 60 oder zu einer entfernt angeordneten Backend-Einrichtung (nicht gezeigt); Setzen eines Sensorfehler-Flags oder Herstellen eines Diagnosefehlercodes (DTC von diagnostic trouble code); oder Deaktivieren einer anderen Einrichtung, eines anderen Moduls, eines anderen Systems und/oder eines anderen Merkmals in dem Host-Fahrzeug, die oder das von den Sensorauslesungen von dem falsch ausgerichteten Objektsensor für einen korrekten Betrieb abhängt, um einige Möglichkeiten zu nennen. Bei einer Ausführungsform sendet Schritt 158 eine Warnnachricht an die Benutzerschnittstelle 50, die den Fahrer informiert, dass der Objektsensor 30 falsch ausgerichtet ist, und sendet er Befehlssignale an das Modul 60, die das Modul anweisen, das Verwenden von Sensorauslesungen von dem falsch ausgerichteten oder verdrehten Objektsensor zu vermeiden, bis er repariert werden kann. Sicherlich sind auch andere Typen und Kombinationen von Abhilfemaßnahmen möglich.
-
Das hierin beschriebene beispielhafte Verfahren kann in einem leichten Algorithmus umfasst sein, der weniger speicher- und prozessorintensiv ist als vorherige Verfahren, die große Sammlungen von Datenpunkten erfassen und analysieren. Beispielsweise kann die Verwendung eines erfassten Objektpfads anstatt aller zwischen dem Objekteintritts- und -austrittspunkt liegenden Datenpunkte die mit einem Speicher und Prozessor in Verbindung stehenden Belastungen an dem System reduzieren. Diese algorithmische Leistungsfähigkeit ermöglicht dem Verfahren 100, ausgeführt oder durchgeführt zu werden, während das Host-Fahrzeug 10 gefahren wird, anstatt den Sensor in einen Ausrichtungsmodus zu bringen und auf einer vordefinierten Route zu fahren oder zu erfordern, dass das Host-Fahrzeug zu einer Werkstatt gebracht wird und mit speziellen Diagnosewerkzeugen geprüft wird. Ferner ist es nicht notwendig, dass das Host-Fahrzeug 10 teure Objektsensoren verwendet, die die Geschwindigkeit von detektierten Objekten intern berechnen und bereitstellen, oder dass mehrere Objektsensoren mit überlappenden Sichtfeldern erforderlich sind, wie es einige Systeme erfordern.
-
Es ist zu verstehen, dass die vorangehende Beschreibung keine Definition der Erfindung ist, sondern eine Beschreibung einer oder mehrerer bevorzugter beispielhafter Ausführungsformen der Erfindung ist. Die Erfindung ist nicht auf die bestimmte(n) hierin offenbarte(n) Ausführungsform(en) beschränkt, sondern ist lediglich durch die nachstehenden Ansprüche definiert. Ferner beziehen sich die in der vorangehenden Beschreibung enthaltenen Aussagen auf spezielle Ausführungsformen und sollen diese nicht als Einschränkungen des Schutzumfangs der Erfindung oder der Definition von in den Ansprüchen verwendeten Begriffen betrachtet werden, es sei denn, ein Begriff oder eine Phrase ist oben ausdrücklich definiert. Verschiedene andere Ausführungsformen und verschiedene Änderungen und Abwandlungen der offenbarten Ausführungsform(en) werden für Fachleute ersichtlich werden. Beispielsweise ist die spezifische Kombination und Reihenfolge von Schritten nur eine Möglichkeit, da das vorliegende Verfahren eine Kombination von Schritten umfassen kann, die weniger, mehr oder andere Schritte aufweist als die hier gezeigten. Alle solchen anderen Ausführungsformen, Änderungen und Abwandlungen sollen innerhalb des Schutzumfangs der beigefügten Ansprüche umfasst sein.
-
Wie in dieser Beschreibung und in den Ansprüchen verwendet sollen die Begriffe ”zum Beispiel”, ”z. B.”, ”beispielsweise”, ”wie beispielsweise” und ”wie” und die Verben ”umfassen”, ”aufweisen”, ”einschließen” und ihre anderen Verbformen, wenn sie in Verbindung mit einer Auflistung einer oder mehrerer Komponenten oder eines oder mehrerer anderer Elemente verwendet werden, jeweils als ein offenes Ende aufweisend betrachtet werden, was bedeutet, dass die Auflistung nicht als andere, zusätzliche Komponenten oder Elemente ausschließend betrachtet werden soll. Andere Begriffe sollen als ihre breiteste vernünftige Bedeutung umfassend betrachtet werden, wenn sie nicht in einem Kontext verwendet werden, der eine andere Interpretation erfordert.