DE102012102769A1 - Neue Sensorausrichtungsverfahren und Werkzeuge für aktive Fahrzeugsicherheitsanwendungen - Google Patents

Neue Sensorausrichtungsverfahren und Werkzeuge für aktive Fahrzeugsicherheitsanwendungen Download PDF

Info

Publication number
DE102012102769A1
DE102012102769A1 DE102012102769A DE102012102769A DE102012102769A1 DE 102012102769 A1 DE102012102769 A1 DE 102012102769A1 DE 102012102769 A DE102012102769 A DE 102012102769A DE 102012102769 A DE102012102769 A DE 102012102769A DE 102012102769 A1 DE102012102769 A1 DE 102012102769A1
Authority
DE
Germany
Prior art keywords
vehicle
alignment
object detection
calibration parameters
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012102769A
Other languages
English (en)
Inventor
Shuqing Zeng
James Nickolaou
David Osinski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102012102769A1 publication Critical patent/DE102012102769A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93275Sensor installation details in the bumper area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Verfahren und Werkzeuge zur virtuellen Ausrichtung von Objekterfassungssensoren an einem Fahrzeug, ohne physisch die Sensoren anpassen zu müssen. Eine Sensorfehlausrichtungsbedingung wird während eines normalen Fahrens eines Primärfahrzeugs erfasst durch Vergleich unterschiedlicher Sensoranzeigen untereinander. In einer Fahrzeugservicewerkstatt wird das Primärfahrzeug in einer Ausrichtungszielfestlegung platziert und ein Ausrichten aller Objekterfassungssensoren wird mit einer Grundgenauigkeit verglichen, um Ausrichtungskalibrierungsparameter zu bestimmen. Die Ausrichtungskalibrierung kann weiterhin durch ein Fahren des Primärfahrzeugs in einer kontrollierten Umgebung unter Folgen eines Führungsfahrzeugs verfeinert werden. Endgültige Ausrichtungskalibrierungsparameter werden autorisiert und in einem Systemspeicher gespeichert und Anwendungen, welche die Objekterfassungsdaten hinfort verwenden, passen die Sensoranzeigen gemäß den Kalibrierungsparametern an.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Diese Erfindung betrifft im Allgemeinen Objekterfassungssensoren an Fahrzeugen und insbesondere ein Verfahren zur Durchführung einer virtuellen Ausrichtung eines Nahbereichsradars oder anderer Sensoren an Bord eines Fahrzeugs, die eine Fehlausrichtungskondition eines oder mehrerer Sensoren erfassen, einen Kalibrierungswinkel zum Anpassen der Sensoren bestimmen und eine virtuelle Kalibrierung der Sensoren durch Anpassen der Sensorablesungen in der Software durchführen, ohne physisch die Sensoren anpassen zu müssen.
  • 2. Erörterung der relevanten Technik
  • Viele moderne Fahrzeuge haben Objekterfassungssensoren, die verwendet werden, um Kollisionswarnungen oder Kollisionsverhinderungen und andere aktive Sicherheitsanwendungen zu ermöglichen. Die Objekterfassungssensoren können irgendeine der Vielzahl der Erfassungstechnologien verwenden – einschließlich Nahbereichsradar, Kameras mit Bildauswertung, Laser oder LIDAR und Ultraschall zum Beispiel. Die Objekterfassungssensoren erfassen Fahrzeuge und andere Objekte in der Fahrstrecke des primären Fahrzeugs und die Anwendungssoftware verwendet die Objekterfassungsinformation, um Warnungen auszugeben oder geeignete Aktionen zu veranlassen.
  • Um die Anwendungssoftware optimal durchzuführen, müssen die Objekterfassungssensoren genau mit dem Fahrzeug ausgerichtet sein. Wenn zum Beispiel ein Sensor ein Objekt erfasst, das sich aktuell auf der Fahrstrecke des Primärfahrzeugs befindet, aber, aufgrund einer Sensorfehlausrichtung, der Sensor feststellt, dass das Objekt leicht nach links von der Fahrstrecke des primären Fahrzeugs abweicht, kann dies signifikante Konsequenzen für die Anwendungssoftware haben. Selbst wenn dort eine Vielzahl von vorwärtsgerichteten Objekterfassungssensoren an einem Fahrzeug vorhanden sind, ist es wichtig, dass sie alle genau ausgerichtet sind, um so ein sich Widersprechen der Sensoranzeigen zu minimieren oder zu eliminieren.
  • In vielen Fahrzeugen sind die Objekterfassungssensoren direkt in das Frontarmaturenbrett des Fahrzeugs integriert. Diese Art der Installation ist einfach, effektiv und zufriedenstellend ästhetisch, aber es hat den Nachteil, dass es keinen praktischen Weg gibt, die Ausrichtung der Sensoren physisch anzupassen. Wenn folglich ein Sensor zu der wahren Fahrtrichtung des Fahrzeugs fehlangepasst wird, aufgrund einer Beschädigung des Armaturenbretts oder einer alters- und wetterbedingten Verwerfung, hat es traditionell keine Möglichkeit gegeben, diese Fehlausrichtung zu korrigieren, außer den gesamten Armaturenbrettaufbau, der die Sensoren enthält, auszuwechseln.
  • Zusammenfassung der Erfindung
  • Gemäß den Lehren der vorliegenden Erfindung werden ein Verfahren und Werkzeuge zur virtuellen Ausrichtung von Objekterfassungssensoren an einem Fahrzeug offenbart, ohne physisch die Sensoren anpassen zu müssen. Beim normalen Fahren wird eine Sensorfehlausrichtungskondition eines primären Fahrzeugs durch Vergleich unterschiedlicher Sensoranzeigen untereinander erfasst. In einer Fahrzeugservicewerkstatt wird das primäre Fahrzeug in einer Ausrichtungshalterung platziert und alle Ausrichtungen der Objekterfassungssensoren werden verglichen mit der Grundeinstellung, um die Grundausrichtungskalibrierungsparameter zu bestimmen. Eine Ausrichtungskalibrierung kann weiterhin durch Fahren des Primärfahrzeugs in einer kontrollierten Umgebung unter Folgen einem Führungsfahrzeugs verfeinert werden. Endgültige Ausrichtungskalibrierungsparameter werden in dem Systemspeicher zugelassen und gespeichert und Anwendungen, welche die Objekterfassungsdaten verwenden, können nachfolgend die Sensoranzeigen gemäß den Kalibrierungsparametern anpassen.
  • Zusätzliche Merkmale der folgenden Erfindung werden durch die nachfolgende Beschreibung und anhängenden Ansprüche im Zusammenhang mit den begleitenden Zeichnungen verständlicher.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist eine Draufsichtdarstellung eines Fahrzeugs, die einige Sensoren einschließt, die für eine Objekterfassung eingesetzt werden können;
  • 2 ist eine Draufsichtdarstellung des Fahrzeugs, das in 1 gezeigt wird, und zeigt beispielhafte Abdeckmuster für die Objekterfassungssensoren;
  • 3 ist ein schematisches Diagramm eines Systems, das eine virtuelle Ausrichtung der Objekterfassungssensoren ermöglicht;
  • 4 ist ein Flussdiagramm eines Verfahrens zur virtuellen Ausrichtung der Objekterfassungssensoren;
  • 5 ist ein Flussdiagramm eines Erfassungsverfahrens von Sensorfehlausrichtungen während des normalen Fahrbetriebs;
  • 6 ist eine Draufsichtdarstellung einer Zielfestlegung, die für eine virtuelle Sensorausrichtung verwendet werden kann;
  • 7 ist eine Draufsichtdarstellung einer Testumgebung, die für eine Sensorausrichtungsverfeinerung und Validierung verwendet werden kann; und
  • 8 ist ein Flussdiagramm eines Verfahrens zum Verfeinern der Ausrichtungskalibrierungswerte.
  • Detaillierte Beschreibung der Ausführungsformen
  • Die nachfolgende Erörterung der Ausführungsformen der Erfindung, die auf ein virtuelles Ausrichtungsverfahren eines Objekterfassungssensors gerichtet ist, ist nur exemplarischer Natur und es ist nicht beabsichtigt, die Erfindung oder ihre Ausführungsformen oder Verwendungen zu begrenzen.
  • Objekterfassungssensoren sind eine gewöhnliche Ausstattung in modernen Fahrzeugen geworden. Derartige Sensoren werden zum Erfassen von Objekten verwendet, die in oder nahe bei einer Fahrzeugfahrstrecke sowohl vor als auch hinter dieser vorhanden sind. Viele Fahrzeuge integrieren inzwischen Objekterfassungssensoren in äußeren Körperverkleidungsflächen in einer Weise, die eine mechanische Ausrichtung der Sensoren ausschließt. Ein Verfahren und Werkzeuge werden hierin offenbart zum Kalibrieren der Sensorausrichtung in Software anstelle einer mechanischen Sensoranpassung.
  • 1 ist eine Draufsichtdarstellung eines Fahrzeugs 10, die mehrere Sensoren einschließt, die zur Objekterfassung, Spureinhaltung und anderer aktiver Sicherheitsanwendungen eingesetzt werden können. Die Sensoren umfassen ein linksseitiges Nahbereichsradar, oder SRR links 12, ein rechtsseitige Nahbereichsradar, oder SRR rechts 14, und ein Fernbereichsradar (LRR) 16. Das SRR links 12 und das SRR rechts 14 sind üblicherweise in ein Stoßdämpferband an der Front des Fahrzeugs 10 integriert. Das LRR 16 ist typischerweise im Zentrum des Frontstoßdämpfers montiert und kann auch in die Stoßdämpferverkleidung integriert sein. Das Fahrzeug 10 enthält auch eine Kamera 18, die im Zusammenhang mit den anderen Sensoren zur Objekterfassung sowie auch für andere auf Sicht basierende Anwendungen verwendet werden kann. Die Kamera 18 ist normalerweise innerhalb der Windschutzscheibe des Kraftfahrzeugs 10 in der Nähe des Dachzentrums montiert.
  • 2 ist eine Draufsichtdarstellung des Fahrzeugs 10, das beispielhaft die Abdeckmuster für den SRR links 12 und den SRR rechts 14 sowie den LRR 16 und die Kamera 18 zeigt. Die Abdeckungsmuster zeigen das effektive Gebiet der Sicht von jedem Gerät, von welchem es Objekte zuverlässig erfassen kann. Der SRR links 12 und der SRR rechts 14 haben Abdeckungsmuster 20 beziehungsweise 22, die an ihren entsprechenden Seiten des Fahrzeugs vorhanden sind und die sich in der Nähe der erweiterten Zentrumslinie des Fahrzeugs 10 nahezu berühren oder ein wenig überlappen. Die Abdeckungsmuster 20 und 22 können sich etwa 20–30 Meter in Front des Fahrzeugs zum Beispiel erstrecken. Der LRR 16 weist ein Abdeckungsmuster 24, wie gezeigt, auf, das sich bis 60 Meter in Front des Fahrzeugs 10 erstrecken kann. Der LRR 16 kann zwei Betriebsmodi aufweisen, die einen Mittelbereichsmodus, der durch das Abdeckmuster 24 in 2 gezeigt wird, und einen Fernbereichsmodus (nicht gezeigt), der ein engeres Abdeckmuster aufweist und dessen Objekterfassungsbereich zum Beispiel etwa 200 Meter ist, umfassen. Die Kamera 18 hat eine Feldsicht oder ein Abdeckmuster 26 von ähnlicher Größe und Gestalt wie das Abdeckmuster 24 des LRR 16. Es ist anzumerken, dass die Längen der Abdeckungsmuster 2026 nicht in relativem Maßstab zum Fahrzeug 10 in 2 gezeigt sind.
  • Das Fahrzeug 10 kann auch rückwärtige Objekterfassungssensoren (nicht gezeigt) einschließen, welche ein Nahbereichsradar oder eine auf Sicht basierende oder eine andere Technologie verwenden können. Diese werden typischerweise an dem hinteren Stoßdämpfer des Fahrzeugs 10 montiert. Andere Technologien, welche als Objektdetektionssensoren eingesetzt werden können, schließen Ultraschall- und Laser-basierende (einschließlich LIDAR) ein. Die virtuellen Ausrichtungsverfahren, die hierin offenbart werden, können für jede dieser Objekterfassungstechnologien verwendet werden.
  • Wie oben erwähnt, sind der SRR links 12 und der SRR rechts 14 normalerweise in die Frontabdeckung des Fahrzeugs 10 integriert. In den meisten derartiger Installationen gibt es keinen praktischen Weg, um physisch die Orientierung des SRR links 12 oder des SRR rechts 14 anzupassen, wenn sie fehlausgerichtet sind. Erfahrungen haben gezeigt, dass abdeckungsintegrierte Sensoren oft im Laufe der Zeit fehlausgerichtet werden, aufgrund entweder von Unfallbeschädigung an der Abdeckung oder durch Verwerfungen der Abdeckung, die mit dem Wetter verbunden sind. Signifikante Fehlausrichtungen der Sensoren, die in der Frontverkleidung integriert sind, können andererseits die Leistungsfähigkeit der Objekterfassung oder anderer Systeme, welche die Sensordaten nutzen, beeinträchtigen. In einer Situation, in der die Sensoren signifikant fehlausgerichtet sind, gab es traditionell keine Alternative, als die Frontverkleidung und den Sensorenaufbau auszuwechseln. Diese Auswechslung kann für den Eigentümer des Fahrzeugs sehr teuer werden.
  • Das Problem der verkleidungsintegrieten Sensorfehlausrichtung kann mittels Durchführen einer virtuellen Ausrichtung des SRR links 12, des SRR rechts 14 und/oder anderer Sensoren in der Software überwunden werden. Die virtuelle Ausrichtung, die unten beschrieben wird, eliminiert den Bedarf des Austausches einer deformierten Verkleidung.
  • 3 ist ein schematisches Diagramm eines Systems 30, das eine virtuelle Ausrichtung der Objekterfassungssensoren ermöglicht. Das Fahrzeug 10 schließt ein Steuergerät 32 ein, welches Daten von dem SRR links 12 und dem SRR rechts 14 empfängt. Das Steuergerät 32 managt das virtuelle Ausrichtungsverfahren, das unten beschrieben wird. Das Steuergerät 32 verfügt über Sensordaten für ein Anwendungsmodul 34, welches die Sensordaten für Objekterfassung oder andere Zwecke verwendet. Das Steuergerät 32 kommuniziert auch mit dem Speichermodul 36, welches sensorrelevante Parameter in einem nicht flüchtigen Speicher speichert. Wenn das Steuergerät 32 eine Sensorfehlausrichtungsbedingung erfasst, wie es unten erörtert wird, kann eine Nachricht an den Fahrer des Fahrzeugs 10 auf einer Anzeige 38 bereitgestellt werden. Ein Bedienungswerkzeug 40 ist mit dem Fahrzeug 10 verbunden, so dass es mit dem Steuergerät 32 kommunizieren kann, und wird durch einen Techniker verwendet, um eine virtuelle Sensorausrichtung und ein zugelassenes Speichern der neuen Ausrichtungskalibrierungsparameter durchzuführen.
  • 4 ist ein Flussdiagramm 50 eines Verfahrens zur virtuellen Ausrichtung der Objekterfassungssensoren, wie dem SRR links 12 und dem SRR rechts 14. In Box 52 wird eine Fehlausrichtung größer als ein bestimmter Schwellenwert, wie beispielsweise 2 Grad, während eines normalen Fahrbetriebs erfasst. Wenn eine derartige Fehlausrichtung mit der Box 42 erfasst ist, wird der Fahrer über eine Mitteilung oder eine Anzeige 38 alarmiert und Sensorausrichtungsdaten werden in dem Speichermodul 36 gespeichert. In Box 54 wird die Sensorausrichtung virtuell unter Verwendung einer Zielfixierung mit bekannter Grundeinstellung angepasst. In Box 56 wird die Sensorausrichtung verfeinert und in einem kontrollierten Straßenfahrtest unter Verwendung der gespeicherten Daten in dem Speichermodul 36 zugelassen. In Box 58 werden die Ausrichtungskalibrierungswerte zugelassen und in dem Speichermodul 36 für die Verwendung durch das Steuergerät 32 und das Anwendungsmodul 34 gespeichert.
  • 5 ist ein Flussdiagramm 60 eines Erfassungsverfahrens von Sensorfehlausrichtungen während des normalen Fahrbetriebs, wie es in Box 52 des vorhergehenden Flussdiagramms 50 oben beschrieben wird. Das Fahrzeug beginnt mit dem Fahren in der Startbox 62. In Box 64 wird die Fahrumgebung bewertet, um geeignete Bedingungen zu bestimmen, unter denen eine Testsensorausrichtung existiert. Insbesondere in der Box 64 wird bestimmt, ob das Fahrzeug 10 auf einer geraden Straße fährt und ob ein Nahbereichsführungsfahrzeug in der gleichen Fahrspur des Fahrzeugs 10 vorhanden ist. Die Zulässigkeit der Fahrspurgeometrie, um zu bestimmen, ob das Fahrzeug 10 gerade fährt, kann durch Analysieren der lateralen Beschleunigungsdaten durchgeführt werden, da äußerst moderne Fahrzeuge an Bord über Beschleunigungsmesser verfügen. Die Fahrspurgeometriezulassung könnte auch über die Analyse der Lenkradwinkelqdaten durchgeführt werden, wobei die Zulassung der Fahrspurgrenze durch Kamerabilder oder durch andere Mittel erfolgt. Die Anwesenheit eines nahen Führungsfahrzeugs wird durch vorwärts-sehende Sensoren bestimmt, wie dem SRR links 12, dem SRR rechts 14, dem LRR 16 und/oder der Kamera 18. Die Kriterien für ein nahes Führungsfahrzeug können ein Führungsfahrzeug sein, das in der gleichen Fahrspur wie das Fahrzeug 10 anwesend ist, zum Beispiel in einem Bereich von 20 bis 40 Meter. Mit der Entscheidungsraute 66 wird eine Bestimmung durchgeführt, ob der Sensorausrichtungstest durchgeführt erden kann. Wenn das Fahrzeug 10 auf einer geraden Straße fährt und ein nahes Führungsfahrzeug vorhanden ist, geht das Verfahren weiter zur Box 68. Wenn sowohl die Bedingung der geraden Straße als auch des Führungsfahrzeugs erfüllt sind, dann kann das Verfahren zum Reevaluieren der Fahrzeugumgebung; zu der Box 64 zurückgekoppelt werden.
  • In der Box 68 werden im Sensor verbliebenen Messdaten der Messungen des nahen Führungsfahrzeugs berechnet. Die verbliebenen Daten werden in der Box 68 durch Vergleich der Sensordaten von unterschiedlichen Sensoren, wie der SRR links 12, der SRR rechts 14, der LRR 16 und selbst der Kamera 18, berechnet. Wenn die Sensoren direkt einen Ziel-Azimut-Winkel für das führende Fahrzeug anzeigen, können die Azimut-Winkel verglichen werden. Wenn zum Beispiel der SRR links 12 einen Ziel-Azimut-Winkel von 3 Grad anzeigt, aber alle anderen Sensoren einen Azimut-Winkel von 0 Grad anzeigen, dann kann festegelegt werden, dass der SRR links 12 um 3 Grad fehlausgerichtet ist. Wenn die Sensoren den Bereich und die laterale Position messen, anstelle dass der Azimut-Winkel des Führungsfahrzeugs gemessen wird, kann ein Fehlanpassungswinkel berechnet werden. Wenn zum Beispiel die Sensoren ein nahes Führungsfahrzeug in einem Bereich von 20 Metern erfassen, aber die laterale Position des Führungsfahrzeugs – oder eines bestimmten Merkmals des nahen Führungsfahrzeugs – wie durch den SRR links 12 angezeigt wird, durch einen Meter von der lateralen Position abweicht, wie durch den anderen Sensor angezeigt wird, dann wird eine Fehlausrichtung oder ein Sensormessverbleib δL des SRR links 12 berechnet werden als: δL= atan(1/20) ≅ 3° (1)
  • In der Entscheidungsraute 70 werden die Sensormessdifferenzen der Box 68 verglichen mit dem Schwellenwert. Zum Beispiel kann der Schwellenwert durch einen Fahrzeughersteller mit 2 Grad bestimmt sein, was bedeutet, dass eine Aktion unternommen wird, wenn irgendein Sensor gefunden wird, der mehr als 2 Grad von der Ausrichtung abweicht. Wenn irgendeine Sensordifferenz bestimmt wird, die den Schwellenwert überschreitet, dann wird in Box 72 eine Sensorfehlausrichtung zu dem Fahrer über eine Mittelung oder über eine Anzeige 38 berichtet. Sonst wird das Verfahren für eine Rückbewertung zu der Fahrumgebung in Box 64 zurückgekoppelt. In dem oben beschriebenen Beispiel, wo die Differenz für das SRR links 12, δL, mit etwa 3 Grad berechnet wurde, wird die Fehlausrichtung an den Fahrer mit Box 72 berichtet und die Fehlausrichtungsdaten werden in das Speichermodul 36 aufgenommen.
  • Beim Berechnen der im Sensor verbliebenen Messwerte in Box 68 und beim Vergleichen der verbliebenen Messwerte mit dem Schwellenwert in der Entscheidungsraute 70 wird eine Wiederholbarkeit oder statistische Signifikanz gefordert, um die Entscheidung zu fällen. Mit anderen Worten ein Fehlausrichten wird nicht in der Box 72 basierend auf gerade einem einzigen Satz von Sensoranzeigen berichtet. Vielmehr werden die Daten über ein sich wiederholendes Zeitfenster von mehreren Sekunden bewegt und eine Fehlausrichtung wird nur berichtet, wenn ein Sensor beständig fehlangepasst von den anderen durch eine Größe von mehr als der Schwellenwert ist. Es ist anzumerken, dass die Verfahren, die hierin beschrieben werden, zum Verwenden einer virtuellen Kalibrierung der Sensoren verwendet werden können, die physisch über einige Grad oder mehr fehlausgerichtet sind.
  • Die Fehlausrichtungserfassungsaktivitäten, die in dem Flussdiagramm 60 der 5 beschreiben sind, werden alle in der Box 52 des Flussdiagramms 50 durchgeführt. Wie vorher erwähnt, wird in Box 54 die Sensorausrichtung virtuell unter einer Zielfestlegung mit bekannter Grundeinstellung angepasst. Obwohl es möglich ist, sich ein System vorzustellen, in dem die Sensorausrichtungskalibrierung kontinuierlich und automatisch durchgeführt wird, ohne eine Anwender- oder Techniker-Intervention, wird hier vorgeschlagen, dass die virtuelle Sensorausrichtung in der Box 54 durch einen Servicefachmann in einer Fahrzeugservicewerkstatt durchgeführt wird. Somit wird, nach einiger Zeit, nachdem die Fehlausrichtung erfasst ist und an den Fahrer in der Box 52 kommuniziert wurde, das Fahrzeug 10 zu einer Servicewerkstatt gebracht, um die Sensoren virtuell mit der Box 54 auszurichten.
  • 6 ist eine Draufsichtdarstellung einer Zielfestlegung 80, die für eine virtuelle Sensorausrichtung verwendet werden kann. Das Fahrzeug 10 wird in eine gezeigte Position in der Zielfestlegung 80 platziert. Dies wird durch Fahren der Räder des Fahrzeugs 10 in eine Spur oder durch andere Mittel erreicht. Eine Führungsfahrzeugschablone 82 wird direkt vor dem Fahrzeug 10 positioniert. Die Führungsfahrzeugschablone 82 könnte ein dreidimensionales Modell des rückwärtigen Endes eines Fahrzeugs sein oder es kann einfach ein Bild eines rückwärtigen Endes eines Fahrzeugs auf einer flachen Tafel sein. In jedem Fall muss die Schablone 82 als ein Führungsfahrzeug den Sensoren an Bord des Fahrzeugs 10 erscheinen. Ein Frontziel 84 ist auch in der Zielfestlegung 80 vorgesehen. Das Frontziel 84 ist ein enges Objekt, wie ein vertikales Metallrohr, das ein Messen eines Azimut-Winkels eines spezifischen Objekts durch die Sensoren an Bord des Fahrzeugs 10 ermöglicht. Die Führungsfahrzeugschablone 82 und das Frontziel 84 werden in einem bekannten Abstand 86 in Front des Fahrzeugs 10 positioniert. Die Führungsfahrzeugschablone 82 und das Frontziel 84 sollten vorzugsweise auf erweiterten Zentrallinien 88 des Fahrzeugs 10 zentriert sein, so dass sie einen Ausgangs-Azimut-Winkel von 0 Grad aufweisen. Jedoch kann die Schablone 82 und das Ziel 84 in einem nicht-Null aufweisenden Azimut-Winkel angeordnet sein, solange der Winkel bekannt ist.
  • Ein rückwärtiges Ziel 90 kann auch in der Zielfestlegung 80 für ein Ausrichten der rückwärtsgewandten Sensoren vorhanden sein. Das rückwärtige Ziel 90 wird als ein enges Objekt vorgesehen, wie ein vertikales Rohr, ähnlich wie das Frontziel 84. Das rückwärtige Ziel 90 ist in einem bekannten Abstand 92 hinter dem Fahrzeug 10 angeordnet. Alle Messungen in der Zielfestlegung 80 würden unter statischer Bedingung durchgeführt.
  • Unter Verwendung der Zielfestlegung 80 kann die Ausrichtung der Sensoren an Bord des Fahrzeugs 10 in der Box 54 getestet werden. Das kann durch einen Servicetechniker, der das Technikwerkzeug 40 mit dem Fahrzeug 10 verbindet, durchgeführt werden, so dass das Werkzeug 40 mit dem Steuergerät 32 kommunizieren kann. Der Servicetechniker würde das Steuergerät 32 anweisen, Anzeigen von den an Bord befindlichen Sensoren aufzunehmen, wie von dem SRR links 12 und dem SRR rechts 14. Die an Bord befindlichen Sensoren würden die Führungsfahrzeugschablone 82 und das Frontziel 84 erfassen, wobei beide in einem bekannten Azimut-Winkel positioniert sind (normalerweise 0 Grad) relativ zu dem Fahrzeug 10. Jede Abweichung der Anzeigen der an Bord befindlichen Sensoren relativ zu der Grundeinstellung kann festgestellt und in dem Speichermodul 36 als nominaler Ausrichtungskalibrierungswert gespeichert werden.
  • In der Box 56 kann die Ausrichtung verfeinert und unter einem dynamischen Straßentest unter kontrollierten Bedingungen bewertet werden. 7 ist eine Draufsichtdarstellung einer Testumgebung, die für eine Sensorausrichtungsverfeinerung und Validierung in der Box 56 verwendet werden kann. Das Fahrzeug 10 wird auf der Straße 102 hinter einem Führungsfahrzeug 104 gefahren. In der Testumgebung 100 wird das Fahrzeug 10 von einem Servicetechniker gefahren und das Technikerwerkzeug 40 kommuniziert immer noch mit dem Steuergerät 32. Es ist beabsichtigt, dass das Fahrzeug 10 dem Führungsfahrzeug 104 in einem festgelegten Abstand 106 folgt und dass das Fahrzeug 10 und das Führungsfahrzeug 104 an einem geraden Abschnitt der Straße 102 die gleiche Fahrspur benutzen.
  • Wie vorher beschrieben, würde die Validierung in der Box 56 in der Testumgebung 100 es erfordern, über einige Zeitfenster, wie für einige Sekunden, durchgeführt zu werden, so dass ein statisches Modell auf die Sensoranzeigen angewandt werden kann, um verfeinerte Ausrichtungskalibrierungswerte zu bestimmten.
  • 8 ist ein Flussdiagramm 110 eines Verfahrens zum Verfeinern der Ausrichtungskalibrierungswerte in der Box 56. In der Box 112 wird ein grundlegender Azimut-Winkelwert für das Führungsfahrzeug 104 in den Koordinaten des Rahmens des Fahrzeugs 10 festgelegt. Unter gewöhnlichen Bedingungen ist der grundlegende Winkel 0 Grad. In Box 114 werden die Sensormessungen für zum Beispiel den SRR links 12 und den SRR rechts 14 aufgenommen. Die Messungen in Box 14 ergeben Azimut-Winkel zu dem Führungsfahrzeug 104. In Box 116 werden Sensorausrichtungskalibrierungsparameter bereitgestellt. Anfängliche Sensorausrichtungskalibrierungsparameter werden bestimmt und von dem Test auf der Zielfestlegung 80 in der Box 54 gespeichert. In der Box 118 wird die vorhergesagte Zielposition durch Anpassung der Sensoranzeigen für die Box 114 mit den Kalibrierungsparametern der Box 116 berechnet. In der Box 120 werden die vorhergesagten Zielpositionen für die Box 118 mit den grundlegenden Werten der Box 112 verglichen und jeder verbliebene Fehler berechnet. Der verbliebene Fehler wird von der Box 120 zurückgeführt, um die Sensorausrichtungskalibrierungsparameter in der Box 116 anzupassen. Das Verfahren, das in dem Flussdiagramm 110 gezeigt wird, kann in der Box 56 des Flussdiagramms 50 fortgesetzt werden bis der verbliebene Fehler minimiert ist.
  • Die Berechnungen in der Box 56 können wie folgt durchgeführt werden. Sind eine Sensordatensequenz, 0 = {ot|t = 1, ..., T}, und ein anfänglicher Ausrichtungskalibrierungswert, a0, gegeben, kann der Kalibrierungswert unter Verwendung der Sensordaten verfeinert werden. Ein dynamisches Zielmodell kann definiert werden als: xt+1 = f(xt) + v (2)
  • Wobei xt und xt+1 Positionen des Ziels, oder des Führungsfahrzeugs 104, in aufeinander folgenden Zeitschritten sind, f ist die Zielmodellfunktion und v ist eine statistische Rauschvariable, die einer Normalen oder Gauss'schen Verteilung mit Kovarianzmatrix Q folgt, das heißt, v ~ N(0, Q).
  • Ähnlich kann ein Sensorbeobachtungsmodell definiert werden als: ot = h(xt, α) + w (3)
  • Wobei Ot die Sensorbeobachtungsdaten sind, die als eine Funktion der Zielposition xt und des Ausrichtungswertes a modelliert sind, h ist eine Beobachtungsmodellfunktion und w ist eine statistische Rauschverteilung, welche einer Normalen oder Gauss'schen Verteilung mit einer Kovarianzmatrix R folgt; was bedeutet, w ~ N(0, R).
  • Unter Verwendung des dynamischen Zielmodells der Gleichung (2) und des Sensorbeobachtungsmodells der Gleichung (3) kann eine gewichtete Fehlerquadratberechnung durchgeführt werden, um die Zieldatendynamiksequenz X = {xt|t = 1, ..., T} und einen verfeinerten Ausrichtungskalibrierungswert a1 zu finden. Dieses kann unter Minimierung der Funktion:
    Figure 00150001
    durchgeführt werden.
  • Wobei J die Funktion, die zu minimieren ist, a der Ausrichtungskalibrierungswert, der verfeinert und angepasst an die Minimierung J ist und alle anderen Variablen wie vorher definiert sind.
  • Die gewichtete Fehlerquadratberechnung, die oben beschrieben wird, kann für jeden Objekterfassungssensor, der zu kalibrieren ist, durchgeführt werden. Die Ausgabe der Berechnung ist der verfeinerte Ausrichtungskalibrierungswert a1.
  • In Box 58 des Flussdiagramms 50 werden ein Satz von Ausrichtungskalibrierungsparameterwerte, die wie oben beschrieben berechnet sind, für das Fahrzeug 10 durch den Servicetechniker zugelassen. Ein Ausrichtungskalibrierungsparameterwert wird berechnet und für an jeden an Bord vorhandenen Sensor, der eine virtuelle Ausrichtung erfordert, gespeichert. Unter Verwendung des Technikerwerkzeugs 40 weist der Techniker das Steuergerät 32 an, die verfeinerten Ausrichtungskalibrierungswerte in dem Speichermodul 36 zu speichern. Die verfeinerten Ausrichtungskalibrierungswerte werden hinfort durch das Anwendungsmodul 34 verwendet, um die Ausgaben von dem SRR links 12, dem SRR rechts 14 und/oder dem LRR 16 anzupassen, während eine Fehlausrichtung aufgrund eines Verkleidungsschadens oder einer Verwerfung zu berücksichtigen ist.
  • Das virtuelle Ausrichtungsverfahren, das hierin beschrieben wird, stellt einen einfachen und effektiven Weg bereit, um die Ausrichtung von Objekterfassungssensoren zu korrigieren, einschließlich solcher, die keine Mittel zur physischen Anpassung haben, womit die Leistungsfähigkeit der Anwendungen verbessert wird, welche die Sensordaten verwenden, und der teure Ersatz einer sonst einsetzbaren Verkleidungskomponente vermieden wird.
  • Die vorhergehende Erörterung offenbart und beschreibt nur beispielhafte Ausführungsformen der vorliegenden Erfindung. Ein Fachmann wird bereits von dieser Erörterung und von den begleitenden Zeichnungen und den Ansprüchen erkennen, dass unterschiedliche Änderungen, Modifikationen und Variationen damit durchgeführt werden können, ohne sich von dem Geist und dem Rahmen der Verbindung, wie sie in den nachfolgenden Ansprüchen definiert ist, zu entfernen.

Claims (10)

  1. Verfahren zur virtuellen Ausrichtung von Objekterfassungssensoren eines Primärfahrzeugs, wobei das Verfahren umfasst: – Erfassen einer Sensorfehlausrichtungsbedingung während einer normalen Fahrt mit dem Primärfahrzeug; – Bestimmen von Ausrichtungskalibrierungsparametern für die Objekterfassungssensoren unter Verwendung einer Ausrichtungszielfestlegung mit bekannter Grundeinstellung; – Speichern der Ausrichtungskalibrierungsparameter in einem Speicher; und – Verwenden der Ausrichtungskalibrierungsparameter durch ein Anwendungsprogramm, um Objekterfassungs-sensoren anzupassen.
  2. Verfahren nach Anspruch 1, wobei ein Erfassen einer Sensorfehlausrichtungsbedingung ein Bestimmen, dass ein Satz von vorausgesetzten Fahrbedingungen existiert, ein Berechnen der Unterschiede zwischen den Anzeigen von jedem der Objekterfassungssensoren und ein Bestimmen einschließt, ob einer oder mehrere der Objekterfassungssensoren um eine Größe, die einen vorbestimmten Schwellenwert übersteigt, fehlausgerichtet sind.
  3. Verfahren nach Anspruch 2, wobei der Satz der vorausgesetzten Fahrbedingungen ein Fahren auf einer geraden Straße und die Anwesenheit eines Führungsfahrzeugs auf der Straße vor dem Primärfahrzeug einschließt.
  4. Verfahren nach Anspruch 2, wobei weiterhin das Verfahren ein Anzeigen der Fehlausrichtungskondition an den Fahrer des Primärfahrzeugs umfasst.
  5. Verfahren nach Anspruch 1, wobei das Bestimmen der Ausrichtungskalibrierungsparameter für die Objekterfassungssensoren ein Platzieren des Primärfahrzeugs in der Ausrichtung der Zielfestlegung und ein statistisches Messen einer Position von einem oder mehreren Objekten an einem bekannten Ort mit jedem der Objekterfassungssensoren umfasst.
  6. Verfahren nach Anspruch 1, wobei ein Speichern der Ausrichtungskalibrierungsparameter in einem Speicher ein Anschließen eines technischen Werkzeugs an das Primärfahrzeug durch einen Servicetechniker einschließt und ein Verwenden des technischen Werkzeugs zum Autorisieren und Speichern der Ausrichtungskalibrierungsparameter in dem Speicher.
  7. Verfahren nach Anspruch 1, das weiterhin ein Verfeinern und Validieren der Ausrichtungskalibrierungsparameter umfasst durch Fahren des Primärfahrzeugs in einer vorbestimmten Anordnung hinter einem Führungsfahrzeug.
  8. Verfahren nach Anspruch 7, wobei ein Verfeinern und Validieren der Ausrichtungskalibrierungsparameter ein Fahren des Primärfahrzeugs hinter dem Führungsfahrzeug auf einer geraden Straße, ein Aufnehmen einer Sequenz von Sensoranzeigen und ein Minimieren einer mathematischen Funktion umfasst, welche die Sensoranzeigen und den Ausrichtungskalibrierungsparameter, die mit den Sensoranzeigen korrespondieren, enthält.
  9. Verfahren nach Anspruch 1, wobei Objekterfassungssensoren ein linksseitiges Nahbereichsradar, ein rechtsseitiges Nahbereichsradar und ein Fernbereichsradar aufweisen.
  10. Verfahren nach Anspruch 1, wobei das Anwendungsprogramm ein Kollisionserfassungswarn- oder Kollisionsvermeidungssystem ist.
DE102012102769A 2011-05-10 2012-03-30 Neue Sensorausrichtungsverfahren und Werkzeuge für aktive Fahrzeugsicherheitsanwendungen Withdrawn DE102012102769A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/104,704 2011-05-10
US13/104,704 US8775064B2 (en) 2011-05-10 2011-05-10 Sensor alignment process and tools for active safety vehicle applications

Publications (1)

Publication Number Publication Date
DE102012102769A1 true DE102012102769A1 (de) 2012-11-15

Family

ID=47070662

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012102769A Withdrawn DE102012102769A1 (de) 2011-05-10 2012-03-30 Neue Sensorausrichtungsverfahren und Werkzeuge für aktive Fahrzeugsicherheitsanwendungen

Country Status (3)

Country Link
US (1) US8775064B2 (de)
CN (1) CN102778670B (de)
DE (1) DE102012102769A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3136123A1 (de) * 2015-08-22 2017-03-01 Audi Ag Verfahren zur zuordnung von vorgegebenen einbaupositionen zu an den einbaupositionen in einem kraftfahrzeug verbauten radarsensoren
DE102017111860A1 (de) 2017-05-31 2018-12-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum Kalibrieren eines Radarsensors eines Kraftfahrzeugs während einer Bewegung des Kraftfahrzeugs, Radarsensor, Fahrerassistenzsystem sowie Kraftfahrzeug
US11520038B2 (en) 2019-08-15 2022-12-06 Volkswagen Aktiengesellschaft Method and device for checking a calibration of environment sensors
US11645782B2 (en) 2019-07-31 2023-05-09 Volkswagen Aktiengesellschaft Method and device for checking a calibration of environment sensors
US11650303B2 (en) 2017-04-25 2023-05-16 Audi Ag Method for operating a radar sensor in a motor vehicle, radar sensor, and motor vehicle

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2490094B (en) * 2011-03-29 2015-11-18 Jaguar Land Rover Ltd Monitoring apparatus and method
US9128185B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Methods and apparatus of fusing radar/camera object data and LiDAR scan points
US9129211B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
EP2733037B1 (de) * 2012-11-16 2016-09-21 Honda Motor Co., Ltd. Fahrerzustandsschätzungsvorrichtung
US9327693B2 (en) * 2013-04-10 2016-05-03 Magna Electronics Inc. Rear collision avoidance system for vehicle
JP6291781B2 (ja) * 2013-10-17 2018-03-14 株式会社デンソー 周辺監視装置及び周辺監視システム
JP6413097B2 (ja) * 2014-02-05 2018-10-31 パナソニックIpマネジメント株式会社 物体検知装置
US10024955B2 (en) 2014-03-28 2018-07-17 GM Global Technology Operations LLC System and method for determining of and compensating for misalignment of a sensor
US20160210383A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual autonomous response testbed
US20160210382A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Autonomous driving refined in virtual environments
US20160210775A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual sensor testbed
US9886801B2 (en) * 2015-02-04 2018-02-06 GM Global Technology Operations LLC Vehicle sensor compensation
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
US10071891B2 (en) 2015-03-06 2018-09-11 Walmart Apollo, Llc Systems, devices, and methods for providing passenger transport
US9718405B1 (en) * 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
US10698111B2 (en) * 2015-05-15 2020-06-30 Sikorsky Aircraft Corporation Adaptive point cloud window selection
US20240028031A1 (en) * 2015-11-04 2024-01-25 Zoox, Inc. Autonomous vehicle fleet service and system
US9916703B2 (en) * 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US9606539B1 (en) * 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US10191144B2 (en) * 2016-02-26 2019-01-29 Waymo Llc Radar mounting estimation with unstructured data
US10088553B2 (en) * 2016-03-14 2018-10-02 GM Global Technology Operations LLC Method of automatic sensor pose estimation
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
US9952317B2 (en) * 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
US10114106B2 (en) * 2016-07-22 2018-10-30 Delphi Technologies, Inc. Automated vehicle radar system with auto-alignment for azimuth, elevation, and vehicle speed-scaling-error
US10408921B2 (en) 2016-10-28 2019-09-10 Ford Global Technologies, Llc Vehicle detection of external objects
US10272732B2 (en) * 2017-05-31 2019-04-30 GM Global Technology Operations LLC Sensor linked suspension
US20190004160A1 (en) * 2017-06-30 2019-01-03 Delphi Technologies, Inc. Lidar sensor alignment system
US10401484B2 (en) * 2017-06-30 2019-09-03 Aptiv Technologies Limited LiDAR sensor alignment system
US10558217B2 (en) * 2017-08-28 2020-02-11 GM Global Technology Operations LLC Method and apparatus for monitoring of an autonomous vehicle
EP3454075B1 (de) * 2017-09-11 2021-10-06 Nxp B.V. Objektdetektionssystemkalibrierung
KR102401176B1 (ko) * 2017-09-14 2022-05-24 삼성전자주식회사 레이더 영상 처리 방법, 장치 및 시스템
US11391826B2 (en) * 2017-09-27 2022-07-19 Magna Electronics Inc. Vehicle LIDAR sensor calibration system
EP3462212B1 (de) * 2017-09-28 2022-03-16 Aptiv Technologies Limited Radarsystem eines fahrzeugs und verfahren zum erfassen eines objekts in einer stillstandposition
US10641888B2 (en) * 2017-11-06 2020-05-05 Veoneer Us Inc. Cued automobile sensor fusion
US11131740B2 (en) * 2017-11-20 2021-09-28 Ford Motor Company System and method for aligning a sensor assembly
EP3502740B1 (de) 2017-12-21 2020-10-28 Veoneer Sweden AB Radarkalibrierung in einer beinahe statischen umgebung
JP2019157652A (ja) * 2018-03-07 2019-09-19 トヨタ自動車株式会社 内燃機関の制御装置
US11091169B2 (en) 2018-03-23 2021-08-17 Infineon Technologies Ag Advanced driver assistance systems test-interface for automated driving sensors
SG11201811410RA (en) * 2018-06-25 2020-01-30 Beijing Didi Infinity Technology & Development Co Ltd Integrated sensor calibration in natural scenes
WO2020011291A1 (de) * 2018-07-11 2020-01-16 Valeo Schalter Und Sensoren Gmbh Erkennung einer fehlstellung eines abstandssensors basierend auf einem verhältnis von detektionsmerkmalen
KR20200040391A (ko) * 2018-10-10 2020-04-20 주식회사 만도 차량용 레이더의 보완 장치 및 방법
US11454525B2 (en) * 2018-10-19 2022-09-27 Robert Bosch Gmbh Vehicle sensor field calibration utilizing other vehicles
US11117591B2 (en) * 2019-05-08 2021-09-14 Pony Ai Inc. System and method for recalibration of an uncalibrated sensor
EP3754359A1 (de) * 2019-06-18 2020-12-23 Zenuity AB Verfahren zur bestimmung von ausrichtungswinkeln von radarsensoren für ein selbstausrichtungssteuergerät eines strassenfahrzeugs
US10841483B1 (en) * 2019-07-11 2020-11-17 Denso International America, Inc. System and method for calibrating at least one camera and a light detection and ranging sensor
DE112020003137T5 (de) * 2019-08-02 2022-04-07 Hitachi Astemo, Ltd. Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten
CN114902305A (zh) 2019-12-30 2022-08-12 伟摩有限责任公司 用于载具队伍的代理校准目标的识别
WO2021138775A1 (zh) * 2020-01-06 2021-07-15 北京未动科技有限公司 一种dms设备性能评估***、方法、存储介质及电子设备
CN114354173B (zh) * 2022-01-14 2024-03-01 沈阳名华模塑科技有限公司 一种保险杠srr区域自动检测设备
US20230266438A1 (en) * 2022-02-18 2023-08-24 Ford Global Technologies, Llc Sensor misalignment correction

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2770317B1 (fr) * 1997-10-24 2000-12-08 Commissariat Energie Atomique Procede d'etalonnage de la position et de l'orientation d'origine d'une ou plusieurs cameras mobiles et son application a la mesure de position tridimentionnelle d'objets fixes
DE19947766A1 (de) * 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
DE10019182A1 (de) * 2000-04-17 2001-10-25 Bosch Gmbh Robert Verfahren und Vorrichtung zum Ermitteln einer Fehlausrichtung der Strahlungscharakteristik eines Sensors zur Geschwindigkeits- und Abstandsregelung eines Fahrzeugs
US6505105B2 (en) * 2001-01-05 2003-01-07 Delphi Technologies, Inc. Electronic control unit calibration
JP4895484B2 (ja) * 2004-06-28 2012-03-14 富士通テン株式会社 車載用レーダ装置の軸ずれ量演算方法及び車載用レーダ軸ずれ判定方法
US7337650B1 (en) * 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
US7991550B2 (en) * 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
US7813851B2 (en) * 2007-02-21 2010-10-12 Autoliv Asp, Inc. Sensing misalignment detection and estimation system
US7424387B1 (en) * 2007-04-18 2008-09-09 Snap-On Incorporated Method for use with an optical aligner system for positioning a fixture relative to a vehicle
US20080306666A1 (en) * 2007-06-05 2008-12-11 Gm Global Technology Operations, Inc. Method and apparatus for rear cross traffic collision avoidance
US8918302B2 (en) * 2008-09-19 2014-12-23 Caterpillar Inc. Machine sensor calibration system
US8229663B2 (en) * 2009-02-03 2012-07-24 GM Global Technology Operations LLC Combined vehicle-to-vehicle communication and object detection sensing

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3136123A1 (de) * 2015-08-22 2017-03-01 Audi Ag Verfahren zur zuordnung von vorgegebenen einbaupositionen zu an den einbaupositionen in einem kraftfahrzeug verbauten radarsensoren
US11650303B2 (en) 2017-04-25 2023-05-16 Audi Ag Method for operating a radar sensor in a motor vehicle, radar sensor, and motor vehicle
DE102017111860A1 (de) 2017-05-31 2018-12-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum Kalibrieren eines Radarsensors eines Kraftfahrzeugs während einer Bewegung des Kraftfahrzeugs, Radarsensor, Fahrerassistenzsystem sowie Kraftfahrzeug
US11645782B2 (en) 2019-07-31 2023-05-09 Volkswagen Aktiengesellschaft Method and device for checking a calibration of environment sensors
US11520038B2 (en) 2019-08-15 2022-12-06 Volkswagen Aktiengesellschaft Method and device for checking a calibration of environment sensors

Also Published As

Publication number Publication date
US20120290169A1 (en) 2012-11-15
CN102778670A (zh) 2012-11-14
US8775064B2 (en) 2014-07-08
CN102778670B (zh) 2015-06-17

Similar Documents

Publication Publication Date Title
DE102012102769A1 (de) Neue Sensorausrichtungsverfahren und Werkzeuge für aktive Fahrzeugsicherheitsanwendungen
DE102017105305B4 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE102013209575B4 (de) Verfahren zum steuern eines fahrzeugs
EP2793045B1 (de) Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
EP1520184B1 (de) Verfahren und vorrichtung zur kalibrierung von sensoren im kraftfahrzeug
DE4338743C2 (de) Verfahren und Vorrichtung zum Betrieb eines Ultraschallsensors
DE102016100401A1 (de) Verfahren zum Ermitteln einer Falschausrichtung eines Objektsensors
DE102011120535A1 (de) Verfahren und Vorrichtung zum Einstellen zumindest eines Sensors eines Fahrzeugs
DE10229336A1 (de) Verfahren und Vorrichtung zur Kalibrierung von Bildsensorsystemen
DE102012223406A1 (de) Vorrichtung und Verfahren zum Erfassen eines sich bewegenden Objekts um ein Fahrzeug
DE112010005903B4 (de) Objekterfassungsvorrichtung und Objekterfassungsprogramm
DE102017222017A1 (de) Verfahren und System zum Ermitteln und Bereitstellen eines Bodenprofils
DE102005044485A1 (de) Hinderniserkennungsvorrichtung für ein Zugfahrzeug sowie Verfahren zur Hinderniserkennung
DE102004057947A1 (de) Verfahren zur Funktionsprüfung eines kraftfahrzeugseitig integrierten Fahrerassistenzsystems
EP1766431B1 (de) Verfahren und vorrichtung zur kompensation von einbautoleranzen eines abstandssensors
DE102019200612A1 (de) Vorrichtung und Verfahren zum Kalibrieren eines Multiple-Input-Multiple-Output-Radarsensors
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
DE102008022971B4 (de) Verfahren zur Prüfung der Justage eines zu einer Seite eines Kraftfahrzeuges ausgerichteten Sensors zur Abstandsmessung für die Einparkassistenz
DE10127034A1 (de) Verfahren und Vorrichtung zur Ermittlung eines Spurverlaufs einer Fahrbahn
DE10160299A1 (de) Verfahren und System zum Detektieren mindestens eines Objekts
WO2020114952A1 (de) Verfahren und vorrichtung zur kalibrierung eines umfeldsensors eines fahrzeugs
WO2019063393A1 (de) Verfahren und system zur bestimmung zumindest einer bewegungskomponente einer absolutbewegung eines objektes im ruhenden bezugssystem
DE102009052560A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Position von Objekten im Umfeld eines Kraftfahrzeugs
DE102022117277A1 (de) Verfahren zum trainieren eines neuronalen netzes
DE102014016342B4 (de) Verfahren zur Kalibrierung eines Schielwinkels von Einzelbildkameras einer Stereokamera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

Representative=s name: SCHWEIGER & PARTNER, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee