DE69021354T2 - System zur Detektion eines Hindernisses. - Google Patents
System zur Detektion eines Hindernisses.Info
- Publication number
- DE69021354T2 DE69021354T2 DE69021354T DE69021354T DE69021354T2 DE 69021354 T2 DE69021354 T2 DE 69021354T2 DE 69021354 T DE69021354 T DE 69021354T DE 69021354 T DE69021354 T DE 69021354T DE 69021354 T2 DE69021354 T2 DE 69021354T2
- Authority
- DE
- Germany
- Prior art keywords
- unit
- image
- interest
- distance
- inertial navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 33
- 230000033001 locomotion Effects 0.000 claims description 33
- 230000003287 optical effect Effects 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 13
- 238000012512 characterization method Methods 0.000 claims description 9
- 230000001419 dependent effect Effects 0.000 claims description 9
- 238000009499 grossing Methods 0.000 claims description 5
- 230000006978 adaptation Effects 0.000 claims 2
- 238000000034 method Methods 0.000 description 27
- 238000005259 measurement Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 10
- 239000010432 diamond Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/933—Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
Description
- Die Erfindung bezieht sich auf ein Hindernis-Feststellsystem gemäß dem Gattungsbegriff des Patentanspruches 1. Insbesondere bezieht sich die Erfindung auf passive Hindernis- Feststellsysteme, welche passive Sensoren (TV, FLIR) verwenden und selektiv einen aktiven Sensor (Laser) benutzen. Ein solches System kann der GB-A-2 115 633 entnommen werden. Dieses System bezieht sich auf eine niedrig fliegende Hilfseinrichtung und umfaßt eine passiven FLIR-Sensor, ein inertiales Navigationssystem, weitere Sensoren und eine kartographische Datenbank, die alle an einen Darstellungscomputer angeschlossen sind, welcher Hindernisdaten erzeugt, die auf einer Kathodenstrahlröhre dargestellt werden.
- Die Feststellung und Umgehung von Hindernissen ist sehr wichtig bei der Navigation von Land- und Luftfahrzeugen. Ein System, das eine autonome Hindernis-Feststellung und Umgehung vorgeben kann, wird für solche Fahrzeuge benötigt. Die Entwicklung eines autonomen Systemes kann erzielt werden durch die Verwendung von aktiven Sensoren (Millimeterwellen-Radar (MMW), Laser-Radar), durch passive Sensoren (Fernsehen oder vorwärtsschauende Infrarotsysteme (FLIR)) oder eine Kombination von aktiven und passiven Sensoren.
- Ein aktives System (MMW oder Laser) erfordert ein sehr spezialisiertes und teueres Sensorsystem. Das aktive System riskiert die Feststellung durch den Feind beim Einsatz in einer Schlacht. Derartige Systeme maximieren nicht den Nutzen der passiven Sensortechnologie.
- Verschiedene aktive Systeme sind höchst vorteilhatt bei bestimmten Einsatzarten. Bei Allwetter-Bedingungen ist MMW-Radar besser geeignet als Laser-Radar. Für die Terrainverfolgung und Umgehung und die Hindernis-Feststellung und Umgehung ist jedoch Laser-Radar bevorzugt, da es weniger empfänglich für die Feststellung durch den Feind ist und die nötige Auflösung aufweist, um Drahte festzustellen (z.B. einen Draht mit 3mm Durchmesser in einer Entfernung von 40 Metern), während ein MMW-Radar, das mit 94 Gigahertz (GHz) betrieben wird, eine Wellenlänge von ungefähr 3mm aufweist und nur bedingt befriedigend ist. Ein Laser-Sensor ist ebenfalls besser als ein MMW-Sensor bei der Feststellung von Objekten, wie z.B. dünnen Drähten unter schiefen Winkeln. Für einen Tag/Nacht-Betrieb und im Hinblick auf den Widerstand gegen Gegenmaßnahmen sind Laser- und MMW-Sensoren gleich gut. Im Hinblick auf die obigen Kompromisse zwischen MMW- und Laser-Radar ist ein Laser-Entfernungsmeßsystem vorzuziehen. Viele Laser- Abtasteinrichtungen sind jedoch nicht geeignet für solche Systeme aufgrund ihrer langsamen Abtastrate und des Fehlens eines großen Gesichtsfeldes (benötigt für die Vorgabe einer ausreichenden Anzahl von unterschiedlichen Fahrtrichtungen für ein Fahrzeug, wenn ein Hindernis festgestellt wird) für eine erfolgreiche Fahrzeugnavigation.
- Verglichen mit aktiven Systemen besitzt ein passives System den Nutzen des Schutzes, der Einfachheit, der verminderten Kosten und der einfachen Herstellung. Die Hindernis-Feststellung unter Verwendung passiver Sensoren gestattet die Verwendung von zwei grundsätzlichen Techniken für die Entfernungsmessung - binokulare Stereo-Messung und Bewegungs-Stereo-Messung (optischer Fluß). Mit der binokularen Stereo-Technik ist die Entfernungsmeßleistung eine Funktion der Sensorauflösung und des seitlichen Versatzes zwischen den zwei Sensoren; ein vergrößerter Abstand erhöht die maximale Entfernungsmessung und verbessert die Entfernungsauflösung. Bei Fahrzeugen ist der Sensorabstand durch die Abmessung des Fahrzeuges begrenzt. Die Bewegungs- Stereotechnik verwendet einen Sensor, von dem Bilder in regelmäßigen Zeitintervallen gesammelt werden, während sich der Sensor in Bewegung befindet. Durch Beobachtung des Bewegungsbetrages (auf einer Bildebene), den ein Gegenstandspunkt zwischen Abtastrahmen erfährt und durch Verwendung der Kenntnis über die Sensorbewegung kann die Entfernung zu dem Gegenstandspunkt berechnet werden. Die Auflösung der Bewegungs-Stereotechnik ist nur durch die Auflösung des Sensors begrenzt.
- Es ist die Aufgabe der vorliegenden Erfindung, ein verbessertes Hindernis-Feststellsystem mit hoher Leistung vorzugeben.
- Diese Aufgabe wird gelöst durch die kennzeichnenden Merkmale des Patentanspruches 1. Vorteilhafte Ausgestaltungen dieses Systems können den abhängigen Ansprüchen entnommen werden.
- Die vorliegende Erfindung verwendet einen aktiven Laser zusammen mit passiven Einrichtungen. Die Erfindung ist ein maximal-passives System, genannt ODIN (Obstacle Detection using Inertial Navigation = Hindernis-Feststellung unter Verwendung von Inertialnavigation), zur Hindernis-Feststellung und Umgehung. Sie basiert auf einem inertialen Navigationssensor mit integriertem optischen Fließverfahren und einer selektiven Anwendung von binokularer Stereo- und Laserradar-Entfernungsmessung.
- Die Erfindung ist gerichtet auf das Problem der Informationsintegration eines inertialen Navigationssensors (INS) mit optischen Fließmessungen, die über mehrere Bildrahmen erfolgen, um die Entfernung zu Gegenstandspunkten zu berechnen, die innerhalb des Gesichtsfeldes der Sensoren liegen. Eine zugehörige abhängige Szenenanalyse (verwendet, um die Bildbereiche zu charakterisieren) und eine Mehrrahmen-Filterung (verwendet, um Entfernungswerte vorherzusagen und zu glätten) führt zu einer verbesserten Entfernungskarte. Die integrierte INS-Bewegung und die Szenenanalyse führt zu einer robusten passiven Entfernungsmeßtechnik, die für die Hindernis-Feststellung und Umgehung bei der Land- und Luft-Fahrzeugnavigation nützlich ist.
- Das Hindernis-Feststellsystem integriert Inertial-Sensorinformation mit optischen Fluß- und Bild-Kennzeichnungskomponenten, um Hindernisse festzustellen und einen sicheren Weg für die Navigation vorzugeben. Das System umfaßt den inertialen Navigationssensor, das optische Fließkomponentensystem, die Sensorreihe bestehend aus passiven und aktiven Sensoren, das von dem Zusammenhang abhängige Bild-Charakterisier-Komponentensystem und ein qualitatives Szenemnodell für die Entfernungsberechnungen und Interpolation.
- Die Art der Information des inertialen Navigationssensors, die in dem Hindernis- Feststellsystem verwendet wird, umfaßt die tatsächliche Ausrichtung (Gierwinkel), den Neigungswinkel, den Rollwinkel, die inertiale Vertikalgeschwindigkeit, die Nord-Süd- Geschwindigkeit, und die Ost-West-Geschwindigkeit, welche in dem optischen Fließkomponentensystem und in dem Bildcharakterisier-Komponentensystem verwendet werden. Zusätzlich können die geographische Breite und Länge der Position, die Grundgeschwindigkeit, der tatsächliche Kurswinkel, die Körper-Rollgeschwindigkeit, die Körper-Giergeschwindigkeit, die Körper-Längsbeschleunigung, die Körper- Seitenbeschleunigung, die Körper Normalbeschleunigung, die Kurswinkelgeschwindigkeit und die inertiale Höhe ebenfalls verwendet werden, um unterschiedliche Datengeschwindigkeiten zu synchronisieren und eine erhöhte Genauigkeit zu erzielen.
- Die Technik, mit der Daten des inertialen Navigationssensors in dem Hindernis-Feststellsystem verwendet werden, umfaßt die Integration der Daten des inertialen Navigationssensors mit der optischen Fließkomponente des Systems, um die momentane Richtung der Fahrzeugausrichtung (Expansionsfokus) zu erhalten und die Rotation (Rollen, Neigung und Gierung) des laufenden Bildrahmens in bezug auf den vorangegangenen Bildrahmen zu kompensieren. Hierdurch verbleibt nur noch die Translationsbewegung zwischen den Bildrahmen, was zu der Bestimmung der Entfernungswerte führt. Die Technik umfaßt ferner die Integration der Daten des inertialen Navigationssensors, mit dem vom Zusammenhang abhängigen Bildcharakterisier-Komponentensystem, um eine genaue Segmentierung von Bildrahmen zu Bildrahmen zu erzielen durch Kompensation der Rotation (Rollen, Neigung und Gierung) und der Translation zwischen den Bildrahmen.
- Das optische Fließkomponentensystem umfaßt eine Interessenpunktextraktion, eine Derotation und eine Anpassung zwischen Bildrahmen, eine Berechnung des Expansionsfokus aus inertialen Navigationsdaten, eine Berechnung von Entfernungswerten zu Objektpunkten basierend auf einem Kameramodell, eine Anpassung von Interessenpunkten unter Verwendung von inertialen Navigationsdaten und Bildcharakteristiken und eine Filterung von Entfernungswerten über mehrere Bildrahmen, um Rauscheffekte zu vermindern und übereinstimmende Entfernungswerte zu erhalten.
- Figur 1 ist ein Blockdiagramm des Hindernis-Feststell- und Umgehungs- Systems.
- Figur 2 veranschaulicht die Hauptteile der optischen Fließeinheit mit integriertem Inertialsensor.
- Figur 3 zeigt ein dreidimensionales Koordinatensystem im Zusammenhang mit einer zweidimensionalen Bildebene und ihrem eigenen Koordinatensystem.
- Figur 4a veranschaulicht überlappende Gesichtsfelder für verschiedene Erfassungsarten.
- Figur 4b zeigt die Größe des erfaßten Gesichtsfeldes, welches erforderlich ist, um die Hindernisse in einer vorgegebenen Entfernung zu erfassen.
- Figur 4c zeigt das Gesichtsfeld und die Strahlabdeckung eines Laserstrahles in einer vorgegebenen Entfernung auf
- Figur 5 zeigt die Sensorgeometrie für zwei perspektivische Ansichten der Szene in zwei Positionen, die durch einen vorgegebenen Abstand getrennt sind.
- Figuren 6a und 6b zeigen zwei Arten der Berechnung der Abstände von interessierenden Objektpunkten vom Expansionsfokus auf.
- Figur 7 zeigt die Geometrie für die Berechnung der Entfernung von einem interessierenden Objektpunkt auf, wie sie von zwei verschiedenen Bildrahmen betrachtet wird.
- Figur 8 zeigt eine alternative Lösung für die Entfernungsberechnung von einem interessierenden Objektpunkt aus zwei Bildrahmen auf.
- Figuren 9a, b, c und d zeigen optische Fließergebnisse von synthetischen Daten für die Erfindung.
- Figuren 10a, b, c und d zeigen optische Fließergebnisse unter Verwendung von wirklichen Daten für die Erfindung.
- Figur 11 zeigt das Hardwaresystem für die Datensammlung für die Erfindung.
- Figur 12 zeigt eine Computerverwirklichung der Erfindung.
- Tabelle 1 gibt die Parameter für die Sensorreihe der Erfindung vor.
- Tabelle 2 gibt die Koordinaten der synthetischen Interessenpunkte bzw. Objektpunkte vor, die bei der Anwendung der Erfindung benutzt werden.
- Tabelle 3 gibt den Ort, den Roll-, Neigungs- und Gierwinkel der Kamera bzw. des Sensors für zwei synthetische Bildrahmen vor, wie sie bei der Anwendung der Erfindung benutzt werden.
- Tabelle 4 gibt den Ort, den Roll-, Neigungs- und Gierwinkel der Kamera bzw. des Sensors für zwei Bildrahinen bei der realen Abbildung in der Erfindung vor.
- Die vorliegende Erfindung, das Hindernisfeststell- und Umgehungssystem 10, ist insofern maximal passiv als es Daten, die von einem inertialen Navigationssensor (INS) 26 erhalten werden, mit optischen Fließberechnungen einer optischen Fließeinheit 18 in Figur 1 kombiniert, in die ein inertialer Sensor integriert ist. Die Verwendung von INS-Daten gestattet eine genaue Berechnung der Entfernung zu jedem Gegenstandspunkt basierend alleine auf der Bewegung (zwischen den Bildrahmen) einer jeden Gegenstandsprojektion auf die Bildebene. Figur 1 veranschaulicht eine optische Fließeinheit 18 mit integriertem Inertialsensor und eine Szenen-Analysiereinheit 20, die eine Einheit 12 für eine vom Zusammenhang abhängige Bildcharakterisierung und die Erkennung ihrer Komponenten enthält, die eine Einheit 14 für die Entfernungshervorsage und Glättung (unter Verwendung von Mehrfachbildrahmen) enthält und eine Einheit 16 für die qualitative Szenenmodell- und Bereichsberechnungen (von Bildpixeln/Symbolen) enthält und die selektiv in der Einheit 24 ein binokulares Stereo 54 (passiv), ein Laserradar 52 (aktiv), ein Bewegungsstereo 56 und variable Gesichtsfelder 57 verwendet. Der Ausgang erfolgt von der Entfernungs-Interpolationseinheit 28, die an die Einheit 16 angeschlossen ist.
- Der Einschluß von Inertialdaten von der Einheit 26 in das Bewegungsstereo 56 der Einheit 18 gibt eine robuste Lösung vor. Traditionelle Techniken leiden in großem Umfang an Fehlern in der Abschätzung des Ortes des Expansionsfokus (FOE) und an Fehlern bei der Anpassung zwischen Gegenstandspunkten in den Bildrahmen. Die Inertialdaten ermöglichen der Einheit 18 die exakte Berechnung des Ortes des FOE und sie entfernen den Einfluß, den die Sensorbewegung (d.h. das Rollen, Nicken und Gieren) auf die Abbildung besitzt; somit wird die Bewegung effektiv auf eine reine Translationsbewegung reduziert. Wenn die Bewegung alleine aus einer Translation besteht, wird die Aufgabe der Anpassung der Gegenstandspunkte in großem Umfang vereinfacht. Als Endergebnis ergibt sich, daß mehr Gegenstandspunkten von Bildrahmen zu Bildrahmen Übereinstimmungen zugeordnet werden können und daß die Entfernungsmessungen eine verbesserte Genauigkeit besitzen.
- Für ein Paar von Bildrahmen beginnen die Hauptschritte des optischen Fließverfahrens 30, wie es in Figur 2 gezeigt ist, mit Eingangs-Bildrahmen, dem Bildrahmen N-1 und dem Bildrahmen N, welche digitalisierte Videobilder oder FLIR-Bilder sind, die von den passiven Sensoren 22 über die Einheiten 32 und 34 eingelesen werden, in denen Interessenpunkte aus den Eingangsbildrahmen N-1 und N herausgezogen werden. Die herausgezogenen Interessenpunkte werden zu einer Interessenpunkt-Anpaßeinheit 38 und zu einer Interessenpunkte-Rotationseinheit 40 entsprechend gesendet. Der Ort des Expansionsfokus (FOE) (in beiden Bildrahmen N-1 und N) wird in der FOE-Berechnungseinheit 36 berechnet. Der Ausgang der Berechnungseinheit 36 geht zu der Interessenpunkt-Anpaßeinheit 38. Die inertiale Meßeinheit 26 gibt Rotations- Geschwindigkeitsinformation an die Rotationseinheit 40 und Translations- Geschwindigkeitsinformation an die FOE-Berechnungseinheit 36, an die die Entfernung zu interessierenden Punkten messende Einheit 42 und an die die Entfernungsinterpolation über den gesamten Bereich ausführende Einheit 44. Der FOE und die interessierenden Punkte im Bildrahmen N werden auf eine Bildebene projiziert, die parallel zu der Bildebene ist, die der Bildrahmen N-1 einnahm (Drehung des Bildrahmens N). Interessenpunkte im Bildrahmen N werden an jene des Bildrahmens N-1 basierend auf vier Kriterien angepaßt. Die Entfernung wird zu jedem Interessenpunkt im Bildrahmen N berechnet, der eine Übereinstimmung im Bildrahmen N-1 hat. Eine dichte Entfernungskarte wird gebildet unter Verwendung der vom Zusammenhang abhängigen Szenenanalyse und durch Interpolation zwischen den berechneten Entfernungswerten.
- Die Abbildung zu dem System 30 ist digitalisiert und enthält Pixel, die durch Zeilen und Spalten mit dem Ursprung des zweidimensionalen Koordinatensystems 48 von Figur 3 adressiert werden, das in der oberen linken Ecke des Bildes angeordnet ist. Die horizontale Achse c verweist nach rechts, und die vertikale Achse r verweist in die Abwärtsrichtung. Diese Bildebene 46 ist senkrecht zu der x-Achse des dreidimensionalen Koordinatensystems 50 und ist in einem Abstand von der Brennweite F vom Ursprung angeordnet, wobei die z-Achse in der Abwärtsrichtung verläuft. Daher können die Pixel in der Bildebene 46 in dem zweidimensionalen Koordinatenrahmen 48 als (c, r) und im dreidimensionalen Koordinatenrahmen 50 durch den Vektor (F, y, z) beschrieben werden. Die zuvor beschriebene Geometrie ist graphisch in Figur 3 veranschaulicht.
- Wie in Figur 2 gezeigt, besteht der Dateneingang für das Hindernis-Feststellverfahren 30 aus einer Folge von digitalisierten Video-Bildrahmen oder FLIR-Bildrahmen, die durch Inertialdaten begleitet sind, welche aus Rotations- und Translationsgeschwindigkeiten bestehen. Diese Information, gekoppelt mit dem zeitlichen Abtastintervall zwischen den Bildrahmen, wird verwendet, um den Abstandsvektor zwischen jedem Paar von Bildrahmen und den Roll-, Neigungs- und Gierwinkel (φ,θ,ψ) eines jeden Bildrahmens zu berechnen. Sowohl als auch (φ,θ,ψ) sind wichtig für das Verfahren 30.
- Die Bewegung der perspektivischen Projektion (auf die Bildebene 46) der Objektpunkte (d.h. der interessierenden Punkte) ist bei einem Minimum in der Nähe des FOE und infolgedessen besitzt die Entfernung der Objektpunkte, die am nächsten zu FOE liegen, den größten zugeordneten Betrag an Unsicherheit. Die passive Entfernungsmeßtechnik des binokularen Stereos 54 ist am genauesten in der Nähe des Zentrums des Gesichtsfeldes (wo FOE die meiste Zeit angeordnet ist) und ist weniger genau an den Kanten des Gesichtsfeldes. Zusätzlich kann die Lösung mit dem binokularen Stereo 54 sogar noch funktionieren, wenn das Fahrzeug angehalten ist oder schwebt.
- Drähte oder andere kleine Hindernisse werden durch den aktiven Sensor 52 und die passiven Techniken 54 und 56 erfaßt aufgrund der größeren Auflösung 57 (Figur 1) und 64 (Figur 4a), die erforderlich ist, um solche Hindernisse in einer Entfernung festzustellen, die ausreichend für die Hindernisumgehung ist. Ein Kompromiß erfolgt zwischen dem Gesichtsfeld und der Auflösung des Sensors. Da das Gesichtsfeld des Systems groß genug sein muß so daß das Fahrzeug genügend (zuvor abgetastete) Richtungen besitzt, in die es steuern kann, wenn Hindernisse festgestellt werden, kann das Gesichtsfeld der passiven Sensoren nicht verringert werden; daher arbeiten der Laser-Entfernungsabtaster 52 und eine passive Sensorfunktion für ein schmales FOV zusammen mit den passiven Sensoren 54 und 56 des Systems 10. Die Verwendung eines einfachen (d.h. kreisförmig abtastenden) Laser- Entfernungssensors 52, dessen Abtastmuster um den FOE zentriert ist, dient dem Zweck der Feststellung von nur kleinen Hindernissen, die innerhalb der Bewegungsrichtung des Fahrzeugs liegen.
- Eine Darstellung der überlappenden Gesichtsfelder 58, 60 und 62 entsprechend der drei Arten von Erfassung (optischer Fluß 56, binokulares Stereo 54, und Lasersensor 52) erfolgt in Figur 4a. Eine Kombination dieser Arten von Sensoren führt zu einem robusten Hindernis-Feststell- und Umgehungssystem. Der Lasersensor 52 liefert eine hinreichend hohe Auflösung, die durch die passiven Einrichtungen 54 und 56 nicht vorgegeben wird. Das begrenzte Gesichtsfeld 62 des Laserstrahlsensors 52 beeinträchtigt nur wenig die Abdeckung und die Einfachheit seines Abtastmusters, hält die Erfassungszeit kurz und den Aufwand an Hardware gering. Der kardanisch aufgehängte Laserabtaster 52 kann ebenfalls verwendet werden, um Straßen der sicheren Durchfahrt schnell zu überprüfen, wenn Hindernisse angetroffen werden, die die momentane Wegstrecke des Fahrzeuges blockieren. Der passive Mehrzweck-Sensor FOV 64 umfaßt den Lasersensor 62.
- Figur 4b veranschaulicht die Größe des Sensors FOV 66, welcher erforderlich ist, um Hindernisse in einem Bereich von 40 Metern in der Flugstrecke des Drehflüglers 68 festzustellen. In Figur 4c tastet ein Laserstrahl mit einer Breite von 0,5 Milliradiant (mrad) und einem FOV 62 in einem kreisförmigen Muster 70 ab. Die verwendete Schrittgröße S bei der Abtastung beträgt 0,70 mrad (in der Ebene des Abtastkreises 70) und führt zu 8.900 Entfernungsabtastungen in 2p Radiant. In einer Entfernung von 40 Metern besitzt der Laserstrahl einen Durchmesser von 2 cm, was zu einer Überlappung des Strahles zwischen den Abtastungen führt. Diese Überlappung und die geringe Schrittgröße S führen zu der Gewinnung von vier Entfernungsabtastungen bei einem Draht von 3 mm Durchmesser in einer Entfernung von 40 Metern, wenn diese senkrecht zu der Tangente zu dem Abtastkreis 70 liegt. Die Laser-Entfernungsabtastungen führen zu Hindernisfeststellungen. Die Entfernungswerte werden mit einem minimalen akzeptierbaren Entfernungsschwellwert verglichen. Objektpunkte mit einer Entfernung geringer als dieser Schwellwert sind eine Gefahr für das Fahrzeug.
- Die Tabelle 1 listet Sensortypen und typische Parameter für FOV, die Feldgröße, den momentanen FOV und die Auflösung auf.
- Jeder Sensor und seine Funktion kann unter Betonung der Hindernisfeststellung und Umgehung im Zusammenhang mit der Navigation eines Drehflüglers beschrieben werden. Zunächst sei vermerkt, daß es zwei Arten von Sensorlagerungen gibt, jene mit kardangesteuerter Ausrichtung und jene mit fester Ausrichtung.
- Der Bewegungs-Stereosensor 56, der eine feste Ausrichtung aufweist, wird verwendet, um eine spärliche Entfernungskarte von Objekten über das FOV 58 zu erzeugen. Das weite FOV 58 ist für die spärliche Entfernungskarte erforderlich, um geeignete Optionen für das Manöver des Drehflüglers 68 vorzugeben, wenn ein Hindernis angetroffen wird. Der binokulare Stereosensor 54 wird verwendet, um Entfernungsmessungen über ein mittleres FOV 60 vorzugeben, das innerhalb des weiten FOV 58 des Bewegungs-Stereosensors 56 zentriert ist. Der Zweck des binokularen Stereosensors 54 liegt in der Vorgabe von Entfernungsabtastungen innerhalb des Bereiches, wo die Messungen des Bewegungsstereos 56 am anfälligsten für Fehler sind, was um die momentane Richtung der Fahrzeugausrichtung (d.h. Fokuserweiterung) der Fall ist, die hauptsächlich innerhalb des Zentrums von FOV 58 liegt. Zusätzlich können die Messungen des binokularen Stereos 54 erfolgen, wenn ein Fahrzeug stationär ist (z.B. wenn der Drehflügler 68 schwebt oder wenn er sich um seine Vertikalachse ohne Vorwärtsbewegung dreht), wodurch eine Entfernungskarte vorgegeben wird, die verwendet werden kann, um eine Hindernisfeststellung durchzuführen. Sowohl die binokularen als auch die Bewegungs- Stereosensoren 54 und 56 verwenden eine TV- oder FLIR-Abbildung, um diese Messungen bei Tag und bei Nacht durchzuführen.
- Zwei Arten von Sensoren sind auf einer Kardanplattform angeordnet - ein passives Sensor (TV oder FLIR) 22 für ein variables FOV und ein Abtastlaser-Entfernungsmesser 52. Die Anordnung der Sensoren auf einer Kardanplattform gestattet eine konstante Fokussierung ihrer FOV's in Bewegungsrichtung des Drehflüglers, was notwendig, da die Sensoren in der Lage sein müssen, große und kleine Hindernisse (wie beispielsweise Drähte) feststellen zu können, die in der unmittelbaren Bewegungsstrecke des Drehflüglers liegen. Der Laser- Entfernungsmesser 52 tastet Aktivhindernisse ab, und die passiven Sensordaten werden benutzt, um Messungen des Bewegungsstereos 56 auszuführen oder um einfach zweidimensionale (2-D)-Merkmale herauszuziehen, die eine hohe Wahrscheinlichkeit besitzen, Hindernisse zu sein (z.B. lineare Merkmale von Polen, Drähten, usw.).
- Ein zusätzlicher Nutzen von kardanisch aufgehängten Sensoren liegt darin, daß die FOV's der Sensoren auf einen anderen Flugkorridor gerichtet werden können, wenn Hindernisse in dem laufenden Korridor des Fahrzeuges festgestellt werden. Die Drehung der Sensoren auf den anderen Korridor ist notwendig, um die Eignung des Korridors vor der Ausführung einer Flugstreckenänderung als Teil der Aufgabe der Hindernisvermeidung auszuführen. Der andere Flugkorridor wird festgelegt durch die Entfernungsmessungen, die durch die fest angeordneten Sensoren 56 und 54 mit weitem FOV ausgeführt werden. Zusätzlich können die kardanisch aufgehängten Sensoren auf einen möglichen Landeplatz zum Zwecke der Hindernisfeststellung vor der Landung ausgerichtet werden. Bei dem Szenarium eines Luftfahrzeuges können die kardanisch aufgehängten Sensoren ebenfalls durch an einem Helm angeordnete Sensoren gesteuert werden.
- Das weite FOV 58 des Bewegungs-Stereosensors 56 wird gewählt, um einen breiten abgeklärten Bereich vorzugeben, in welchem ein seitliches Manöver ausgeführt werden kann, wenn ein Hindernis festgestellt wird. Das vertikale FOV ist halb so groß wie das horizontale FOV aufgrund des Fluges dicht an der Erde (bei dem Szenarium eines Drehflüglers-Luftfahrzeuges), bei welchem vertikale Manöver nicht erwünscht sind und seitliche Manöver besonders auftreten.
- Der binokulare Stereosensor 54 besitzt ein kleineres konventionelleres FOV 60, welches innerhalb des FOV 58 des Bewegungs-Stereosensors zentriert ist, um den Entfernungs-Meßfehler zu kompensieren, der in der Nähe des FOE bei Bewegungs-Stereomessungen auftritt und um Entfernungsmessungen vorzugeben, wenn der Drehflügler keine Vorwärtsbewegung aufweist.
- Die kardanisch gelagerten Sensoren sind so aufgebaut, daß sie den FOE der Fahrzeugbewegung verfolgen. Die Nachführung des FOE mit den hoch auflösenden passiven Sensoren und Lasersensoren liefert die genaueste Entfernungsmeßtechnik dort, wo es am meisten benötigt wird. Der FOE ist nicht der einzige Ort, der durch die kardanisch aufgehängten Sensoren erfaßt werden muß. Um eine Hindernisumgehung durchzuführen, d.h. einen neuen Flugkorridor auszuwählen und um einen Landeplatz vor der Landung aufzuklären, müssen die kardanisch augehängten Sensoren automatisch durch Hindernis- Feststellsignale der Einheit 44 von Figur 2 ausgerichtet werden oder manuell durch den Piloten oder Copiloten. Die Feststellung eines Hindernisses durch den Laser 52 kann mit Daten von dem passiven, kardanisch aufgehängten Sensor bestätigt werden, dessen Sichtlinie parallel mit der des Lasersensors verläuft.
- Wenn einmal Entfernungsabtastungen von den verschiedenen Sensoren erhalten werden, so beinhaltet der nächste Schritt die Hindernisfeststellung, gefolgt von einer Hindernisumgehung. Dies erfordert, daß die berechnete Entfernungskarte für die Szene hinreichend dicht ist (um die Diskontinuitäten in der Entfernungskarte herauszuziehen; diese Diskontinuitäten entsprechen der Gegenwart von Hindernissen) oder es muß ein Modell für die Szene verfügbar sein. Ein Modell bedeutet eine Segmentierung des erfaßten Bildes, in welchem die verschiedenen Segmente entsprechend ihrer Art des Terrains bezeichnet sind (Himmel, Straße Gras, usw.). Eine vom Zusammenhang abhängige Bildcharakterisierung, die ebenfalls als "Szenenanalyse" bezeichnet wird, wird mit jedem Bildrahmen durchgeführt und führt zu einem Modell der Szene, welches bei der Identifizierung von sicheren Wegstrecken und bei dem Verfahren der Erhöhung der Dichte der Entfernungskarte hilft.
- Die Interpolation der Entfernungswerte, die durch die optische Fließmethode des Systems 30 in Figur 2 erhalten werden, wird durch Ergebnisse der Szenenanalyse unterstützt. Information über die Szene gestattet eine intelligente Interpolation zwischen den Entfernungswerten. Wenn beispielsweise Entfernungswerte auf zwei Bäume entfallen, die durch 25 Meter ohne Hindernisse voneinander getrennt sind, so kann das Szenenmodell verwendet werden, um die Entfernungsinterpolation daran zu hindern, die Bäume miteinander zu verbinden und den Raum dazwischen zu blockieren. Das Ergebnis ist eine dichtere und genauere Entfernungskarte, welche nachfolgend für die Hindernisumgehung verwendet werden kann.
- Die Merkmale innerhalb der Abbildung (TV oder FLIR), die am bedeutendsten und am unterscheidbarsten sind, markieren die Objektpunkte, zu denen Entfernungsmessungen durchgeführt werden. Diese hervorgehobenen Objektpunkte, die als Interessenpunkte bekannt sind, sind leicht aus der Abbildung herauszuziehen, und sie besitzen die höchste Wahrscheinlichkeit der wiederholten Ausziehung aus mehrfachem Bildrahmen. Die Interessenpunkte innerhalb des Gesichtsfeldes des monokularen Sensors sind von fündamentaler und kritischer Bedeutung für die optischen Fließberechnungen. Die Herausziehung und die nachfolgende Verwendung von Interessenpunkten wird nachstehend beschrieben.
- Die Interessenpunkt-Auswahl beinhaltet die Berechnung von unterscheidbaren Punkten, welche verwirklicht wird durch das Anlegen eines Moravecs-Operators über jeden Abbildungsrahmen. Der Operator wird an jedes Bildpixel (innerhalb einer gewünschten Verschiebung von der Bildgrenze) angelegt, welches als ein starkes Kantenpixel durch einen Sobel-Kantenoperator identifiziert wurde. Der interessierende Operator prüft alle Pixel innerhalb eines quadratischen Fensters der Seitenlänge L, das jedes Kantenpixel umgibt und er berechnet die relative Änderung zwischen den Pixelwerten. Da jedes Pixel innerhalb des Fensters geprüft wird, wird das Quadrat der Differenz zwischen seinem Wert und den Werten seiner Nachbarpixel berechnet und aufsummiert. Tatsächlich werden vier verschiedene Summen aufgezeichnet, welche den gleichen vier Nachbarn bezogen auf jedes Pixel innerhalb des Fensters entsprechen; es gibt eine Summe für das Quadrat der Differenz zwischen dem laufenden Pixel und seinem rechten Nachbar und in gleicher Weise für die drei anderen Nachbarn (unten, unten und rechts, unten und links). Nachdem jedes Pixel unterhalb des Fensters zu den vier Summen beigetragen hat, wird die kleinste Summe S ausgewählt und als Pixelwert gespeichert. Ein Pixel wird als Interessenpunkt angenommen, wenn sein zugeordneter Wert von S größer als die entsprechende Summe ist, die an jedem Pixel innerhalb eines quadratischen Fensters mit der Seitenlänge K und zentriert um das in Frage kommende Pixel erzeugt wird. In der folgenden Erläuterung wird ein Pixelwert von S für seine Bedeutung herangezogen.
- Die Verwirklichung des Moravecs-Operators reiht die festgestellten Interessenpunkte (Pixel mit einem Wert von S, der ein lokales Maximum bildet) in der Reihenfolge ihrer berechneten Bedeutung auf. Die Auszugsroutine für den Interessenpunkt arbeitet mit dem segmentierten Bild, wie es durch die vom Zusammenhang abhängige Szenenanalyse 12 (Figur 1) erhalten wird. Die Segmentierung teilt das Bild in M-gleichförmige Bereiche. Die Interessenpunkt-Routine führt nur die Punkte N innerhalb jedes Bereiches zurück, die den höchsten Wert von S aufweisen, wobei N und M Eingänge für das Programm sind. Das Ergebnis der Rückführung von nur den besten Interessenpunkten (bezüglich S) in jedem Bereich ist dies, daß die verarbeitete Szene intelligent mit Interessenpunkten abgedeckt wird. Wenn dies nicht der Fall wäre, würde eine kleine Anzahl von zufälligen benachbarten Bereichen den Hauptteil der Interessenpunkte beanspruchen.
- Es sei vermerkt, daß nicht alle Bereiche innerhalb einer Szene zuverlässige Interessenpunkte enthalten können (z.B. Wellenerhöhungen auf einer Wasserfläche sind keine guten Interessenpunkte). Wie zuvor erwähnt, wird die Bildcharakterisierung 12 verwendet, um die Güte von Bereichen vor der Interessenpunktauswahl sicherzustellen. Die Interessenpunktauswahl kann weiter verbessert werden durch den Einschluß von Kalman- Filtertechniken, welche Inertial-Sensordaten verwenden, um Interessenpunktmerkmale zu verfolgen und vorherzusagen.
- Die Interessenpunktdrehung hilft bei dem Verfahren der Interessenpunktanpassung. Man muß dies so gestalten, daß die Bildebene B parallel zu der Bildebene A zu verlaufen scheint. Wenn dies erfolgt ist, so sind der FOE und die Paare von Interessenpunkten in den Bildrahmen A und B, die einander angepaßt sind, idealerweise kolinear, wenn die Bildebenen überlagert würden (siehe Figur 5). Figur 5 ist eine Darstellung der Sensorgeometrie, die die perspektivischen Ansichten einer Szene an zwei Positionen aufzeichnet, die um einen Abstand Δt = (mit keiner Drehung des Sensors zwischen den Positionen) beabstandet sind. Wenn keine Rotationsveränderung zwischen den Bildrahmen vorhanden ist, gibt es eine spezielle Eigenschaft der perspektivischen Projektion eines Objektpunktes auf die zwei Bildebenen; der FOE und die Projektionen des Objektpunktes sind alle kolinear.
- Um die Bildebenen parallel zu machen, wird eine Drehung für jeden Vektor (F, y&sub1;, z&sub1;) ausgeführt, der jedem Interessenpunkt im Bildrahmen B entspricht. Die Gleichung für die Drehtransformation und Projektion (in homogenen Koordinaten) ist folgende:
- wobei:
- und wobei NED (Nord, Ost, abwärts) der Koordinatenrahmen ist, in dem die inertialen Messungen ausgeführt werden. Die Verwendung des NED-Rahmens setzt voraus, daß die Fahrzeugbewegung "lokal" zu einem Erdflecken ist.
- Die Matrix P projiziert einen Objektpunkt auf eine Bildebene und wird verwendet, um den FOE zu berechnen, FOE = P d, wobei d = vvt. Die Matrix CANED wandelt Punkte, die in dem NED-Koordinatenrahmen beschrieben werden, in eine äquivalente Beschreibung innerhalb eines Koordinatenrahmens parallel zu dem A-Koordinatenrahmen um. In gleicher Weise wandelt die matrix CBNED die Beschreibung der Punkte in dem B-Koordinatenrahmen in Beschreibungen in einem Koordinatenrahmen parallel zu NED um.
- Die Anpassung der Interessenpunkte wird in zwei Durchläufen ausgeführt. Das Ziel des ersten Durchlaufes liegt in der Identifizierung und Speicherung der drei möglichen höchsten Anpassungen für jeden Interessenpunkt in dem Rahmen B (F, yBj . ZBj).
- Der zweite Durchlauf betrachtet Mehrfach-Interessenpunkte, die an einen einzigen Punkt im Rahmen A angepaßt sind. Somit ist das Ergebnis des zweiten Durchlaufes eine 1-zu-1-Anpassung zwischen Interessenpunkten in zwei aufeinanderfolgenden Rahmen. Für das vorliegende Ausführungsbeispiel ist eine 1-zu-1-Anpassung von Interessenpunkten notwendig. Die Projektion auf die Bildebene des Sensors von einem Objekt wächst in der Größe an, wenn sich der Sensor in Richtung auf das Objekt bewegt. Diese Situation kann beinhalten, daß eine 1-zu-1-Anpassung keinen Sinn macht, da ein Pixel in der Größe im Rahmen A zu zwei oder mehr Pixeln in der Größe im Rahmen B werden kann. Es wird davon ausgegangen, daß das Anwachsen von Objekten bezüglich der Pixelgröße bei der passiven Entfernungsmessung im Szenarium der Hindernisfeststellung vernachlaßigbar ist. Alle Objekte werden in bestimmten sicheren Entfernungen für das Fahrzeugmanöver angenommen und ein Pixel (von Interessenpunktqualität) in zwei Rahmen ist alles, was für die Oberfläche eines Objektes erforderlich ist, um die Entfernung zu dem Objekt zu berechnen
- Der erste Durchlauf wird nachfolgend beschrieben. Um die möglichen Anpassungen (F, yBj, zBj) zu bestimmen, wird jeder Interessenpunkt im Rahmen A durch die aufeinanderfolgende Verwendung von vier Maßstäben geprüft. Der erste Maßstab stellt sicher, daß mögliche Anpassungen innerhalb eines konusförmigen Bereiches liegen, der durch die Linie unterteilt wird, der den FOE und den Interessenpunkt im Rahmen B verbindet. Dieser Maßstab begrenzt mögliche Anpassungen, so daß sie innerhalb des Konus mit dem Scheitelpunkt in FOE liegen, wie dies in Figur 6(a) gezeigt ist. Wenn ein Interessenpunkt im Rahmen A (F, yA1, zA1) den ersten Maßstab durchlaufen hat, so wird sodann der zweite Maßstab an ihn angelegt. Der zweite Maßstab erfordert, daß die Bedeutung von möglichen Anpassungen nahe an der Bedeutung des Punktes liegt, für den die Anpassung versucht wird. (Figuren 6(a) und 6(b) zeigen Einschränkungen, die verwendet werden, um den Prozeß der Anpassung von Interessenpunkten zwischen Rahmen zu unterstützen).
- Der dritte Maßstab beschränkt alle möglichen Anpassungen in dem Rahmen A, so daß sie enger an dem FOE als die Punkte des Rahmens B liegen (wie es physikalische Gesetze für stationäre Objekte vorschreiben). Dieser Maßstab beinhaltet die Berechnung von Abständen der Interessenpunkte von dem FOE, die auf zwei Weisen berechnet werden können. Die erste Weise ist durch die direkte euklidische Entfernung d&sub1; zwischen (F, yAi, zai) und (F) Ybj, Zbj) vorgegeben, und die zweite Weise ist durch den Abstand d&sub2; vorgegeben, der die Projektion von d&sub1; auf die Linie ist, die (F, yBj, zBj) und den FOE verbindet. Die Abstandsmessungen sind graphisch und Figur 6(b) veranschaulicht. Unabhängig von der Art und Weise, wie die Abstandsmessung berechnet wird, kann sie benutzt werden, um die dichtestmöglichen Anpassungen an (F, yBj, zBj) zu identifizieren.
- Der vierte Maßstab begrenzt den Abstand zwischen einem Interessenpunkt und seinen möglichen Anpassungen. Für einen Interessenpunkt im Rahmen A, Aj, der eine mögliche Anpassung an den Punkt Bj sein kann, muß dieser in dem schattierten Bereich von Figur 6(a) liegen. Die Tiefe des Bereiches wird durch diesen vierten Maßstab festgelegt, während die Breite des Bereiches durch einen vorangehenden Maßstab festgelegt wird. Durch Beschränkung der Interessenpunkte Aj, auf den schraffierten Bereich wird der berechnete Bereich von sich ergebenden Anpassungen wirksam auf den Bereich zwischen Rmax und Rmin eingeschränkt. Der Grund für diese Beschränkung liegt darin, daß Objekte mit einer Entfernung geringer als Rmin nicht auftreten sollten aufgrund der autonomen bzw. manuellen Navigation des Fahrzeuges, um somit mögliche Kollisionen zu vermeiden. In gleicher Weise sind Objekte mit einer Entfernung größer als Rmax nicht von Bedeutung für das Fahrzeug.
- Das Ergebnis des ersten Durchlaufes der Interessenpunktanpassung ist eine Liste für jeden (F, yBj, zBj) von drei oder weniger möglichen Anpassungen, die alle Maßstäbe erfüllen und die kleinsten Abstandsabmessungen von allen möglichen Anpassungen aufweisen.
- Das Ziel des zweiten Durchlaufes des Anpaßprozesses liegt darin, die durch den ersten Durchlauf vorgegebenen Anpassungen zu nehmen und eine 1-zu-1-Abbildung zwischen den Interessenpunkten in den Rahmen A und B zu erzeugen. Anfänglich kann angenommen werden, daß die beste Anpassung an (F, YBj, ZBj) die gespeicherte mögliche Anpassung sein wird, die die kleinste Abstandsmessung aufweist. Es können jedoch Mehrfachpunkte (F, yBj, zBj) vorliegen, die an einen Einzelpunkt (F, yAi, zAi) angepaßt sind. Daher wird die aufgezeichnete Liste der besten Anpassungen auf Mehrfachauftritte irgendeines der Interessenpunkte im Rahmen A abgesucht. Wenn Mehrfach-Interessenpunkte im Rahmen B die gleiche beste Anpassung aufweisen, so wird der Punkt B*, der sich im minimalen Abstand von A&sub1; befindet, diese Anpassung beibehalten und wird aus dem Anpaßprozeß entfernt. Die verbleibenden Bj's werden in den Anpaßprozeß für eine weitere Überprüfüng zurückgeführt, nachdem A&sub1; aus der Liste der besten Anpassung entfernt worden ist. Dieser Prozeß setzt sich fort bis alle interessierenden Puntke in dem Rahmen B entweder eine Anpassung aufweisen oder als nicht-anpaßbar aufgrund einer leeren möglichen Anpaßliste festgestellt worden sind. Somit ist das endgültige Ergebnis des Anpaßprozesses eine 1-zu-1-Abbildung zwischen Interessenpunkten in den Rahmen A und B.
- Mit dem Ergebnis der Interessenpunkt-Anpassung, welche den optischen Fluß vorgibt, kann zu jeder Anpassung die Entfernung berechnet werden. Unter Vorgabe dieser spärlichen Entfernungsmessungen kann eine Entfernungs- oder Hinderniskarte aufgebaut werden. Die Hinderniskarte kann verschiedene Formen aufweisen, wobei die einfachste aus einer Darstellung der Lage über der Entfernung besteht. Der nächste Schritt ist die Entfernungsberechnung und Interpolation.
- Durch Vorgabe von Paaren von Interessenpunkt-Anpassungen zwischen zwei aufeinanderfolgenden Bildrahmen und die Translationsgeschwindigkeit zwischen den Rahmen wird es möglich, die Entfernung zu dem Objekt zu berechnen, auf dem die Interessenpunkte liegen. Eine Lösung für die Berechnung der Entfernung R wird beschrieben durch die Gleichung:
- wobei:
- xf = Abstand zwischen dem FOE und dem Zentrum der Bildebene,
- x = Abstand zwischen dem Pixel im Rahmen A und dem Zentrum der Bildebene,
- x' = Abstand zwischen dem Pixel im Rahmen B und dem Zentrum der Bildebene,
- ΔZ = Δt cosα = durchquerter Abstand in einer Rahmenzeit, Δt gemessen entlang der Achse der Sichtlinie,
- α = Winkel zwischen dem Geschwindigkeitsvektor und der Sichtlinie,
- x' - xf = Abstand in der Bildebene zwischen (F, yBj, zBj) und dem FOE, und
- x' - x = Abstand in der Bildebene zwischen (F, yBj, zBj) und (F, yAi, zAi).
- Diese Variablen sind in Figur 7 veranschaulicht, wobei die bei der ersten Lösung der Entfernungsberechnung beteiligte Geometrie ebenfalls veranschaulicht ist. Figur 7 zeigt den abgebildeten Objektpunkt in Bewegung anstelle des Sensors, wodurch die Geometrie vereinfacht wird.
- Eine alternative Lösung beinhaltet die Berechnung der Winkel aa und ab zwischen dem Translations-Geschwindigkeitsvektor und den Vektoren, die das angepaßte Paar von Interessenpunkten in den Rahmen A und B beschreiben:
- Wie dies in Figur 8 angezeigt ist, wobei die Entfernungsberechnung die Berechnung von Winkeln zwischen dem linearen Geschwindigkeitsvektor und den Vektoren erfordern, die das angepaßte Paar von Interessenpunkten beschreiben. Beide Entfernungs- Berechnungstechniken berechnen den Abstand eines Objektpunktes relativ zu dem Linsenzentrum des Rahmens A (ähnliche Gleichungen würden den Abstand von dem Linsenzentrum des Rahmens B berechnen). Die Genauigkeit der Entfernungsmessungen, die sich aus jeder Lösung ergeben, ist sehr wichtig für die Genauigkeit des Anpassungsprozesses, ebenso wie die Genauigkeit der Daten der inertialen Meßeinheit (IMU).
- Die Aufgabe der Entfernungsinterpolation ist der letzte Verarbeitungsschritt, der in dem passiven Entfernungs-Meßsystem erforderlich ist (ausschließlich irgendeiner Nachverarbeitung der Entfernung, die erforderlich sein kann, bevor die verarbeiteten Daten das automatische Fahrzeug-Steuer- und Darstellungssystem erreichen). Mittels der Entfernungsinterpolation zwischen den spärlichen Entfernungsabtastungen, die aus den optischen Fließmessungen erzeugt werden, wird eine dichte Entfernungskarte gebildet, die die Objekte innerhalb des Gesichtsfeldes repräsentiert. Im wesentlichen besteht diese Aufgabe aus der Oberflächenanpassung an eine spärliche nicht-gleichförmige Gruppe von Datenpunkten. Um eine genaue Oberflächenanpassung zu erzielen, die physikalisch der Szene innerhalb des Gesichtsfeldes entspricht, ist es erforderlich, daß die spärliche Gruppe von Entfernungsabtastungen den Ergebnissen entspricht, die aus der Szenenanalyse erhalten werden. Wie zuvor erwähnt, werden eine Bildsegmentierung, eine vom Zusammenhang abhängige Bildcharakterisierung und Erkennung der Komponenten 12 (Figur 1) verwendet, um Bereiche zu bilden, aus denen eine gewünschte Anzahl von Interessenpunkten herausgezogen werden.
- Die Art der verwendeten Oberflächenanpassung ist von Bedeutung, da die sich ergebende Oberfläche (d.h. die Entfernungskarte) durch jede der Entfernungsabtastungen verlaufen muß. Es wäre besonders störend, wenn sich die Oberfläche unter irgendwelchen Entfernungsabtastungen verändern würde. Viele Techniken der Oberflächenanpassung sind bei der vorliegenden Aufgabe anwendbar.
- Eine Art der Entfernungsintepolation besteht aus einer Anpassung der Ebenen an die verfügbaren Entfernungsabtastungen. Diese Lösung löst die Aufgabe effizient und ist beim Durchlauf durch jede Entfernungsabtastung erfolgreich. Jede Technik der Entfernungsinterpolation muß eine Interpolation über Diskontinuitäten vermeiden, die zwischen Entfernungsabtastungen auf der betroffenen Oberfläche auftreten können. Mit der Szenenanalyse/Segmentierung wird die Glättung von Diskontinuitäten vermieden, indem nur über glatte Bereiche oder Segmente der Szene interpoliert wird.
- Die Entfernungsberechnung (basierend auf zwei Rahmen) wird weiter verbessert durch Abschätzung der Entfernung über mehrfache Rahmen. Das Verfahren zur Vorhersage und Glättung der Entfernung unter Verwendung von mehrfachen Rahmen 14 (Figur 1) besteht darin, daß für alle Interessenpunkte in einem Paar von Bildern, den berechneten Anpaß- Vertrauensbereich, die gemessenen und vorhergesagten Entfernungen ein Vertrauensbereich für die Entfernung und ein Schwellwert für das Ergebnis berechnet werden, um die endgültige Entfernung zu erhalten.
- Die Vertrauensanpassung des Punktes i im Rahmen n ist vorgegeben durch:
- wobei ω1, ω2 ≥ 0 und ω1 + ω2 = 1. Iix ist die Bedeutung des Punktes i im Rahmen X. di ist die Projektion des Puntkes i (Punkt A in Figur 6b) auf die Linie, die den FOE mit seiner Anpassung (Punkt B in Figur 6b) verbindet. Der Entfernungs-Vertrauensbereich des Punktes im Rahmen n ist durch die folgende Gruppe von Gleichungen vorgegeben.
- Das optische Fließverfahren mit integriertem inertialem Navigationssensor ist verwendet worden, um Entfernungsabtastungen sowohl unter Verwendung von synthetischen Daten als auch von wirklichen Daten (Abbildung und INS-Information) zu erzeugen, die von einem sich bewegenden Fahrzeug erhalten werden. Im folgenden werden Ergebnisse veranschaulicht unter Verwendung eines Paares von Rahmen. Synthetische Interessenpunkte wurden aus einer Datei erzeugt, die die dreidimensionalen Koordinaten von 15 Objektpunkten enthält. Die Tabelle 2 zeigt die dreidimensionalen Orte dieser Objektpunkte. In dem gleichen Koordinatensystem, wo die Interessenpunkte angeordnet sind, listet die Tabelle 3 den Ort, den Roll-, Neigungs- und Gierwinkel der Kamera in zwei Zeitpunkten auf, an denen die synthetischen Rahmen A und B erfaßt werden. Die Zeit zwischen der Rahmenerfassung beträgt 0,2 Sekunden. Die Figuren 9a, b, c und d zeigen optische Fließresultate der synthetischen Daten. Figur 9a zeigt die Orte (Kreise) der Projektion der Objekt (oder Interessen-)-Punkte auf den ersten Ort (d.h. das erste Bild) der Bildebene, wo das Gesichtsfeld des synthetischen Kameramodelles 52º x 48,75º bei einer Brennweite von 9mm beträgt. Figur 9b zeigt die Orte (Quadrate) der Projektionen der Objekt (oder Interessen-)-Punkte auf den zweiten Ort (d.h. das zweite Bild) der Bildebene und zeigt die neuen Orte (Rauten) jener Projektionen nach der Drehung. Figur 9c zeigt die Ergebnisse des Anpaßprozesses, in welchem Kreise mit ihren entsprechenden Rauten durch eine gerade Linie verbunden sind und der FOE mit X bezeichnet und markiert ist. Mit anderen Worten resultiert der Anpaßprozeß in Verschiebevektoren zwischen den Kreisen und Rauten. Der endgültige Rahmen in Figur 9d zeigt den berechneten Entfernungswert zu jedem Punkt, der aus jeder der Anpassungen resultiert.
- Ein Paar von wirklichen Bildern wurde ausgewählt, um die Fähigkeiten des optischen Fließverfahrens zu testen, das eine reale Abbildung verwendet. Tabelle 4 zeigt den Ort, den Roll-, Neigungs-, und Gierwinkel der Kamera, die jedem Paar von realen Bildrahmen zugeordnet sind, die verwendet werden. Das Gesichtsfeld der Kamera für die realen Bilder beträgt 52,1º x 40,3º und die Brennweite beträgt 9mm. Die zwischen den zwei Rahmen verstrichene Zeit für dieses Experiment betrug 0,2 Sekunden. Die Figuren 10a, b, c und d zeigen optische Fließergebnisse unter Verwendung von realen Daten. Figur 10a zeigt die Orte der herausgezogenen Interessenpunkte, die aus dem ersten Rahmen erhalten werden und als Kreise gezeichnet sind. In gleicher Weise zeigt Figur 10b den Ort der herausgezogenen Interessenpunkte (Quadrate) und die entsprechenden rotierten Interessenpunktorte (Rauten). Da das Fahrzeug nur eine sehr geringe Rotation zwischen den Rahmen ausführt, sind die rotierten Orte nahezu übereinstimmend mit den ursprünglichen Punktorten. Die Ergebnisse (d.h. die Verschiebevektoren zwischen Kreisen und Rauten) des Punkt-Anpassungsprozesses für die reale Abbildung, wobei FOE mit einem X bezeichnet ist, sind in Figur 10c gezeigt. Schließlich ist der berechnete Entfernungswert zu jedem der angepaßten Punkte in Figur 10d dargestellt.
- Die Figuren 11 und 12 zeigen das Hardwaresystem, welches für die Datensammlung durch ein Erdfahrzeug verwendet wird und die Verwirklichung des ODIN-Systems. Figur 11 ist ein Diagramm des Hardwaresystems 80 für die Datensammlung bei der Bewegung des Gesichtsfeldes für das Hindernis-Feststellsystem 10 von Figur 1. Das VME-Chassis 82 (VME ist ein internationaler Standardbus) umfaßt die zentrale Verarbeitungseinheit (CPU) 84 (Modell 68020) mit einem seriellen Anschluß 86 und einem an die CPU 84 angeschlossenen Systemtakt 88, eine Ein/Ausgangs-Platine 90, die an den seriellen Anschluß 86 und den Systemtakt 88 der CPU 84 angeschlossen ist, und eine Hardware 92 der Firma DataCube (Boston, MA), die eine Digimax-Platine 94 und eine MaxGraph- Platine 96 umfaßt, die an den Systemtakt 88 angeschlossen sind. Ein Ringlaserkreisel (RLG) des Modells 1050 der Firma Honeywell ist als inertiale Referenzeinheit (IRU) an die E/A-Platine 90 angeschlossen und liefert Inertialdaten mit Zeitmarkierung, welche mit 50Hz gesammelt werden. Der Sensor 100, der eine Panasonic-Fernsehkamera des Modells WV- 1850 ist, besitzt eine Brennweite von 25mm und ein FOV von 20º x 15º und ist an die Platine 96 angeschlossen und liefert Abbildungsdaten. Ein Ausgang des Chassis 82 geht zu dem optischen Panasonic-Diskettenrecorder 102 des Modells TQ-2023F. Der Recorder 102 ist an den seriellen Anschluß 86 und die Platine 96 angeschlossen. Video-Bildrahmen für den Recorder 102 besitzen eine Zeitmarkierung und werden mit 5Hz synchron mit IRU-Daten von der Inertialeinheit 98 aufgezeichnet und zu dem Chassis 82 geliefert. Die Daten in dem Recorder 102 sind für die optische Fließeinheit 18 in Figur 1 vorgesehen.
- Figur 12 zeigt eine Hardware-Verwirklichung 110 des Hindernis-Feststellsystems 10 von Figur 1. Der Computer 112 (Modell Sun 3/280) empfängt Fernsehbilddaten und INS-Daten. Die Daten des Recorders 102 in Figur 11 gehen zu der Diskette 114 des Computers 112. Die Daten besitzen die Form von Bildern mit 500 x 480 Pixeln, die mit einer Frequenz von 5Hz abgetastet werden. Die INS-Daten von der Einheit 98 (inertiale Meßeinheit (IMU) des Typs RLG 1050 von Honeywell) werden in Form von geographischer Breite und Länge ausgegeben. Die Parameter sind: = (ax, ay, az)ft/s² (50hz); = (vx, vy vz)ft/S (20Hz); und = (φ,θ,ψ) Grad (20Hz),
- wobei φ der Gierwinkel, θ der Neigungswinkel und ψ der Rollwinkel ist.
- Der Computer 12 ist an den Computer 116 (Modell Sun 3/60) über eine Ethernet- Verbindung 118 angeschlossen. Der Computer 116 besitzt eine CPU, einen mathematischen Co-Prozessor und zugeordnete Speicher. Er arbeitet in der Sprache C in 4,2 BSD Unix- Software (Release 3.5). Der Computer 116 führt Funktionen des Systems 10 aus und insbesondere Funktionen der Einheiten 18, 20, 24 und 28 in Figur 1.
Claims (5)
1. Hindernis-Detektionssystem aufweisend:
wenigstens einen passiven Sensor (22), eine Inertial-Navigationseinheit (26) und eine
Szenen-Analysiereinheit (20), die an die Intertial-Navigationseinheit angeschlossen ist,
gekennzeichnet durch eine optische Fließeinheit (18), die an den
passiven Sensor (22) angeschlossen ist, um Bildrahmen in regelmäßigen Zeitintervallen
zu sammeln während der Sensor in Bewegung ist und die ferner an die Inertial-
Navigationseinheit (26) angeschlossen ist, um eine Drehung des laufenden Bildrahmens
gegenüber dem vorhergehenden Bildrahmen zu kompensieren und die ferner an die
Szenen-Analysiereinheit (20) angeschlossen ist, um Entfernungswerte für Punkte in der
Szene aus der Translationsbewegung zwischen den Bildrahmen zu bestimmen.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß die optische
Fließeinheit (18) umfaßt:
einen ersten Interessenpunkt-Extraktor (32) zum Extrahieren interessierender Punkte
aus einem ersten Rahmen der Abbildung;
einen zweiten Interessenpunkt-Extraktor (34) zum Extrahieren interessierender Punkte
aus einem zweiten Rahmen der Abbildung;
eine Interessenpunkt-Rotationseinheit (40), die an den zweiten Interessenpunkt-
Extraktor (34) und an die Inertial-Navigationseinheit (26) angeschlossen ist;
eine Fokusexpansions-Berechnungseinheit (36), die an die Inertial-Navigationseinheit
(26) angeschlossen ist;
eine Interessenpunkt-Anpaßeinheit (38), die an den ersten Interessenpunkt-Extraktor
(32), an die Interessenpunkt-Rotationseinheit (40), an die Inertial-Navigationseinheit
(26) und an die Fokusexpansions-Berechnungseinheit (36) angeschlossen ist; und
eine die Entfernung zu angepaßten Interessenpunkten messende Meßeinrichtung (42),
die an die Interessenpunkt-Anpaßeinheit (38) und an die Inertial-Navigationseinheit
(26) angeschlossen ist.
3. System nach Anspruch 2, dadurch gekennzeichnet, daß eine
Entfernungs-Interpolationseinheit (28) an die Meßeinheit (42) für die angepaßten
Interessenpunkte angeschlossen ist, um Hindernisfeststell- und
Vermeidungsinformation in den Entfernungsdaten für die Szene auszugeben.
4. System nach einem der Ansprüche 1 bis 3, gekennzeichnet durch:
eine Auswahleinheit (24), die an die Szenen-Analysiereinheit (20) und die Inertial-
Navigationseinheit (26) angeschlossen ist und die Möglichkeit einer aktiven Abtastung
(52), einer binokularen Stereoabbildung (54), einer Bewegungs-Stereoabbildung (56)
und eines variablen Gesichtsfeldes (57) einer Szene, in der ein Hindernis festgestellt
werden kann, besitzt, und wobei eine alternative Wegstrecke zur Vermeidung eines
Hindernisses gefunden werden kann mit selektiver Hilfe der aktiven Abtastung (52), der
binokularen Stereoabbildung (54), der Bewegungs-Stereoabbildung (56) oder des
variablen Gesichtsfeldes (57).
5. System nach Anspruch4, dadurch gekennzeichnet, daß die Szenen-
Analysiereinheit umfaßt:
eine vom Zusammenhang abhängige Bild-Charakterisiereinheit (12), die an den
passiven Sensor (22), die Inertial-Navigationseinheit (26), die optische Fließeinheit (18)
und an die Auswahleinheit (24) angeschlossen ist;
eine Entfernungs-Vorhersage und Glättungseinheit (14), die mehrfache Rahmen
verwendet und die an die optische Fließeinheit (18) und an die Inertial-
Navigationseinheit (26) angeschlossen ist; und
eine qualitative Szenenmodell- und Entfernungs-Berechnungseinheit (16), die an die
optische Fließeinheit (18), an die Entfernungs-Interpolationseinheit (28), an die
Entfernungs-Vorhersage- und Glättungseinheit (14) und an die Auswahleinheit (24)
angeschlossen ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/459,930 US5128874A (en) | 1990-01-02 | 1990-01-02 | Inertial navigation sensor integrated obstacle detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69021354D1 DE69021354D1 (de) | 1995-09-07 |
DE69021354T2 true DE69021354T2 (de) | 1996-03-28 |
Family
ID=23826737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69021354T Expired - Fee Related DE69021354T2 (de) | 1990-01-02 | 1990-12-24 | System zur Detektion eines Hindernisses. |
Country Status (3)
Country | Link |
---|---|
US (1) | US5128874A (de) |
EP (1) | EP0436213B1 (de) |
DE (1) | DE69021354T2 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10154861A1 (de) * | 2001-11-08 | 2003-05-22 | Ibeo Automobile Sensor Gmbh | Verfahren zur Bereitstellung von Bildinformationen |
US7570793B2 (en) | 2001-06-15 | 2009-08-04 | Ibeo Automobile Sensor Gmbh | Correction method for data of a plurality of optoelectronic sensors |
DE102009038406A1 (de) * | 2009-08-24 | 2011-03-03 | Volkswagen Ag | Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs |
Families Citing this family (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5265172A (en) * | 1989-10-13 | 1993-11-23 | Texas Instruments Incorporated | Method and apparatus for producing optical flow using multi-spectral images |
US5610815A (en) * | 1989-12-11 | 1997-03-11 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
US5375059A (en) * | 1990-02-05 | 1994-12-20 | Caterpillar Inc. | Vehicle position determination system and method |
US5257209A (en) * | 1990-06-26 | 1993-10-26 | Texas Instruments Incorporated | Optical flow computation for moving sensors |
IT1240974B (it) * | 1990-07-05 | 1993-12-27 | Fiat Ricerche | Metodo e apparecchiatura per evitare la collisione di un autoveicolo contro ostacoli. |
JPH04218790A (ja) * | 1990-12-19 | 1992-08-10 | Mitsubishi Electric Corp | 距離測定装置 |
JP2749727B2 (ja) * | 1991-03-08 | 1998-05-13 | 三菱電機株式会社 | 経路予測装置 |
EP0514972B1 (de) * | 1991-05-22 | 1996-03-27 | Koninklijke Philips Electronics N.V. | Verteiltes Mehrknoten-Datenverarbeitungssystem zur Verwendung in einem Oberflächenfahrzeug |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US5461357A (en) * | 1992-01-29 | 1995-10-24 | Mazda Motor Corporation | Obstacle detection device for vehicle |
DE4222642A1 (de) * | 1992-07-10 | 1994-01-13 | Bodenseewerk Geraetetech | Bilderfassende Sensoreinheit |
DE4332612C2 (de) * | 1992-09-25 | 1996-02-22 | Yazaki Corp | Außenansichts-Überwachungsverfahren für Kraftfahrzeuge |
IL104542A (en) * | 1993-01-28 | 1996-05-14 | Israel State | Airborne obstacle collision avoidance apparatus |
DE4317960A1 (de) * | 1993-05-28 | 1995-01-12 | Bayerische Motoren Werke Ag | Verfahren zum Vermeiden einer Kollision eines Kraftfahrzeugs |
IT1261699B (it) * | 1993-06-03 | 1996-05-29 | Finmeccanica Spa | Sistema di navigazione a sensore d'immagine passivo. |
US6542077B2 (en) | 1993-06-08 | 2003-04-01 | Raymond Anthony Joao | Monitoring apparatus for a vehicle and/or a premises |
US5917405A (en) | 1993-06-08 | 1999-06-29 | Joao; Raymond Anthony | Control apparatus and methods for vehicles |
US7397363B2 (en) | 1993-06-08 | 2008-07-08 | Raymond Anthony Joao | Control and/or monitoring apparatus and method |
FR2707001B1 (de) * | 1993-06-22 | 1995-12-22 | Aerospatiale | |
US5870179A (en) * | 1993-06-25 | 1999-02-09 | The Regents Of The University Of Colorado | Apparatus and method for estimating range |
US6865477B2 (en) * | 1994-05-31 | 2005-03-08 | Winged Systems Corporation | High resolution autonomous precision positioning system |
EP0807352A1 (de) | 1995-01-31 | 1997-11-19 | Transcenic, Inc | Räumlich bezogene fotografie |
US20020118457A1 (en) * | 2000-12-22 | 2002-08-29 | Dowski Edward Raymond | Wavefront coded imaging systems |
US7218448B1 (en) | 1997-03-17 | 2007-05-15 | The Regents Of The University Of Colorado | Extended depth of field optical systems |
US6911638B2 (en) | 1995-02-03 | 2005-06-28 | The Regents Of The University Of Colorado, A Body Corporate | Wavefront coding zoom lens imaging systems |
US20020195548A1 (en) * | 2001-06-06 | 2002-12-26 | Dowski Edward Raymond | Wavefront coding interference contrast imaging systems |
US7253731B2 (en) | 2001-01-23 | 2007-08-07 | Raymond Anthony Joao | Apparatus and method for providing shipment information |
US10152876B2 (en) | 1996-03-27 | 2018-12-11 | Gtj Ventures, Llc | Control, monitoring, and/or security apparatus and method |
US6587046B2 (en) | 1996-03-27 | 2003-07-01 | Raymond Anthony Joao | Monitoring apparatus and method |
US10011247B2 (en) | 1996-03-27 | 2018-07-03 | Gtj Ventures, Llc | Control, monitoring and/or security apparatus and method |
US7277010B2 (en) | 1996-03-27 | 2007-10-02 | Raymond Anthony Joao | Monitoring apparatus and method |
GB9714720D0 (en) * | 1997-07-14 | 2001-03-14 | British Aerospace | Inertial navigation accuracy enhancement |
US7268700B1 (en) | 1998-01-27 | 2007-09-11 | Hoffberg Steven M | Mobile communication device |
US9075136B1 (en) | 1998-03-04 | 2015-07-07 | Gtj Ventures, Llc | Vehicle operator and/or occupant information apparatus and method |
JPH11353565A (ja) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | 車両用衝突警報方法及び装置 |
IT1302376B1 (it) * | 1998-10-15 | 2000-09-05 | Consorzio C R E O Ct Ricerche | Sistema per evitare la collisione di veicoli in condizioni di scarsavisibilita' |
US6021373A (en) * | 1998-12-21 | 2000-02-01 | Eaton Corporation | Back-up proximity sensor for a vehicle |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US7003134B1 (en) * | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
JP2001213254A (ja) * | 2000-01-31 | 2001-08-07 | Yazaki Corp | 車両用側方監視装置 |
US6411898B2 (en) * | 2000-04-24 | 2002-06-25 | Matsushita Electric Industrial Co., Ltd. | Navigation device |
JP2001344597A (ja) * | 2000-05-30 | 2001-12-14 | Fuji Heavy Ind Ltd | 融合視界装置 |
US6502053B1 (en) * | 2000-06-12 | 2002-12-31 | Larry Hardin | Combination passive and active speed detection system |
US6536898B1 (en) * | 2000-09-15 | 2003-03-25 | The Regents Of The University Of Colorado | Extended depth of field optics for human vision |
JP3679988B2 (ja) * | 2000-09-28 | 2005-08-03 | 株式会社東芝 | 画像処理装置及び画像処理方法 |
US6873733B2 (en) | 2001-01-19 | 2005-03-29 | The Regents Of The University Of Colorado | Combined wavefront coding and amplitude contrast imaging systems |
US6940994B2 (en) * | 2001-03-09 | 2005-09-06 | The Boeing Company | Passive power line detection system for aircraft |
JP4162910B2 (ja) * | 2001-05-11 | 2008-10-08 | 本田技研工業株式会社 | 接近検出装置、接近検出方法、及び接近検出プログラム |
US6842297B2 (en) | 2001-08-31 | 2005-01-11 | Cdm Optics, Inc. | Wavefront coding optics |
US20030076981A1 (en) * | 2001-10-18 | 2003-04-24 | Smith Gregory Hugh | Method for operating a pre-crash sensing system in a vehicle having a counter-measure system |
US10562492B2 (en) | 2002-05-01 | 2020-02-18 | Gtj Ventures, Llc | Control, monitoring and/or security apparatus and method |
WO2003093857A2 (en) * | 2002-05-03 | 2003-11-13 | Donnelly Corporation | Object detection system for vehicle |
US7006709B2 (en) * | 2002-06-15 | 2006-02-28 | Microsoft Corporation | System and method deghosting mosaics using multiperspective plane sweep |
US9818136B1 (en) | 2003-02-05 | 2017-11-14 | Steven M. Hoffberg | System and method for determining contingent relevance |
ITTO20030197A1 (it) | 2003-03-14 | 2004-09-15 | Fiat Ricerche | Dispositivo elettro-ottico attivo per il rilevamento di |
DE10312249A1 (de) * | 2003-03-19 | 2004-09-30 | Ibeo Automobile Sensor Gmbh | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern |
EP1537383B1 (de) * | 2003-07-16 | 2019-06-19 | Harman Becker Automotive Systems GmbH | Übermittlung von sonderrouten an eine navigationsvorrichtung |
JP2005078528A (ja) * | 2003-09-02 | 2005-03-24 | Honda Motor Co Ltd | 物体検出装置及び方法 |
US7916898B2 (en) * | 2003-09-15 | 2011-03-29 | Deere & Company | Method and system for identifying an edge of a crop |
DE10358017A1 (de) * | 2003-12-11 | 2005-07-21 | Siemens Ag | 3D Kamerasteuerung |
WO2005076751A2 (ja) * | 2004-01-26 | 2005-08-25 | Nec Corp | 映像種類判定システム、映像加工システム、映像加工方法および映像加工プログラム |
KR20070035027A (ko) * | 2004-06-02 | 2007-03-29 | 아데나 테크놀로지스, 인코포레이티드 | 이미지 확장식 관성 항법 시스템 및 방법 |
US7720580B2 (en) | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
DE102005001429A1 (de) * | 2005-01-12 | 2006-07-20 | Robert Bosch Gmbh | Verfahren für die Bildlagekorrektur eines Monitorbilds |
US7301497B2 (en) * | 2005-04-05 | 2007-11-27 | Eastman Kodak Company | Stereo display for position sensing systems |
FR2886020B1 (fr) * | 2005-05-19 | 2007-10-19 | Eurocopter France | Systeme d'estimation de la vitesse d'un aeronef et son application a la detection d'obstacles |
US20070233353A1 (en) * | 2006-03-28 | 2007-10-04 | Alexander Kade | Enhanced adaptive cruise control system with forward vehicle collision mitigation |
US20110184593A1 (en) * | 2006-04-19 | 2011-07-28 | Swope John M | System for facilitating control of an aircraft |
US7463340B2 (en) * | 2007-03-28 | 2008-12-09 | Honeywell International Inc. | Ladar-based motion estimation for navigation |
JP4809291B2 (ja) * | 2007-06-01 | 2011-11-09 | 株式会社豊田中央研究所 | 計測装置及びプログラム |
JP2009230229A (ja) * | 2008-03-19 | 2009-10-08 | Toyota Motor Corp | 物体検出装置 |
US8686326B1 (en) * | 2008-03-26 | 2014-04-01 | Arete Associates | Optical-flow techniques for improved terminal homing and control |
EP2159779B1 (de) * | 2008-08-27 | 2013-01-16 | Saab Ab | Verwendung von Bildsensor und Nachlauffilter für verbleibende Zeit, um Kollisionen in der Luft zu vermeiden |
EP2179892A1 (de) | 2008-10-24 | 2010-04-28 | Magna Electronics Europe GmbH & Co. KG | Verfahren zum automatischen Kalibrieren einer virtuellen Kamera |
EP2187233B1 (de) | 2008-11-12 | 2013-03-20 | Saab Ab | Entfernungsschätzungsvorrichtung |
US8964032B2 (en) | 2009-01-30 | 2015-02-24 | Magna Electronics Inc. | Rear illumination system |
DE102009007842A1 (de) * | 2009-02-06 | 2010-08-12 | Adc Automotive Distance Control Systems Gmbh | Verfahren und Vorrichtung zum Betrieb eines videobasierten Fahrerassistenzsystems in einem Fahrzeug |
DE102009034026A1 (de) * | 2009-07-21 | 2011-01-27 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Erkennung von Objekten in der Umgebung eines Sensorsystems, insbesondere eines Sensorsystems eines Fahrzeugs |
IL200637A0 (en) * | 2009-08-30 | 2011-08-01 | Rafael Advanced Defense Sys | System and method for virtual range estimation |
US8239130B1 (en) | 2009-11-12 | 2012-08-07 | Google Inc. | Enhanced identification of interesting points-of-interest |
US8189964B2 (en) | 2009-12-07 | 2012-05-29 | Google Inc. | Matching an approximately located query image against a reference image set |
US8774527B1 (en) | 2009-12-07 | 2014-07-08 | Google Inc. | Matching an approximately located query image against a reference image set using cellular base station and wireless access point information |
US9547910B2 (en) * | 2010-03-04 | 2017-01-17 | Honeywell International Inc. | Method and apparatus for vision aided navigation using image registration |
US8922648B2 (en) * | 2010-08-26 | 2014-12-30 | Honda Motor Co., Ltd. | Rotation cancellation for moving obstacle detection |
DE102012200645A1 (de) * | 2012-01-18 | 2013-07-18 | Robert Bosch Gmbh | Gewinnung von Tiefeninformationen mit einer in einem Fahrzeug verbauten Monokamera |
EP2932466B1 (de) * | 2012-12-12 | 2019-12-04 | Huawei Technologies Co., Ltd. | Verfahren und vorrichtung zur segmentierung von 3d-bilddaten |
WO2014090303A1 (en) | 2012-12-12 | 2014-06-19 | Huawei Technologies Co., Ltd. | Method and apparatus for segmentation of 3d image data |
US10546441B2 (en) | 2013-06-04 | 2020-01-28 | Raymond Anthony Joao | Control, monitoring, and/or security, apparatus and method for premises, vehicles, and/or articles |
US9669940B1 (en) * | 2013-06-27 | 2017-06-06 | Rockwell Collins, Inc. | Latency-reducing image generating system, device, and method |
US10157473B2 (en) * | 2014-10-20 | 2018-12-18 | Bae Systems Information And Electronic Systems Integration Inc. | Method for providing range estimations |
KR102614323B1 (ko) | 2015-04-01 | 2023-12-14 | 바야비전 리미티드 | 수동 및 능동 측정을 이용한 장면의 3차원 지도 생성 |
CN105005999B (zh) * | 2015-08-12 | 2018-08-10 | 北京航空航天大学 | 一种基于计算机立体视觉面向导盲仪的障碍物探测方法 |
US11092446B2 (en) | 2016-06-14 | 2021-08-17 | Motional Ad Llc | Route planning for an autonomous vehicle |
US10309792B2 (en) | 2016-06-14 | 2019-06-04 | nuTonomy Inc. | Route planning for an autonomous vehicle |
US10126136B2 (en) | 2016-06-14 | 2018-11-13 | nuTonomy Inc. | Route planning for an autonomous vehicle |
US10474148B2 (en) * | 2016-07-27 | 2019-11-12 | General Electric Company | Navigating an unmanned aerial vehicle |
US10331129B2 (en) | 2016-10-20 | 2019-06-25 | nuTonomy Inc. | Identifying a stopping place for an autonomous vehicle |
US10681513B2 (en) | 2016-10-20 | 2020-06-09 | nuTonomy Inc. | Identifying a stopping place for an autonomous vehicle |
US10857994B2 (en) | 2016-10-20 | 2020-12-08 | Motional Ad Llc | Identifying a stopping place for an autonomous vehicle |
US10473470B2 (en) | 2016-10-20 | 2019-11-12 | nuTonomy Inc. | Identifying a stopping place for an autonomous vehicle |
US10025311B2 (en) | 2016-10-28 | 2018-07-17 | Delphi Technologies, Inc. | Automated vehicle sensor control system |
CN106483578B (zh) * | 2016-11-25 | 2019-03-29 | 同方威视技术股份有限公司 | 移动式扫描检测*** |
US10445928B2 (en) | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
CN107909010B (zh) * | 2017-10-27 | 2022-03-18 | 北京中科慧眼科技有限公司 | 一种道路障碍物检测方法与装置 |
US11067686B2 (en) * | 2017-12-01 | 2021-07-20 | Electromagnetic Systems, Inc. | Obstacle position and extent measurement by automotive radar |
CN110542415A (zh) * | 2018-05-28 | 2019-12-06 | 北京京东尚科信息技术有限公司 | 用于导航***的导航方法和装置 |
US11835948B2 (en) | 2018-12-03 | 2023-12-05 | Motional Ad Llc | Systems and methods for improving vehicle operations using movable sensors |
CN109631887B (zh) * | 2018-12-29 | 2022-10-18 | 重庆邮电大学 | 基于双目、加速度与陀螺仪的惯性导航高精度定位方法 |
US11367211B2 (en) | 2019-07-29 | 2022-06-21 | Raytheon Company | Inertially-assisted target detection |
CN111150330A (zh) * | 2019-12-30 | 2020-05-15 | 北京太坦科技有限公司 | 清扫控制方法 |
CA3125618C (en) | 2020-07-21 | 2023-05-23 | Leddartech Inc. | Beam-steering device particularly for lidar systems |
EP4185894A4 (de) | 2020-07-21 | 2024-07-24 | Leddartech Inc | Systeme und verfahren für weitwinkel-lidar mit optik mit ungleichförmiger vergrösserung |
US11567179B2 (en) | 2020-07-21 | 2023-01-31 | Leddartech Inc. | Beam-steering device particularly for LIDAR systems |
US11763555B2 (en) | 2021-04-22 | 2023-09-19 | Honeywell International Inc. | System and method for ground obstacle detection and database management |
EP4293311A1 (de) * | 2022-06-14 | 2023-12-20 | 21strategies GmbH | Steuervorrichtung eines waffensystems und waffensystem |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3421716A (en) * | 1962-11-13 | 1969-01-14 | Goodyear Aerospace Corp | Vehicle guidance system |
US3404398A (en) * | 1967-06-12 | 1968-10-01 | North American Rockwell | Terrain following system employing intermittent radiation |
US4264907A (en) * | 1968-04-17 | 1981-04-28 | General Dynamics Corporation, Pomona Division | Rolling dual mode missile |
US3713147A (en) * | 1970-12-23 | 1973-01-23 | United Aircraft Corp | Obstacle detection with crossed fan beam |
US4495580A (en) * | 1981-03-30 | 1985-01-22 | E-Systems, Inc. | Navigation system |
GB2115633B (en) * | 1982-02-22 | 1985-07-10 | Secr Defence | Low level flying aids |
US4497065A (en) * | 1982-07-12 | 1985-01-29 | Westinghouse Electric Corp. | Target recognition system enhanced by active signature measurements |
US4700307A (en) * | 1983-07-11 | 1987-10-13 | General Dynamics Corp./Convair Division | Feature navigation system and method |
US4635203A (en) * | 1984-04-06 | 1987-01-06 | Honeywell Inc. | Passive range measurement apparatus and method |
US4695959A (en) * | 1984-04-06 | 1987-09-22 | Honeywell Inc. | Passive range measurement apparatus and method |
JPS62155140A (ja) * | 1985-12-27 | 1987-07-10 | Aisin Warner Ltd | 車両制御用道路画像入力方式 |
IT1202534B (it) * | 1987-02-13 | 1989-02-09 | Tecnomare Spa | Apparecchiatura per il rilevamento in continuo della distanza da essa di un punto prefissato,anche mobile |
JP2570315B2 (ja) * | 1987-09-01 | 1997-01-08 | アイシン精機株式会社 | 車上距離検出装置 |
US4872051A (en) * | 1987-10-01 | 1989-10-03 | Environmental Research Institute Of Michigan | Collision avoidance alarm system |
US4954837A (en) * | 1989-07-20 | 1990-09-04 | Harris Corporation | Terrain aided passive range estimation |
-
1990
- 1990-01-02 US US07/459,930 patent/US5128874A/en not_active Expired - Lifetime
- 1990-12-24 EP EP90125447A patent/EP0436213B1/de not_active Expired - Lifetime
- 1990-12-24 DE DE69021354T patent/DE69021354T2/de not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7570793B2 (en) | 2001-06-15 | 2009-08-04 | Ibeo Automobile Sensor Gmbh | Correction method for data of a plurality of optoelectronic sensors |
DE10154861A1 (de) * | 2001-11-08 | 2003-05-22 | Ibeo Automobile Sensor Gmbh | Verfahren zur Bereitstellung von Bildinformationen |
DE102009038406A1 (de) * | 2009-08-24 | 2011-03-03 | Volkswagen Ag | Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs |
DE102009038406B4 (de) * | 2009-08-24 | 2017-10-05 | Volkswagen Ag | Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
EP0436213B1 (de) | 1995-08-02 |
EP0436213A3 (en) | 1991-11-06 |
US5128874A (en) | 1992-07-07 |
DE69021354D1 (de) | 1995-09-07 |
EP0436213A2 (de) | 1991-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69021354T2 (de) | System zur Detektion eines Hindernisses. | |
EP0396867B1 (de) | Navigationsverfahren | |
DE69836522T2 (de) | Lagenerkennungssystem eines selbstbewegenden Kraftwagens | |
DE60313319T2 (de) | Luftaufklärungssystem | |
DE69012278T2 (de) | Navigationssysteme. | |
EP2241896B1 (de) | Stabilisierungssystem für Flugkörper | |
DE69635569T2 (de) | Vorrichtung zum Bestimmen der lokalen Position eines Autos auf einer Strasse | |
DE4130010C2 (de) | Vorrichtung zur laufenden Beobachtung eines Fahrzeuges und zur Messung seines Abstandes | |
DE102006009121B4 (de) | Verfahren zur Verarbeitung und Darstellung von mittels Synthetik-Apertur-Radarsystemen (SAR) gewonnen Bodenbildern | |
EP3596570B1 (de) | Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts | |
DE69430012T2 (de) | Auf einem luftfahrzeug angebrachter integrierter fotoapparat | |
EP0429952B1 (de) | Autonomes Landesystem | |
EP0406879B1 (de) | Verfahren zur Extraktion von Bewegungsfehlern eines ein kohärentes Abbildungsradarsystem mitführenden Trägers aus Radar-Rohdaten und Einrichtung zur Durchführung des Verfahrens | |
EP1589484A1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
EP0027168A1 (de) | Stereo-photogrammetrische Vorrichtung für Fluggeräte und Raumflugkörper zur Erzeugung einer digitalen Geländedarstellung | |
DE102013104443A1 (de) | Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul | |
DE102007054950B4 (de) | Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers | |
DE69500465T2 (de) | Bahnbehandlung von gelände-erhebungsdaten | |
EP1460454B1 (de) | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern | |
EP3548842A1 (de) | Verfahren und vorrichtung zur georeferenzierung von luftbilddaten mit hilfe von sar-bilddaten | |
DE69117896T2 (de) | Verfahren und Vorrichtung zur Verbesserung der Zuverlässigkeit von Flugzeugflugdaten | |
DE69302207T2 (de) | Verfahren und Vorrichtung zum Bestimmen der relativen Lage und Trajektorie von zwei Raumfahrzeugen | |
DE10258545A1 (de) | Stabilisierungssystem für Flugkörper | |
DE4416557A1 (de) | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers | |
DE3915633C2 (de) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |