DE102013220577A1 - Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera - Google Patents

Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera Download PDF

Info

Publication number
DE102013220577A1
DE102013220577A1 DE201310220577 DE102013220577A DE102013220577A1 DE 102013220577 A1 DE102013220577 A1 DE 102013220577A1 DE 201310220577 DE201310220577 DE 201310220577 DE 102013220577 A DE102013220577 A DE 102013220577A DE 102013220577 A1 DE102013220577 A1 DE 102013220577A1
Authority
DE
Germany
Prior art keywords
camera
sensor
aerial
evaluation
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201310220577
Other languages
English (en)
Other versions
DE102013220577B4 (de
Inventor
Dr.-Ing. Eckhardt Andreas
Ralf Prof. Dr. Reulke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102013220577.5A priority Critical patent/DE102013220577B4/de
Publication of DE102013220577A1 publication Critical patent/DE102013220577A1/de
Application granted granted Critical
Publication of DE102013220577B4 publication Critical patent/DE102013220577B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors (4) einer Luftbildkamera oder einer Weltraumkamera (1), wobei die Kamera (1) mindestens ein Objektiv (2), mindestens einen Sensor (4) sowie mindestens einen Aktuator (5) zur relativen Verschiebung von Objektiv (2) und Sensor (4) aufweist, wobei der Kamera (1) mindestens ein Laser (8, 9) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6) der Kamera (1) ausgerichtet ist, wobei eine Auswerte- und Steuereinheit (7) den Laser (8, 9) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11) auswertet, wobei die Auswerte- und Steuereinheit (7) aus der Pulsantwort (11) eine virtuelle Objektebene (EV) oder virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5) Objektiv (2) und Sensor (4) relativ zueinander verschiebt, sowie eine solche Luftbild- oder Weltraumkamera (1).

Description

  • Die Erfindung betrifft ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera sowie eine solche Luftbild- oder Weltraumkamera.
  • Derartige Kameras sind seit längerem bekannt und arbeiten in den verschiedensten Wellenlängenbereichen von beispielsweise 400 nm bis 15 µm. Dabei werden je nach Anwendung panchromatische oder spektrale Aufnahmen durchgeführt. Die abbildenden Sensoren können dabei als Zeilen-, Matrix- oder TDI-Sensoren ausgebildet sein. Die damit zu erreichenden Auflösungen bei Erdbeobachtungen liegen beispielsweise im Bereich von ca. 20 cm. Dabei sei angemerkt, dass die Weltraumkameras auch als Weltraumteleskope bezeichnet werden.
  • Die Kameras arbeiten bei senkrechter Blickrichtung (NADIR) im Regelfall sehr gut. Allerdings führen starke Gebäudedynamiken wie beispielsweise Häuserschluchten oder Gebirge zu Ungenauigkeiten, wenn mit sehr großen Auflösungen gearbeitet wird, was zu unscharfen Abbildungen führt.
  • Verschärft wird dieses Problem, wenn die Kamera Roll- oder Nickbewegungen durchführt. Derartige Roll- und Nickbewegungen mit einem Schwenkbereich bis zu +/–40° sind keine Seltenheit, beispielsweise weil eine hohe Wiederholrate in der Abtastung eines bestimmten Gebiets gefordert wird. In diesem Fall kommt es zu einer starken Veränderung des Abbildungsmaßstabes, auf den die Kamera nicht reagieren kann. Daher wird üblicherweise der Sensor auf eine diskrete Entfernung eingestellt und die Verschlechterung der MTF (Modulation Transfer Function) hingenommen.
  • Aus der DE 100 13 567 A1 ist eine Luftbildkamera für die Photogrammetrie bekannt, umfassend ein Objektiv und eine Fokalebene, auf der photosensitive elektrische Bauelemente angeordnet sind, wobei der Fokalebene eine in Richtung der optischen Achse wirkende Stelleinrichtung zugeordnet ist, wobei die Luftbildkamera mindestens einen Sensor zur Erfassung einer Fokusdrift oder einer Größe zur Abschätzung der Fokusdrift umfasst, wobei die Fokalebene in Abhängigkeit von der erfassten oder geschätzten Fokusdrift entgegen der Fokusdrift in der optischen Achse bewegbar ist. Ein Problem ist, dass ohne Kenntnis des Bodenprofils die Änderung des realen Objektabstandes aufgrund des Bodenprofils bzw. der Schwenkung der Kamera die Fokusdrift in diesen Bereichen nicht ermittelbar ist. Ein weiteres Problem ist, dass es bei einer großen Dynamik des Bodenprofils ohnehin keinen optimalen Fokus gibt.
  • Eine denkbare Lösung wäre eine Steuerung aufgrund eines bekannten Digital Terrain Models des zu überfliegenden Gebiets. Allerdings stehen solche Modelle für bestimmte Gebiete nicht zur Verfügung. Darüber hinaus müsste beispielsweise eine Weltraumkamera enormen Speicherplatz vorhalten.
  • Im Bereich der Phototechnik ist es angedacht worden, einen Laserpointer zu integrieren, der einen Abstand zu einem Objekt erfasst und dann in Abhängigkeit von dem erfassten Abstand des Objekts eine Autofokussierung vorzunehmen.
  • Der Erfindung liegt das technische Problem zugrunde, ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera zur Verfügung zu stellen sowie eine solche Luftbildkamera oder Weltraumkamera zu schaffen, mittels derer der Fokusdrift aufgrund von dynamischen Geländeprofilen oder aufgrund von Schwenkbewegungen der Kamera reduziert wird.
  • Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den Merkmalen der Patentansprüche 1 und 8. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Das Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera, wobei die Kamera mindestens ein Objektiv, mindestens einen Sensor, mindestens einen Aktuator zur relativen Verschiebung von Objektiv und Sensor, mindestens einen Laser, dessen Abstrahlrichtung parallel zur optischen Achse der Kamera ausgerichtet ist, und eine Auswerte- und Steuereinheit umfasst, weist die folgenden Verfahrensschritte auf: Die Auswerte- und Steuereinheit steuert den Laser derart, dass dieser einen Laserpuls emittiert. Die Auswerte- und Steuereinheit empfängt die vom Boden reflektierte Pulsantwort und wertet diese aus. Die Pulsantwort ist üblicherweise verbreitert und enthält Anteile von verschiedenen Objekten mit unterschiedlichen realen Objektabständen. Der Grund hierfür ist, dass aufgrund der Entfernung von Kamera zum Boden (z.B. 10–500 km) der Laserstrahl sich entsprechend aufgeweitet hat und beispielsweise einen Durchmesser von 10–1000 m, vorzugsweise 50–150 m, an der Erdoberfläche aufweist. Aus dieser Pulsantwort ermittelt dann die Auswerte- und Steuereinheit eine virtuelle Objektebene oder einen virtuellen Objektabstand, in deren oder dessen Abhängigkeit der Aktuator Objektiv und Sensor relativ zueinander verschiebt. Der Aktuator ist dabei vorzugsweise ein Piezostellelement, mittels dessen hochgenaue Verstellungen im nm-Bereich möglich sind. Hierdurch wird die Fokusverschiebung optimiert, wobei die Art der Ermittlung der virtuellen Objektebene abhängig von der Beobachtungsaufgabe variiert werden kann. Der Laserstrahl wird also nicht dazu benutzt, die Entfernung zu einem bekannten Objekt zu erfassen, sondern dient zur vorausschauenden Abtastung des Geländes, das von der Kamera aufgenommen werden soll, um Objekte zu ermitteln. Aufgrund des oder der erfassten Objekte wird dann ein für die Beobachtungsaufgabe optimierter Fokus automatisch eingestellt.
  • In einer Ausführungsform werden die erfassten realen Objektabstände der Pulsantwort gemittelt. Die Mittelung kann dabei ein einfacher arithmetischer Mittelwert sein. Ebenso ist es denkbar, einen gemittelten Integralwert zu bestimmen. Dieser berücksichtigt dann in Form einer Wichtung die Größe von erfassten Objekten. Der Vorteil einer Mittelung ist die relativ einfache Bestimmung, wobei dann die gewählte virtuelle Objektebene einen guten Kompromiss für die verschiedenen realen Objekte darstellt.
  • In einer alternativen Ausführungsform wird die virtuelle Objektebene oder der virtuelle Objektabstand in den Bereich der kleinsten oder größten erfassten realen Objektabstände verschoben. Diese Ausführungsform kommt vorzugsweise zur Anwendung, wenn aufgrund der Beobachtungsaufgabe bestimmten Objekten eine höhere Priorität zugeordnet ist. In diesem Fall wird der Fokus verstärkt in die Richtung verschoben, wo die interessierenden Objekte erwartet werden.
  • In einer weiteren Ausführungsform werden parallel zwei Laser in unterschiedlichen Spektralbereichen verwendet. Diese erhöht die Erkennung von Objekten, da insbesondere bei schräg einfallendem Licht die BRDF (Bidirektionale Reflektanzverteilungsfunktion) eine größere Rolle spielt.
  • In einer weiteren Ausführungsform sind der Auswerte- und Steuereinheit DTM-Daten zugeordnet, in deren Abhängigkeit eine Voreinstellung durch den Aktuator erfolgt.
  • In einer weiteren Ausführungsform erfolgt bei einer Weltraumkamera die relative Verschiebung zwischen Objekt und Sensor durch eine Verschiebung eines Spiegels des Objektivs, da diese eine geringe Masse aufweisen.
  • Bei einer Luftbildkamera erfolgt hingegen die relative Verschiebung vorzugsweise durch eine Verschiebung einer den optischen Sensor tragenden Fokalebene.
  • Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Fig. zeigen:
  • 1 eine schematische Darstellung einer Szene,
  • 2a eine schematische Darstellung eines Laserpulses über der Zeit,
  • 2b eine schematische Darstellung einer Pulsantwort auf den Laserpuls nach 2a und
  • 3 ein schematisches Blockschaltbild einer Weltraum- oder Luftbildkamera.
  • In der 3 ist ein schematisches Blockschaltbild einer Weltraum- oder Luftbildkamera 1 dargestellt. Die Kamera 1 umfasst ein Objektiv 2 sowie eine Fokalebene 3, auf der mindestens ein optischer Sensor 4 angeordnet ist. Des Weiteren umfasst die Kamera 1 mindestens einen Aktuator 5, mittels dessen die Fokalebene 3 in Richtung der optischen Achse 6 verschiebbar ist. Die Verschiebung kann dabei in Richtung zum Objektiv 2 oder vom Objektiv 2 weg erfolgen. Weiter umfasst die Kamera 1 eine Auswerte- und Steuereinheit 7 sowie einen ersten Laser 8 mit einer Wellenlänge n1 und einen zweiten Laser 9 mit einer zweiten Wellenlänge n2. Die Laser 8, 9 weisen auch Empfangsmittel auf, um reflektierte Laserstrahlung zu empfangen. Die Laser 8, 9 sind dabei derart ausgerichtet, dass diese parallel zur optischen Achse 6 emittieren, und sind räumlich möglichst dicht an der optischen Achse 6 angeordnet. Die Auswerte- und Steuereinheit 7 steuert die Laser 8, 9 pulsförmig an und wertet die empfangenen Pulsantworten aus. In Abhängigkeit dieser Auswertung wird dann der Aktuator 5 angesteuert.
  • Dies soll nun an einer exemplarischen Geländesituation erläutert werden, wie in 1 dargestellt. Das Gelände umfasst ein erstes Objekt O1 und ein zweites Objekt O2. Die Objekte O1, O2 sind beispielsweise Hochhäuser. Die Straßenschlucht zwischen den beiden Objekten O1, O2 wird als Objekt O3 bezeichnet. Über dieses Gelände fliegt nur die Kamera 1. Die Auswerte- und Steuereinheit 7 steuert dann die Laser 8, 9 pulsförmig an, sodass diese jeweils einen Laserpuls 10 emittieren (siehe auch 2a).
  • Dieser Laserpuls 10 trifft entsprechend aufgeweitet auf das Gelände. Je nach Flughöhe der Kamera 1 können daher dem Laser 8, 9 zusätzlich Mittel zur Fokussierung oder zur Aufweitung zugeordnet sein. Dabei sei angenommen, dass der Laserpuls 10 ausreichend aufgeweitet ist, um alle Objekte O1 bis O3 zu treffen. Dabei sei der Einfachheit halber angenommen, die Kamera 1 blickt in Nadirrichtung. Aufgrund der unterschiedlichen Entfernung sind die Laufzeiten der reflektierten Strahlung unterschiedlich. Eine stark vereinfachte Pulsantwort 11 ist in 2b dargestellt, wobei analog zu 2a die Intensität I über der Zeit t aufgetragen ist. Dabei stammt der erste Peak der Pulsantwort 11 vom Objekt O1, der zweite Peak vom Objekt O2 und der dritte Peak vom Objekt O3. Der jeweiligen Laufzeit t1, t2 und t3 der Peaks kann dann ein realer Objektabstand d1–d3 zur Kamera 1 zugeordnet werden (siehe auch 1). Da nun kein einheitlicher Objektabstand existiert, ermittelt nun die Auswerte- und Steuereinheit 7 einen virtuellen Objektabstand dV bzw. eine virtuelle Objektebene EV, beispielsweise wird hierzu der arithmetische Mittelwert (d1 + d2 + d3) : 3 gebildet. Anschließend wird dann der Aktuator 5 entsprechend angesteuert, um den Sensor 4 auf die virtuelle Objektebene EV scharf zu stellen. Somit wird im dargestellten Beispiel kein Objekt O1–O3 scharf abgebildet, aber alle zusammen gesehen weniger unscharf.
  • Die beschriebene Nadirblickrichtung dient insbesondere zur Erläuterung der wesentlichen Begriffe und des Grundprinzips der Erfindung.
  • Besondere Relevanz hat die Erfindung, wenn die Kamera 1 aus der Nadirblickrichtung geschwenkt wird. In diesem Fall kann es schlagartig zu erheblichen Änderungen der Objektabstände kommen. Dies mag an folgendem Beispiel klar werden. Die Kamera fliegt über eine ebene Fläche, wobei in Nadirblickrichtung der Abstand zur Erdoberfläche d betrage. Schwenkt dann die Kamera 1 in 45° Blickrichtung, beträgt der Abstand in Blickrichtung d·√2. Befinden sich nun allerdings höhere Objekte in Blickrichtung (die gegebenenfalls die Blickrichtung voll abdecken), so liefert die Pulsantwort 11 erheblich kürzere Abstände und entsprechend wird der Fokus eingestellt. Würde hingegen bei einer solchen Situation der Fokus auf einen Abstand d·√2 eingestellt werden, so würden die Objekte extrem unscharf abgebildet werden. Die Auswerte- und Steuereinheit 7 regelt also in Abhängigkeit der erfassten Objektabstände den Fokus auf einen virtuellen Objektabstand.
  • Wie nun der virtuelle Objektabstand bzw. die virtuelle Objektebene bestimmt wird, kann nun je nach Beobachtungsaufgabe unterschiedlich sein. So kann beispielsweise der virtuelle Objektabstand als der Abstand zu dem nächsten oder dem am entferntesten erfassten Objekt festgelegt werden. Alternativ kann auch der Abstand zu dem Objekt als virtueller Objektabstand festgelegt werden, dessen Peak die größte Intensität in der Pulsantwort 11 hat. Des Weiteren kann der virtuelle Objektabstand anhand des breitesten Peaks ermittelt werden, wobei dann beispielsweise der virtuelle Abstand aus der Laufzeit in der Mitte des Peaks bestimmt wird.
  • Generell kann bei der Ermittlung der Objektabstände aus den Peaks der Anfang, die Mitte oder das Ende gewählt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10013567 A1 [0005]

Claims (10)

  1. Verfahren zur Autofokussierung eines abbildenden optischen Sensors (4) einer Luftbildkamera oder einer Weltraumkamera (1), wobei die Kamera (1) mindestens ein Objektiv (2), mindestens einen Sensor (4) sowie mindestens einen Aktuator (5) zur relativen Verschiebung von Objektiv (2) und Sensor (4) aufweist, dadurch gekennzeichnet, dass der Kamera (1) mindestens ein Laser (8, 9) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6) der Kamera (1) ausgerichtet ist, wobei eine Auswerte- und Steuereinheit (7) den Laser (8, 9) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11) auswertet, wobei die Auswerte- und Steuereinheit (7) aus der Pulsantwort (11) eine virtuelle Objektebene (EV) oder virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5) Objektiv (2) und Sensor (4) relativ zueinander verschiebt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erfassten realen Objektabstände (d1–d3) der Pulsantwort (11) gemittelt werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die virtuelle Objektebene (EV) der virtuelle Objektabstand (dV) in den Bereich der kleinsten oder größten erfassten realen Objektabstände (d1–d3) verschoben wird.
  4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass parallel zwei Laser (8, 9) in unterschiedlichen Spektralbereichen verwendet werden.
  5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Auswerte- und Steuereinheit (7) DTM-Daten zugeordnet sind, in deren Abhängigkeit eine Voreinstellung durch den Aktuator (5) erfolgt.
  6. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass bei einer Weltraumkamera (1) die relative Verschiebung zwischen Objektiv (2) und Sensor (4) durch eine Verschiebung eines Spiegels erfolgt.
  7. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass bei einer Luftbildkamera (1) die relative Verschiebung zwischen Objektiv (2) und Sensor (4) durch eine Verschiebung des Sensors (4) oder einer Fokalebene (3) erfolgt.
  8. Luftbild- oder Weltraumkamera (1), umfassend mindestens einen abbildenden optischen Sensor (4), mindestens ein Objektiv (2) sowie mindestens einen Aktuator (5) zur relativen Verschiebung von Objektiv (2) und Sensor (4), dadurch gekennzeichnet, dass der Kamera (1) mindestens ein Laser (8, 9) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6) der Kamera (1) ausgerichtet ist, wobei dem Laser (8, 9) eine Auswerte- und Steuereinheit (7) zugeordnet ist, die derart ausgebildet ist, dass die Auswerte- und Steuereinheit (7) den Laser (8, 9) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11) auswertet, wobei die Auswerte- und Steuereinheit (7) aus der Pulsantwort (11) eine virtuelle Objektebene (EV) oder einen virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5) Objektiv (2) und Sensor (4) relativ zueinander verschiebt.
  9. Luftbild- oder Weltraumkamera nach Anspruch 8, dadurch gekennzeichnet, dass die Auswerte- und Steuereinheit (7) derart ausgebildet ist, dass die erfassten realen Objektabstände (d1–d3) der Pulsantwort (11) gemittelt werden.
  10. Luftbildkamera nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Kamera (1) zwei Laser (8, 9) im unterschiedlichen Spektralbereich aufweist.
DE102013220577.5A 2013-10-11 2013-10-11 Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera Active DE102013220577B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013220577.5A DE102013220577B4 (de) 2013-10-11 2013-10-11 Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013220577.5A DE102013220577B4 (de) 2013-10-11 2013-10-11 Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera

Publications (2)

Publication Number Publication Date
DE102013220577A1 true DE102013220577A1 (de) 2015-04-16
DE102013220577B4 DE102013220577B4 (de) 2017-01-05

Family

ID=52737920

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013220577.5A Active DE102013220577B4 (de) 2013-10-11 2013-10-11 Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera

Country Status (1)

Country Link
DE (1) DE102013220577B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105334594A (zh) * 2015-12-16 2016-02-17 中国人民解放军国防科学技术大学 卫星遥感相机对焦装置及其对焦方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111024068A (zh) * 2019-12-18 2020-04-17 中国空间技术研究院 一种空间光学相机的无地面控制点成像方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10013567A1 (de) 2000-03-14 2001-09-27 Deutsch Zentr Luft & Raumfahrt Luftbildkamera für die Photogrammetrie

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9622253D0 (en) * 1996-10-25 1997-10-01 Council Cent Lab Res Councils Camera system
US6130705A (en) * 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
US7502064B2 (en) * 2004-08-10 2009-03-10 Hewlett-Packard Development Company, L.P. Using light pulses to implement auto-focus in a digital camera
US7639347B2 (en) * 2007-02-14 2009-12-29 Leica Geosystems Ag High-speed laser ranging system including a fiber laser

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10013567A1 (de) 2000-03-14 2001-09-27 Deutsch Zentr Luft & Raumfahrt Luftbildkamera für die Photogrammetrie

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105334594A (zh) * 2015-12-16 2016-02-17 中国人民解放军国防科学技术大学 卫星遥感相机对焦装置及其对焦方法
CN105334594B (zh) * 2015-12-16 2016-09-07 中国人民解放军国防科学技术大学 卫星遥感相机对焦装置及其对焦方法

Also Published As

Publication number Publication date
DE102013220577B4 (de) 2017-01-05

Similar Documents

Publication Publication Date Title
EP1836455B1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
EP3058414B1 (de) Scanmikroskop und verfahren zum bestimmung der punkt-spreiz-funktion (psf) eines scanmikroskops
DE3731037A1 (de) Laser-abbildungssystem mit detektorzeile
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
EP3548842B1 (de) Verfahren und vorrichtung zur georeferenzierung von luftbilddaten mit hilfe von sar-bilddaten
DE102009027372A1 (de) Kamera für ein Fahrzeug
DE102013210887A1 (de) Optische Sensoranordnung für ein Fahrzeug und Fahrzeug mit einer derartigen Sensoranordnung
DE212017000248U1 (de) LiDAR-Vorrichtung
EP3029494A1 (de) Optoelektronischer Sensor
DE102015121403A1 (de) Lichtfeld-bildgebung mit scanoptik
EP2944919A1 (de) Geodätisches Gerät mit diffraktiven optischen Elementen
DE102013220577B4 (de) Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera
DE102019123449A1 (de) Lichtlaufzeitkamerasystem mit hohem Dynamikumfang
EP3345032A1 (de) Verfahren zur bestimmung einer höhenlage eines objekts
DE102014224903A1 (de) Optischer Umfeldsensor für Fahrzeuge
EP0918979B1 (de) Stereokamera für die photogrammetrie
DE102019218065A1 (de) Größen- und Positionsanpassung von Mikrolinsen auf einem Bildsensor zur Korrektur der chromatischen Aberration
DE102013102988A1 (de) Lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten
WO2023111252A1 (de) Verfahren zur vermessung von heliostaten und verfahren zur kalibrierung von heliostaten
DE102011015478A1 (de) Vorrichtung und Verfahren zur Erfassung und Analyse von Laserstrahlung
DE102008031412A1 (de) Vorrichtung und Verfahren zur Beobachtung mehrerer auf einer Linie angeordneter Messpunkte auf einer zu vermessenden Objektoberfläche
DE102014115292A1 (de) Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug
DE102015003392B4 (de) Optische Triangulations-Sensoranordnung und Linsenanordnung hierfür
DE102017221797A1 (de) Lidar-System zur Umfelderfassung und Verfahren zum Betreiben eines Lidar-Systems
DD253688A1 (de) Optische anordnung und verfahren zur lichtelektrischen entfernungseinstellung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final