DE102013220577A1 - Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera - Google Patents
Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera Download PDFInfo
- Publication number
- DE102013220577A1 DE102013220577A1 DE201310220577 DE102013220577A DE102013220577A1 DE 102013220577 A1 DE102013220577 A1 DE 102013220577A1 DE 201310220577 DE201310220577 DE 201310220577 DE 102013220577 A DE102013220577 A DE 102013220577A DE 102013220577 A1 DE102013220577 A1 DE 102013220577A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- sensor
- aerial
- evaluation
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000003384 imaging method Methods 0.000 title claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims abstract description 20
- 238000006073 displacement reaction Methods 0.000 claims abstract description 12
- 230000003595 spectral effect Effects 0.000 claims description 4
- 239000002689 soil Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/18—Focusing aids
- G03B13/20—Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B3/00—Focusing arrangements of general interest for cameras, projectors or printers
- G03B3/10—Power-operated focusing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors (4) einer Luftbildkamera oder einer Weltraumkamera (1), wobei die Kamera (1) mindestens ein Objektiv (2), mindestens einen Sensor (4) sowie mindestens einen Aktuator (5) zur relativen Verschiebung von Objektiv (2) und Sensor (4) aufweist, wobei der Kamera (1) mindestens ein Laser (8, 9) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6) der Kamera (1) ausgerichtet ist, wobei eine Auswerte- und Steuereinheit (7) den Laser (8, 9) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11) auswertet, wobei die Auswerte- und Steuereinheit (7) aus der Pulsantwort (11) eine virtuelle Objektebene (EV) oder virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5) Objektiv (2) und Sensor (4) relativ zueinander verschiebt, sowie eine solche Luftbild- oder Weltraumkamera (1).
Description
- Die Erfindung betrifft ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera sowie eine solche Luftbild- oder Weltraumkamera.
- Derartige Kameras sind seit längerem bekannt und arbeiten in den verschiedensten Wellenlängenbereichen von beispielsweise 400 nm bis 15 µm. Dabei werden je nach Anwendung panchromatische oder spektrale Aufnahmen durchgeführt. Die abbildenden Sensoren können dabei als Zeilen-, Matrix- oder TDI-Sensoren ausgebildet sein. Die damit zu erreichenden Auflösungen bei Erdbeobachtungen liegen beispielsweise im Bereich von ca. 20 cm. Dabei sei angemerkt, dass die Weltraumkameras auch als Weltraumteleskope bezeichnet werden.
- Die Kameras arbeiten bei senkrechter Blickrichtung (NADIR) im Regelfall sehr gut. Allerdings führen starke Gebäudedynamiken wie beispielsweise Häuserschluchten oder Gebirge zu Ungenauigkeiten, wenn mit sehr großen Auflösungen gearbeitet wird, was zu unscharfen Abbildungen führt.
- Verschärft wird dieses Problem, wenn die Kamera Roll- oder Nickbewegungen durchführt. Derartige Roll- und Nickbewegungen mit einem Schwenkbereich bis zu +/–40° sind keine Seltenheit, beispielsweise weil eine hohe Wiederholrate in der Abtastung eines bestimmten Gebiets gefordert wird. In diesem Fall kommt es zu einer starken Veränderung des Abbildungsmaßstabes, auf den die Kamera nicht reagieren kann. Daher wird üblicherweise der Sensor auf eine diskrete Entfernung eingestellt und die Verschlechterung der MTF (Modulation Transfer Function) hingenommen.
- Aus der
DE 100 13 567 A1 ist eine Luftbildkamera für die Photogrammetrie bekannt, umfassend ein Objektiv und eine Fokalebene, auf der photosensitive elektrische Bauelemente angeordnet sind, wobei der Fokalebene eine in Richtung der optischen Achse wirkende Stelleinrichtung zugeordnet ist, wobei die Luftbildkamera mindestens einen Sensor zur Erfassung einer Fokusdrift oder einer Größe zur Abschätzung der Fokusdrift umfasst, wobei die Fokalebene in Abhängigkeit von der erfassten oder geschätzten Fokusdrift entgegen der Fokusdrift in der optischen Achse bewegbar ist. Ein Problem ist, dass ohne Kenntnis des Bodenprofils die Änderung des realen Objektabstandes aufgrund des Bodenprofils bzw. der Schwenkung der Kamera die Fokusdrift in diesen Bereichen nicht ermittelbar ist. Ein weiteres Problem ist, dass es bei einer großen Dynamik des Bodenprofils ohnehin keinen optimalen Fokus gibt. - Eine denkbare Lösung wäre eine Steuerung aufgrund eines bekannten Digital Terrain Models des zu überfliegenden Gebiets. Allerdings stehen solche Modelle für bestimmte Gebiete nicht zur Verfügung. Darüber hinaus müsste beispielsweise eine Weltraumkamera enormen Speicherplatz vorhalten.
- Im Bereich der Phototechnik ist es angedacht worden, einen Laserpointer zu integrieren, der einen Abstand zu einem Objekt erfasst und dann in Abhängigkeit von dem erfassten Abstand des Objekts eine Autofokussierung vorzunehmen.
- Der Erfindung liegt das technische Problem zugrunde, ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera zur Verfügung zu stellen sowie eine solche Luftbildkamera oder Weltraumkamera zu schaffen, mittels derer der Fokusdrift aufgrund von dynamischen Geländeprofilen oder aufgrund von Schwenkbewegungen der Kamera reduziert wird.
- Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den Merkmalen der Patentansprüche 1 und 8. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
- Das Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera, wobei die Kamera mindestens ein Objektiv, mindestens einen Sensor, mindestens einen Aktuator zur relativen Verschiebung von Objektiv und Sensor, mindestens einen Laser, dessen Abstrahlrichtung parallel zur optischen Achse der Kamera ausgerichtet ist, und eine Auswerte- und Steuereinheit umfasst, weist die folgenden Verfahrensschritte auf: Die Auswerte- und Steuereinheit steuert den Laser derart, dass dieser einen Laserpuls emittiert. Die Auswerte- und Steuereinheit empfängt die vom Boden reflektierte Pulsantwort und wertet diese aus. Die Pulsantwort ist üblicherweise verbreitert und enthält Anteile von verschiedenen Objekten mit unterschiedlichen realen Objektabständen. Der Grund hierfür ist, dass aufgrund der Entfernung von Kamera zum Boden (z.B. 10–500 km) der Laserstrahl sich entsprechend aufgeweitet hat und beispielsweise einen Durchmesser von 10–1000 m, vorzugsweise 50–150 m, an der Erdoberfläche aufweist. Aus dieser Pulsantwort ermittelt dann die Auswerte- und Steuereinheit eine virtuelle Objektebene oder einen virtuellen Objektabstand, in deren oder dessen Abhängigkeit der Aktuator Objektiv und Sensor relativ zueinander verschiebt. Der Aktuator ist dabei vorzugsweise ein Piezostellelement, mittels dessen hochgenaue Verstellungen im nm-Bereich möglich sind. Hierdurch wird die Fokusverschiebung optimiert, wobei die Art der Ermittlung der virtuellen Objektebene abhängig von der Beobachtungsaufgabe variiert werden kann. Der Laserstrahl wird also nicht dazu benutzt, die Entfernung zu einem bekannten Objekt zu erfassen, sondern dient zur vorausschauenden Abtastung des Geländes, das von der Kamera aufgenommen werden soll, um Objekte zu ermitteln. Aufgrund des oder der erfassten Objekte wird dann ein für die Beobachtungsaufgabe optimierter Fokus automatisch eingestellt.
- In einer Ausführungsform werden die erfassten realen Objektabstände der Pulsantwort gemittelt. Die Mittelung kann dabei ein einfacher arithmetischer Mittelwert sein. Ebenso ist es denkbar, einen gemittelten Integralwert zu bestimmen. Dieser berücksichtigt dann in Form einer Wichtung die Größe von erfassten Objekten. Der Vorteil einer Mittelung ist die relativ einfache Bestimmung, wobei dann die gewählte virtuelle Objektebene einen guten Kompromiss für die verschiedenen realen Objekte darstellt.
- In einer alternativen Ausführungsform wird die virtuelle Objektebene oder der virtuelle Objektabstand in den Bereich der kleinsten oder größten erfassten realen Objektabstände verschoben. Diese Ausführungsform kommt vorzugsweise zur Anwendung, wenn aufgrund der Beobachtungsaufgabe bestimmten Objekten eine höhere Priorität zugeordnet ist. In diesem Fall wird der Fokus verstärkt in die Richtung verschoben, wo die interessierenden Objekte erwartet werden.
- In einer weiteren Ausführungsform werden parallel zwei Laser in unterschiedlichen Spektralbereichen verwendet. Diese erhöht die Erkennung von Objekten, da insbesondere bei schräg einfallendem Licht die BRDF (Bidirektionale Reflektanzverteilungsfunktion) eine größere Rolle spielt.
- In einer weiteren Ausführungsform sind der Auswerte- und Steuereinheit DTM-Daten zugeordnet, in deren Abhängigkeit eine Voreinstellung durch den Aktuator erfolgt.
- In einer weiteren Ausführungsform erfolgt bei einer Weltraumkamera die relative Verschiebung zwischen Objekt und Sensor durch eine Verschiebung eines Spiegels des Objektivs, da diese eine geringe Masse aufweisen.
- Bei einer Luftbildkamera erfolgt hingegen die relative Verschiebung vorzugsweise durch eine Verschiebung einer den optischen Sensor tragenden Fokalebene.
- Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Fig. zeigen:
-
1 eine schematische Darstellung einer Szene, -
2a eine schematische Darstellung eines Laserpulses über der Zeit, -
2b eine schematische Darstellung einer Pulsantwort auf den Laserpuls nach2a und -
3 ein schematisches Blockschaltbild einer Weltraum- oder Luftbildkamera. - In der
3 ist ein schematisches Blockschaltbild einer Weltraum- oder Luftbildkamera1 dargestellt. Die Kamera1 umfasst ein Objektiv2 sowie eine Fokalebene3 , auf der mindestens ein optischer Sensor4 angeordnet ist. Des Weiteren umfasst die Kamera1 mindestens einen Aktuator5 , mittels dessen die Fokalebene3 in Richtung der optischen Achse6 verschiebbar ist. Die Verschiebung kann dabei in Richtung zum Objektiv2 oder vom Objektiv2 weg erfolgen. Weiter umfasst die Kamera1 eine Auswerte- und Steuereinheit7 sowie einen ersten Laser8 mit einer Wellenlänge n1 und einen zweiten Laser9 mit einer zweiten Wellenlänge n2. Die Laser8 ,9 weisen auch Empfangsmittel auf, um reflektierte Laserstrahlung zu empfangen. Die Laser8 ,9 sind dabei derart ausgerichtet, dass diese parallel zur optischen Achse6 emittieren, und sind räumlich möglichst dicht an der optischen Achse6 angeordnet. Die Auswerte- und Steuereinheit7 steuert die Laser8 ,9 pulsförmig an und wertet die empfangenen Pulsantworten aus. In Abhängigkeit dieser Auswertung wird dann der Aktuator5 angesteuert. - Dies soll nun an einer exemplarischen Geländesituation erläutert werden, wie in
1 dargestellt. Das Gelände umfasst ein erstes Objekt O1 und ein zweites Objekt O2. Die Objekte O1, O2 sind beispielsweise Hochhäuser. Die Straßenschlucht zwischen den beiden Objekten O1, O2 wird als Objekt O3 bezeichnet. Über dieses Gelände fliegt nur die Kamera1 . Die Auswerte- und Steuereinheit7 steuert dann die Laser8 ,9 pulsförmig an, sodass diese jeweils einen Laserpuls10 emittieren (siehe auch2a ). - Dieser Laserpuls
10 trifft entsprechend aufgeweitet auf das Gelände. Je nach Flughöhe der Kamera1 können daher dem Laser8 ,9 zusätzlich Mittel zur Fokussierung oder zur Aufweitung zugeordnet sein. Dabei sei angenommen, dass der Laserpuls10 ausreichend aufgeweitet ist, um alle Objekte O1 bis O3 zu treffen. Dabei sei der Einfachheit halber angenommen, die Kamera1 blickt in Nadirrichtung. Aufgrund der unterschiedlichen Entfernung sind die Laufzeiten der reflektierten Strahlung unterschiedlich. Eine stark vereinfachte Pulsantwort11 ist in2b dargestellt, wobei analog zu2a die Intensität I über der Zeit t aufgetragen ist. Dabei stammt der erste Peak der Pulsantwort11 vom Objekt O1, der zweite Peak vom Objekt O2 und der dritte Peak vom Objekt O3. Der jeweiligen Laufzeit t1, t2 und t3 der Peaks kann dann ein realer Objektabstand d1–d3 zur Kamera1 zugeordnet werden (siehe auch1 ). Da nun kein einheitlicher Objektabstand existiert, ermittelt nun die Auswerte- und Steuereinheit7 einen virtuellen Objektabstand dV bzw. eine virtuelle Objektebene EV, beispielsweise wird hierzu der arithmetische Mittelwert (d1 + d2 + d3) : 3 gebildet. Anschließend wird dann der Aktuator5 entsprechend angesteuert, um den Sensor4 auf die virtuelle Objektebene EV scharf zu stellen. Somit wird im dargestellten Beispiel kein Objekt O1–O3 scharf abgebildet, aber alle zusammen gesehen weniger unscharf. - Die beschriebene Nadirblickrichtung dient insbesondere zur Erläuterung der wesentlichen Begriffe und des Grundprinzips der Erfindung.
- Besondere Relevanz hat die Erfindung, wenn die Kamera
1 aus der Nadirblickrichtung geschwenkt wird. In diesem Fall kann es schlagartig zu erheblichen Änderungen der Objektabstände kommen. Dies mag an folgendem Beispiel klar werden. Die Kamera fliegt über eine ebene Fläche, wobei in Nadirblickrichtung der Abstand zur Erdoberfläche d betrage. Schwenkt dann die Kamera1 in 45° Blickrichtung, beträgt der Abstand in Blickrichtung d·√2. Befinden sich nun allerdings höhere Objekte in Blickrichtung (die gegebenenfalls die Blickrichtung voll abdecken), so liefert die Pulsantwort11 erheblich kürzere Abstände und entsprechend wird der Fokus eingestellt. Würde hingegen bei einer solchen Situation der Fokus auf einen Abstand d·√2 eingestellt werden, so würden die Objekte extrem unscharf abgebildet werden. Die Auswerte- und Steuereinheit7 regelt also in Abhängigkeit der erfassten Objektabstände den Fokus auf einen virtuellen Objektabstand. - Wie nun der virtuelle Objektabstand bzw. die virtuelle Objektebene bestimmt wird, kann nun je nach Beobachtungsaufgabe unterschiedlich sein. So kann beispielsweise der virtuelle Objektabstand als der Abstand zu dem nächsten oder dem am entferntesten erfassten Objekt festgelegt werden. Alternativ kann auch der Abstand zu dem Objekt als virtueller Objektabstand festgelegt werden, dessen Peak die größte Intensität in der Pulsantwort
11 hat. Des Weiteren kann der virtuelle Objektabstand anhand des breitesten Peaks ermittelt werden, wobei dann beispielsweise der virtuelle Abstand aus der Laufzeit in der Mitte des Peaks bestimmt wird. - Generell kann bei der Ermittlung der Objektabstände aus den Peaks der Anfang, die Mitte oder das Ende gewählt werden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 10013567 A1 [0005]
Claims (10)
- Verfahren zur Autofokussierung eines abbildenden optischen Sensors (
4 ) einer Luftbildkamera oder einer Weltraumkamera (1 ), wobei die Kamera (1 ) mindestens ein Objektiv (2 ), mindestens einen Sensor (4 ) sowie mindestens einen Aktuator (5 ) zur relativen Verschiebung von Objektiv (2 ) und Sensor (4 ) aufweist, dadurch gekennzeichnet, dass der Kamera (1 ) mindestens ein Laser (8 ,9 ) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6 ) der Kamera (1 ) ausgerichtet ist, wobei eine Auswerte- und Steuereinheit (7 ) den Laser (8 ,9 ) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11 ) auswertet, wobei die Auswerte- und Steuereinheit (7 ) aus der Pulsantwort (11 ) eine virtuelle Objektebene (EV) oder virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5 ) Objektiv (2 ) und Sensor (4 ) relativ zueinander verschiebt. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erfassten realen Objektabstände (d1–d3) der Pulsantwort (
11 ) gemittelt werden. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die virtuelle Objektebene (EV) der virtuelle Objektabstand (dV) in den Bereich der kleinsten oder größten erfassten realen Objektabstände (d1–d3) verschoben wird.
- Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass parallel zwei Laser (
8 ,9 ) in unterschiedlichen Spektralbereichen verwendet werden. - Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Auswerte- und Steuereinheit (
7 ) DTM-Daten zugeordnet sind, in deren Abhängigkeit eine Voreinstellung durch den Aktuator (5 ) erfolgt. - Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass bei einer Weltraumkamera (
1 ) die relative Verschiebung zwischen Objektiv (2 ) und Sensor (4 ) durch eine Verschiebung eines Spiegels erfolgt. - Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass bei einer Luftbildkamera (
1 ) die relative Verschiebung zwischen Objektiv (2 ) und Sensor (4 ) durch eine Verschiebung des Sensors (4 ) oder einer Fokalebene (3 ) erfolgt. - Luftbild- oder Weltraumkamera (
1 ), umfassend mindestens einen abbildenden optischen Sensor (4 ), mindestens ein Objektiv (2 ) sowie mindestens einen Aktuator (5 ) zur relativen Verschiebung von Objektiv (2 ) und Sensor (4 ), dadurch gekennzeichnet, dass der Kamera (1 ) mindestens ein Laser (8 ,9 ) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6 ) der Kamera (1 ) ausgerichtet ist, wobei dem Laser (8 ,9 ) eine Auswerte- und Steuereinheit (7 ) zugeordnet ist, die derart ausgebildet ist, dass die Auswerte- und Steuereinheit (7 ) den Laser (8 ,9 ) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11 ) auswertet, wobei die Auswerte- und Steuereinheit (7 ) aus der Pulsantwort (11 ) eine virtuelle Objektebene (EV) oder einen virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5 ) Objektiv (2 ) und Sensor (4 ) relativ zueinander verschiebt. - Luftbild- oder Weltraumkamera nach Anspruch 8, dadurch gekennzeichnet, dass die Auswerte- und Steuereinheit (
7 ) derart ausgebildet ist, dass die erfassten realen Objektabstände (d1–d3) der Pulsantwort (11 ) gemittelt werden. - Luftbildkamera nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Kamera (
1 ) zwei Laser (8 ,9 ) im unterschiedlichen Spektralbereich aufweist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013220577.5A DE102013220577B4 (de) | 2013-10-11 | 2013-10-11 | Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013220577.5A DE102013220577B4 (de) | 2013-10-11 | 2013-10-11 | Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102013220577A1 true DE102013220577A1 (de) | 2015-04-16 |
DE102013220577B4 DE102013220577B4 (de) | 2017-01-05 |
Family
ID=52737920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013220577.5A Active DE102013220577B4 (de) | 2013-10-11 | 2013-10-11 | Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013220577B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105334594A (zh) * | 2015-12-16 | 2016-02-17 | 中国人民解放军国防科学技术大学 | 卫星遥感相机对焦装置及其对焦方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111024068A (zh) * | 2019-12-18 | 2020-04-17 | 中国空间技术研究院 | 一种空间光学相机的无地面控制点成像方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10013567A1 (de) | 2000-03-14 | 2001-09-27 | Deutsch Zentr Luft & Raumfahrt | Luftbildkamera für die Photogrammetrie |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9622253D0 (en) * | 1996-10-25 | 1997-10-01 | Council Cent Lab Res Councils | Camera system |
US6130705A (en) * | 1998-07-10 | 2000-10-10 | Recon/Optical, Inc. | Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use |
US7502064B2 (en) * | 2004-08-10 | 2009-03-10 | Hewlett-Packard Development Company, L.P. | Using light pulses to implement auto-focus in a digital camera |
US7639347B2 (en) * | 2007-02-14 | 2009-12-29 | Leica Geosystems Ag | High-speed laser ranging system including a fiber laser |
-
2013
- 2013-10-11 DE DE102013220577.5A patent/DE102013220577B4/de active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10013567A1 (de) | 2000-03-14 | 2001-09-27 | Deutsch Zentr Luft & Raumfahrt | Luftbildkamera für die Photogrammetrie |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105334594A (zh) * | 2015-12-16 | 2016-02-17 | 中国人民解放军国防科学技术大学 | 卫星遥感相机对焦装置及其对焦方法 |
CN105334594B (zh) * | 2015-12-16 | 2016-09-07 | 中国人民解放军国防科学技术大学 | 卫星遥感相机对焦装置及其对焦方法 |
Also Published As
Publication number | Publication date |
---|---|
DE102013220577B4 (de) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1836455B1 (de) | Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles | |
EP3058414B1 (de) | Scanmikroskop und verfahren zum bestimmung der punkt-spreiz-funktion (psf) eines scanmikroskops | |
DE3731037A1 (de) | Laser-abbildungssystem mit detektorzeile | |
DE102016206493A1 (de) | Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug | |
EP3548842B1 (de) | Verfahren und vorrichtung zur georeferenzierung von luftbilddaten mit hilfe von sar-bilddaten | |
DE102009027372A1 (de) | Kamera für ein Fahrzeug | |
DE102013210887A1 (de) | Optische Sensoranordnung für ein Fahrzeug und Fahrzeug mit einer derartigen Sensoranordnung | |
DE212017000248U1 (de) | LiDAR-Vorrichtung | |
EP3029494A1 (de) | Optoelektronischer Sensor | |
DE102015121403A1 (de) | Lichtfeld-bildgebung mit scanoptik | |
EP2944919A1 (de) | Geodätisches Gerät mit diffraktiven optischen Elementen | |
DE102013220577B4 (de) | Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera und Luftbild- oder Weltraumkamera | |
DE102019123449A1 (de) | Lichtlaufzeitkamerasystem mit hohem Dynamikumfang | |
EP3345032A1 (de) | Verfahren zur bestimmung einer höhenlage eines objekts | |
DE102014224903A1 (de) | Optischer Umfeldsensor für Fahrzeuge | |
EP0918979B1 (de) | Stereokamera für die photogrammetrie | |
DE102019218065A1 (de) | Größen- und Positionsanpassung von Mikrolinsen auf einem Bildsensor zur Korrektur der chromatischen Aberration | |
DE102013102988A1 (de) | Lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten | |
WO2023111252A1 (de) | Verfahren zur vermessung von heliostaten und verfahren zur kalibrierung von heliostaten | |
DE102011015478A1 (de) | Vorrichtung und Verfahren zur Erfassung und Analyse von Laserstrahlung | |
DE102008031412A1 (de) | Vorrichtung und Verfahren zur Beobachtung mehrerer auf einer Linie angeordneter Messpunkte auf einer zu vermessenden Objektoberfläche | |
DE102014115292A1 (de) | Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug | |
DE102015003392B4 (de) | Optische Triangulations-Sensoranordnung und Linsenanordnung hierfür | |
DE102017221797A1 (de) | Lidar-System zur Umfelderfassung und Verfahren zum Betreiben eines Lidar-Systems | |
DD253688A1 (de) | Optische anordnung und verfahren zur lichtelektrischen entfernungseinstellung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |