DE102013220577A1 - Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera - Google Patents

Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera Download PDF

Info

Publication number
DE102013220577A1
DE102013220577A1 DE201310220577 DE102013220577A DE102013220577A1 DE 102013220577 A1 DE102013220577 A1 DE 102013220577A1 DE 201310220577 DE201310220577 DE 201310220577 DE 102013220577 A DE102013220577 A DE 102013220577A DE 102013220577 A1 DE102013220577 A1 DE 102013220577A1
Authority
DE
Germany
Prior art keywords
camera
sensor
aerial
evaluation
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201310220577
Other languages
German (de)
Other versions
DE102013220577B4 (en
Inventor
Dr.-Ing. Eckhardt Andreas
Ralf Prof. Dr. Reulke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102013220577.5A priority Critical patent/DE102013220577B4/en
Publication of DE102013220577A1 publication Critical patent/DE102013220577A1/en
Application granted granted Critical
Publication of DE102013220577B4 publication Critical patent/DE102013220577B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors (4) einer Luftbildkamera oder einer Weltraumkamera (1), wobei die Kamera (1) mindestens ein Objektiv (2), mindestens einen Sensor (4) sowie mindestens einen Aktuator (5) zur relativen Verschiebung von Objektiv (2) und Sensor (4) aufweist, wobei der Kamera (1) mindestens ein Laser (8, 9) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6) der Kamera (1) ausgerichtet ist, wobei eine Auswerte- und Steuereinheit (7) den Laser (8, 9) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11) auswertet, wobei die Auswerte- und Steuereinheit (7) aus der Pulsantwort (11) eine virtuelle Objektebene (EV) oder virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5) Objektiv (2) und Sensor (4) relativ zueinander verschiebt, sowie eine solche Luftbild- oder Weltraumkamera (1).The invention relates to a method for autofocusing an imaging optical sensor (4) of an aerial camera or a space camera (1), the camera (1) comprising at least one objective (2), at least one sensor (4) and at least one actuator (5) relative displacement of the lens (2) and sensor (4), wherein the camera (1) at least one laser (8, 9) is associated with the emission direction is aligned parallel to the optical axis (6) of the camera (1), wherein a Evaluation and control unit (7) the laser (8, 9) drives pulse-shaped and evaluates the received reflected pulse response (11), wherein the evaluation and control unit (7) from the pulse response (11) a virtual object plane (EV) or virtual object distance (dV) determines in whose or whose dependency the actuator (5) shifts the objective (2) and sensor (4) relative to each other, as well as such an aerial or space camera (1).

Description

Die Erfindung betrifft ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera sowie eine solche Luftbild- oder Weltraumkamera. The invention relates to a method for autofocusing an imaging optical sensor of an aerial camera or a space camera and such an aerial or space camera.

Derartige Kameras sind seit längerem bekannt und arbeiten in den verschiedensten Wellenlängenbereichen von beispielsweise 400 nm bis 15 µm. Dabei werden je nach Anwendung panchromatische oder spektrale Aufnahmen durchgeführt. Die abbildenden Sensoren können dabei als Zeilen-, Matrix- oder TDI-Sensoren ausgebildet sein. Die damit zu erreichenden Auflösungen bei Erdbeobachtungen liegen beispielsweise im Bereich von ca. 20 cm. Dabei sei angemerkt, dass die Weltraumkameras auch als Weltraumteleskope bezeichnet werden. Such cameras have been known for a long time and operate in the most diverse wavelength ranges of, for example, 400 nm to 15 μm. Depending on the application, panchromatic or spectral images are taken. The imaging sensors can be designed as line, matrix or TDI sensors. The achievable resolutions for earth observations are, for example, in the range of about 20 cm. It should be noted that the space cameras are also referred to as space telescopes.

Die Kameras arbeiten bei senkrechter Blickrichtung (NADIR) im Regelfall sehr gut. Allerdings führen starke Gebäudedynamiken wie beispielsweise Häuserschluchten oder Gebirge zu Ungenauigkeiten, wenn mit sehr großen Auflösungen gearbeitet wird, was zu unscharfen Abbildungen führt. As a rule, the cameras work very well in the vertical direction of view (NADIR). However, strong building dynamics such as urban canyons or mountains lead to inaccuracies when working with very large resolutions, resulting in blurred images.

Verschärft wird dieses Problem, wenn die Kamera Roll- oder Nickbewegungen durchführt. Derartige Roll- und Nickbewegungen mit einem Schwenkbereich bis zu +/–40° sind keine Seltenheit, beispielsweise weil eine hohe Wiederholrate in der Abtastung eines bestimmten Gebiets gefordert wird. In diesem Fall kommt es zu einer starken Veränderung des Abbildungsmaßstabes, auf den die Kamera nicht reagieren kann. Daher wird üblicherweise der Sensor auf eine diskrete Entfernung eingestellt und die Verschlechterung der MTF (Modulation Transfer Function) hingenommen. This problem is exacerbated when the camera is rolling or pitching. Such rolling and pitching movements with a swivel range up to +/- 40 ° are not uncommon, for example because a high repetition rate in the scanning of a particular area is required. In this case, there is a strong change in the magnification, to which the camera can not respond. Therefore, the sensor is usually set to a discrete distance and the degradation of the MTF (Modulation Transfer Function) is accepted.

Aus der DE 100 13 567 A1 ist eine Luftbildkamera für die Photogrammetrie bekannt, umfassend ein Objektiv und eine Fokalebene, auf der photosensitive elektrische Bauelemente angeordnet sind, wobei der Fokalebene eine in Richtung der optischen Achse wirkende Stelleinrichtung zugeordnet ist, wobei die Luftbildkamera mindestens einen Sensor zur Erfassung einer Fokusdrift oder einer Größe zur Abschätzung der Fokusdrift umfasst, wobei die Fokalebene in Abhängigkeit von der erfassten oder geschätzten Fokusdrift entgegen der Fokusdrift in der optischen Achse bewegbar ist. Ein Problem ist, dass ohne Kenntnis des Bodenprofils die Änderung des realen Objektabstandes aufgrund des Bodenprofils bzw. der Schwenkung der Kamera die Fokusdrift in diesen Bereichen nicht ermittelbar ist. Ein weiteres Problem ist, dass es bei einer großen Dynamik des Bodenprofils ohnehin keinen optimalen Fokus gibt. From the DE 100 13 567 A1 An aerial camera for photogrammetry is known, comprising an objective and a focal plane, are arranged on the photosensitive electrical components, wherein the focal plane is assigned an acting in the direction of the optical axis adjusting device, wherein the aerial camera at least one sensor for detecting a focus drift or a size for estimating the focus drift, wherein the focal plane in response to the detected or estimated focus drift against the focus drift in the optical axis is movable. A problem is that without knowledge of the soil profile, the change in the real object distance due to the soil profile or the tilt of the camera, the focus drift in these areas can not be determined. Another problem is that there is no optimal focus anyway given a large dynamic of the soil profile.

Eine denkbare Lösung wäre eine Steuerung aufgrund eines bekannten Digital Terrain Models des zu überfliegenden Gebiets. Allerdings stehen solche Modelle für bestimmte Gebiete nicht zur Verfügung. Darüber hinaus müsste beispielsweise eine Weltraumkamera enormen Speicherplatz vorhalten. A conceivable solution would be a control based on a known digital terrain model of the area to be overflown. However, such models are not available for certain areas. In addition, for example, a space camera would require enormous storage space.

Im Bereich der Phototechnik ist es angedacht worden, einen Laserpointer zu integrieren, der einen Abstand zu einem Objekt erfasst und dann in Abhängigkeit von dem erfassten Abstand des Objekts eine Autofokussierung vorzunehmen. In the field of phototechnology, it has been considered to integrate a laser pointer, which detects a distance to an object and then perform an autofocusing in dependence on the detected distance of the object.

Der Erfindung liegt das technische Problem zugrunde, ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera zur Verfügung zu stellen sowie eine solche Luftbildkamera oder Weltraumkamera zu schaffen, mittels derer der Fokusdrift aufgrund von dynamischen Geländeprofilen oder aufgrund von Schwenkbewegungen der Kamera reduziert wird. The invention is based on the technical problem of providing a method for autofocusing an imaging optical sensor of an aerial camera or a space camera and to provide such an aerial camera or space camera, by means of which the focus drift is reduced due to dynamic terrain profiles or due to pivoting movements of the camera ,

Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den Merkmalen der Patentansprüche 1 und 8. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen. The solution of the technical problem results from the objects with the features of claims 1 and 8. Further advantageous embodiments of the invention will become apparent from the dependent claims.

Das Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera, wobei die Kamera mindestens ein Objektiv, mindestens einen Sensor, mindestens einen Aktuator zur relativen Verschiebung von Objektiv und Sensor, mindestens einen Laser, dessen Abstrahlrichtung parallel zur optischen Achse der Kamera ausgerichtet ist, und eine Auswerte- und Steuereinheit umfasst, weist die folgenden Verfahrensschritte auf: Die Auswerte- und Steuereinheit steuert den Laser derart, dass dieser einen Laserpuls emittiert. Die Auswerte- und Steuereinheit empfängt die vom Boden reflektierte Pulsantwort und wertet diese aus. Die Pulsantwort ist üblicherweise verbreitert und enthält Anteile von verschiedenen Objekten mit unterschiedlichen realen Objektabständen. Der Grund hierfür ist, dass aufgrund der Entfernung von Kamera zum Boden (z.B. 10–500 km) der Laserstrahl sich entsprechend aufgeweitet hat und beispielsweise einen Durchmesser von 10–1000 m, vorzugsweise 50–150 m, an der Erdoberfläche aufweist. Aus dieser Pulsantwort ermittelt dann die Auswerte- und Steuereinheit eine virtuelle Objektebene oder einen virtuellen Objektabstand, in deren oder dessen Abhängigkeit der Aktuator Objektiv und Sensor relativ zueinander verschiebt. Der Aktuator ist dabei vorzugsweise ein Piezostellelement, mittels dessen hochgenaue Verstellungen im nm-Bereich möglich sind. Hierdurch wird die Fokusverschiebung optimiert, wobei die Art der Ermittlung der virtuellen Objektebene abhängig von der Beobachtungsaufgabe variiert werden kann. Der Laserstrahl wird also nicht dazu benutzt, die Entfernung zu einem bekannten Objekt zu erfassen, sondern dient zur vorausschauenden Abtastung des Geländes, das von der Kamera aufgenommen werden soll, um Objekte zu ermitteln. Aufgrund des oder der erfassten Objekte wird dann ein für die Beobachtungsaufgabe optimierter Fokus automatisch eingestellt. The method for autofocusing an imaging optical sensor of an aerial camera or a space camera, wherein the camera at least one lens, at least one sensor, at least one actuator for relative displacement of the lens and sensor, at least one laser whose emission direction is aligned parallel to the optical axis of the camera , and comprises an evaluation and control unit, has the following method steps: The evaluation and control unit controls the laser so that it emits a laser pulse. The evaluation and control unit receives the ground-reflected pulse response and evaluates it. The pulse response is usually broadened and contains portions of different objects with different real object distances. The reason for this is that due to the distance from the camera to the ground (eg 10-500 km) the laser beam has expanded accordingly and for example has a diameter of 10-1000 m, preferably 50-150 m, at the earth's surface. From this pulse response, the evaluation and control unit then determines a virtual object plane or a virtual object distance in whose or whose dependency the actuator displaces the objective and sensor relative to one another. The actuator is preferably a piezo-actuator, by means of which highly accurate adjustments in the nm range are possible. As a result, the focus shift is optimized, wherein the type of determination of the virtual object plane can be varied depending on the observation task. The laser beam is therefore not used to detect the distance to a known object, but is used for predictive scanning of the terrain that is to be taken by the camera to detect objects. On the basis of the detected object or objects, an optimized focus for the observation task is then automatically set.

In einer Ausführungsform werden die erfassten realen Objektabstände der Pulsantwort gemittelt. Die Mittelung kann dabei ein einfacher arithmetischer Mittelwert sein. Ebenso ist es denkbar, einen gemittelten Integralwert zu bestimmen. Dieser berücksichtigt dann in Form einer Wichtung die Größe von erfassten Objekten. Der Vorteil einer Mittelung ist die relativ einfache Bestimmung, wobei dann die gewählte virtuelle Objektebene einen guten Kompromiss für die verschiedenen realen Objekte darstellt. In one embodiment, the detected real object distances of the pulse response are averaged. The averaging can be a simple arithmetic mean. It is also conceivable to determine an averaged integral value. This then takes into account the size of detected objects in the form of a weighting. The advantage of averaging is the relatively simple determination, in which case the selected virtual object plane represents a good compromise for the various real objects.

In einer alternativen Ausführungsform wird die virtuelle Objektebene oder der virtuelle Objektabstand in den Bereich der kleinsten oder größten erfassten realen Objektabstände verschoben. Diese Ausführungsform kommt vorzugsweise zur Anwendung, wenn aufgrund der Beobachtungsaufgabe bestimmten Objekten eine höhere Priorität zugeordnet ist. In diesem Fall wird der Fokus verstärkt in die Richtung verschoben, wo die interessierenden Objekte erwartet werden. In an alternative embodiment, the virtual object plane or the virtual object distance is shifted to the range of the smallest or largest detected real object distances. This embodiment is preferably used when a higher priority is assigned to certain objects due to the observation task. In this case, the focus is increasingly shifted in the direction where the objects of interest are expected.

In einer weiteren Ausführungsform werden parallel zwei Laser in unterschiedlichen Spektralbereichen verwendet. Diese erhöht die Erkennung von Objekten, da insbesondere bei schräg einfallendem Licht die BRDF (Bidirektionale Reflektanzverteilungsfunktion) eine größere Rolle spielt. In a further embodiment, two lasers in different spectral ranges are used in parallel. This increases the detection of objects, since the BRDF (Bidirectional Reflectance Distribution Function) plays a greater role, in particular in the case of obliquely incident light.

In einer weiteren Ausführungsform sind der Auswerte- und Steuereinheit DTM-Daten zugeordnet, in deren Abhängigkeit eine Voreinstellung durch den Aktuator erfolgt. In a further embodiment, the evaluation and control unit DTM data are assigned, in whose dependence a default setting by the actuator.

In einer weiteren Ausführungsform erfolgt bei einer Weltraumkamera die relative Verschiebung zwischen Objekt und Sensor durch eine Verschiebung eines Spiegels des Objektivs, da diese eine geringe Masse aufweisen. In a further embodiment, in a space camera, the relative displacement between the object and the sensor is effected by a displacement of a mirror of the objective, since these have a low mass.

Bei einer Luftbildkamera erfolgt hingegen die relative Verschiebung vorzugsweise durch eine Verschiebung einer den optischen Sensor tragenden Fokalebene. In the case of an aerial camera, on the other hand, the relative displacement preferably takes place by a displacement of a focal plane carrying the optical sensor.

Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Fig. zeigen: The invention will be explained in more detail below with reference to a preferred embodiment. The figures show:

1 eine schematische Darstellung einer Szene, 1 a schematic representation of a scene,

2a eine schematische Darstellung eines Laserpulses über der Zeit, 2a a schematic representation of a laser pulse over time,

2b eine schematische Darstellung einer Pulsantwort auf den Laserpuls nach 2a und 2 B a schematic representation of a pulse response to the laser pulse after 2a and

3 ein schematisches Blockschaltbild einer Weltraum- oder Luftbildkamera. 3 a schematic block diagram of a space or aerial camera.

In der 3 ist ein schematisches Blockschaltbild einer Weltraum- oder Luftbildkamera 1 dargestellt. Die Kamera 1 umfasst ein Objektiv 2 sowie eine Fokalebene 3, auf der mindestens ein optischer Sensor 4 angeordnet ist. Des Weiteren umfasst die Kamera 1 mindestens einen Aktuator 5, mittels dessen die Fokalebene 3 in Richtung der optischen Achse 6 verschiebbar ist. Die Verschiebung kann dabei in Richtung zum Objektiv 2 oder vom Objektiv 2 weg erfolgen. Weiter umfasst die Kamera 1 eine Auswerte- und Steuereinheit 7 sowie einen ersten Laser 8 mit einer Wellenlänge n1 und einen zweiten Laser 9 mit einer zweiten Wellenlänge n2. Die Laser 8, 9 weisen auch Empfangsmittel auf, um reflektierte Laserstrahlung zu empfangen. Die Laser 8, 9 sind dabei derart ausgerichtet, dass diese parallel zur optischen Achse 6 emittieren, und sind räumlich möglichst dicht an der optischen Achse 6 angeordnet. Die Auswerte- und Steuereinheit 7 steuert die Laser 8, 9 pulsförmig an und wertet die empfangenen Pulsantworten aus. In Abhängigkeit dieser Auswertung wird dann der Aktuator 5 angesteuert. In the 3 is a schematic block diagram of a space or aerial camera 1 shown. The camera 1 includes a lens 2 as well as a focal plane 3 , on the at least one optical sensor 4 is arranged. Furthermore, the camera includes 1 at least one actuator 5 by means of which the focal plane 3 in the direction of the optical axis 6 is displaceable. The shift can be towards the lens 2 or from the lens 2 done away. Next includes the camera 1 an evaluation and control unit 7 and a first laser 8th with a wavelength n 1 and a second laser 9 with a second wavelength n 2 . The lasers 8th . 9 Also have receiving means to receive reflected laser radiation. The lasers 8th . 9 are aligned in such a way that they are parallel to the optical axis 6 emit, and are spatially close to the optical axis 6 arranged. The evaluation and control unit 7 controls the lasers 8th . 9 pulse-shaped and evaluates the received pulse responses. Depending on this evaluation then the actuator 5 driven.

Dies soll nun an einer exemplarischen Geländesituation erläutert werden, wie in 1 dargestellt. Das Gelände umfasst ein erstes Objekt O1 und ein zweites Objekt O2. Die Objekte O1, O2 sind beispielsweise Hochhäuser. Die Straßenschlucht zwischen den beiden Objekten O1, O2 wird als Objekt O3 bezeichnet. Über dieses Gelände fliegt nur die Kamera 1. Die Auswerte- und Steuereinheit 7 steuert dann die Laser 8, 9 pulsförmig an, sodass diese jeweils einen Laserpuls 10 emittieren (siehe auch 2a). This will now be explained on an exemplary terrain situation, as in 1 shown. The terrain comprises a first object O1 and a second object O2. The objects O1, O2 are, for example, skyscrapers. The street canyon between the two objects O1, O2 is referred to as object O3. Only the camera flies over this terrain 1 , The evaluation and control unit 7 then controls the lasers 8th . 9 pulse-shaped, so that each one laser pulse 10 emit (see also 2a ).

Dieser Laserpuls 10 trifft entsprechend aufgeweitet auf das Gelände. Je nach Flughöhe der Kamera 1 können daher dem Laser 8, 9 zusätzlich Mittel zur Fokussierung oder zur Aufweitung zugeordnet sein. Dabei sei angenommen, dass der Laserpuls 10 ausreichend aufgeweitet ist, um alle Objekte O1 bis O3 zu treffen. Dabei sei der Einfachheit halber angenommen, die Kamera 1 blickt in Nadirrichtung. Aufgrund der unterschiedlichen Entfernung sind die Laufzeiten der reflektierten Strahlung unterschiedlich. Eine stark vereinfachte Pulsantwort 11 ist in 2b dargestellt, wobei analog zu 2a die Intensität I über der Zeit t aufgetragen ist. Dabei stammt der erste Peak der Pulsantwort 11 vom Objekt O1, der zweite Peak vom Objekt O2 und der dritte Peak vom Objekt O3. Der jeweiligen Laufzeit t1, t2 und t3 der Peaks kann dann ein realer Objektabstand d1–d3 zur Kamera 1 zugeordnet werden (siehe auch 1). Da nun kein einheitlicher Objektabstand existiert, ermittelt nun die Auswerte- und Steuereinheit 7 einen virtuellen Objektabstand dV bzw. eine virtuelle Objektebene EV, beispielsweise wird hierzu der arithmetische Mittelwert (d1 + d2 + d3) : 3 gebildet. Anschließend wird dann der Aktuator 5 entsprechend angesteuert, um den Sensor 4 auf die virtuelle Objektebene EV scharf zu stellen. Somit wird im dargestellten Beispiel kein Objekt O1–O3 scharf abgebildet, aber alle zusammen gesehen weniger unscharf. This laser pulse 10 spreads accordingly expanded on the grounds. Depending on the altitude of the camera 1 can therefore the laser 8th . 9 additionally be associated with means for focusing or expansion. It is assumed that the laser pulse 10 is sufficiently expanded to hit all objects O1 to O3. It is assumed for simplicity, the camera 1 looks in nadir direction. Due to the different distances, the transit times of the reflected radiation are different. A greatly simplified pulse response 11 is in 2 B represented, analogous to 2a the intensity I is plotted against the time t. Here comes the first peak of the pulse response 11 from object O1, the second peak from object O2, and the third peak from object O3. The respective running time t 1 , t 2 and t 3 of Peaks can then be a real object distance d1-d3 to the camera 1 be assigned (see also 1 ). Since there is no uniform object distance, the evaluation and control unit now determines 7 a virtual object distance d V or a virtual object plane E V , for example, the arithmetic mean (d1 + d2 + d3): 3 is formed for this purpose. Subsequently, then the actuator 5 appropriately driven to the sensor 4 to focus on the virtual object plane E V. Thus, in the example shown, no object O1-O3 is in focus, but all together less blurred.

Die beschriebene Nadirblickrichtung dient insbesondere zur Erläuterung der wesentlichen Begriffe und des Grundprinzips der Erfindung. The nadir sight direction described serves in particular to explain the essential terms and the basic principle of the invention.

Besondere Relevanz hat die Erfindung, wenn die Kamera 1 aus der Nadirblickrichtung geschwenkt wird. In diesem Fall kann es schlagartig zu erheblichen Änderungen der Objektabstände kommen. Dies mag an folgendem Beispiel klar werden. Die Kamera fliegt über eine ebene Fläche, wobei in Nadirblickrichtung der Abstand zur Erdoberfläche d betrage. Schwenkt dann die Kamera 1 in 45° Blickrichtung, beträgt der Abstand in Blickrichtung d·√2. Befinden sich nun allerdings höhere Objekte in Blickrichtung (die gegebenenfalls die Blickrichtung voll abdecken), so liefert die Pulsantwort 11 erheblich kürzere Abstände und entsprechend wird der Fokus eingestellt. Würde hingegen bei einer solchen Situation der Fokus auf einen Abstand d·√2 eingestellt werden, so würden die Objekte extrem unscharf abgebildet werden. Die Auswerte- und Steuereinheit 7 regelt also in Abhängigkeit der erfassten Objektabstände den Fokus auf einen virtuellen Objektabstand. The invention has particular relevance when the camera 1 is pivoted from the Nadirblickrichtung. In this case, it can suddenly come to significant changes in object distances. This may be clear from the following example. The camera flies over a flat surface, whereby in Nadirblickrichtung the distance to the earth's surface is d. Then pans the camera 1 in 45 ° viewing direction, the distance in the viewing direction is d · √2. However, if there are now higher objects in the viewing direction (which possibly fully cover the viewing direction), then the pulse response delivers 11 considerably shorter distances and accordingly the focus is set. If, on the other hand, the focus were adjusted to a distance d · √2 in such a situation, the objects would be imaged extremely blurred. The evaluation and control unit 7 thus regulates the focus on a virtual object distance depending on the detected object distances.

Wie nun der virtuelle Objektabstand bzw. die virtuelle Objektebene bestimmt wird, kann nun je nach Beobachtungsaufgabe unterschiedlich sein. So kann beispielsweise der virtuelle Objektabstand als der Abstand zu dem nächsten oder dem am entferntesten erfassten Objekt festgelegt werden. Alternativ kann auch der Abstand zu dem Objekt als virtueller Objektabstand festgelegt werden, dessen Peak die größte Intensität in der Pulsantwort 11 hat. Des Weiteren kann der virtuelle Objektabstand anhand des breitesten Peaks ermittelt werden, wobei dann beispielsweise der virtuelle Abstand aus der Laufzeit in der Mitte des Peaks bestimmt wird. How the virtual object distance or the virtual object plane is determined, can now be different depending on the observation task. For example, the virtual object distance may be set as the distance to the nearest or farthest detected object. Alternatively, the distance to the object can be set as a virtual object distance whose peak is the highest intensity in the pulse response 11 Has. Furthermore, the virtual object distance can be determined on the basis of the widest peak, in which case, for example, the virtual distance from the transit time in the middle of the peak is determined.

Generell kann bei der Ermittlung der Objektabstände aus den Peaks der Anfang, die Mitte oder das Ende gewählt werden. In general, when determining the object distances from the peaks, the beginning, the middle or the end can be selected.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 10013567 A1 [0005] DE 10013567 A1 [0005]

Claims (10)

Verfahren zur Autofokussierung eines abbildenden optischen Sensors (4) einer Luftbildkamera oder einer Weltraumkamera (1), wobei die Kamera (1) mindestens ein Objektiv (2), mindestens einen Sensor (4) sowie mindestens einen Aktuator (5) zur relativen Verschiebung von Objektiv (2) und Sensor (4) aufweist, dadurch gekennzeichnet, dass der Kamera (1) mindestens ein Laser (8, 9) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6) der Kamera (1) ausgerichtet ist, wobei eine Auswerte- und Steuereinheit (7) den Laser (8, 9) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11) auswertet, wobei die Auswerte- und Steuereinheit (7) aus der Pulsantwort (11) eine virtuelle Objektebene (EV) oder virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5) Objektiv (2) und Sensor (4) relativ zueinander verschiebt. Method for autofocusing an imaging optical sensor ( 4 ) an aerial camera or a space camera ( 1 ), the camera ( 1 ) at least one lens ( 2 ), at least one sensor ( 4 ) and at least one actuator ( 5 ) relative displacement of lens ( 2 ) and sensor ( 4 ), characterized in that the camera ( 1 ) at least one laser ( 8th . 9 ) whose emission direction is parallel to the optical axis ( 6 ) the camera ( 1 ), wherein an evaluation and control unit ( 7 ) the laser ( 8th . 9 ) pulse-shaped and the received reflected pulse response ( 11 ), whereby the evaluation and control unit ( 7 ) from the pulse response ( 11 ) determines a virtual object plane (E V ) or virtual object distance (d V ) in whose or whose dependency the actuator ( 5 ) Lens ( 2 ) and sensor ( 4 ) relative to each other. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erfassten realen Objektabstände (d1–d3) der Pulsantwort (11) gemittelt werden. Method according to Claim 1, characterized in that the detected real object distances (d1-d3) of the pulse response ( 11 ) are averaged. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die virtuelle Objektebene (EV) der virtuelle Objektabstand (dV) in den Bereich der kleinsten oder größten erfassten realen Objektabstände (d1–d3) verschoben wird. A method according to claim 1, characterized in that the virtual object plane (E V ) of the virtual object distance (d V ) in the range of the smallest or largest detected real object distances (d1-d3) is moved. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass parallel zwei Laser (8, 9) in unterschiedlichen Spektralbereichen verwendet werden. Method according to one of the preceding claims, characterized in that in parallel two lasers ( 8th . 9 ) are used in different spectral ranges. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Auswerte- und Steuereinheit (7) DTM-Daten zugeordnet sind, in deren Abhängigkeit eine Voreinstellung durch den Aktuator (5) erfolgt. Method according to one of the preceding claims, characterized in that the evaluation and control unit ( 7 ) Are assigned to DTM data, in dependence of which a presetting by the actuator ( 5 ) he follows. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass bei einer Weltraumkamera (1) die relative Verschiebung zwischen Objektiv (2) und Sensor (4) durch eine Verschiebung eines Spiegels erfolgt. Method according to one of the preceding claims, characterized in that in the case of a space camera ( 1 ) the relative displacement between lens ( 2 ) and sensor ( 4 ) takes place by a displacement of a mirror. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass bei einer Luftbildkamera (1) die relative Verschiebung zwischen Objektiv (2) und Sensor (4) durch eine Verschiebung des Sensors (4) oder einer Fokalebene (3) erfolgt. Method according to one of claims 1 to 5, characterized in that in an aerial camera ( 1 ) the relative displacement between lens ( 2 ) and sensor ( 4 ) by a displacement of the sensor ( 4 ) or a focal plane ( 3 ) he follows. Luftbild- oder Weltraumkamera (1), umfassend mindestens einen abbildenden optischen Sensor (4), mindestens ein Objektiv (2) sowie mindestens einen Aktuator (5) zur relativen Verschiebung von Objektiv (2) und Sensor (4), dadurch gekennzeichnet, dass der Kamera (1) mindestens ein Laser (8, 9) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6) der Kamera (1) ausgerichtet ist, wobei dem Laser (8, 9) eine Auswerte- und Steuereinheit (7) zugeordnet ist, die derart ausgebildet ist, dass die Auswerte- und Steuereinheit (7) den Laser (8, 9) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11) auswertet, wobei die Auswerte- und Steuereinheit (7) aus der Pulsantwort (11) eine virtuelle Objektebene (EV) oder einen virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5) Objektiv (2) und Sensor (4) relativ zueinander verschiebt. Aerial or space camera ( 1 ) comprising at least one imaging optical sensor ( 4 ), at least one lens ( 2 ) and at least one actuator ( 5 ) relative displacement of lens ( 2 ) and sensor ( 4 ), characterized in that the camera ( 1 ) at least one laser ( 8th . 9 ) whose emission direction is parallel to the optical axis ( 6 ) the camera ( 1 ), wherein the laser ( 8th . 9 ) an evaluation and control unit ( 7 ) is assigned, which is designed such that the evaluation and control unit ( 7 ) the laser ( 8th . 9 ) pulse-shaped and the received reflected pulse response ( 11 ), whereby the evaluation and control unit ( 7 ) from the pulse response ( 11 ) determines a virtual object plane (E V ) or a virtual object distance (d V ) in whose or whose dependency the actuator ( 5 ) Lens ( 2 ) and sensor ( 4 ) relative to each other. Luftbild- oder Weltraumkamera nach Anspruch 8, dadurch gekennzeichnet, dass die Auswerte- und Steuereinheit (7) derart ausgebildet ist, dass die erfassten realen Objektabstände (d1–d3) der Pulsantwort (11) gemittelt werden. Aerial or space camera according to claim 8, characterized in that the evaluation and control unit ( 7 ) is formed such that the detected real object distances (d1-d3) of the pulse response ( 11 ) are averaged. Luftbildkamera nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Kamera (1) zwei Laser (8, 9) im unterschiedlichen Spektralbereich aufweist. Aerial camera according to claim 8 or 9, characterized in that the camera ( 1 ) two lasers ( 8th . 9 ) in the different spectral range.
DE102013220577.5A 2013-10-11 2013-10-11 Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera Active DE102013220577B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013220577.5A DE102013220577B4 (en) 2013-10-11 2013-10-11 Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013220577.5A DE102013220577B4 (en) 2013-10-11 2013-10-11 Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera

Publications (2)

Publication Number Publication Date
DE102013220577A1 true DE102013220577A1 (en) 2015-04-16
DE102013220577B4 DE102013220577B4 (en) 2017-01-05

Family

ID=52737920

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013220577.5A Active DE102013220577B4 (en) 2013-10-11 2013-10-11 Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera

Country Status (1)

Country Link
DE (1) DE102013220577B4 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105334594A (en) * 2015-12-16 2016-02-17 中国人民解放军国防科学技术大学 Focusing device and method for satellite remote sensing camera

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111024068A (en) * 2019-12-18 2020-04-17 中国空间技术研究院 Ground-free control point imaging method of space optical camera

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10013567A1 (en) 2000-03-14 2001-09-27 Deutsch Zentr Luft & Raumfahrt Aerial photography camera for photogrammetry has piezoelectric actuators that moves focusing element along optical axis, based on calculated focus drift

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9622253D0 (en) * 1996-10-25 1997-10-01 Council Cent Lab Res Councils Camera system
US6130705A (en) * 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
US7502064B2 (en) * 2004-08-10 2009-03-10 Hewlett-Packard Development Company, L.P. Using light pulses to implement auto-focus in a digital camera
US7639347B2 (en) * 2007-02-14 2009-12-29 Leica Geosystems Ag High-speed laser ranging system including a fiber laser

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10013567A1 (en) 2000-03-14 2001-09-27 Deutsch Zentr Luft & Raumfahrt Aerial photography camera for photogrammetry has piezoelectric actuators that moves focusing element along optical axis, based on calculated focus drift

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105334594A (en) * 2015-12-16 2016-02-17 中国人民解放军国防科学技术大学 Focusing device and method for satellite remote sensing camera
CN105334594B (en) * 2015-12-16 2016-09-07 中国人民解放军国防科学技术大学 Satellite remote sensing camera focusing mechanism and focusing method thereof

Also Published As

Publication number Publication date
DE102013220577B4 (en) 2017-01-05

Similar Documents

Publication Publication Date Title
EP1836455B1 (en) Method and geodetic device for surveying at least one target
DE3731037A1 (en) LASER IMAGING SYSTEM WITH DETECTOR LINE
DE102016206493A1 (en) Method and camera system for determining the distance of objects to a vehicle
DE102009027372A1 (en) Camera for a vehicle
DE102013210887A1 (en) Optical sensor arrangement for a vehicle and vehicle with such a sensor arrangement
DE212017000248U1 (en) LiDAR device
EP2944919B1 (en) Geodesic instrument with diffracting optical elements
EP3029494A1 (en) Optoelectronic sensor
EP3179288A1 (en) Light field imaging with scan lens
EP2138885A1 (en) Observation device
DE102013220577B4 (en) Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera
DE102019123449A1 (en) Time-of-flight camera system with a high dynamic range
WO2017148555A1 (en) Method for determining a height position of an object
DE102014224903A1 (en) Optical environment sensor for vehicles
EP0918979B1 (en) Stereocamera for photogrammetry
DE102019218065A1 (en) Adjustment of size and position of microlenses on an image sensor to correct chromatic aberration
DE102013102988A1 (en) Light microscopic method for the localization of point objects
WO2023111252A1 (en) Method for measuring heliostats, and method for calibrating heliostats
DE102011015478A1 (en) Apparatus and method for detecting and analyzing laser radiation
DE102008031412A1 (en) Device i.e. line scanner, for monitoring measuring points on object surface to be measured, has focus plane displaceable parallel to object surface, where object surface is displaceable lateral to focus plane
DE102014115292A1 (en) Method for providing image files from a camera system, camera system and motor vehicle
DE102015003392B4 (en) Optical triangulation sensor arrangement and lens arrangement therefor
DE102017221797A1 (en) Lidar system for environment detection and method for operating a lidar system
DD253688A1 (en) OPTICAL ARRANGEMENT AND METHOD FOR LIGHT ELECTRIC REMOVAL ADJUSTMENT
DE102016118481A1 (en) Scanning unit of an optical transmitting and receiving device of an optical detection device of a vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final