DE102013220577A1 - Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera - Google Patents
Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera Download PDFInfo
- Publication number
- DE102013220577A1 DE102013220577A1 DE201310220577 DE102013220577A DE102013220577A1 DE 102013220577 A1 DE102013220577 A1 DE 102013220577A1 DE 201310220577 DE201310220577 DE 201310220577 DE 102013220577 A DE102013220577 A DE 102013220577A DE 102013220577 A1 DE102013220577 A1 DE 102013220577A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- sensor
- aerial
- evaluation
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000003384 imaging method Methods 0.000 title claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims abstract description 20
- 238000006073 displacement reaction Methods 0.000 claims abstract description 12
- 230000003595 spectral effect Effects 0.000 claims description 4
- 239000002689 soil Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/18—Focusing aids
- G03B13/20—Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B3/00—Focusing arrangements of general interest for cameras, projectors or printers
- G03B3/10—Power-operated focusing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors (4) einer Luftbildkamera oder einer Weltraumkamera (1), wobei die Kamera (1) mindestens ein Objektiv (2), mindestens einen Sensor (4) sowie mindestens einen Aktuator (5) zur relativen Verschiebung von Objektiv (2) und Sensor (4) aufweist, wobei der Kamera (1) mindestens ein Laser (8, 9) zugeordnet ist, dessen Abstrahlrichtung parallel zur optischen Achse (6) der Kamera (1) ausgerichtet ist, wobei eine Auswerte- und Steuereinheit (7) den Laser (8, 9) pulsförmig ansteuert und die empfangene reflektierte Pulsantwort (11) auswertet, wobei die Auswerte- und Steuereinheit (7) aus der Pulsantwort (11) eine virtuelle Objektebene (EV) oder virtuellen Objektabstand (dV) ermittelt, in deren oder dessen Abhängigkeit der Aktuator (5) Objektiv (2) und Sensor (4) relativ zueinander verschiebt, sowie eine solche Luftbild- oder Weltraumkamera (1).The invention relates to a method for autofocusing an imaging optical sensor (4) of an aerial camera or a space camera (1), the camera (1) comprising at least one objective (2), at least one sensor (4) and at least one actuator (5) relative displacement of the lens (2) and sensor (4), wherein the camera (1) at least one laser (8, 9) is associated with the emission direction is aligned parallel to the optical axis (6) of the camera (1), wherein a Evaluation and control unit (7) the laser (8, 9) drives pulse-shaped and evaluates the received reflected pulse response (11), wherein the evaluation and control unit (7) from the pulse response (11) a virtual object plane (EV) or virtual object distance (dV) determines in whose or whose dependency the actuator (5) shifts the objective (2) and sensor (4) relative to each other, as well as such an aerial or space camera (1).
Description
Die Erfindung betrifft ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera sowie eine solche Luftbild- oder Weltraumkamera. The invention relates to a method for autofocusing an imaging optical sensor of an aerial camera or a space camera and such an aerial or space camera.
Derartige Kameras sind seit längerem bekannt und arbeiten in den verschiedensten Wellenlängenbereichen von beispielsweise 400 nm bis 15 µm. Dabei werden je nach Anwendung panchromatische oder spektrale Aufnahmen durchgeführt. Die abbildenden Sensoren können dabei als Zeilen-, Matrix- oder TDI-Sensoren ausgebildet sein. Die damit zu erreichenden Auflösungen bei Erdbeobachtungen liegen beispielsweise im Bereich von ca. 20 cm. Dabei sei angemerkt, dass die Weltraumkameras auch als Weltraumteleskope bezeichnet werden. Such cameras have been known for a long time and operate in the most diverse wavelength ranges of, for example, 400 nm to 15 μm. Depending on the application, panchromatic or spectral images are taken. The imaging sensors can be designed as line, matrix or TDI sensors. The achievable resolutions for earth observations are, for example, in the range of about 20 cm. It should be noted that the space cameras are also referred to as space telescopes.
Die Kameras arbeiten bei senkrechter Blickrichtung (NADIR) im Regelfall sehr gut. Allerdings führen starke Gebäudedynamiken wie beispielsweise Häuserschluchten oder Gebirge zu Ungenauigkeiten, wenn mit sehr großen Auflösungen gearbeitet wird, was zu unscharfen Abbildungen führt. As a rule, the cameras work very well in the vertical direction of view (NADIR). However, strong building dynamics such as urban canyons or mountains lead to inaccuracies when working with very large resolutions, resulting in blurred images.
Verschärft wird dieses Problem, wenn die Kamera Roll- oder Nickbewegungen durchführt. Derartige Roll- und Nickbewegungen mit einem Schwenkbereich bis zu +/–40° sind keine Seltenheit, beispielsweise weil eine hohe Wiederholrate in der Abtastung eines bestimmten Gebiets gefordert wird. In diesem Fall kommt es zu einer starken Veränderung des Abbildungsmaßstabes, auf den die Kamera nicht reagieren kann. Daher wird üblicherweise der Sensor auf eine diskrete Entfernung eingestellt und die Verschlechterung der MTF (Modulation Transfer Function) hingenommen. This problem is exacerbated when the camera is rolling or pitching. Such rolling and pitching movements with a swivel range up to +/- 40 ° are not uncommon, for example because a high repetition rate in the scanning of a particular area is required. In this case, there is a strong change in the magnification, to which the camera can not respond. Therefore, the sensor is usually set to a discrete distance and the degradation of the MTF (Modulation Transfer Function) is accepted.
Aus der
Eine denkbare Lösung wäre eine Steuerung aufgrund eines bekannten Digital Terrain Models des zu überfliegenden Gebiets. Allerdings stehen solche Modelle für bestimmte Gebiete nicht zur Verfügung. Darüber hinaus müsste beispielsweise eine Weltraumkamera enormen Speicherplatz vorhalten. A conceivable solution would be a control based on a known digital terrain model of the area to be overflown. However, such models are not available for certain areas. In addition, for example, a space camera would require enormous storage space.
Im Bereich der Phototechnik ist es angedacht worden, einen Laserpointer zu integrieren, der einen Abstand zu einem Objekt erfasst und dann in Abhängigkeit von dem erfassten Abstand des Objekts eine Autofokussierung vorzunehmen. In the field of phototechnology, it has been considered to integrate a laser pointer, which detects a distance to an object and then perform an autofocusing in dependence on the detected distance of the object.
Der Erfindung liegt das technische Problem zugrunde, ein Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera zur Verfügung zu stellen sowie eine solche Luftbildkamera oder Weltraumkamera zu schaffen, mittels derer der Fokusdrift aufgrund von dynamischen Geländeprofilen oder aufgrund von Schwenkbewegungen der Kamera reduziert wird. The invention is based on the technical problem of providing a method for autofocusing an imaging optical sensor of an aerial camera or a space camera and to provide such an aerial camera or space camera, by means of which the focus drift is reduced due to dynamic terrain profiles or due to pivoting movements of the camera ,
Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den Merkmalen der Patentansprüche 1 und 8. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen. The solution of the technical problem results from the objects with the features of
Das Verfahren zur Autofokussierung eines abbildenden optischen Sensors einer Luftbildkamera oder einer Weltraumkamera, wobei die Kamera mindestens ein Objektiv, mindestens einen Sensor, mindestens einen Aktuator zur relativen Verschiebung von Objektiv und Sensor, mindestens einen Laser, dessen Abstrahlrichtung parallel zur optischen Achse der Kamera ausgerichtet ist, und eine Auswerte- und Steuereinheit umfasst, weist die folgenden Verfahrensschritte auf: Die Auswerte- und Steuereinheit steuert den Laser derart, dass dieser einen Laserpuls emittiert. Die Auswerte- und Steuereinheit empfängt die vom Boden reflektierte Pulsantwort und wertet diese aus. Die Pulsantwort ist üblicherweise verbreitert und enthält Anteile von verschiedenen Objekten mit unterschiedlichen realen Objektabständen. Der Grund hierfür ist, dass aufgrund der Entfernung von Kamera zum Boden (z.B. 10–500 km) der Laserstrahl sich entsprechend aufgeweitet hat und beispielsweise einen Durchmesser von 10–1000 m, vorzugsweise 50–150 m, an der Erdoberfläche aufweist. Aus dieser Pulsantwort ermittelt dann die Auswerte- und Steuereinheit eine virtuelle Objektebene oder einen virtuellen Objektabstand, in deren oder dessen Abhängigkeit der Aktuator Objektiv und Sensor relativ zueinander verschiebt. Der Aktuator ist dabei vorzugsweise ein Piezostellelement, mittels dessen hochgenaue Verstellungen im nm-Bereich möglich sind. Hierdurch wird die Fokusverschiebung optimiert, wobei die Art der Ermittlung der virtuellen Objektebene abhängig von der Beobachtungsaufgabe variiert werden kann. Der Laserstrahl wird also nicht dazu benutzt, die Entfernung zu einem bekannten Objekt zu erfassen, sondern dient zur vorausschauenden Abtastung des Geländes, das von der Kamera aufgenommen werden soll, um Objekte zu ermitteln. Aufgrund des oder der erfassten Objekte wird dann ein für die Beobachtungsaufgabe optimierter Fokus automatisch eingestellt. The method for autofocusing an imaging optical sensor of an aerial camera or a space camera, wherein the camera at least one lens, at least one sensor, at least one actuator for relative displacement of the lens and sensor, at least one laser whose emission direction is aligned parallel to the optical axis of the camera , and comprises an evaluation and control unit, has the following method steps: The evaluation and control unit controls the laser so that it emits a laser pulse. The evaluation and control unit receives the ground-reflected pulse response and evaluates it. The pulse response is usually broadened and contains portions of different objects with different real object distances. The reason for this is that due to the distance from the camera to the ground (eg 10-500 km) the laser beam has expanded accordingly and for example has a diameter of 10-1000 m, preferably 50-150 m, at the earth's surface. From this pulse response, the evaluation and control unit then determines a virtual object plane or a virtual object distance in whose or whose dependency the actuator displaces the objective and sensor relative to one another. The actuator is preferably a piezo-actuator, by means of which highly accurate adjustments in the nm range are possible. As a result, the focus shift is optimized, wherein the type of determination of the virtual object plane can be varied depending on the observation task. The laser beam is therefore not used to detect the distance to a known object, but is used for predictive scanning of the terrain that is to be taken by the camera to detect objects. On the basis of the detected object or objects, an optimized focus for the observation task is then automatically set.
In einer Ausführungsform werden die erfassten realen Objektabstände der Pulsantwort gemittelt. Die Mittelung kann dabei ein einfacher arithmetischer Mittelwert sein. Ebenso ist es denkbar, einen gemittelten Integralwert zu bestimmen. Dieser berücksichtigt dann in Form einer Wichtung die Größe von erfassten Objekten. Der Vorteil einer Mittelung ist die relativ einfache Bestimmung, wobei dann die gewählte virtuelle Objektebene einen guten Kompromiss für die verschiedenen realen Objekte darstellt. In one embodiment, the detected real object distances of the pulse response are averaged. The averaging can be a simple arithmetic mean. It is also conceivable to determine an averaged integral value. This then takes into account the size of detected objects in the form of a weighting. The advantage of averaging is the relatively simple determination, in which case the selected virtual object plane represents a good compromise for the various real objects.
In einer alternativen Ausführungsform wird die virtuelle Objektebene oder der virtuelle Objektabstand in den Bereich der kleinsten oder größten erfassten realen Objektabstände verschoben. Diese Ausführungsform kommt vorzugsweise zur Anwendung, wenn aufgrund der Beobachtungsaufgabe bestimmten Objekten eine höhere Priorität zugeordnet ist. In diesem Fall wird der Fokus verstärkt in die Richtung verschoben, wo die interessierenden Objekte erwartet werden. In an alternative embodiment, the virtual object plane or the virtual object distance is shifted to the range of the smallest or largest detected real object distances. This embodiment is preferably used when a higher priority is assigned to certain objects due to the observation task. In this case, the focus is increasingly shifted in the direction where the objects of interest are expected.
In einer weiteren Ausführungsform werden parallel zwei Laser in unterschiedlichen Spektralbereichen verwendet. Diese erhöht die Erkennung von Objekten, da insbesondere bei schräg einfallendem Licht die BRDF (Bidirektionale Reflektanzverteilungsfunktion) eine größere Rolle spielt. In a further embodiment, two lasers in different spectral ranges are used in parallel. This increases the detection of objects, since the BRDF (Bidirectional Reflectance Distribution Function) plays a greater role, in particular in the case of obliquely incident light.
In einer weiteren Ausführungsform sind der Auswerte- und Steuereinheit DTM-Daten zugeordnet, in deren Abhängigkeit eine Voreinstellung durch den Aktuator erfolgt. In a further embodiment, the evaluation and control unit DTM data are assigned, in whose dependence a default setting by the actuator.
In einer weiteren Ausführungsform erfolgt bei einer Weltraumkamera die relative Verschiebung zwischen Objekt und Sensor durch eine Verschiebung eines Spiegels des Objektivs, da diese eine geringe Masse aufweisen. In a further embodiment, in a space camera, the relative displacement between the object and the sensor is effected by a displacement of a mirror of the objective, since these have a low mass.
Bei einer Luftbildkamera erfolgt hingegen die relative Verschiebung vorzugsweise durch eine Verschiebung einer den optischen Sensor tragenden Fokalebene. In the case of an aerial camera, on the other hand, the relative displacement preferably takes place by a displacement of a focal plane carrying the optical sensor.
Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Fig. zeigen: The invention will be explained in more detail below with reference to a preferred embodiment. The figures show:
In der
Dies soll nun an einer exemplarischen Geländesituation erläutert werden, wie in
Dieser Laserpuls
Die beschriebene Nadirblickrichtung dient insbesondere zur Erläuterung der wesentlichen Begriffe und des Grundprinzips der Erfindung. The nadir sight direction described serves in particular to explain the essential terms and the basic principle of the invention.
Besondere Relevanz hat die Erfindung, wenn die Kamera
Wie nun der virtuelle Objektabstand bzw. die virtuelle Objektebene bestimmt wird, kann nun je nach Beobachtungsaufgabe unterschiedlich sein. So kann beispielsweise der virtuelle Objektabstand als der Abstand zu dem nächsten oder dem am entferntesten erfassten Objekt festgelegt werden. Alternativ kann auch der Abstand zu dem Objekt als virtueller Objektabstand festgelegt werden, dessen Peak die größte Intensität in der Pulsantwort
Generell kann bei der Ermittlung der Objektabstände aus den Peaks der Anfang, die Mitte oder das Ende gewählt werden. In general, when determining the object distances from the peaks, the beginning, the middle or the end can be selected.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 10013567 A1 [0005] DE 10013567 A1 [0005]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013220577.5A DE102013220577B4 (en) | 2013-10-11 | 2013-10-11 | Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013220577.5A DE102013220577B4 (en) | 2013-10-11 | 2013-10-11 | Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102013220577A1 true DE102013220577A1 (en) | 2015-04-16 |
DE102013220577B4 DE102013220577B4 (en) | 2017-01-05 |
Family
ID=52737920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013220577.5A Active DE102013220577B4 (en) | 2013-10-11 | 2013-10-11 | Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013220577B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105334594A (en) * | 2015-12-16 | 2016-02-17 | 中国人民解放军国防科学技术大学 | Focusing device and method for satellite remote sensing camera |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111024068A (en) * | 2019-12-18 | 2020-04-17 | 中国空间技术研究院 | Ground-free control point imaging method of space optical camera |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10013567A1 (en) | 2000-03-14 | 2001-09-27 | Deutsch Zentr Luft & Raumfahrt | Aerial photography camera for photogrammetry has piezoelectric actuators that moves focusing element along optical axis, based on calculated focus drift |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9622253D0 (en) * | 1996-10-25 | 1997-10-01 | Council Cent Lab Res Councils | Camera system |
US6130705A (en) * | 1998-07-10 | 2000-10-10 | Recon/Optical, Inc. | Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use |
US7502064B2 (en) * | 2004-08-10 | 2009-03-10 | Hewlett-Packard Development Company, L.P. | Using light pulses to implement auto-focus in a digital camera |
US7639347B2 (en) * | 2007-02-14 | 2009-12-29 | Leica Geosystems Ag | High-speed laser ranging system including a fiber laser |
-
2013
- 2013-10-11 DE DE102013220577.5A patent/DE102013220577B4/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10013567A1 (en) | 2000-03-14 | 2001-09-27 | Deutsch Zentr Luft & Raumfahrt | Aerial photography camera for photogrammetry has piezoelectric actuators that moves focusing element along optical axis, based on calculated focus drift |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105334594A (en) * | 2015-12-16 | 2016-02-17 | 中国人民解放军国防科学技术大学 | Focusing device and method for satellite remote sensing camera |
CN105334594B (en) * | 2015-12-16 | 2016-09-07 | 中国人民解放军国防科学技术大学 | Satellite remote sensing camera focusing mechanism and focusing method thereof |
Also Published As
Publication number | Publication date |
---|---|
DE102013220577B4 (en) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1836455B1 (en) | Method and geodetic device for surveying at least one target | |
DE3731037A1 (en) | LASER IMAGING SYSTEM WITH DETECTOR LINE | |
DE102016206493A1 (en) | Method and camera system for determining the distance of objects to a vehicle | |
DE102009027372A1 (en) | Camera for a vehicle | |
DE102013210887A1 (en) | Optical sensor arrangement for a vehicle and vehicle with such a sensor arrangement | |
DE212017000248U1 (en) | LiDAR device | |
EP2944919B1 (en) | Geodesic instrument with diffracting optical elements | |
EP3029494A1 (en) | Optoelectronic sensor | |
EP3179288A1 (en) | Light field imaging with scan lens | |
EP2138885A1 (en) | Observation device | |
DE102013220577B4 (en) | Method for autofocusing an imaging optical sensor of an aerial camera or a space camera and aerial or space camera | |
DE102019123449A1 (en) | Time-of-flight camera system with a high dynamic range | |
WO2017148555A1 (en) | Method for determining a height position of an object | |
DE102014224903A1 (en) | Optical environment sensor for vehicles | |
EP0918979B1 (en) | Stereocamera for photogrammetry | |
DE102019218065A1 (en) | Adjustment of size and position of microlenses on an image sensor to correct chromatic aberration | |
DE102013102988A1 (en) | Light microscopic method for the localization of point objects | |
WO2023111252A1 (en) | Method for measuring heliostats, and method for calibrating heliostats | |
DE102011015478A1 (en) | Apparatus and method for detecting and analyzing laser radiation | |
DE102008031412A1 (en) | Device i.e. line scanner, for monitoring measuring points on object surface to be measured, has focus plane displaceable parallel to object surface, where object surface is displaceable lateral to focus plane | |
DE102014115292A1 (en) | Method for providing image files from a camera system, camera system and motor vehicle | |
DE102015003392B4 (en) | Optical triangulation sensor arrangement and lens arrangement therefor | |
DE102017221797A1 (en) | Lidar system for environment detection and method for operating a lidar system | |
DD253688A1 (en) | OPTICAL ARRANGEMENT AND METHOD FOR LIGHT ELECTRIC REMOVAL ADJUSTMENT | |
DE102016118481A1 (en) | Scanning unit of an optical transmitting and receiving device of an optical detection device of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |