FR3057730A1 - AIRCRAFT WITHOUT DRIVER WITH REMOTE CONTROLABLE EDGE EQUIPPED WITH IMAGING DEVICES - Google Patents

AIRCRAFT WITHOUT DRIVER WITH REMOTE CONTROLABLE EDGE EQUIPPED WITH IMAGING DEVICES Download PDF

Info

Publication number
FR3057730A1
FR3057730A1 FR1660127A FR1660127A FR3057730A1 FR 3057730 A1 FR3057730 A1 FR 3057730A1 FR 1660127 A FR1660127 A FR 1660127A FR 1660127 A FR1660127 A FR 1660127A FR 3057730 A1 FR3057730 A1 FR 3057730A1
Authority
FR
France
Prior art keywords
image
imaging device
aircraft
sensors
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1660127A
Other languages
French (fr)
Other versions
FR3057730B1 (en
Inventor
Jean-Marc Delvit
Christian Buil
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National dEtudes Spatiales CNES
Original Assignee
Centre National dEtudes Spatiales CNES
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National dEtudes Spatiales CNES filed Critical Centre National dEtudes Spatiales CNES
Priority to FR1660127A priority Critical patent/FR3057730B1/en
Priority to PCT/EP2017/076763 priority patent/WO2018073371A1/en
Publication of FR3057730A1 publication Critical patent/FR3057730A1/en
Application granted granted Critical
Publication of FR3057730B1 publication Critical patent/FR3057730B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/711Time delay and integration [TDI] registers; TDI shift registers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/768Addressed sensors, e.g. MOS or CMOS sensors for time delay and integration [TDI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

L'invention concerne un aéronef (10) sans pilote à bord et télécommandable pour survoler une zone, comportant un ensemble imageur apte à acquérir au moins une image d'une zone survolée. L'ensemble imageur comporte un premier dispositif d'imagerie (12) à matrice de capteurs adapté à acquérir une première image de la zone survolée de première résolution spatiale, et un deuxième dispositif d'imagerie (14) comprenant au moins une barrette de capteurs, la ou les barrettes de capteurs étant positionnées sensiblement perpendiculairement à la direction de déplacement de l'aéronef, apte à acquérir une deuxième image de la zone survolée par balayage, de deuxième résolution spatiale supérieure à la première résolution, lesdits premier (12) et deuxième (14) dispositifs d'imagerie étant fixés à l'aéronef, et couplés selon une relation de couplage prédéterminée.The invention relates to an aircraft (10) unmanned on board and remotely controllable to fly over an area, comprising an imaging assembly adapted to acquire at least one image of a zone overflown. The imaging assembly includes a first sensor array imaging device (12) adapted to acquire a first image of the first spatial resolution overflown area, and a second imaging device (14) comprising at least one sensor array. the sensor strip or bars being positioned substantially perpendicular to the direction of movement of the aircraft, capable of acquiring a second image of the scan overflown zone, of second spatial resolution greater than the first resolution, said first (12) and second (14) imaging devices being attached to the aircraft, and coupled in a predetermined coupling relationship.

Description

® RÉPUBLIQUE FRANÇAISE® FRENCH REPUBLIC

INSTITUT NATIONAL DE LA PROPRIÉTÉ INDUSTRIELLENATIONAL INSTITUTE OF INDUSTRIAL PROPERTY

COURBEVOIE © N° de publication :COURBEVOIE © Publication number:

(à n’utiliser que pour les commandes de reproduction)(to be used only for reproduction orders)

©) N° d’enregistrement national©) National registration number

057 730057 730

6012760127

©) Int Cl8 : H 04 N 5/247 (2017.01), H 04 N 5/372, G 06 T 5/00, B 64 C 39/02©) Int Cl 8 : H 04 N 5/247 (2017.01), H 04 N 5/372, G 06 T 5/00, B 64 C 39/02

DEMANDE DE BREVET D'INVENTION A1A1 PATENT APPLICATION

©) Date de dépôt : 19.10.16. (30) Priorité : ©) Date of filing: 19.10.16. (30) Priority: © Demandeur(s) : CENTRE NATIONAL D’ETUDES SPATIALES—FR. © Applicant (s): NATIONAL CENTER FOR SPATIAL STUDIES — FR. ©) Inventeur(s) : DELVIT JEAN-MARC. ©) Inventor (s): DELVIT JEAN-MARC. @) Date de mise à la disposition du public de la demande : 20.04.18 Bulletin 18/16. @) Date of public availability of the request: 20.04.18 Bulletin 18/16. (56) Liste des documents cités dans le rapport de recherche préliminaire : Se reporter à la fin du présent fascicule (56) List of documents cited in the preliminary search report: See the end of this brochure (© Références à d’autres documents nationaux apparentés : (© References to other related national documents: ©) Titulaire(s) : CENTRE NATIONAL D'ETUDES SPATIALES. ©) Holder (s): NATIONAL CENTER FOR SPATIAL STUDIES. ©) Demande(s) d’extension : ©) Extension request (s): ©) Mandataire(s) : LAVOIX. ©) Agent (s): LAVOIX.

AERONEF SANS PILOTE A BORD TELECOMMANDABLE EQUIPE DE DISPOSITIFS D'IMAGERIE.AIRCRAFT WITHOUT PILOT WITH REMOTE CONTROLLED EDGE EQUIPPED WITH IMAGING DEVICES.

FR 3 057 730 - A1FR 3 057 730 - A1

L'invention concerne un aéronef (10) sans pilote à bord et télécommandable pour survoler une zone, comportant un ensemble imageur apte à acquérir au moins une image d'une zone survolée. L'ensemble imageur comporte un premier dispositif d'imagerie (12) à matrice de capteurs adapté à acquérir une première image de la zone survolée de première résolution spatiale, et un deuxième dispositif d'imagerie (14) comprenant au moins une barrette de capteurs, la ou les barrettes de capteurs étant positionnées sensiblement perpendiculairement à la direction de déplacement de l'aéronef, apte à acquérir une deuxième image de la zone survolée par balayage, de deuxième résolution spatiale supérieure à la première résolution, lesdits premier (12) et deuxième (14) dispositifs d'imagerie étant fixés à l'aéronef, et couplés selon une relation de couplage prédéterminée.The invention relates to an unmanned aircraft (10) on board and remotely controllable for flying over an area, comprising an imaging assembly capable of acquiring at least one image of an overflown area. The imager assembly comprises a first imaging device (12) with sensor array adapted to acquire a first image of the overflown area of first spatial resolution, and a second imaging device (14) comprising at least one array of sensors. , the sensor array (s) being positioned substantially perpendicular to the direction of movement of the aircraft, capable of acquiring a second image of the zone overflown by scanning, of second spatial resolution greater than the first resolution, said first (12) and second (14) imaging devices being attached to the aircraft, and coupled according to a predetermined coupling relationship.

t Dt D

/ ς/ ς

Aéronef sans pilote à bord télécommandable équipé de dispositifs d’imagerieUnmanned aircraft on board remote control equipped with imaging devices

La présente invention concerne un aéronef sans pilote à bord et télécommandable pour survoler une zone, comportant un ensemble imageur apte à acquérir au moins une image d’une zone survolée.The present invention relates to an unmanned aircraft on board and remotely controllable for flying over an area, comprising an imaging assembly capable of acquiring at least one image of an overflown area.

L’invention se situe dans le domaine technique des aéronefs sans pilote à bord et télécommandables (en anglais « unmanned aerial vehicle »), appelées également drones, et plus particulièrement dans le domaine de l’acquisition d’images par de tels aéronefs.The invention relates to the technical field of unmanned aerial vehicles on board and remotely controllable (in English "unmanned aerial vehicle"), also called drones, and more particularly in the field of image acquisition by such aircraft.

Récemment, divers types de drones ont été développés, et ces engins sont en général équipés d’un dispositif imageur permettant d’acquérir des images des surfaces survolées.Recently, various types of drones have been developed, and these machines are generally equipped with an imaging device making it possible to acquire images of the overflown surfaces.

Un des problèmes rencontrés pour la capture d’images est l’instabilité en vol de tels drones, du fait de leur taille réduite par rapport à des aéronefs de transport. En effet, les drones sont particulièrement sensibles aux divers courants et mouvements d’air en vol, et par conséquent leur position n’est pas stabilisée, ce qui nuit à la capture d’images exploitables.One of the problems encountered in capturing images is the instability in flight of such drones, due to their reduced size compared to transport aircraft. Indeed, drones are particularly sensitive to various air currents and movements in flight, and therefore their position is not stabilized, which affects the capture of usable images.

De plus, pour certaines applications, il est utile de recaler les images capturées par rapport à un référentiel de géolocalisation, par exemple pour construire une carte d’un terrain survolé donné.In addition, for certain applications, it is useful to readjust the captured images in relation to a geolocation reference frame, for example to construct a map of a given overflown terrain.

Pour connaître plus précisément l’attitude d’un drone en vol, et être en mesure de positionner les images captées dans un référentiel de géolocalisation, une solution connue consiste à utiliser une centrale inertielle embarquée à bord du drone, comportant un ensemble de capteurs, dont trois accéléromètres pour mesurer l’accélération du drone selon trois directions permettant de définir un repère spatial tridimensionnel. Cependant, une telle centrale inertielle de grande précision est encombrante et a un poids non négligeable, ce qui est défavorable, notamment en termes de consommation énergétique du drone.To know more precisely the attitude of a drone in flight, and to be able to position the images captured in a geolocation reference frame, a known solution consists in using an inertial unit on board the drone, comprising a set of sensors, including three accelerometers to measure the acceleration of the drone in three directions to define a three-dimensional spatial reference. However, such a high precision inertial unit is bulky and has a significant weight, which is unfavorable, in particular in terms of energy consumption of the drone.

Il est donc utile de trouver des alternatives permettant l’acquisition d’images par un dispositif d’imagerie embarqué sur un drone, qui soient exploitables pour diverses applications.It is therefore useful to find alternatives allowing the acquisition of images by an imaging device on board a drone, which can be used for various applications.

A cet effet l’invention propose un aéronef sans pilote à bord et télécommandable pour survoler une zone, comportant un ensemble imageur apte à acquérir au moins une image d’une zone survolée. L’ensemble imageur comporte un premier dispositif d’imagerie à matrice de capteurs adapté à acquérir une première image de la zone survolée de première résolution spatiale, et un deuxième dispositif d’imagerie comprenant au moins une barrette de capteurs, la ou les barrettes de capteurs étant positionnées sensiblement perpendiculairement à la direction de déplacement de l’aéronef, apte à acquérir une deuxième image de la zone survolée par balayage, de deuxième résolution spatiale supérieure à la première résolution, lesdits premier et deuxième dispositifs d’imagerie étant fixés à l’aéronef, et couplés selon une relation de couplage prédéterminée.To this end the invention provides an unmanned aircraft on board and remotely controllable to fly over an area, comprising an imaging assembly capable of acquiring at least one image of an overflown area. The imager assembly comprises a first imaging device with a matrix of sensors adapted to acquire a first image of the overflown area of first spatial resolution, and a second imaging device comprising at least one array of sensors, the array (s) of sensors being positioned substantially perpendicular to the direction of movement of the aircraft, capable of acquiring a second image of the area overflown by scanning, of second spatial resolution greater than the first resolution, said first and second imaging devices being fixed to the aircraft, and coupled according to a predetermined coupling relationship.

Avantageusement, l’utilisation d’un ensemble imageur composé de deux dispositifs d’imagerie permet d’obtenir un recalage des images acquises, et de calculer l’attitude en vol du drone porteur.Advantageously, the use of an imaging assembly composed of two imaging devices makes it possible to obtain a registration of the acquired images, and to calculate the attitude in flight of the carrier drone.

De plus, la solution proposée permet d’alléger l’aéronef, tout en améliorant la résolution des images acquises, puisqu’il n’est plus nécessaire d’embarquer une centrale inertielle précise, et même, pour certaines applications, il n’est pas nécessaire d’embarquer de centrale inertielle du tout.In addition, the proposed solution makes it possible to lighten the aircraft, while improving the resolution of the images acquired, since it is no longer necessary to carry on a precise inertial unit, and even, for certain applications, it is not no need to board an inertial unit at all.

L’aéronef sans pilote à bord et télécommandable selon l’invention peut également présenter une ou plusieurs des caractéristiques ci-dessous, selon toute combinaison techniquement acceptable.The unmanned aircraft on board and remotely controllable according to the invention may also have one or more of the characteristics below, according to any technically acceptable combination.

Le premier dispositif d’imagerie et le deuxième dispositif d’imagerie sont montés sur une platine qui confère une liaison rigide entre le premier dispositif et le deuxième dispositif.The first imaging device and the second imaging device are mounted on a plate which provides a rigid connection between the first device and the second device.

Le deuxième dispositif d’imagerie comprend une pluralité d’ensembles de barrettes de capteurs, chaque ensemble de barrettes de capteurs étant adapté à une acquisition d’image dans une bande spectrale prédéterminée.The second imaging device includes a plurality of sets of sensor arrays, each set of sensor arrays being adapted for image acquisition in a predetermined spectral band.

Le deuxième dispositif d’imagerie comprend une pluralité d’ensembles de barrettes de capteurs d’imagerie hyperspectrale.The second imaging device includes a plurality of arrays of hyperspectral imaging sensors.

Le deuxième dispositif d’imagerie comprend des barrettes de capteurs de type à décalage temporel et intégration.The second imaging device includes time shift and integration type sensor arrays.

Selon un autre aspect, l’invention concerne un procédé de traitement d’images acquises par un ensemble imageur porté par un aéronef tel que brièvement décrit cidessus en survol d’une zone, l’aéronef ayant une attitude définie par des paramètres de roulis, de tangage et de lacet.According to another aspect, the invention relates to a method for processing images acquired by an imaging assembly carried by an aircraft as briefly described above while flying over an area, the aircraft having an attitude defined by roll parameters, pitch and yaw.

Le procédé comporte une étape de mise en géométrie d’une première image d’une zone spatiale survolée acquise par le premier dispositif d’imagerie à matrice de capteurs, utilisée comme image de référence, et d’une deuxième image de la même zone spatiale survolée, acquise par le deuxième dispositif d’imagerie, utilisée comme image secondaire, pour obtenir une image de référence transformée et une image secondaire transformée.The method comprises a step of geometry of a first image of a flown over spatial area acquired by the first imaging device with sensor array, used as reference image, and of a second image of the same spatial area overflight, acquired by the second imaging device, used as a secondary image, to obtain a transformed reference image and a transformed secondary image.

Le procédé de traitement d’image selon l’invention peut également présenter une ou plusieurs des caractéristiques ci-dessous, selon toute combinaison techniquement acceptable.The image processing method according to the invention may also have one or more of the characteristics below, according to any technically acceptable combination.

Ce procédé comporte une deuxième étape d’application d’un calcul de corrélation dense entre l’image de référence transformée et l’image secondaire transformée obtenues à la première étape pour obtenir une nappe de disparité, et un calcul de paramètres dépendant des vibrations de l’aéronef, comprenant des paramètres de roulis, tangage et lacet à partir de la nappe de disparité.This method includes a second step of applying a dense correlation calculation between the transformed reference image and the transformed secondary image obtained in the first step to obtain a disparity sheet, and a calculation of parameters depending on the vibrations of the aircraft, comprising roll, pitch and yaw parameters from the disparity layer.

Ce procédé comporte une troisième étape de calcul statistique à partir de la nappe de disparité permettant d’obtenir des directions de visée des capteurs des barrettes de capteurs du deuxième dispositif d’imagerie.This method comprises a third step of statistical calculation from the disparity layer making it possible to obtain directions of sight of the sensors of the strips of sensors of the second imaging device.

Enfin le procédé comporte une étape de correction géométrique de l’image secondaire transformée utilisant les paramètres dépendant des vibrations de l’aéronef et les directions de visée calculés.Finally, the method comprises a step of geometric correction of the transformed secondary image using the parameters depending on the vibrations of the aircraft and the calculated directions of aiming.

D’autres caractéristiques et avantages de l’invention ressortiront de la description qui en est donnée ci-dessous, à titre indicatif et nullement limitatif, en référence aux figures annexées, parmi lesquelles :Other characteristics and advantages of the invention will emerge from the description which is given below, for information and in no way limitative, with reference to the appended figures, among which:

- la figure 1 représente schématiquement un drone équipé de deux dispositifs d’imagerie selon un mode de réalisation de l’invention ;- Figure 1 schematically shows a drone equipped with two imaging devices according to an embodiment of the invention;

- la figure 2 est un synoptique d’un procédé de traitement d’images acquises.- Figure 2 is a block diagram of a method for processing acquired images.

La figure 1 représente schématiquement un aéronef 10 sans pilote à bord et télécommandable, qui sera appelé drone par la suite, équipé de deux dispositifs d’imagerie 12, 14.FIG. 1 diagrammatically represents an unmanned and remote-controlled aircraft 10, which will be called a drone hereinafter, equipped with two imaging devices 12, 14.

Le premier dispositif d’imagerie 12 est un dispositif d’acquisition d’image à matrice de capteurs, adapté à acquérir instantanément une première image numérique matricielle h de la zone survolée, de première résolution spatiale.The first imaging device 12 is a sensor matrix image acquisition device, adapted to instantly acquire a first matrix digital image h of the overflown area, of first spatial resolution.

Une image numérique est composée d’une ou plusieurs matrices bidimensionnelles d’échantillons appelés pixels, chaque échantillon ayant une valeur de radiométrie associée.A digital image is composed of one or more two-dimensional matrices of samples called pixels, each sample having an associated radiometry value.

La résolution spatiale d’une image numérique est définie par le nombre de pixels par ligne et par colonne de l’image.The spatial resolution of a digital image is defined by the number of pixels per line and per column of the image.

Le premier dispositif d’imagerie 12 est par exemple un capteur matriciel comprenant une matrice de capteurs CCD ou CMOS, ayant une ouverture de champ donnée et permettant d’acquérir une première image h de MxN pixels.The first imaging device 12 is for example a matrix sensor comprising a matrix of CCD or CMOS sensors, having a given field opening and making it possible to acquire a first image h of MxN pixels.

Le deuxième dispositif d’imagerie 14 est un dispositif d’acquisition d’images comprenant une ou plusieurs barrettes de capteurs élémentaires, chaque barrette pouvant être bi-dimensionnelle ou mono-dimensionnelle. Par exemple, les capteurs élémentaires sont des capteurs de type à décalage temporel et intégration (capteur TDI) et une barrette comporte P capteurs élémentaires.The second imaging device 14 is an image acquisition device comprising one or more strips of elementary sensors, each strip being able to be two-dimensional or one-dimensional. For example, the elementary sensors are time shift and integration type sensors (TDI sensor) and a bar has P elementary sensors.

Selon un mode de réalisation, le deuxième dispositif d’imagerie 14 comprend une au moins un ensemble de barrettes de capteurs, chaque ensemble de barrettes de capteurs étant adapté à une acquisition d’image dans une bande spectrale prédéterminée, le dispositif d’imagerie 14 étant ainsi adapté à réaliser une acquisition multi-spectrale. Par exemple, le deuxième dispositif comprend plusieurs ensembles de N barrettes de capteurs.According to one embodiment, the second imaging device 14 comprises at least one set of sensor arrays, each set of sensor arrays being adapted to image acquisition in a predetermined spectral band, the imaging device 14 thus being adapted to carry out a multi-spectral acquisition. For example, the second device comprises several sets of N strips of sensors.

Selon une variante de réalisation, le deuxième dispositif d’imagerie 14 comprend une pluralité de barrettes de capteurs d’imagerie hyperspectrale. L’imagerie hyperspectrale est une technologie permettant la représentation d’une scène suivant un grand nombre de bandes spectrales (généralement plus d’une centaine), étroites (< 10nm) et contiguës.According to an alternative embodiment, the second imaging device 14 comprises a plurality of arrays of hyperspectral imaging sensors. Hyperspectral imagery is a technology allowing the representation of a scene according to a large number of spectral bands (generally more than a hundred), narrow (<10nm) and contiguous.

Le deuxième dispositif d’imagerie 14 est attaché au drone 10 de manière à ce que la ou les barrettes défilent sensiblement au droit de la zone survolée, perpendiculairement à la direction D de déplacement du drone. Le deuxième dispositif d’imagerie est en déplacement relatif rectiligne par rapport à la zone observée.The second imaging device 14 is attached to the drone 10 in such a way that the bar or bars pass substantially in line with the overflown area, perpendicular to the direction D of movement of the drone. The second imaging device is in rectilinear relative displacement relative to the area observed.

Ainsi, chaque capteur élémentaire défile au regard du paysage observé, chaque ligne L, de l’image numérique l2 acquise correspondant à l’acquisition effectuée à un instant donné.Thus, each elementary sensor scrolls with regard to the landscape observed, each line L, of the digital image l 2 acquired corresponding to the acquisition carried out at a given instant.

L’image numérique l2 est obtenue par une pluralité d’acquisitions à des instants successifs. Cette deuxième image numérique l2 a une deuxième résolution spatiale, supérieure à la première résolution spatiale de l’image numérique h acquise par le premier dispositif d’imagerie.The digital image 12 is obtained by a plurality of acquisitions at successive instants. This second digital image 12 has a second spatial resolution, greater than the first spatial resolution of the digital image h acquired by the first imaging device.

Dans ce mode d’acquisition, chaque colonne de l’image numérique l2 est associée physiquement à un capteur élémentaire, chaque pixel d’une ligne d’image correspondant à une acquisition de signal de ce capteur élémentaire.In this acquisition mode, each column of the digital image 12 is physically associated with an elementary sensor, each pixel of an image line corresponding to a signal acquisition from this elementary sensor.

Ce mode d’acquisition par déplacement rectiligne d’une ou plusieurs barrettes de capteurs est connu sous le nom d’acquisition par balayage de fauchée, ou « pushbroom >> en anglais.This mode of acquisition by rectilinear displacement of one or more strips of sensors is known under the name of acquisition by sweep of swath, or "pushbroom" in English.

Les images obtenues par le deuxième dispositif d’imagerie 14 ont une meilleure résolution que les images matricielles obtenues par le premier dispositif d’imagerie 12, mais présentent des artefacts qui nécessitent un traitement supplémentaire avant exploitation. Par exemple, des artefacts géométriques dus aux vibrations de l’aéronef porteur sont observés.The images obtained by the second imaging device 14 have better resolution than the raster images obtained by the first imaging device 12, but have artefacts which require additional processing before exploitation. For example, geometric artefacts due to vibrations of the carrier aircraft are observed.

Le premier dispositif d’imagerie et le deuxième dispositif d’imagerie sont couplés par une relation de couplage prédéterminée.The first imaging device and the second imaging device are coupled by a predetermined coupling relationship.

On entend par relation de couplage le positionnement spatial du premier dispositif d’imagerie par rapport au deuxième dispositif d’imagerie, les deux dispositifs d’imagerie étant fixés respectivement au drone porteur.By coupling relationship is meant the spatial positioning of the first imaging device with respect to the second imaging device, the two imaging devices being fixed respectively to the carrier drone.

En particulier, la relation de couplage définit le positionnement entre le premier axe de visée Dt du premier dispositif d’imagerie 12 et le deuxième axe de visée D2 du deuxième dispositif d’imagerie 14.In particular, the coupling relationship defines the positioning between the first viewing axis Dt of the first imaging device 12 and the second viewing axis D 2 of the second imaging device 14.

De préférence, les premier et deuxième dispositifs d’imagerie sont montés sur une platine qui confère une liaison rigide entre le premier dispositif d’imagerie 12 et le deuxième dispositif d’imagerie 14. En particulier, les différentes matrices et barrettes de capteurs sont liées par une liaison rigide.Preferably, the first and second imaging devices are mounted on a plate which provides a rigid connection between the first imaging device 12 and the second imaging device 14. In particular, the different arrays and arrays of sensors are linked by a rigid connection.

Ainsi, il est possible d’effectuer un recalage numérique des images numériques h et l2 acquises respectivement par le premier et le deuxième dispositif d’imagerie.Thus, it is possible to perform a digital registration of the digital images h and l 2 acquired respectively by the first and the second imaging device.

Par exemple, optionnellement, une unité de traitement de données 16, comprenant un processeur de calcul, est embarquée à bord du drone, permettant d’effectuer des calculs.For example, optionally, a data processing unit 16, comprising a calculation processor, is on board the drone, making it possible to carry out calculations.

En outre, le premier et le deuxième dispositif d’imagerie disposent chacun d’unités de mémorisation aptes à mémoriser les images acquises, permettant de mémoriser les premières images h et les deuxièmes images l2 pour un traitement ultérieur.In addition, the first and second imaging devices each have storage units capable of storing the acquired images, making it possible to store the first images h and the second images l 2 for further processing.

Selon une variante, tous les calculs sont effectués en post-traitement par un dispositif de traitement au sol.According to a variant, all the calculations are carried out in post-treatment by a ground treatment device.

Selon un mode de réalisation, les dispositifs d’imagerie sont également équipés de modules de communication, permettant de transmettre les images numériques acquises à un dispositif de traitement au sol.According to one embodiment, the imaging devices are also equipped with communication modules, making it possible to transmit the digital images acquired to a processing device on the ground.

Tout mode de communication radio sans fil est adapté à une telle transmission peut être utilisé.Any mode of wireless radio communication suitable for such transmission can be used.

En vol, le drone est caractérisé par une attitude, définie de manière connue en soi par des paramètres de roulis, de tangage et de lacet.In flight, the drone is characterized by an attitude, defined in a manner known per se by roll, pitch and yaw parameters.

Ainsi, à chaque image acquise par un des deux dispositifs d’imagerie de l’ensemble imageur correspond à une attitude donnée du drone.Thus, each image acquired by one of the two imaging devices of the imager assembly corresponds to a given attitude of the drone.

La figure 2 illustre schématiquement les principales étapes d’un procédé de traitement des images acquises.FIG. 2 schematically illustrates the main steps of a method for processing the acquired images.

Lors d’une première étape 20, dite étape de « mise en géométrie >>, on choisit la première image h acquise par le capteur matriciel comme image de référence et la deuxième image l2, acquise par balayage push-broom, est considérée comme image secondaire, alors que cette deuxième image a une bien meilleure résolution et comporte plus d’informations, exploitables par toute application ultérieure, que la première image h.During a first step 20, called the “geometry setting” step, the first image h acquired by the matrix sensor is chosen as the reference image and the second image l 2 , acquired by push-broom scanning, is considered to be secondary image, whereas this second image has a much better resolution and comprises more information, usable by any subsequent application, than the first image h.

On utilise alors les modèles géométriques connus a priori de l’image de référence et de l’image secondaire, afin d’injecter dans ces deux images toute la connaissance délivrée par le système (attitudes existantes, modèle de distorsions optiques, par exemple des caractéristiques optiques de la caméra comme la distorsion et la focale, et modèle de la relation de couplage entre le premier dispositif d’imagerie et le deuxième dispositif d’imagerie).We then use the geometric models known a priori of the reference image and of the secondary image, in order to inject into these two images all the knowledge delivered by the system (existing attitudes, model of optical distortions, for example characteristics camera optics such as distortion and focal length, and model of the coupling relationship between the first imaging device and the second imaging device).

On obtient alors, à partir respectivement de l’image de référence l1 et de l’image secondaire l2, une image de référence transformée Ij et une image secondaire transformée l’2. Les images transformées Ij, l’2 sont obtenues par transformation ou rééchantillonnage en utilisant les modèles géométriques, et recalage au mieux de la connaissance.We then obtain, respectively from the reference image l 1 and the secondary image l 2 , a transformed reference image Ij and a transformed secondary image l ' 2 . The transformed images Ij, l ' 2 are obtained by transformation or resampling using the geometric models, and registration to the best of knowledge.

Les deux images Ij et l’2sont alors quasi-superposables.Both Ij pictures and 2 are then virtually superimposed.

Les seules différences proviennent d’un biais résiduel entre les deux dispositifs d’imagerie, de la méconnaissance du plan focal et des erreurs d’attitudes résiduelles (vibration du drone porteur par exemple).The only differences come from a residual bias between the two imaging devices, from ignorance of the focal plane and from residual attitude errors (vibration of the carrier drone for example).

Il est à noter qu’une connaissance a priori des distorsions optiques de prise de vue et des directions de visée des capteurs n’est pas suffisante pour compenser des erreurs résiduelles dues aux vibrations du drone.It should be noted that a priori knowledge of the optical distortions of shooting and the directions of sight of the sensors is not sufficient to compensate for residual errors due to the vibrations of the drone.

Ces vibrations du drone peuvent induire des biais d’attitude en roulis et en tangage et/ou un biais en lacet et/ou un grandissement.These drone vibrations can induce attitude bias in roll and pitch and / or yaw bias and / or magnification.

Lors d’une seconde étape 30 dite de « corrélation dense >>, l’image secondaire transformée l’2 et l’image de référence transformée Ij sont corrélées, afin d’obtenir une nappe de disparité. La nappe de disparité est composée des décalages en lignes et en colonnes permettant de superposer les images transformées I j et l’2.During a second step 30 called "dense correlation", the transformed secondary image l ' 2 and the transformed reference image Ij are correlated, in order to obtain a sheet of disparity. The disparity layer is composed of the line and column offsets allowing the transformed images I j and l 2 to be superimposed.

Les biais d’attitude en roulis et tangage du drone porteur se traduisent par des décalages moyens en colonne et ligne de la nappe de disparité.The attitude bias in roll and pitch of the carrier drone results in average shifts in column and line of the disparity sheet.

Le biais en lacet se traduit par une pente sur la ligne moyenne des décalages en ligne.The lace bias results in a slope on the mean line of the line offsets.

Le grandissement se traduit par une pente sur la ligne moyenne des décalages en colonnes.The magnification results in a slope on the mean line of the column offsets.

Les lignes de la nappe de disparité résultante comportent des informations sur la cartographie du plan focal du deuxième dispositif d’imagerie 14 d’acquisition push-broom, tandis que les colonnes de la nappe de disparité correspondent à des informations relatives aux biais d’attitudes de ce dispositif d’imagerie 14 non restitué par la centrale inertielle si elle est présente (par exemple les vibrations).The rows of the resulting disparity sheet include information on the mapping of the focal plane of the second imaging device 14 push-broom acquisition, while the columns of the disparity sheet correspond to information relating to attitude biases of this imaging device 14 not returned by the inertial unit if it is present (for example vibrations).

Lors d’une troisième étape 40 dite de « Statistiques », on estime la cartographie du plan focal et les résidus d’attitude du deuxième dispositif d’imagerie 14.During a third step 40 called "Statistics", the mapping of the focal plane and the attitude residues of the second imaging device 14 are estimated.

Selon un premier mode de réalisation de l’étape 40, on calcule une ligne moyenne et une colonne moyenne sur la nappe de disparité résultant de l’étape 30 de corrélation dense. Dans ce premier mode de réalisation, le procédé comprend ainsi le moyennage des lignes et des colonnes de la nappe de disparité obtenue par la corrélation de l’image de référence transformée I’! et de l’image secondaire transformée l’2. Pour un capteur, on estime les directions de visée du capteur par la ligne moyenne et les attitudes de ce même capteur par la colonne moyenne. Pour N capteurs, les opérations de moyennage sont effectuées N fois.According to a first embodiment of step 40, an average row and an average column are calculated on the disparity sheet resulting from step 30 of dense correlation. In this first embodiment, the method thus comprises averaging the rows and columns of the disparity sheet obtained by the correlation of the transformed reference image I '! and the secondary image transformed to 2 . For a sensor, the directions of sight of the sensor are estimated by the mean line and the attitudes of this same sensor by the mean column. For N sensors, the averaging operations are performed N times.

Les décalages des directions de visée des capteurs de chaque barrette du deuxième dispositif d’imagerie peuvent alors être modélisés sous forme de polynômes, par exemple en mettant en œuvre un ajustement selon la méthode des moindres carrés.The offsets of the viewing directions of the sensors of each bar of the second imaging device can then be modeled in the form of polynomials, for example by implementing an adjustment according to the method of least squares.

Selon un second mode de réalisation de l’étape 40, on met en œuvre un ajustement bidimensionnel, selon la méthode des moindres carrés, de la nappe de disparité obtenue par la corrélation de l’image de référence transformée I) et de l’image secondaire transformée l’2 pour modéliser sous forme de polynômes ou d’autres fonctions les décalages des directions de visée du capteur pushbroom mission et de l’attitude de ce même capteur. De même que dans le premier mode de réalisation, pour N barrettes de capteurs, N ajustements bidimensionnels sont mis en œuvre.According to a second embodiment of step 40, a two-dimensional adjustment is implemented, according to the method of least squares, of the disparity sheet obtained by the correlation of the transformed reference image I) and the image secondary transformed l ' 2 to model in the form of polynomials or other functions the shifts of the directions of sight of the pushbroom mission sensor and of the attitude of this same sensor. As in the first embodiment, for N sensor strips, N two-dimensional adjustments are implemented.

La solution conforme au premier mode de réalisation basée sur le moyennage des lignes et colonnes présente l’avantage de la simplicité.The solution according to the first embodiment based on the averaging of the rows and columns has the advantage of simplicity.

Selon un troisième mode de réalisation de l’étape 40, on met en œuvre une aérotriangulation entre le capteur matriciel (considéré comme la référence) et le capteur pushbroom à B barrettes, l’aérotriangulation étant mise en œuvre autant de fois que le nombre de barrettes de capteurs considérées. Cette aérotriangulation, réalisée en utilisant des images acquises, permet à partir d’un ensemble de points homologues de déterminer à minima les biais relatifs entre le repère du deuxième dispositif d’imagerie et le repère du premier dispositif d’imagerie. Si un dispositif de géolocalisation, par exemple un dispositif GPS, est embarqué sur l’aéronef, on peut déterminer un positionnement des première et deuxième images acquises dans un référentiel terrestre.According to a third embodiment of step 40, an aerotriangulation is implemented between the matrix sensor (considered to be the reference) and the pushbroom sensor with B bars, the aerotriangulation being implemented as many times as the number of sensor strips considered. This aerotriangulation, carried out using acquired images, makes it possible, from a set of homologous points, to determine at least the relative biases between the reference mark of the second imaging device and the reference mark of the first imaging device. If a geolocation device, for example a GPS device, is on board the aircraft, it is possible to determine a positioning of the first and second images acquired in a terrestrial frame of reference.

Grâce à ce procédé, on peut compenser des vibrations d’amplitudes inférieures au pixel de deuxième résolution spatiale associée au deuxième dispositif d’imagerie.With this method, vibrations of amplitudes lower than the pixel of second spatial resolution associated with the second imaging device can be compensated.

De préférence, on applique une correction géométrique de l’image secondaire transformée en utilisant les paramètres dépendant des vibrations de l’aéronef et les directions de visée calculés, pour obtenir une image secondaire améliorée et exploitable par des applications. Dans un mode de réalisation, la correction géométrique appliquée est analogue au traitement appliqué à l’étape 20, en utilisant les valeurs de paramètres caractérisant les vibrations et les directions de visée obtenus à l’issue des étapes 30 et 40. Avantageusement, les paramètres calculés permettent une correction affinée et précise.Preferably, a geometric correction of the transformed secondary image is applied using the parameters depending on the vibrations of the aircraft and the calculated viewing directions, in order to obtain an improved secondary image which can be used by applications. In one embodiment, the geometric correction applied is analogous to the processing applied in step 20, using the values of parameters characterizing the vibrations and the viewing directions obtained at the end of steps 30 and 40. Advantageously, the parameters calculated allow a refined and precise correction.

Grâce à l’invention, et notamment grâce à l’utilisation du deuxième dispositif d’imagerie en plus du premier dispositif d’imagerie, il est possible de réaliser des prises de vues de nuit lorsque les dispositifs d’imagerie comprennent des capteurs infrarouges ou des capteurs dans le domaine visible du type à décalage temporel et intégration (TDI).Thanks to the invention, and in particular thanks to the use of the second imaging device in addition to the first imaging device, it is possible to take night shots when the imaging devices include infrared sensors or sensors in the visible domain of the time shift and integration type (TDI).

Claims (9)

REVENDICATIONS 1, -Aéronef sans pilote à bord et télécommandable pour survoler une zone, comportant un ensemble imageur apte à acquérir au moins une image d’une zone survolée, caractérisé en ce que l’ensemble imageur comporte :1, -Unmanned aircraft on board and remotely controllable to fly over an area, comprising an imager assembly capable of acquiring at least one image of an overflown area, characterized in that the imager assembly comprises: un premier dispositif d’imagerie (12) à matrice de capteurs adapté à acquérir une première image de la zone survolée de première résolution spatiale, et un deuxième dispositif d’imagerie (14) comprenant au moins une barrette de capteurs, la ou les barrettes de capteurs étant positionnées sensiblement perpendiculairement à la direction de déplacement de l’aéronef, apte à acquérir une deuxième image de la zone survolée par balayage, de deuxième résolution spatiale supérieure à la première résolution, lesdits premier (12) et deuxième(14) dispositifs d’imagerie étant fixés à l’aéronef, et couplés selon une relation de couplage prédéterminée.a first imaging device (12) with sensor array adapted to acquire a first image of the overflown area of first spatial resolution, and a second imaging device (14) comprising at least one array of sensors, the array (s) of sensors being positioned substantially perpendicular to the direction of movement of the aircraft, capable of acquiring a second image of the zone overflown by scanning, of second spatial resolution greater than the first resolution, said first (12) and second (14) devices imaging systems being attached to the aircraft, and coupled according to a predetermined coupling relationship. 2, - Aéronef selon la revendication 1, dans lequel le premier dispositif d’imagerie (12) et le deuxième dispositif d’imagerie (14) sont montés sur une platine qui confère une liaison rigide entre le premier dispositif et le deuxième dispositif.2, - aircraft according to claim 1, wherein the first imaging device (12) and the second imaging device (14) are mounted on a plate which provides a rigid connection between the first device and the second device. 3. - Aéronef selon l’une des revendications 1 ou 2, dans lequel le deuxième dispositif d’imagerie (14) comprend une pluralité d’ensembles de barrettes de capteurs, chaque ensemble de barrettes de capteurs étant adapté à une acquisition d’image dans une bande spectrale prédéterminée.3. - An aircraft according to one of claims 1 or 2, in which the second imaging device (14) comprises a plurality of sets of sensor strips, each set of sensor strips being suitable for image acquisition. in a predetermined spectral band. 4, - Aéronef selon l’une des revendications 1 à 3, dans lequel le deuxième dispositif d’imagerie (14) comprend une pluralité d’ensembles de barrettes de capteurs d’imagerie hyperspectrale.4, - aircraft according to one of claims 1 to 3, wherein the second imaging device (14) comprises a plurality of arrays of hyperspectral imaging sensors. 5. - Aéronef selon l’une des revendications 1 à 4, dans lequel le deuxième dispositif d’imagerie (14) comprend des barrettes de capteurs de type à décalage temporel et intégration.5. - Aircraft according to one of claims 1 to 4, in which the second imaging device (14) comprises arrays of time shift and integration type sensors. 6. - Procédé de traitement d’images acquises par un ensemble imageur porté par un aéronef conforme à l’une des revendications 1 à 5 en survol d’une zone, l’aéronef ayant une attitude définie par des paramètres de roulis, de tangage et de lacet, comportant une étape de mise en géométrie (20) d’une première image d’une zone spatiale survolée acquise par le premier dispositif d’imagerie à matrice de capteurs, utilisée comme image de référence, et d’une deuxième image de la même zone spatiale survolée, acquise par le deuxième dispositif d’imagerie, utilisée comme image secondaire,6. - Method for processing images acquired by an imager assembly carried by an aircraft according to one of claims 1 to 5 when flying over an area, the aircraft having an attitude defined by roll and pitch parameters and yaw, comprising a geometry step (20) of a first image of a flown over spatial area acquired by the first imaging device with sensor array, used as reference image, and of a second image of the same overflown spatial area, acquired by the second imaging device, used as a secondary image, 5 pour obtenir une image de référence transformée et une image secondaire transformée.5 to obtain a transformed reference image and a transformed secondary image. 7. - Procédé de traitement d’images selon la revendication 6, comportant une deuxième étape (30) d’application d’un calcul de corrélation dense entre l’image de référence transformée et l’image secondaire transformée obtenues à la première étape7. - image processing method according to claim 6, comprising a second step (30) of applying a dense correlation calculation between the transformed reference image and the transformed secondary image obtained in the first step 10 (20) pour obtenir une nappe de disparité, et un calcul de paramètres dépendant des vibrations de l’aéronef, comprenant des paramètres de roulis, tangage et lacet à partir de la nappe de disparité.10 (20) to obtain a disparity sheet, and a calculation of parameters dependent on the vibrations of the aircraft, comprising roll, pitch and yaw parameters from the disparity sheet. 8. - Procédé de traitement d’images selon la revendication 7, comportant une8. - image processing method according to claim 7, comprising a 15 troisième étape (40) de calcul statistique à partir de la nappe de disparité permettant d’obtenir des directions de visée des capteurs des barrettes de capteurs du deuxième dispositif d’imagerie.15 third step (40) of statistical calculation from the disparity layer making it possible to obtain directions of sight of the sensors of the strips of sensors of the second imaging device. 9. - Procédé de traitement d’images selon la revendication 8, comportant une étape9. - image processing method according to claim 8, comprising a step 20 de correction géométrique de l’image secondaire transformée utilisant les paramètres dépendant des vibrations de l’aéronef et les directions de visée calculés.20 of geometric correction of the transformed secondary image using the parameters dependent on the vibrations of the aircraft and the calculated directions of aiming. 2/22/2
FR1660127A 2016-10-19 2016-10-19 AIRCRAFT WITHOUT DRIVER WITH REMOTE CONTROLABLE EDGE EQUIPPED WITH IMAGING DEVICES Active FR3057730B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1660127A FR3057730B1 (en) 2016-10-19 2016-10-19 AIRCRAFT WITHOUT DRIVER WITH REMOTE CONTROLABLE EDGE EQUIPPED WITH IMAGING DEVICES
PCT/EP2017/076763 WO2018073371A1 (en) 2016-10-19 2017-10-19 Unmanned aerial vehicle operable by remote control, provided with imaging devices

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1660127 2016-10-19
FR1660127A FR3057730B1 (en) 2016-10-19 2016-10-19 AIRCRAFT WITHOUT DRIVER WITH REMOTE CONTROLABLE EDGE EQUIPPED WITH IMAGING DEVICES

Publications (2)

Publication Number Publication Date
FR3057730A1 true FR3057730A1 (en) 2018-04-20
FR3057730B1 FR3057730B1 (en) 2019-03-15

Family

ID=58347467

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1660127A Active FR3057730B1 (en) 2016-10-19 2016-10-19 AIRCRAFT WITHOUT DRIVER WITH REMOTE CONTROLABLE EDGE EQUIPPED WITH IMAGING DEVICES

Country Status (2)

Country Link
FR (1) FR3057730B1 (en)
WO (1) WO2018073371A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109916378A (en) * 2019-03-20 2019-06-21 台州市地理信息测绘中心 A kind of status geospatial information data mapping method and data collection system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020122114A1 (en) * 2001-03-02 2002-09-05 Carroll Ernest A. Method of and apparatus for registering a single dimensional image with a two dimensional reference image
WO2014140129A1 (en) * 2013-03-12 2014-09-18 Centre National D'etudes Spatiales Method of measuring the direction of a line of sight of an imaging device
FR3006296A1 (en) * 2013-05-31 2014-12-05 Airinov DRONE COMPRISING A MULTISPECTRAL IMAGE DEVICE FOR THE GENERATION OF MAPS REPRESENTING A PLANT STATE OF A CULTURE
WO2016161284A1 (en) * 2015-04-03 2016-10-06 Thorlabs, Inc. Simultaneous multi-channel tdi imaging on a multi-tap imager

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020122114A1 (en) * 2001-03-02 2002-09-05 Carroll Ernest A. Method of and apparatus for registering a single dimensional image with a two dimensional reference image
WO2014140129A1 (en) * 2013-03-12 2014-09-18 Centre National D'etudes Spatiales Method of measuring the direction of a line of sight of an imaging device
FR3006296A1 (en) * 2013-05-31 2014-12-05 Airinov DRONE COMPRISING A MULTISPECTRAL IMAGE DEVICE FOR THE GENERATION OF MAPS REPRESENTING A PLANT STATE OF A CULTURE
WO2016161284A1 (en) * 2015-04-03 2016-10-06 Thorlabs, Inc. Simultaneous multi-channel tdi imaging on a multi-tap imager

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TCHERNYKH V ET AL: "Airborne test results for smart pushbroom imaging system with optoelectronic image correction", OPTOMECHATRONIC MICRO/NANO DEVICES AND COMPONENTS III : 8 - 10 OCTOBER 2007, LAUSANNE, SWITZERLAND; [PROCEEDINGS OF SPIE , ISSN 0277-786X], SPIE, BELLINGHAM, WASH, vol. 5234, no. 1, 1 January 2004 (2004-01-01), pages 550 - 559, XP002520674, ISBN: 978-1-62841-730-2, DOI: 10.1117/12.510712 *

Also Published As

Publication number Publication date
WO2018073371A1 (en) 2018-04-26
FR3057730B1 (en) 2019-03-15

Similar Documents

Publication Publication Date Title
US7417210B2 (en) Multi-spectral sensor system and methods
AU2016201867B2 (en) Method and system to avoid plant shadows for vegetation and soil imaging
EP1843295B1 (en) Method of recreating the movements of the line of sight of an optical instrument
US11330180B2 (en) Controlling a line of sight angle of an imaging platform
WO2006064051A1 (en) Method for processing images using automatic georeferencing of images derived from a pair of images captured in the same focal plane
EP2502202B1 (en) Method for estimating the movement of a travelling observation instrument flying over a celestial body
FR3006296A1 (en) DRONE COMPRISING A MULTISPECTRAL IMAGE DEVICE FOR THE GENERATION OF MAPS REPRESENTING A PLANT STATE OF A CULTURE
GB2548448A (en) Systems and methods for enhancing object visibility for overhead imaging
US7248794B2 (en) Remote platform multiple capture image formation method and apparatus
WO2007094765A3 (en) Method and apparatus for performing wide area terrain mapping
FR3055077A1 (en) METHOD OF CAPTURING VIDEO, COMPUTER PROGRAM, AND ELECTRONIC CAPTURE SYSTEM OF ASSOCIATED VIDEO
FR3057730A1 (en) AIRCRAFT WITHOUT DRIVER WITH REMOTE CONTROLABLE EDGE EQUIPPED WITH IMAGING DEVICES
CN110825109B (en) Method and device for acquiring spectrum information and method for controlling aircraft
EP3415949A1 (en) On-board observation system comprising a lidar for obtaining high-resolution three-dimensional images
Neigh et al. Quantifying Libya-4 surface reflectance heterogeneity with WorldView-1, 2 and EO-1 Hyperion
Gerace et al. In-flight performance of the Multi-band Uncooled Radiometer Instrument (MURI) thermal sensor
TW201502572A (en) System architecture for a constant footprint, constant gsd, constant spatial resolution linescanner
US11474365B2 (en) Micro-level polarization scanning and multispectral scanning within an optical objective
WO2014140129A1 (en) Method of measuring the direction of a line of sight of an imaging device
Nakazawa et al. Super-resolution imaging using remote sensing platform
KR101208621B1 (en) System and method for airborne multi-spectral scanner image data processing
US10416534B2 (en) Method for acquisition of images by a space or airborne optical instrument with wide field of view
Fricker et al. Progress in the development of a high performance airborne digital sensor
EP4341897A1 (en) Method and device for processing a sequence of images for identifying tracked objects in the sequence of images
FR3033935A1 (en) POLARIMETRIC IMAGE SENSOR

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180420

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

RM Correction of a material error

Effective date: 20191126

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8