FR3081590A1 - Procede d’augmentation de resolution spatiale d’une image multi-spectrale a partir d’une image panchromatique - Google Patents

Procede d’augmentation de resolution spatiale d’une image multi-spectrale a partir d’une image panchromatique Download PDF

Info

Publication number
FR3081590A1
FR3081590A1 FR1854233A FR1854233A FR3081590A1 FR 3081590 A1 FR3081590 A1 FR 3081590A1 FR 1854233 A FR1854233 A FR 1854233A FR 1854233 A FR1854233 A FR 1854233A FR 3081590 A1 FR3081590 A1 FR 3081590A1
Authority
FR
France
Prior art keywords
image
pan
spatial resolution
reflectance
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1854233A
Other languages
English (en)
Other versions
FR3081590B1 (fr
Inventor
Herve Poilve
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space SAS
Original Assignee
Airbus DS Geo SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus DS Geo SA filed Critical Airbus DS Geo SA
Priority to FR1854233A priority Critical patent/FR3081590B1/fr
Priority to US17/055,104 priority patent/US11416968B2/en
Priority to EP19737165.1A priority patent/EP3797398A1/fr
Priority to PCT/FR2019/051171 priority patent/WO2019224482A1/fr
Publication of FR3081590A1 publication Critical patent/FR3081590A1/fr
Application granted granted Critical
Publication of FR3081590B1 publication Critical patent/FR3081590B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4061Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by injecting details from different spectral ranges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10041Panchromatic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)

Abstract

La présente invention concerne un procédé (50) d'augmentation de résolution spatiale d'une image MS à partir d'une image PAN comportant : - une détermination (51) de valeurs optimales MS de paramètres d'un modèle de scène, - une détermination (52) d'un gradient des valeurs des paramètres permettant d'optimiser le paramétrage du modèle de scène par rapport à une réflectance PAN déterminée en fonction du modèle de scène et des valeurs optimales MS, - une détermination (53) d'un vecteur d'injection en fonction du modèle de scène et du gradient, - un calcul (54) d'une image MS à résolution spatiale augmentée en fonction de l'image MS, de l'image PAN et du vecteur d'injection.

Description

DOMAINE TECHNIQUE
La présente invention appartient au domaine du traitement d’images acquises par un instrument d’observation optique embarqué à bord d’un engin spatial, tel qu’un satellite, ou d’un engin aérien évoluant à haute altitude, et concerne plus particulièrement un procédé d’augmentation de résolution spatiale d’une image multi-spectrale à partir d’une image panchromatique de résolution spatiale supérieure à celle de l’image multi-spectrale.
ÉTAT DE LA TECHNIQUE
En effet, les satellites d'observation optique très haute résolution spatiale acquièrent généralement des couples d'images d’une même scène, formés par une image multi-spectrale de la scène, dite « image MS », et d'une image panchromatique de ladite scène, dite « image PAN >>.
L’image MS est en pratique elle-même formée par au moins deux images élémentaires, correspondant à des mesures effectuées dans des bandes de longueurs d’ondes respectives différentes. Par exemple, une image MS peut-être constituée de quatre images élémentaires :
- une image élémentaire dans la bande des rouges (par exemple [625-695] nanomètres),
- une image élémentaire dans la bande des vertes (par exemple [530-590] nanomètres),
- une image élémentaire dans la bande des bleues (par exemple [450-520] nanomètres),
- une image élémentaire dans la bande des proche infrarouge (par exemple [760-890] nanomètres).
L’image PAN est une image dans une bande de longueurs plus large que celles des images élémentaires de l’image MS, qui couvre par exemple directement toutes les longueurs d’ondes visibles. L'image PAN présente la résolution spatiale la plus élevée réalisée par le satellite d’observation optique, tandis que la résolution spatiale de l'image MS est moindre, généralement diminuée d'un facteur simple (2 ou 4) par rapport à celle de l'image PAN. De ce fait, l’image PAN présente généralement un pas d’échantillonnage spatial (« Spatial Sampling Distance >> ou SSD, ou encore « Ground Sampling Distance >> ou GSD dans la littérature anglo-saxonne) plus longueurs longueurs longueurs longueurs d’ondes d’ondes d’ondes d’ondes d’ondes petit que celui de l’image MS. Ainsi, la scène comporte un nombre de pixels plus important dans l’image PAN que dans chacune des images élémentaires de l’image MS, de sorte qu’un pixel dans l’image PAN représente une surface plus petite de la scène qu’un pixel d’une image élémentaire de l’image MS.
Pour une meilleure exploitation possible de ce couple d'images MS et PAN, diverses méthodes, connues sous le nom de « PAN-sharpening >> dans la littérature anglo-saxonne, ont été développées pour augmenter la résolution spatiale des images MS à partir des images PAN.
L'objectif des méthodes connues est principalement de fournir un rendu visuel en vraies couleurs. Ces méthodes connues, telle que la méthode de Gram-Schmidt, ne s'attachent pas à la réalité physique de la mesure telle qu'elle peut être exprimée en valeurs de réflectance. En d’autres termes, les images MS obtenues après augmentation de résolution spatiale ne sont pas toujours réalistes en ce qu’elles peuvent être sensiblement différentes de ce qu’elles auraient été si elles avaient été directement acquises avec la même résolution spatiale que l’image PAN.
EXPOSÉ DE L’INVENTION
La présente invention a pour objectif de remédier à tout ou partie des limitations des solutions de l’art antérieur, notamment celles exposées ci-avant, en proposant une solution qui permette d’augmenter la résolution spatiale d’une image MS à partir d’une image PAN de manière plus réaliste que les solutions de l’art antérieur.
A cet effet, et selon un premier aspect, l’invention concerne un procédé d’augmentation de résolution spatiale d’une image MS à partir d’une image PAN de résolution spatiale supérieure à la résolution spatiale de l’image MS, ladite image MS étant constituée de pixels représentatifs de la réflectance MS d’une scène, ladite image PAN étant constituée de pixels représentatifs de la réflectance PAN de ladite scène. Le procédé d’augmentation de résolution spatiale comporte, pour une portion au moins de ladite scène :
- une détermination de valeurs de paramètres d’un modèle de scène permettant de paramétrer de manière optimale ledit modèle de scène par rapport à la réflectance MS de l’image MS, dites « valeurs optimales MS »,
- une détermination d’un gradient des valeurs des paramètres permettant d’optimiser le paramétrage du modèle de scène par rapport à une réflectance PAN déterminée en fonction du modèle de scène et des valeurs optimales MS, dit « gradient d’optimisation », représentatif de la variation des valeurs des paramètres par rapport à la variation de réflectance PAN,
- une détermination d’un vecteur d’injection représentatif de la variation de réflectance MS associée à la variation de réflectance PAN pour la portion de scène considérée, en fonction du modèle de scène et du gradient d’optimisation.
Le procédé d’augmentation de résolution spatiale comporte en outre un calcul d’une image MS à résolution spatiale augmentée en fonction de l’image MS, de l’image PAN et du vecteur d’injection.
Ainsi, le procédé d’augmentation de résolution spatiale utilise un modèle de scène. De tels modèles de scène sont connus et permettent de simuler la réflectance pour différentes hypothèses faites sur la portion de scène observée. Ces hypothèses correspondent à différentes valeurs de paramètres du modèle de scène, les paramètres permettant de décrire les éléments de différente nature présents dans la portion de scène observée (sol, couvert végétal, eau, etc.), ainsi que des caractéristiques de ladite portion de scène observée (brillances, ombrage, pigmentation, etc.). De tels modèles de scène permettent de simuler la réflectance dans toute bande de longueurs d’ondes, y compris les bandes de longueurs d’ondes respectives de l’image PAN et des images élémentaires de l’image MS, et ce en tenant compte des spécificités propres à chacune desdites bandes de longueurs d’ondes considérées. En effet, la réflectance mesurée d’une portion d’une scène n’est pas le même dans toutes les bandes de longueurs d’ondes, et dépend notamment des différents éléments présents dans la portion de scène observée et des caractéristiques de ladite portion de scène.
Le procédé d’augmentation de résolution spatiale utilise le modèle de scène pour déterminer comment les variations de réflectance PAN, observées dans l’image PAN, doivent être injectées dans l’image MS pour obtenir une image MS à résolution spatiale augmentée plus conforme à la réalité physique de la mesure.
Plus particulièrement, le procédé d’augmentation de résolution spatiale utilise l’image MS, au moins, pour déterminer des valeurs optimales MS des paramètres du modèle de scène pour la portion de scène considérée. En effet, l’image MS, bien que présentant une résolution spatiale inférieure à celle de l’image PAN, contient plus d’informations sur le comportement spectral de la portion de scène que l’image PAN. Par conséquent, l’utilisation de l’image MS permet d’obtenir des valeurs des paramètres du modèle de scène (valeurs optimales MS) qui permettent de modéliser de manière plus précise le comportement spectral de la portion de scène qu’en utilisant uniquement l’image PAN. Les valeurs optimales MS correspondent donc à point de fonctionnement du modèle de scène au niveau duquel on se place par la suite pour déterminer, à partir du modèle de scène, comment les variations de réflectance PAN doivent être injectées dans l’image MS.
Une fois déterminées ces valeurs optimales MS, le modèle de scène est utilisé pour déterminer le gradient d’optimisation. Le gradient d’optimisation est représentatif de la variation des valeurs des paramètres du modèle de scène relativement à la variation de réflectance PAN, au voisinage de la réflectance PAN simulée fournie par le modèle de scène pour les valeurs optimales MS (c'est-à-dire au voisinage du point de fonctionnement susmentionné déterminé à partir de l’image MS).
A partir du gradient d’optimisation, le modèle de scène est utilisé pour déterminer le vecteur d’injection. Le vecteur d’injection permet de modéliser, compte tenu des valeurs optimales MS déterminées pour le modèle de scène qui permettent de simuler la réalité physique de la mesure dans toutes les bandes de longueurs d’ondes, comment une variation de réflectance PAN doit être répercutée dans la réflectance MS de l’image MS.
Dans des modes particuliers de mise en oeuvre, le procédé d’augmentation de résolution spatiale peut comporter en outre l’une ou plusieurs des caractéristiques suivantes, prises isolément ou selon toutes les combinaisons techniquement possibles.
Dans des modes particuliers de mise en oeuvre, le calcul de l’image MS à résolution spatiale augmentée comporte :
- un sur-échantillonnage spatial de l’image MS de sorte à obtenir une image MS à pas d’échantillonnage spatial plus petit que le pas d’échantillonnage spatial initial, dite « image MS suréchantillonnée »,
- un filtrage passe-bas de l’image PAN de sorte à obtenir une image PAN à résolution spatiale diminuée,
- une correction, dans la portion de scène, de l’image MS suréchantillonnée en fonction du vecteur d’injection, de l’image PAN et de l’image PAN à résolution spatiale diminuée.
Le filtrage passe-bas de l’image PAN permet d’obtenir une image PAN à résolution spatiale diminuée en conservant son pas d’échantillonnage spatial initial, c'est-à-dire une estimation de ce qu’aurait été l’image PAN si elle avait été acquise avec la même résolution spatiale que l’image MS, puis suréchantillonnée. En comparant l’image PAN et l’image PAN à résolution spatiale diminuée, il est donc possible d’estimer une modulation haute résolution spatiale de la réflectance PAN de l’image PAN, c'est-à-dire la partie de la réflectance PAN de l’image PAN qui n’a pu être mesurée que parce que la résolution spatiale de l’image PAN est supérieure à celle de l’image MS.
Ensuite, le ou les vecteurs d’injection calculés permettent de convertir la modulation haute résolution spatiale de la réflectance PAN en modulation haute résolution spatiale de la réflectance MS conforme à la réalité physique de la mesure.
Dans des modes particuliers de mise en oeuvre, la détermination du gradient d’optimisation met en oeuvre un algorithme de Gauss-Newton.
Dans des modes particuliers de mise en oeuvre, le gradient d’optimisation est déterminé par optimisation d’un fonction de coût comportant au moins un premier terme, dit « fonction de réflectance », représentatif d’une ressemblance, pour la portion de scène considérée, entre la réflectance PAN déterminée en fonction du modèle de scène et des valeurs optimales MS et une réflectance fournie par le modèle de scène pour les valeurs de paramètres considérées.
Dans des modes particuliers de mise en oeuvre, la fonction de coût comporte en outre un second terme, dit « fonction de connaissance a priori », représentatif d’une ressemblance, pour la portion de scène considérée, entre les valeurs de paramètres considérées et une connaissance a priori sur les paramètres du modèle de scène.
Dans des modes particuliers de mise en oeuvre, la connaissance a priori sur les paramètres du modèle de scène est calculée en fonction des valeurs optimales MS.
Dans des modes particuliers de mise en oeuvre, le vecteur d’injection est calculé en fonction du gradient d’optimisation et en fonction d’une matrice de variation du modèle de scène représentative de la variation de réflectance MS par rapport à la variation des valeurs des paramètres du modèle de scène.
Dans des modes particuliers de mise en oeuvre, la portion de scène correspond à un pixel et un vecteur d’injection est déterminé pour chaque pixel.
Dans des modes particuliers de mise en oeuvre, le procédé d’augmentation de résolution spatiale comporte une classification des pixels en groupes de pixels, la portion de scène correspondant à un groupe de pixels et un vecteur d’injection étant déterminé pour chaque groupe de pixels.
Dans des modes particuliers de mise en oeuvre, le vecteur d’injection d’un groupe de pixels est calculé en fonction d’une valeur médiane ou d’une valeur moyenne des réflectances MS du groupe de pixels considéré.
Dans des modes particuliers de mise en oeuvre, le modèle de scène comporte un modèle de réflectance au sol et un modèle atmosphérique.
Dans des modes particuliers de mise en oeuvre, le procédé d’augmentation de résolution spatiale comporte une conversion préalable des valeurs des pixels de l’image MS et de l’image PAN en valeurs de réflectance MS et de réflectance PAN au sol ou en sommet d’atmosphère.
Selon un second aspect, l’invention concerne un produit programme d’ordinateur comportant un ensemble d’instructions de code de programme qui, lorsqu’elles sont exécutées par un processeur, configurent ledit processeur pour mettre en oeuvre un procédé d’augmentation de résolution spatiale selon l’un quelconque des modes de mise en oeuvre de l’invention.
Selon un troisième aspect, l’invention concerne un système de traitement d’image comportant des moyens configurés pour mettre en oeuvre un procédé d’augmentation de résolution spatiale selon l’un quelconque des modes de mise en œuvre de l’invention.
PRÉSENTATION DES FIGURES
L’invention sera mieux comprise à la lecture de la description suivante, donnée à titre d’exemple nullement limitatif, et faite en se référant aux figures qui représentent :
- Figure 1 : une représentation schématique d’un satellite d’observation en orbite terrestre,
- Figure 2 : un diagramme représentant les principales étapes d’un procédé d’augmentation de résolution spatiale,
- Figure 3 : un diagramme représentant un premier exemple de mise en œuvre du procédé d’augmentation de résolution spatiale,
- Figure 4 : un diagramme représentant un second exemple de mise en œuvre du procédé d’augmentation de résolution spatiale,
- Figure 5 : un diagramme représentant un troisième exemple de mise en œuvre du procédé d’augmentation de résolution spatiale,
- Figure 6 : un diagramme représentant un quatrième exemple de mise en œuvre du procédé d’augmentation de résolution spatiale.
Dans ces figures, des références identiques d’une figure à une autre désignent des éléments identiques ou analogues. Pour des raisons de clarté, les éléments représentés ne sont pas à l’échelle, sauf mention contraire.
DESCRIPTION DÉTAILLÉE DE MODES DE RÉALISATION
Dans la suite de la description, on considère de manière non limitative le cas d’un traitement d’images acquises depuis un engin spatial de type satellite. Il convient toutefois de préciser que l’invention est également applicable à des images acquises par un instrument d’observation optique embarqué à bord d’un engin aérien (avion, ballon, drone, etc.), par exemple un engin aérien à haute altitude (altitude supérieure à 10 kilomètres).
En outre, dans la suite de la description, on considère de manière non limitative le cas où l’instrument d’observation optique est adapté à acquérir simultanément une image multi-spectrale, dite « image MS >>, et une image panchromatique, dite « image PAN >>, d’une même scène survolée par ledit satellite. Il convient toutefois de préciser que l’invention est également applicable à des images MS et PAN acquises par deux instruments d’observation optiques différents, pouvant être par exemple embarqués dans un même satellite ou dans des satellites différents (voire dans des engins différents, respectivement spatial et aérien). Par conséquent, l’invention est également applicable au cas d’images MS et PAN acquises à des instants différents, dès lors que celles-ci sont comparables en ce que, notamment, elles représentent sensiblement la même scène observée avec sensiblement la même ligne de visée, et de préférence avec sensiblement les mêmes conditions d’ensoleillement.
La figure 1 représente schématiquement un satellite 10 en orbite terrestre, configuré pour observer une scène à la surface de la Terre. L’orbite terrestre est par exemple une orbite défilante, par exemple une orbite basse (« Low Earth Orbit >> ou LEO) ou moyenne (« Medium Earth Orbit >> ou MEO), de sorte que la scène observée par le satellite varie au cours du temps, du fait au moins du déplacement dudit satellite 10 par rapport à la Terre.
De manière conventionnelle, le satellite 10 embarque un instrument d’observation 11 optique qui permet d’acquérir une image MS et une image PAN de la scène observée.
L’image MS est en pratique elle-même formée par un nombre Nj d’images élémentaires (Nj > 2), correspondant au rayonnement reçu dans des bandes de longueurs d’ondes respectives différentes. Par exemple, une image MS peut-être constituée de quatre images élémentaires (Nj = 4) :
- une image élémentaire dans la bande des longueurs d’ondes rouges, dite « bande R >> (par exemple [625-695] nanomètres),
- une image élémentaire dans la bande des longueurs d’ondes vertes, dite « bande G >> (par exemple [530-590] nanomètres),
- une image élémentaire dans la bande des longueurs d’ondes bleues, dite « bande B >> (par exemple [450-520] nanomètres),
- une image élémentaire dans la bande des longueurs d’ondes proche infrarouge, dite « bande NIR >> (par exemple [760-890] nanomètres).
L’image PAN correspond au rayonnement reçu dans une bande de longueurs d’ondes par exemple plus large que celles des images élémentaires de l’image MS, qui couvre par exemple directement toutes les longueurs d’ondes visibles. Par exemple, l’image PAN correspond au rayonnement reçu dans une bande de longueurs d’ondes [450-745] nanomètres.
L'image PAN présente une résolution spatiale plus élevée que chacune des images élémentaires de l’image MS, ainsi qu’un pas d’échantillonnage spatial plus petit que chacune desdites images élémentaires de l’image MS, de sorte qu’un pixel dans l’image PAN représente une surface plus petite de la scène qu’un pixel d’une image élémentaire de l’image MS. De manière conventionnelle, la résolution spatiale d’une image correspond à la taille, par exemple exprimée en mètres, du plus petit objet qui peut être détecté dans la scène représentée par cette image. Plus la taille du plus petit objet détectable diminue, plus la résolution spatiale de cette image augmente. Le pas d’échantillonnage spatial correspond à la distance au sol, par exemple exprimée en mètres, séparant deux pixels adjacents de l’image.
Une fois l’image MS et l’image PAN acquises par l’instrument d’observation 11 optique du satellite 10, lesdites images MS et PAN sont mémorisées pour être transmises à une station sol 20, lorsque le satellite 10 survole ladite station sol 20. Une fois transmises à une station sol 20, l’image MS et l’image PAN sont soumises à différents traitements qui sortent du cadre de l’invention et qui sont considérés comme connus de l’homme de l’art. Ces traitements comportent notamment la correction géométrique préalable desdites images MS et PAN, pour les mettre par exemple en cohérence dans un même système de référencement prédéterminé. L’image MS et l’image PAN sont ensuite fournies à un dispositif de traitement (non représenté sur les figures) qui peut effectuer en temps différé les traitements visant à augmenter la résolution spatiale de l’image MS à partir de l’image PAN, en mettant en oeuvre un procédé 50 d’augmentation de résolution spatiale.
Le dispositif de traitement comporte par exemple un circuit de traitement comportant un ou plusieurs processeurs et des moyens de mémorisation (disque dur magnétique, mémoire électronique, disque optique, etc.) dans lesquels sont mémorisés des données et un produit programme d’ordinateur, sous la forme d’un ensemble d’instructions de code de programme à exécuter pour mettre en oeuvre tout ou partie des étapes du procédé 50 d’augmentation de résolution spatiale. Alternativement ou en complément, le circuit de traitement comporte un ou des circuits logiques programmables (FPGA, PLD, etc.), et/ou un ou des circuits intégrés spécialisés (ASIC), et/ou un ensemble de composants électroniques discrets, etc. adaptés à mettre en oeuvre tout ou partie des étapes du procédé 50 d’augmentation de résolution spatiale.
En d’autres termes, le circuit de traitement correspond à un ensemble de moyens configurés de façon logicielle (produit programme d’ordinateur spécifique) et/ou matérielle (FPGA, PLD, ASIC, etc.) pour mettre en oeuvre les différentes étapes du procédé 50 d’augmentation de résolution spatiale.
L’image MS est constituée de pixels représentatifs de la réflectance multi-spectrale de la scène observée dans chacune des Nj bandes de longueurs d’ondes considérées, dite « réflectance MS ». L’image PAN est constituée de pixels représentatifs de la réflectance panchromatique de ladite scène, dite « réflectance PAN ».
Les réflectances MS et PAN sont de préférence des réflectances au sol (corrigées des effets de l'atmosphère, au moins leur partie prédictive correction Rayleigh) ou en sommet d’atmosphère (« Top of Atmosphere » dans la littérature anglo-saxonne). A cet effet, le procédé 50 d’augmentation de résolution spatiale peut comporter, dans des modes préférés de mise en oeuvre, une étape préalable (non représentée sur les figures) de conversion des valeurs des pixels de l’image MS et de l’image PAN en valeurs de réflectance MS et de réflectance PAN au sol ou en sommet d’atmosphère, si cette conversion n’a pas déjà été effectuée par d’autres moyens. Une telle conversion est considérée comme connue de l’homme de l’art et sort du cadre de l’invention.
La figure 2 représente schématiquement les principales étapes d’un procédé 50 d’augmentation de résolution spatiale de l’image MS à partir de l’image PAN. Tel qu’illustré par la figure 2, le procédé 50 d’augmentation de résolution spatiale comporte, pour augmenter la résolution spatiale dans une portion prédéterminée de la scène observée, des étapes de :
- 51 détermination de valeurs de paramètres d’un modèle de scène permettant de paramétrer de manière optimale ledit modèle de scène par rapport à la réflectance MS de l’image MS dans la portion de scène considérée, dites « valeurs optimales MS »,
- 52 détermination d’un gradient des valeurs des paramètres permettant d’optimiser le paramétrage du modèle de scène par rapport à une réflectance PAN déterminée en fonction du modèle de scène et des valeurs optimales MS, dit « gradient d’optimisation »,
- 53 détermination d’un vecteur d’injection représentatif de la variation de réflectance MS associée à la variation de réflectance PAN pour la portion de scène considérée, en fonction du modèle de scène et du gradient d’optimisation,
Les étapes ci-dessus (51 détermination de valeurs optimales MS, 52 détermination de gradient d’optimisation et 53 détermination de vecteur d’injection) sont exécutées pour une portion de la scène, et sont répétées pour chaque portion de scène si la résolution spatiale de l’image MS doit être augmentée dans plusieurs portions de scène observée.
Suivant un premier exemple, la portion de scène correspond à un pixel en haute résolution spatiale (c'est-à-dire à la résolution spatiale de l’image PAN), de sorte que les étapes ci-dessus sont exécutées pour chaque pixel en haute résolution spatiale considéré. En d’autres termes, dans un tel cas, un vecteur d’injection est calculé pour chaque pixel en haute résolution spatiale considéré, et de préférence pour tous les pixels en haute résolution spatiale de l’image PAN. Alternativement, la portion de scène peut correspondre à un pixel en basse résolution spatiale (c'est-à-dire à la résolution spatiale de l’image MS), de sorte que les étapes ci-dessus sont exécutées pour chaque pixel en basse résolution spatiale considéré. En d’autres termes, dans un tel cas, un vecteur d’injection est calculé pour chaque pixel en basse résolution spatiale considéré, et de préférence pour tous les pixels en basse résolution spatiale de l’image MS, et un vecteur d’injection pour chaque pixel en haute résolution spatiale peut être obtenu en sur-échantillonnant les vecteurs d’injection obtenus pour les pixels en basse résolution spatiale.
Suivant un second exemple, la portion de scène correspond à un groupe de pixels en haute résolution spatiale (c'est-à-dire à la résolution spatiale de l’image PAN), de sorte que les étapes ci-dessus sont exécutées pour chaque groupe de pixels en haute résolution spatiale considéré. En d’autres termes, dans un tel cas, un vecteur d’injection est calculé pour chaque groupe de pixels en haute résolution spatiale considéré, et de préférence de sorte à couvrir tous les pixels en haute résolution spatiale de l’image PAN. Alternativement, la portion de scène peut correspondre à groupe de pixels en basse résolution spatiale (c'est-à-dire à la résolution spatiale de l’image MS), de sorte que les étapes ci-dessus sont exécutées pour chaque groupe de pixels en basse résolution spatiale considéré. En d’autres termes, dans un tel cas, un vecteur d’injection est calculé pour chaque groupe de pixels en basse résolution spatiale considéré, et de préférence de sorte à couvrir tous les pixels en basse résolution spatiale de l’image MS, et un vecteur d’injection pour chaque pixel en haute résolution spatiale peut être obtenu en suréchantillonnant les vecteurs d’injection obtenus pour les pixels en basse résolution spatiale.
Le procédé 50 d’augmentation de résolution spatiale de l’image MS comporte en outre une étape 54 de calcul d’une image MS à résolution spatiale augmentée en fonction de l’image MS, de l’image PAN et du ou des vecteurs d’injection.
Tel qu’indiqué ci-dessus, le procédé 50 d’augmentation de résolution spatiale utilise un modèle de scène, et des exemples possibles de modèles de scène sont décrits plus en détail ci-après. En outre, des exemples de mise en oeuvre détaillés des étapes illustrées par la figure 2 sont décrits plus en détail ci-après, en considérant dans un premier temps un exemple dans lequel la portion de scène correspond à un pixel en haute résolution spatiale (figure 3) puis, dans un second temps, des exemples dans lesquels la portion de scène correspond à un pixel en basse résolution spatiale (figure 4) ou à des groupes de pixels en haute résolution spatiale (figure 5) ou à des groupes de pixels en basse résolution spatiale (figure 6).
A) Modèle de scène
Tel qu’indiqué ci-dessus, la procédé 50 d’augmentation de résolution spatiale utilise un modèle de scène. De tels modèles de scène sont considérés comme connus de l’homme de l’art, et le choix d’un modèle de scène particulier ne constitue qu’une variante d’implémentation de l’invention.
Le modèle de scène comporte au moins un modèle de réflectance au sol qui modélise la réflectance intrinsèque de la scène observée. Dans des modes préférés de mise en oeuvre, le modèle de scène comporte en outre un modèle atmosphérique qui modélise la fonction de transfert de l’atmosphère entre la scène et le satellite 10, et plus particulièrement entre la scène et le sommet de l’atmosphère.
Dans la suite de la description, on se place de manière non limitative dans le cas où le modèle de scène comporte à la fois un modèle de réflectance au sol et un modèle atmosphérique.
A.1) Modèle de réflectance au sol
Le modèle de réflectance au sol est par exemple basé sur un modèle SAIL/PROSPECT, qui modélise notamment la réflectance de scènes correspondant à des couverts de végétation, la végétation étant le contributeur principal dans la majorité des scènes observées depuis un satellite 10.
Le modèle SAIL/PROSPECT, également connu sous le nom de modèle PROSAIL dans la littérature scientifique, prend en compte, de manière conventionnelle, la direction d’illumination de la scène par le Soleil ainsi que la direction de visée de l'instrument d’observation optique (modèle BRDF pour « Bidirectional Reflectance Distribution Function »).
Le modèle SAIL/PROSPECT a été validé de manière exhaustive et est couramment utilisé par la communauté scientifique. On peut citer à titre d’exemple la publication scientifique : « PROSPECT + SAIL Models : A Review of Use for Vegetation Characterization », Jacquemoud S., Verhoef W., Baret W., Bacour C., Zarco-Tejada P.J., Asner G.P., François C., Ustin, S.L., Remote Sensing of Environment 113, S56-S66.
Il est également possible d’enrichir le modèle de réflectance au sol au moyen par exemple :
- d’une connaissance a priori du couvert observé et d’une gamme prédéterminée de densité de végétation (allant par exemple de forêt tropicale à région semi-aride),
- d’une composante d’eau, qui met par exemple en œuvre un modèle de transfert radiatif utilisant le même formalisme que le modèle SAIL et les propriétés optiques de l'eau telles que caractérisées dans des eaux potentiellement peu profondes et turbides, dites de type CASE II (voir par exemple « Variations in the Light Absorption Coefficients of Phytoplankton, Nonalgal Particles, and Dissolved Organic Matter in Coastal Waters Around Europe >>, Babin et al., Journal of Geophysical Research, 108, 3211) s’il est connu a priori qu’une forte présence d’eau est possible dans la scène observée (par exemple zone côtière, lacs, etc.),
- d’une réponse spectrale du sol prédéterminée, sélectionnée en fonction d’une connaissance a priori du type sol observé dans la scène lorsque la contribution du sol est susceptible d’être importante par rapport à la contribution du couvert végétal (montagne, désert, etc.),
- d’une modélisation d’autres caractéristiques susceptibles d’influencer la réflectance de la scène observée, comme par exemple une présence importante de zones brûlées, de zones enneigées, de surfaces artificielles présentant une signature spectrale prédéterminée, etc.
A.2) Modèle atmosphérique
Le cas échéant, le modèle atmosphérique comporte par exemple un modèle de type LOWTRAN (voir par exemple « Users Guide to LOWTRAN 7 >>, Kneisys F.X. et al., 1988, Air Force Geophysics Lab Hanscom AFB MA) et, de préférence, un modèle de nuages.
Pour un modèle de type LOWTRAN, le paramètre directeur est généralement la distance de visibilité, en relation avec la charge d’aérosols. Les propriétés optiques des aérosols peuvent être déduites de l'appel du modèle LOWTRAN, par comparaison des résultats fournis par ledit modèle LOWTRAN en considérant d’une part une absence d’aérosols (visibilité maximale) et, d’autre part, un type particulier d’aérosols et une valeur de référence de la distance de visibilité. Ainsi, il est possible d’établir des relations (« look-up tables ») entre le paramètre distance de visibilité du modèle LOWTRAN et l'épaisseur optique de la couche aérosols, et d’utiliser ladite distance de visibilité comme paramètre dudit modèle d’aérosols.
Le modèle de nuages est par exemple modélisé en tant que couche de milieu trouble (« turbid medium » dans la littérature anglo-saxonne) avec une fonction de phase Henyey-Greenstein et un paramètre d’asymétrie adaptés aux comportements respectifs des aérosols et des nuages. Pour le modèle de nuages, les fonctions de transfert sont par exemple exprimées selon le formalisme 4-flux tel que développé dans le modèle SAIL.
Les propriétés optiques de nuages sont bien connues et décrites dans la littérature, et peuvent être utilisées pour paramétrer le modèle de nuages, et pour établir une relation entre l’épaisseur optique d’un nuage et la réflectance apparente dudit nuage, par exemple pour utiliser l’épaisseur optique de nuage comme paramètre du modèle de nuages.
A.3) Sélection du modèle de scène
Afin de pouvoir traiter des images de scènes situées à des endroits différents à la surface de la Terre, il est possible, dans des modes particuliers de mise en oeuvre, de mémoriser dans une base de données une bibliothèque de modèles de scène. Chaque modèle de scène mémorisé dans cette base de données correspond à une combinaison particulière d’un modèle de réflectance au sol et d’un modèle atmosphérique adaptée à une combinaison particulière de type de paysage et de conditions climatiques.
En classifiant différentes zones à la surface de la Terre en fonction de leurs types de paysage et de leurs conditions climatiques, il est possible d’établir une ou plusieurs cartes géographiques permettant de sélectionner, pour chaque zone à la surface de la Terre, le modèle de scène le plus adapté au type de paysage et aux conditions climatiques rencontrés dans cette zone.
Ainsi, la sélection revient principalement, dans le cas où une bibliothèque globale de modèles de scène a préalablement été constituée dans une base de données, à identifier la zone dans laquelle se trouve la scène observée et à obtenir dans la base de données le modèle de scène associé à ladite zone.
Le modèle de scène considéré est ainsi piloté par un ensemble de paramètres v = (vk), k = 1... Nk qui décrivent à la fois la nature des éléments présents dans la portion de scène considérée et ses conditions atmosphériques. En outre, il est à noter que le modèle de scène considéré peut optionnellement varier d’une portion de scène à une autre dans le cas de portions de scène de natures très différentes.
Le modèle de scène couvre de préférence l'ensemble du domaine optique, de 0.4 micromètres à 2.5 micromètres, avec une résolution spectrale fine, de l'ordre de quelques nanomètres à quelques dizaines de nanomètres. Ceci permet ensuite de simuler la réflectance de la scène à la fois dans les bandes de longueurs d’ondes de l’image MS (ci-après « bandes MS ») et dans la bande de longueurs d’ondes de l’image PAN (ci-après « bande PAN »), en fonction de leurs réponses spectrales respectives. Ainsi pour un jeu de paramètres v, on désigne ci-après par pmodei-Ms(v) et Pmodei-PAM les réflectances simulées fournies par le modèle de scène dans respectivement les bandes MS et dans la bande PAN.
B) Exemple de mise en œuvre sur des pixels en haute résolution spatiale
La figure 3 représente schématiquement les principales étapes d’un mode particulier de mise en œuvre dans lequel la portion de scène considérée correspond à un pixel en haute résolution spatiale (c'est-à-dire à la résolution spatiale de l’image PAN), et dans lequel la résolution spatiale doit être augmentée dans toute la scène, c'est-à-dire qu’un vecteur d’injection est calculé pour chaque pixel en haute résolution spatiale de l’image PAN.
Tel qu’illustré par la figure 3, l’étape 54 de calcul de l’image MS à résolution spatiale augmentée comporte, dans cet exemple de mise en œuvre :
- une étape 540 de sur-échantillonnage spatial de l’image MS de sorte à obtenir l’image MS à pas d’échantillonnage spatial plus petit que le pas d’échantillonnage spatial initial, dite « image MS suréchantillonnée », de préférence avec un pas d'échantillonnage spatial égal au pas d’échantillonnage spatial de l’image PAN,
- une étape 541 de filtrage passe-bas de l’image PAN de sorte à obtenir une image PAN à résolution spatiale diminuée en conservant son pas d’échantillonnage spatial initial,
L’étape 54 de calcul de l’image MS à résolution spatiale augmentée comporte en outre une étape 542 de correction de l’image MS suréchantillonnée qui est exécutée pour chaque portion de scène considérée, c'est-à-dire dans le présent exemple pour chaque pixel de l’image MS suréchantillonnée. La correction de l’image MS sur-échantillonnée en un pixel donné (portion de scène) est effectuée en fonction du vecteur d’injection calculé pour ledit pixel, et des réflectances PAN respectives de l’image PAN et de l’image PAN à résolution spatiale diminuée pour ledit pixel.
B.1) Sur-échantillonnage spatial de l’image MS
Dans l’exemple illustré par la figure 3, l’étape 540 de suréchantillonnage spatial de l’image MS est exécutée avant l’étape 51 de détermination de valeurs optimales MS. De manière générale, toute méthode de sur-échantillonnage spatial d’une image connue de l’homme de l’art peut être mise en œuvre, et le choix d’une méthode particulière ne constitue qu’une variante d’implémentation de l’invention. Par exemple le sur-échantillonnage spatial peut être réalisé par une interpolation bilinéaire de l’image MS.
A l’issue de l’étape 540 de sur-échantillonnage spatial, le nombre de pixels de l’image MS a été augmenté de sorte qu’un pixel de l’image MS suréchantillonnée représente sensiblement la même surface de la scène qu’un pixel de l’image PAN. La résolution spatiale de l’image MS sur-échantillonnée, bien qu’ayant le même pas d’échantillonnage spatial que celui de l’image PAN, n’est pas comparable à celle de l’image PAN, et est toujours limitée par la résolution spatiale d’acquisition initiale de l’image MS. Les étapes suivantes du procédé 50 d’augmentation de résolution spatiale visent précisément à corriger, en fonction de l’image PAN, l’image MS sur-échantillonnée pour obtenir une image MS à résolution spatiale augmentée plus proche de ce qu’aurait été une image MS acquise directement avec la même résolution spatiale que l’image PAN.
B.2) Détermination des valeurs optimales MS
Tel qu’illustré par la figure 3, le procédé 50 d’augmentation de résolution spatiale comporte une étape 51 de détermination de valeurs des paramètres du modèle de scène permettant d’optimiser le paramétrage dudit modèle de scène par rapport à l’image MS sur-échantillonnée, dites « valeurs optimales MS >>. Cette étape 51 de détermination de valeurs optimales MS vise à inverser le modèle de scène et est exécutée, dans l’exemple illustré par la figure 3, en chaque pixel de l’image MS sur-échantillonnée.
Il est à noter que, au cours de l’étape 51 de détermination de valeurs optimales MS, le paramétrage du modèle de scène est optimisé au moins par rapport à l’image MS sur-échantillonnée. Il est cependant possible, suivant d’autres exemples, de considérer également l’image PAN. En d’autres termes, il est possible d’optimiser le paramétrage du modèle de scène par rapport à la fois à la réflectance MS de l’image MS sur-échantillonnée et à la réflectance PAN de l’image PAN.
Dans la suite de description, on se place de manière non limitative dans le cas où seule l’image MS sur-échantillonnée est prise en compte pour la détermination des valeurs optimales MS.
Tel qu’indiqué ci-dessus, un jeu particulier de valeurs des paramètres du modèle de scène permet de calculer, en chaque pixel considéré, une réflectance MS simulée, qui peut être comparée à la réflectance MS de l’image MS sur-échantillonnée.
Par exemple, l’optimisation vise à maximiser la ressemblance entre la réflectance MS simulée, fournie par le modèle de scène, et la réflectance MS de l’image MS sur-échantillonnée, c'est-à-dire qu’elle vise à déterminer les valeurs dites optimales desdits paramètres qui permettent d’obtenir une ressemblance maximale, pour le pixel considéré, entre la réflectance MS simulée et la réflectance MS de l’image MS sur-échantillonnée. Toutefois, d’autres types d’optimisation peuvent être considérés et un processus d’optimisation comporte généralement la définition préalable d’une fonction de coût à optimiser, c'est-à-dire à minimiser ou à maximiser suivant le type de fonction de coût. Le choix d’une fonction de coût particulière ne constitue qu’une variante d’implémentation de l’invention.
Tel qu’indiqué ci-dessus, la fonction de coût comporte de préférence un premier terme, dit «fonction de réflectance», qui calcule une ressemblance, pour le pixel considéré, entre la réflectance MS simulée et la réflectance MS de l’image MS sur-échantillonnée.
Dans des modes particuliers de mise en oeuvre, la fonction de coût peut comporter en outre un second terme, dit « fonction de connaissance a priori », qui calcule une ressemblance, pour le pixel considéré, entre les valeurs de paramètres considérées et une connaissance a priori sur les paramètres du modèle de scène. De telles dispositions permettent d’améliorer la détermination des valeurs optimales MS, en utilisant toute connaissance a priori de la distribution statistique des paramètres du modèle de scène.
La fonction de coût C utilisée pour déterminer les valeurs optimales
MS du modèle de scène peut être exprimée sous la forme suivante :
C(v, Pms(p)) — G.(p model- MS(p')(.V)> PmS(p)) F F prior) expression dans laquelle :
- Ci correspond à la fonction de réflectance,
- C2 correspond à la fonction de connaissance a priori, optionnelle,
Pmsîp) correspond à la réflectance MS pour le pixel p considéré, fournie par l’image MS sur-échantillonnée,
- Pmodei-Ms(p)(v) correspond à la réflectance MS simulée pour le pixel p considéré, fournie par le modèle de scène pour les valeurs de paramètres v,
- vprior correspond à la connaissance a priori sur les paramètres du modèle de scène.
Suivant un premier exemple, la ressemblance calculée par la fonction de réflectance Cj correspond à un écart quadratique qui peut être exprimé sous la forme suivante :
v-1 n i
Cl(Pmodel-MS(p)(v), PmS(p)) ~ / (Pmodel-MS, expression dans laquelle :
Pmsj(p) correspond à la réflectance MS pour le pixel p considéré, fournie par l’image MS sur-échantillonnée pour la j-ième bande de longueurs d’ondes parmi les Nj bandes de longueurs d’ondes des bandes MS (si Nj = 4, les quatre bandes de longueurs d’ondes sont par exemple aux bandes R, G, B et NIR),
- Pmodei-Ms,jQp)(.v) correspond à la réflectance MS simulée pour le pixel p considéré, fournie par le modèle de scène pour les valeurs de paramètres v et pour la j-ième bande de longueurs d’ondes parmi les Nj bandes de longueurs d’ondes des bandes MS.
Suivant un second exemple, la ressemblance calculée par la fonction de réflectance C± correspond à un écart quadratique normalisé qui peut être exprimé sous la forme suivante :
/ /λ λ _ 1 VWy model-MS, j(p)M PMS,j(p)) biyPmodel-MS(p')\^>)> PmSQp)) ~ .2\
7=1 E [yPmodel-MSJ ~ PmSJJ ) expression dans laquelle E (jypmOdei-Msj ~ PmsjŸ} est une estimation du niveau de précision que l'on peut viser dans l'ajustement entre le modèle de scène et l’image MS sur-échantillonnée. Ce niveau de précision que l’on peut viser est par exemple estimé en prenant en compte le bruit radiométrique, la précision de la calibration radiométrique, etc. Il est également possible de prendre en compte un niveau de précision intrinsèque du modèle de scène, qui peut être une valeur forfaitaire prédéterminée.
Il est à noter que, dans le cas où l’image PAN est également utilisée pour déterminer les valeurs optimales MS, alors la réflectance PAN de celle-ci peut être incluse dans les expressions ci-dessus de la fonction de réflectance Ci en considérant que l’on dispose de (n7 + 1) bandes de longueurs d’ondes différentes, et que la réflectance PAN pPAN(p) de l’image PAN correspond à la réflectance mesurée dans la (n7 + l)-ième bande de longueurs d’ondes, qui est comparée à la réflectance PAN simulée pmOdei-PAN(p)(v) pour le pixel p considéré, fournie par le modèle de scène pour les valeurs de paramètres v considérées.
La fonction de connaissance a priori C2, optionnelle, peut par exemple être exprimée sous la forme suivante :
(. o vk-E(Vk)\ σ<Λ) ) expression dans laquelle E(vk) et a(vk) correspondent à la connaissance a priori vprior et correspondent respectivement à la moyenne et à l’écart-type du paramètre vk (1 < k < Nk~), par exemple supposé comme étant une variable aléatoire suivant une loi gaussienne.
Dans le cas d’une fonction de coût C telle que décrite ci-dessus, l’optimisation correspond à une minimisation de ladite fonction de coût, et les valeurs optimales MS vMS pour le pixel considéré sont celles permettant de minimiser ladite fonction de coût :
VmsQp) = argmin (c(y, pMS(p)))
De manière générale, toute méthode d’optimisation peut être mise en œuvre, et le choix d’une méthode particulière ne constitue qu’une variante d’implémentation de l’invention. Dans des modes préférés de mise en œuvre, l’optimisation est réalisée en utilisant un algorithme de Gauss-Newton.
B.3) Détermination du gradient d’optimisation
Tel qu’illustré par la figure 3, le procédé 50 d’augmentation de résolution spatiale comporte une étape 52 détermination d’un gradient des valeurs des paramètres permettant d’optimiser le paramétrage du modèle de scène par rapport à une réflectance PAN simulée déterminée en fonction du modèle de scène et des valeurs optimales MS, dit « gradient d’optimisation ».
Le gradient d’optimisation est représentatif, au voisinage de la réflectance PAN simulée fournie par le modèle de scène pour les valeurs optimales MS, de la variation des valeurs des paramètres par rapport à la variation de réflectance PAN, pour une fonction de coût prédéterminée et pour le pixel en haute résolution spatiale considéré. Cette étape 52 de détermination de gradient d’optimisation est exécutée, dans l’exemple illustré par la figure 3, en chaque pixel en haute résolution spatiale.
De manière générale, toute fonction de coût peut être mise en œuvre et le choix d’une fonction de coût ne constitue qu’une variante d’implémentation de l’invention.
Tout ce qui a été décrit précédemment à la section B.2 concernant la fonction de coût utilisée pour déterminer les valeurs optimales MS est applicable également pour la fonction de coût à utiliser pour déterminer le gradient d’optimisation, à l’exception notable que seule la bande PAN est prise en compte pour déterminer le gradient d’optimisation (les bandes MS ne sont pas prises en compte pour déterminer le gradient d’optimisation).
Tel qu’indiqué ci-dessus, la fonction de coût comporte de préférence une fonction de réflectance qui calcule une ressemblance entre des réflectances PAN. Pour déterminer le gradient d’optimisation, une réflectance PAN simulée, fournie par le modèle de scène pour les valeurs de paramètres considérées, est comparée à une réflectance PAN simulée déterminée en fonction du modèle de scène et des valeurs optimales MS.
Dans des modes particuliers de mise en oeuvre, la fonction de coût peut comporter en outre une fonction de connaissance a priori qui calcule une ressemblance, pour le pixel considéré, entre les valeurs de paramètres considérées et une connaissance a priori sur les paramètres du modèle de scène.
En désignant par pPAN(p) = pmOdei-PAN(p)(vMs(P)) la réflectance PAN simulée fournie par le modèle de scène pour les valeurs optimales MS, et par δρΡΑΝ un écart prédéterminé pour la réflectance PAN, la fonction de coût C' utilisée pour déterminer le gradient d’optimisation peut être exprimée sous la forme suivante :
C (y, PpAN(p) + δρΡΑ^ — C ±Çpmodel-PAN(p)(.V)> ΡρΛΝ(ρ') T δρΡΑ^ + C 2(y>^prior>) expression dans laquelle :
- C'i correspond à la fonction de réflectance,
- C2 correspond à la fonction de connaissance a priori, optionnelle,
- Pmodei-PAN(p)(v) correspond à la réflectance PAN simulée pour le pixel p considéré, fournie par le modèle de scène pour les valeurs de paramètres v.
Suivant un premier exemple, la fonction de réflectance peut être exprimée sous la forme suivante :
iÇPmodel-ΡΛΝ(ρ)^Τ), PρΑρι(ρ) + δρρΛρί) (^Pmodel-PAN(p)(V) ÇPPAN(p) T
Figure FR3081590A1_D0001
Suivant un second exemple, la fonction de réflectance peut être exprimée sous la forme suivante :
iÇPmoclel-ΡΛΝ(ρ)^Τ), PρΛ^(ρ) + bpPAjq^ (j3model-PAN(p)(v) ~ ÇPPANfp) + ^PpAn)) £((
Pmodel-PAN (βρΛΝ + SPpan)) ) expression dans laquelle E (ipmodel_PAN - (βΡΑΝ + δρΡΛΝ)γ est une estimation du niveau de précision que l'on peut viser dans l'ajustement entre le modèle de scène et la réflectance PAN simulée fournie par le modèle de scène pour les valeurs optimales MS, qui peut être estimée comme décrit précédemment en référence à l’étape 51 de détermination des valeurs optimales MS.
La fonction de connaissance a priori C2, optionnelle, peut par exemple être exprimée comme précédemment sous la forme suivante :
(. o v“ σ(Λ) )
Dans des modes préférés de mise en œuvre, la connaissance a priori sur les paramètres du modèle de scène, utilisée au cours de l’étape 52 de détermination du gradient d’optimisation, est calculée en fonction des valeurs optimales MS. En d’autres termes, la valeur moyenne E(vk) et l’écart-type <j(vk) sont estimés en fonction des valeurs optimales MS. En désignant par VMs.kip) la valeur optimale MS pour le fc-ième paramètre (1 < k < Nk) du modèle de scène, alors la valeur moyenne E(vk) et l’écart-type a(vk) sont par exemple estimés comme suit pour le pixel considéré :
J1 V-1 2
77“ / (^MS,fc(p) Âws,fc(t)) bip 't=l expression dans laquelle :
- Np correspond au nombre de pixels de l’image MS suréchantillonnée,
- Κσ est un nombre réel prédéterminé, choisi par exemple dans l’intervalle [1,5].
Le gradient d’optimisation est déterminé par optimisation de la fonction de coût, qui vise à inverser le modèle de scène, au voisinage de la réflectance PAN simulée fournie par le modèle de scène pour les valeurs optimales MS. Le gradient d’optimisation peut être déterminé selon toute méthode d’optimisation de fonction de coût connue de l’homme de l’art, et le choix d’une méthode particulière ne constitue d’une variante d’implémentation de l’invention. Dans des modes préférés de mise en oeuvre, le gradient d’optimisation est déterminé en minimisant la fonction de coût en utilisant un algorithme de Gauss Newton.
Dans le cas d’une fonction de coût C' telle que décrite ci-dessus, l’optimisation correspond à une minimisation de ladite fonction de coût, et la détermination du gradient d’optimisation comporte par exemple la détermination de valeurs optimales PAN vPAN selon l’expression suivante :
VpAN(p,ôpPAN) = argmin (c'(v,Ppan(p) + ^Ppan)) v v 7
Dans un tel cas, pour le pixel considéré, le gradient d’optimisation au voisinage de la réflectance PAN simulée fournie par le modèle de scène pour les valeurs optimales MS, désigné par (âv/âpPAÎV)p=i3/J?1JV(p), est par exemple déterminé selon l’expression suivante :
/ d# \ _ (vpAN(p,5pPAN) - VMS(p)) ^dppAN'p=pPAN(pi δρρΑΝ
Un tel gradient d’optimisation est donc calculé, dans l’exemple considéré, en chaque pixel en haute résolution spatiale.
B.4) Détermination du vecteur d’injection
Tel qu’illustré par la figure 3, le procédé 50 d’augmentation de résolution spatiale comporte une étape 53 de détermination d’un vecteur d’injection représentatif de la variation de réflectance MS associée à la variation de réflectance PAN pour le pixel considéré, en fonction du modèle de scène et du gradient d’optimisation. Cette étape 53 de détermination de vecteur d’injection est exécutée, dans l’exemple illustré par la figure 3, en chaque pixel de l’image MS sur-échantillonnée.
Le vecteur d’injection pour un pixel est, dans des modes préférés de mise en oeuvre, calculé en fonction du gradient d’optimisation calculé pour ce pixel et en fonction d’une matrice de variation du modèle de scène. Cette matrice de variation correspond à la matrice jacobienne du modèle de scène au niveau des valeurs optimales MS calculées pour le pixel considéré, et est représentative de la variation de réflectance MS par rapport à la variation des valeurs des paramètres au voisinage des valeurs optimales MS. Une telle matrice de variation est fournie directement par le modèle de scène, ou peut être déterminée à partir du modèle de scène selon des méthodes connues.
Le vecteur d’injection pour un pixel p est par exemple calculé selon l’expression suivante :
fdPMsX fdpmodei_MS\ / dv \ ydPPAN/p=Pm V dv 'v=vMS(jp} \dPPANt p=PpAN(p} expression dans laquelle :
- (dpMS/dpPAN)p=PMS(p} correspond au vecteur d’injection calculé pour le pixel p considéré, de dimensions (Nj x 1),
- (dPmOdet-Ms/dv)v=iW(p) correspond à la matrice de variation du modèle de scène au voisinage des valeurs optimales MS vMS^ pour le pixel p considéré, de dimensions (Nj x Nk\
- (dv/dpPAN)p=ppAN correspond au gradient d’optimisation calculé pour le pixel p considéré, de dimensions (Nk x 1),
- A ο B correspond au produit matriciel des matrices A et B.
B.5) Filtrage passe-bas de l’image PAN
Tel qu’illustré par la figure 3, le procédé 50 d’augmentation de résolution spatiale comporte une étape 541 de filtrage passe-bas de l’image PAN, de sorte à obtenir une image PAN à résolution spatiale diminuée.
Le filtrage passe-bas de l’image PAN permet d’obtenir une image PAN à résolution spatiale diminuée, c'est-à-dire une estimation de ce qu’aurait été l’image PAN si elle avait été acquise avec la même résolution spatiale que l’image MS, puis sur-échantillonnée. Ainsi, l’image PAN à résolution spatiale diminuée et l’image MS sur-échantillonnée ont sensiblement la même résolution spatiale.
Le filtrage passe-bas est donc un filtrage spatial de l’image PAN. De préférence, le filtre passe-bas utilisé est un filtre de convolution gaussien représentatif de la résolution spatiale effective des bandes MS, selon la Fonction de Transfert de Modulation ou FTM (« Modulation Transfert Function >> ou MTF) de l’instrument d’observation 11 optique dans les bandes MS.
B.6) Correction de l’image MS sur-échantillonnée
Tel qu’illustré par la figure 3, le procédé 50 d’augmentation de résolution spatiale comporte une étape 542 de correction de l’image MS suréchantillonnée en fonction des vecteurs d’injection calculés pour chaque pixel, et en fonction de l’image PAN et de l’image PAN à résolution spatiale diminuée. L’étape 542 de correction permet d’obtenir l’image MS à résolution spatiale augmentée.
L’étape 542 de correction vise à répercuter dans l’image MS suréchantillonnée des modulations haute résolution spatiale observées dans la bande PAN avec l’image PAN. A cet effet, l’étape 542 de correction comporte par exemple une estimation de la modulation haute résolution spatiale de la réflectance PAN, puis une conversion de la modulation haute résolution spatiale de la réflectance PAN en modulation haute résolution spatiale de la réflectance MS. La modulation haute résolution spatiale de la réflectance MS peut alors être ajoutée à l’image MS sur-échantillonnée pour obtenir l’image MS à résolution spatiale augmentée à la même résolution spatiale que l’image PAN, conforme à la réalité de la mesure et donc proche de ce qu’elle aurait été si elle avait été acquise directement à la résolution spatiale de l’image PAN.
La modulation haute résolution spatiale de la réflectance PAN est par exemple estimée en comparant l’image PAN avec l’image PAN à résolution spatiale diminuée. En désignant par pPAN(p) la réflectance PAN du pixel p de l’image PAN, et par ppAN-i0W(p) la réflectance PAN du pixel p de l’image PAN à résolution spatiale diminuée, alors la modulation haute résolution spatiale modPAN(p) de la réflectance PAN pour le pixel p est par exemple calculée selon l’expression suivante :
modPANÇp) = ΡρΛΝ(ρ) — PpAN-low(p)
La modulation haute résolution spatiale de la réflectance MS est par exemple estimée en fonction de la modulation haute résolution spatiale de la réflectance PAN et en fonction du vecteur d’injection. La modulation haute résolution spatiale modMS(p) de la réflectance MS pour le pixel p est par exemple calculée selon l’expression suivante :
modMS(p) = modPAN(p) x (^Pms \ Ppan P=Pms(p)
En désignant par PMs-htgh(p) la réflectance MS du pixel p de l’image MS sur-échantillonnée, et par pMs-high(p) la réflectance MS du pixel p de l’image MS à résolution spatiale augmentée obtenue après correction de l’image MS sur-échantillonnée, la correction de l’image MS sur-échantillonnée est alors effectuée, en chaque pixel (1 < p < Np~), selon l’expression suivante : PMS-high(p) ~ PMS-high(p) Τ’ mod^Çp)
C) Exemple de mise en oeuvre sur des pixels en basse résolution spatiale
La figure 4 représente schématiquement les principales étapes d’un mode particulier de mise en oeuvre dans lequel la portion de scène considérée correspond à un pixel en basse résolution spatiale (au pas d’échantillonnage de l’image MS), et dans lequel la résolution spatiale doit être augmentée dans toute la scène, c'est-à-dire qu’un vecteur d’injection doit être calculé in fine pour chaque pixel en haute résolution spatiale de l’image PAN.
Tel qu’illustré par la figure 4, le procédé 50 d’augmentation de résolution spatiale comporte une étape 55 de sous-échantillonnage spatial de l’image PAN afin d’obtenir une image PAN avec un pas d'échantillonnage plus grand, correspondant par exemple à celui de l’image MS, dite « image PAN sous-échantillonnée ». Un tel sous-échantillonnage spatial peut être réalisé selon toute méthode connue de l’homme de l’art, et le choix d’une méthode particulière ne constitue qu’une variante d’implémentation de l’invention. De préférence, le sous-échantillonnage spatial comporte un filtrage passe-bas de l’image PAN conforme à ce qui a été décrit ci-avant en référence à la figure 3, pour l’étape 541 de filtrage passe-bas de l’image PAN.
L’étape 55 de sous-échantillonnage spatial de l’image PAN est optionnelle, et est présente, notamment, si la réflectance PAN de l’image PAN est utilisée pour optimiser le modèle de scène au cours de l’étape 51 de détermination des valeurs optimales MS.
Le procédé 50 d’augmentation de résolution spatiale comporte ensuite les étapes 51 de détermination des valeurs optimales MS, 52 de détermination du gradient d’optimisation et 53 de détermination du vecteur d’injection qui sont exécutées pour chaque pixel de l’image MS. Tout ce qui a été décrit précédemment dans les sections B.2, B.3 et B.4 est également applicable, la seule différence étant que les pixels considérés sont ici des pixels en basse résolution spatiale (au pas d’échantillonnage spatial de l’image MS). En désignant par Nm le nombre de pixels de l’image MS (Nm < Np~), on calcule donc dans un premier temps Nm vecteurs d’injection.
Chaque vecteur d’injection est constitué par Nj coefficients d’injection associés respectivement aux différentes bandes de longueurs d’ondes des bandes MS (par exemple aux bandes R, G, B et NIR). Dans chaque bande de longueurs d’ondes des bandes MS, on dispose donc d’une image élémentaire d’injection dont les Nm pixels correspondent aux Nm coefficients d’injection calculés pour cette bande de longueurs d’ondes. Ces Nj images élémentaires d’injection forment ensemble une image de vecteurs d’injection.
Tel qu’illustré par la figure 4, le procédé 50 d’augmentation de résolution spatiale comporte une étape 56 de sur-échantillonnage spatial de l’image de vecteurs d’injection, qui vise à obtenir un vecteur d’injection pour chaque pixel en haute résolution spatiale. L’étape 56 de sur-échantillonnage spatial de l’image de vecteurs d’injection peut mettre en œuvre, par exemple, une interpolation bilinéaire.
Tel qu’illustré par la figure 4, le procédé 50 d’augmentation de résolution spatiale de l’image MS comporte également les étapes 540 de suréchantillonnage spatial de l’image MS, 541 de filtrage passe-bas de l’image PAN et 542 de correction, qui sont identiques à celles décrites ci-avant en référence à la figure 3 (sections B.4, B.5 et B.6).
D) Exemple de mise en œuvre sur des groupes de pixels en haute résolution spatiale
La figure 5 représente schématiquement les principales étapes d’un mode particulier de mise en œuvre dans lequel la portion de scène considérée correspond à un groupe de pixels en haute résolution spatiale (c'est-à-dire à la résolution spatiale de l’image PAN), et dans lequel la résolution spatiale doit être augmentée dans toute la scène, c'est-à-dire qu’un vecteur d’injection est calculé pour chaque pixel en haute résolution spatiale de l’image PAN.
Le procédé 50 d’augmentation de résolution spatiale de la figure 5 reprend toutes les étapes décrites ci-avant en référence à la figure 3.
Tel qu’illustré par la figure 5, le procédé 50 d’augmentation de résolution spatiale comporte en outre une étape 57 de classification des pixels de l’image MS sur-échantillonnée. Une telle classification vise à regrouper les pixels dont les réflectances MS sont homogènes d’un point de vue comportement spectral.
De manière générale, tout critère de classification connu de l’homme de l’art peut être mis en œuvre, et le choix d’un critère de classification particulier ne constitue qu’une variante d’implémentation de l’invention.
Notamment, il est possible d’utiliser un critère de végétation de type NDVI (« Normalized Differential Vegetation Index » dans la littérature anglosaxonne) en calculant, en chaque pixel, l’indice NDVI selon l’expression (Pnir - Pr)/(Pnir + Pr)> expression dans laquelle pNIR et pR correspondent aux réflectances mesurées respectivement dans la bande N IR et la bande R.
Alternativement ou en complément, il est possible d’utiliser un critère de niveau moyen de brillance en calculant, en chaque pixel, l’expression T^^Pmsj/Nj· Dans un tel cas, il est possible d’utiliser également la réflectance de l’image PAN pour la classification, en considérant que l’on dispose de (Nj +1) bandes de longueurs d’ondes différentes, et que la réflectance PAN pPAN de l’image PAN correspond à la réflectance mesurée dans la (Nj +1)ième bande de longueurs d’ondes.
Il est donc possible de regrouper entre eux les pixels qui présentent des indices NDVI proches et/ou qui présentent des niveaux moyens de brillance proches.
A l’issue de l’étape 57 de classification, on dispose donc d’un nombre
Ng de groupes de pixels (Ng > 1). De manière générale, on calcule alors un vecteur d’injection pour chaque groupe de pixels, et le vecteur d’injection calculé pour un groupe de pixels est utilisé pour tous les pixels de ce groupe de pixels. Par conséquent, les étapes 51 de détermination des valeurs optimales MS, 52 de détermination de gradient d’optimisation et 53 de détermination du vecteur d’injection ne sont plus exécutées pour chacun des Np pixels, mais pour chacun des Ng groupes de pixels, ce qui permet en principe de réduire grandement la quantité de calculs à effectuer. Au cours de l’étape 51 de détermination des valeurs optimales MS pour un groupe de pixels, le paramétrage du modèle de scène est par exemple optimisé par rapport à une réflectance MS de référence, représentative des réflectances MS des différents pixels du groupe de pixels considéré. Par exemple, la réflectance MS de référence d’un groupe de pixels correspond à une valeur médiane ou à une valeur moyenne des réflectances MS du groupe de pixels considéré. Dans le cas où la bande PAN est également utilisée au cours de l’étape 51 de détermination des valeurs optimales MS, alors de la même façon il est possible de considérer une réflectance PAN de référence qui peut être une valeur médiane ou une valeur moyenne des réflectances PAN dudit groupe de pixels considéré.
Une fois qu’un vecteur d’injection a été déterminé pour chaque groupe de pixels, étant donné que le vecteur d’injection déterminé pour un groupe de pixels est utilisé pour tous les pixels de ce groupe de pixels, alors on dispose d’un vecteur d’injection pour chaque pixel de l’image MS sur-échantillonnée, à utiliser au cours de l’étape 542 de correction.
E) Exemple de mise en œuvre sur des groupes de pixels en basse résolution spatiale
La figure 6 représente schématiquement les principales étapes d’un mode particulier de mise en œuvre dans lequel la portion de scène considérée correspond à un groupe de pixels en basse résolution spatiale (c'est-à-dire à la résolution spatiale de l’image MS), et dans lequel la résolution spatiale doit être augmentée dans toute la scène, c'est-à-dire qu’un vecteur d’injection doit être in fine calculé pour chaque pixel en haute résolution spatiale de l’image PAN.
Le procédé 50 d’augmentation de résolution spatiale de la figure 6 reprend toutes les étapes décrites ci-avant en référence à la figure 4.
Tel qu’illustré par la figure 6, le procédé 50 d’augmentation de résolution spatiale comporte en outre une étape 57 de classification des pixels en basse résolution spatiale de l’image MS, qui est identique à l’étape 57 de classification décrite en référence à la figure 5 pour les pixels en haute résolution spatiale.
Tel qu’indiqué ci-dessus, l’étape 55 de sous-échantillonnage spatial de l’image PAN est optionnelle, et est présente, notamment, si la réflectance PAN de l’image PAN est utilisée pour optimiser le modèle de scène au cours de l’étape 51 de détermination des valeurs optimales MS, ou encore dans l’étape 57 de classification.
A l’issue de l’étape 57 de classification, on dispose donc d’un nombre Ng de groupes de pixels (Ng > 1), qui peut varier d’une image à une autre, suivant la scène observée. Tout ce qui a été décrit précédemment en référence à la figure 5, concernant les étapes 51 de détermination des valeurs optimales MS, 52 de détermination du gradient d’optimisation et 53 de détermination du vecteur d’injection, est également applicable dans le cas présent. Une fois qu’un vecteur d’injection a été déterminé pour chaque groupe de pixels, étant donné que le vecteur d’injection déterminé pour un groupe de pixels est utilisé pour tous les pixels de ce groupe de pixels, alors on dispose d’un vecteur d’injection pour chaque pixel en basse résolution spatiale.
Ainsi, on dispose d’une image de vecteurs d’injection au pas d’échantillonnage spatial de l’image MS, qui est sur-échantillonnée au cours de l’étape 56 pour obtenir un vecteur d’injection pour chaque pixel de l’image MS sur-échantillonnée, à utiliser au cours de l’étape 542 de correction.
F) Autres variantes du procédé d’augmentation de résolution spatiale
De manière plus générale, il est à noter que les modes de mise en œuvre considérés ci-dessus ont été décrits à titre d’exemples non limitatifs, et que d’autres variantes sont par conséquent envisageables.
Notamment, l’invention a été décrite en considérant que l’augmentation de résolution spatiale visait à obtenir une image MS à résolution spatiale augmentée à la même résolution spatiale que l’image PAN. Rien n’exclut, suivant d’autres exemples, de considérer pour l’image MS à résolution spatiale augmentée une résolution spatiale inférieure à celle de l’image PAN. Par exemple, dans le cas d’un instrument d’observation optique de type SPOT 6 / SPOT 7, la résolution spatiale de l’image MS est de l’ordre de 6 mètres, tandis que la résolution spatiale de l’image PAN est de l’ordre de 1.5 mètres. Dans un tel cas, il est également possible d’augmenter la résolution spatiale de l’image MS pour obtenir une résolution spatiale intermédiaire, par exemple de l’ordre de 2.5 mètres. Le cas échéant, il est par exemple possible, de manière nullement limitative, de sous-échantillonner préalablement l’image PAN pour obtenir une image PAN sous-échantillonnée, ramenée à la résolution spatiale souhaitée pour l’image MS, c'est-à-dire 2.5 mètres.
Le présent procédé 50 d’augmentation de résolution spatiale peut être exécuté de manière automatisée sans intervention d’un opérateur à quelque étape que ce soit. Le présent procédé 50 d’augmentation de résolution spatiale peut être mis en œuvre de manière non limitative, en fonction du contexte opérationnel, au sein d’une station sol 20 de réception directe d’images satellites, au sein d’une suite logicielle autonome dédiée au traitement d’images satellites ou aériennes, ou encore être intégré dans une chaîne de traitements distribués pour des services de traitement d’image de type « cloud services ». Le présent procédé 50 d’augmentation de résolution, selon l’un quelconque de ses modes de mise en œuvre, peut donc être exécuté par un système de traitement constitué par un dispositif de traitement tel que décrit précédemment, ou encore par un système de traitement comportant plusieurs dispositifs de traitement reliés entre eux.

Claims (14)

  1. REVENDICATIONS
    1 - Procédé (50) d’augmentation de résolution spatiale d’une image multi- spectrale, dite « image MS >>, à partir d’une image panchromatique, dite « image PAN >>, de résolution spatiale supérieure à la résolution spatiale de l’image MS, ladite image MS étant constituée de pixels représentatifs de la réflectance MS d’une scène, ladite image PAN étant constituée de pixels représentatifs de la réflectance PAN de ladite scène, caractérisé en ce qu’il comporte, pour une portion au moins de ladite scène :
    - une détermination (51) de valeurs de paramètres d’un modèle de scène permettant de paramétrer de manière optimale ledit modèle de scène par rapport à la réflectance MS de l’image MS, dites « valeurs optimales MS »,
    - une détermination (52) d’un gradient des valeurs des paramètres permettant d’optimiser le paramétrage du modèle de scène par rapport à une réflectance PAN déterminée en fonction du modèle de scène et des valeurs optimales MS, dit « gradient d’optimisation >>, représentatif de la variation des valeurs des paramètres par rapport à la variation de réflectance PAN,
    - une détermination (53) d’un vecteur d’injection représentatif de la variation de réflectance MS associée à la variation de réflectance PAN, en fonction du modèle de scène et du gradient d’optimisation, ledit procédé (50) comportant en outre un calcul (54) d’une image MS à résolution spatiale augmentée en fonction de l’image MS, de l’image PAN et du vecteur d’injection.
  2. 2 - Procédé (50) selon la revendication 1, dans lequel le calcul (54) de l’image
    MS à résolution spatiale augmentée comporte :
    - un sur-échantillonnage spatial (540) de l’image MS de sorte à obtenir une image MS sur-échantillonnée,
    - un filtrage passe-bas (541) de l’image PAN de sorte à obtenir une image PAN à résolution spatiale diminuée,
    - une correction (542), dans la portion de scène, de l’image MS suréchantillonnée en fonction du vecteur d’injection, de l’image PAN et de l’image PAN à résolution spatiale diminuée.
  3. 3 - Procédé (50) selon l’une des revendications 1 à 2, dans lequel la détermination du gradient d’optimisation met en œuvre un algorithme de Gauss-Newton.
  4. 4 - Procédé (50) selon l’une des revendications 1 à 3, dans lequel le gradient d’optimisation est déterminé par optimisation d’une fonction de coût comportant au moins un premier terme, dit «fonction de réflectance», représentatif d’une ressemblance, pour la portion de scène considérée, entre la réflectance PAN déterminée en fonction du modèle de scène et des valeurs optimales MS et une réflectance fournie par le modèle de scène pour les valeurs de paramètres considérées.
  5. 5 - Procédé (50) selon la revendication 4, dans lequel la fonction de coût comporte en outre un second terme, dit « fonction de connaissance a priori », représentatif d’une ressemblance, pour la portion de scène considérée, entre les valeurs de paramètres considérées et une connaissance a priori sur les paramètres du modèle de scène.
  6. 6 - Procédé (50) selon la revendication 5, dans lequel la connaissance a priori sur paramètres du modèle de scène est calculée en fonction des valeurs optimales MS.
  7. 7 - Procédé (50) selon l’une des revendications 1 à 6, dans lequel le vecteur d’injection est calculé en fonction du gradient d’optimisation et en fonction d’une matrice de variation du modèle de scène représentative de la variation de réflectance MS par rapport à la variation des valeurs des paramètres du modèle de scène.
  8. 8 - Procédé (50) selon l’une des revendications 1 à 7, dans lequel la portion de scène correspond à un pixel et un vecteur d’injection est déterminé pour chaque pixel.
  9. 9 - Procédé (50) selon l’une des revendications 1 à 7, comportant une classification (57) des pixels en groupes de pixels, et dans lequel la portion de scène correspond à un groupe de pixels et un vecteur d’injection est déterminé pour chaque groupe de pixels.
  10. 10- Procédé (50) selon la revendication 9, dans lequel le vecteur d’injection d’un groupe de pixels est calculé en fonction d’une valeur médiane ou d’une valeur moyenne des réflectances MS du groupe de pixels considéré.
  11. 11 - Procédé (50) selon l’une des revendications 1 à 10, dans lequel le modèle de scène comporte un modèle de réflectance au sol et un modèle atmosphérique.
    5
  12. 12- Procédé (50) selon l’une des revendications 1 à 11, comportant une conversion préalable des valeurs des pixels de l’image MS et de l’image PAN en valeurs de réflectance MS et de réflectance PAN au sol ou en sommet d’atmosphère.
  13. 13- Produit programme d’ordinateur caractérisé en ce qu’il comporte un
    10 ensemble d’instructions de code de programme qui, lorsqu’elles sont exécutées par un processeur, configurent ledit processeur pour mettre en oeuvre un procédé (50) d’augmentation de résolution spatiale selon l’une des revendications 1 à 12.
  14. 14- Système de traitement d’image caractérisé en ce qu’il comporte des 15 moyens configurés pour mettre en oeuvre un procédé (50) d’augmentation de résolution spatiale selon l’une des revendications 1 à 12.
FR1854233A 2018-05-22 2018-05-22 Procede d’augmentation de resolution spatiale d’une image multi-spectrale a partir d’une image panchromatique Active FR3081590B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1854233A FR3081590B1 (fr) 2018-05-22 2018-05-22 Procede d’augmentation de resolution spatiale d’une image multi-spectrale a partir d’une image panchromatique
US17/055,104 US11416968B2 (en) 2018-05-22 2019-05-22 Method for increasing the spatial resolution of a multispectral image from a panchromatic image
EP19737165.1A EP3797398A1 (fr) 2018-05-22 2019-05-22 Procédé d'augmentation de résolution spatiale d'une image multi-spectrale à partir d'une image panchromatique
PCT/FR2019/051171 WO2019224482A1 (fr) 2018-05-22 2019-05-22 Procédé d'augmentation de résolution spatiale d'une image multi-spectrale à partir d'une image panchromatique

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1854233 2018-05-22
FR1854233A FR3081590B1 (fr) 2018-05-22 2018-05-22 Procede d’augmentation de resolution spatiale d’une image multi-spectrale a partir d’une image panchromatique

Publications (2)

Publication Number Publication Date
FR3081590A1 true FR3081590A1 (fr) 2019-11-29
FR3081590B1 FR3081590B1 (fr) 2020-06-19

Family

ID=63722488

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1854233A Active FR3081590B1 (fr) 2018-05-22 2018-05-22 Procede d’augmentation de resolution spatiale d’une image multi-spectrale a partir d’une image panchromatique

Country Status (4)

Country Link
US (1) US11416968B2 (fr)
EP (1) EP3797398A1 (fr)
FR (1) FR3081590B1 (fr)
WO (1) WO2019224482A1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111157524B (zh) * 2020-01-09 2022-09-27 北京观澜智图科技有限公司 基于高分影像的道路材质识别方法及装置和电子设备
CN113902650B (zh) * 2021-12-07 2022-04-12 南湖实验室 基于平行深度学习网络架构的遥感影像锐化方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097835A (en) * 1997-07-23 2000-08-01 Lockheed Martin Corporation Projective pan sharpening methods and apparatus
US6011875A (en) * 1998-04-29 2000-01-04 Eastman Kodak Company Process for enhancing the spatial resolution of multispectral imagery using pan-sharpening
FR2879791B1 (fr) * 2004-12-16 2007-03-16 Cnes Epic Procede de traitement d'images mettant en oeuvre le georeferencement automatique d'images issues d'un couple d'images pris dans le meme plan focal
EP2721828B1 (fr) * 2011-06-15 2015-07-15 Microsoft Technology Licensing, LLC Capture d'image multispectrale de haute résolution
US10462389B2 (en) * 2016-07-01 2019-10-29 The Boeing Company Method and apparatus for using a regionally specific spectral model to identify the spectral bands for use for isolating remotely sensed materials of interest
FR3066301B1 (fr) 2017-05-15 2022-02-25 Airbus Ds Geo Sa Procede de traitement d’une image optique acquise en presence d’aerosols et/ou de nuages dans l’atmosphere
US10643379B2 (en) * 2017-07-31 2020-05-05 Quantum Spatial, Inc. Systems and methods for facilitating imagery and point-cloud based facility modeling and remote change detection

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANDREA GARZELLI ET AL: "Multispectral Pansharpening with Radiative Transfer-Based Detail-Injection Modeling for Preserving Changes in Vegetation Cover", 9 May 2018 (2018-05-09), XP055536580, Retrieved from the Internet <URL:https://www.preprints.org/manuscript/201805.0149> [retrieved on 20181130], DOI: 10.20944/preprints201805.0149.v1 *
HUSSEIN A. ALY ET AL: "A Regularized Model-Based Optimization Framework for Pan-Sharpening", IEEE TRANSACTIONS ON IMAGE PROCESSING., vol. 23, no. 6, 1 June 2014 (2014-06-01), US, pages 2596 - 2608, XP055536466, ISSN: 1057-7149, DOI: 10.1109/TIP.2014.2316641 *
ISRAA AMRO ET AL: "A survey of classical methods and new trends in pansharpening of multispectral images", EURASIP JOURNAL ON ADVANCES IN SIGNAL PROCESSING, vol. 2011, no. 1, 1 December 2011 (2011-12-01), XP055536586, DOI: 10.1186/1687-6180-2011-79 *
LINHAI JING ET AL: "An image fusion method taking into account phenological analogies and haze", INTERNATIONAL JOURNAL OF REMOTE SENSING, vol. 32, no. 6, 16 March 2011 (2011-03-16), GB, pages 1675 - 1694, XP055536497, ISSN: 0143-1161, DOI: 10.1080/01431161003621593 *
LOLLI SIMONE ET AL: "Haze Correction for Contrast-Based Multispectral Pansharpening", IEEE GEOSCIENCE AND REMOTE SENSING LETTERS, IEEE SERVICE CENTER, NEW YORK, NY, US, vol. 14, no. 12, 1 December 2017 (2017-12-01), pages 2255 - 2259, XP011674124, ISSN: 1545-598X, [retrieved on 20171204], DOI: 10.1109/LGRS.2017.2761021 *

Also Published As

Publication number Publication date
WO2019224482A1 (fr) 2019-11-28
FR3081590B1 (fr) 2020-06-19
US11416968B2 (en) 2022-08-16
EP3797398A1 (fr) 2021-03-31
US20210125308A1 (en) 2021-04-29

Similar Documents

Publication Publication Date Title
De Keukelaere et al. Atmospheric correction of Landsat-8/OLI and Sentinel-2/MSI data using iCOR algorithm: validation for coastal and inland waters
EP1828992B1 (fr) Procede de traitement d&#39;images mettant en oeuvre le georeferencement automatique d&#39;images issues d&#39;un couple d&#39;images pris dans le meme plan focal
Gómez-Chova et al. Correction of systematic spatial noise in push-broom hyperspectral sensors: application to CHRIS/PROBA images
EP1843295B1 (fr) Procédé de restitution de mouvements de la ligne de visée d&#39;un instrument optique
EP3625758B1 (fr) Procédé de traitement d&#39;une image optique acquise en présence d&#39;aérosols et/ou de nuages dans l&#39;atmosphère
EP2502202B1 (fr) Procede d&#39;estimation du mouvement d&#39;un instrument d&#39;observation à defilement survolant un corps celeste
Sandau Digital airborne camera: introduction and technology
Jay et al. Regularized estimation of bathymetry and water quality using hyperspectral remote sensing
FR3081590A1 (fr) Procede d’augmentation de resolution spatiale d’une image multi-spectrale a partir d’une image panchromatique
EP2517152B1 (fr) Procede de classification d&#39;objets dans un systeme de veille par imagerie
FR3021127A1 (fr) Systeme et procede d&#39;acquisition d&#39;images hyperspectrales
Deneke et al. Increasing the spatial resolution of cloud property retrievals from Meteosat SEVIRI by use of its high-resolution visible channel: implementation and examples
Seidel et al. Imaging spectrometer emulates landsat: a case study with airborne visible infrared imaging spectrometer (AVIRIS) and operational land imager (OLI) data
Yu et al. A hybrid model-based and data-driven approach for cloud removal in satellite imagery using multi-scale distortion-aware networks
Zhang et al. Atmospheric correction of AISA measurements over the Florida keys optically shallow waters: Challenges in radiometric calibration and aerosol Selection
EP1371958B1 (fr) Procédé et dispositif d&#39;extraction de signature spectrale d&#39;une cible ponctuelle
Kim et al. Mapping Snow Depth Using Moderate Resolution Imaging Spectroradiometer Satellite Images: Application to the Republic of Korea
FR3098929A1 (fr) Procédé de détermination de paramètres d&#39;étalonnage extrinseques d&#39;un système de mesure
EP1544667B1 (fr) Complément fréquentiel d&#39;images acquises par un dispositif d&#39;acquisition à synthèse d&#39;ouverture optique dilué, par combinaison d&#39;images fréquentiellement complémentaires
NESDIS ALGORITHM THEORETICAL BASIS DOCUMENT
Goyens DRAFT Final Report: Dazzled by ice and snow: Improving atmospheric correction algorithms of medium spatial resolution images in the vicinity of the ice edge
McCarthy et al. Automated Model for Improved Mapping of Country-Scale High-Resolution Coastal Bathymetry
WO2023229778A1 (fr) Estimation de terrain à l&#39;aide d&#39;une imagerie à basse résolution
Fisher et al. Stereo Derived Cloud Top Height Climatology over Greenland from 20 Years of the Along Track Scanning Radiometer (ATSR) Instruments
FR3103940A1 (fr) Procédé et dispositif de traitement d’images

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20191129

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

TP Transmission of property

Owner name: AIRBUS DEFENCE AND SPACE SAS, FR

Effective date: 20230406

PLFP Fee payment

Year of fee payment: 7