FR3071624A1 - Systeme d'affichage, procede d'affichage et programme d'ordinateur associes - Google Patents

Systeme d'affichage, procede d'affichage et programme d'ordinateur associes Download PDF

Info

Publication number
FR3071624A1
FR3071624A1 FR1700973A FR1700973A FR3071624A1 FR 3071624 A1 FR3071624 A1 FR 3071624A1 FR 1700973 A FR1700973 A FR 1700973A FR 1700973 A FR1700973 A FR 1700973A FR 3071624 A1 FR3071624 A1 FR 3071624A1
Authority
FR
France
Prior art keywords
image
module
display system
display
drift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1700973A
Other languages
English (en)
Other versions
FR3071624B1 (fr
Inventor
Pierre Yves Dumas
Thierry Ganille
Bruno Aymeric
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR1700973A priority Critical patent/FR3071624B1/fr
Priority to GB1815336.1A priority patent/GB2568780A/en
Priority to CN201811109834.0A priority patent/CN109782442A/zh
Priority to US16/140,131 priority patent/US10802276B2/en
Publication of FR3071624A1 publication Critical patent/FR3071624A1/fr
Application granted granted Critical
Publication of FR3071624B1 publication Critical patent/FR3071624B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/04Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means
    • G01C21/06Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means involving measuring of drift angle; involving correction for drift
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

L'invention concerne un système d'affichage inclus dans un dispositif, propre à parcourir un trajet entre au moins deux points distincts et à utiliser au moins une donnée de cap, le système d'affichage comprenant au moins : - un capteur (12) d'images configuré pour acquérir des images d'environnement au cours du trajet parcouru par le dispositif; - un module (14) de traitement d'images propre à déterminer en temps réel la dérive du dispositif ; - un module (16) de détermination d'une information représentative de la route suivie par le dispositif, - un module (18) de détermination en temps réel du cap vrai suivi par le dispositif à partir de l'information représentative de la route et de la dérive du dispositif, - un module (20) de restitution utilisateur d'une information représentative du cap vrai.

Description

Système d’affichage, procédé d’affichage et programme d’ordinateur associés
La présente invention concerne un système d’affichage inclus dans un dispositif propre à se déplacer entre deux points distincts et propre à utiliser au moins une donnée de cap, en particulier un système d’affichage tête haute, tête haute portée ou en encore tête basse.
L’invention concerne également un procédé d’affichage mis en oeuvre par un tel système d’affichage.
L’invention concerne également un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un tel procédé d’affichage.
L’invention offre de nombreuses applications, en particulier l'utilisation d’un cap vrai pour améliorer la visualisation d’un utilisateur d’un dispositif, l’utilisateur surveillant, au moyen du dispositif ou en portant le dispositif, à la fois l’environnement dans lequel il se déplace, en même temps que des informations fournies par les instruments de ce dispositif.
En effet, le cap vrai est un élément fondamental pour la navigation aérienne, maritime, spatiale ou terrestre lorsque le dispositif est logé ou embarqué au sein d’un véhicule (i.e. le déplacement du dispositif correspond à celui du véhicule), ou encore pour des applications dans le domaine de la réalité virtuelle ou de la réalité augmentée lorsque le dispositif est par exemple un système électronique de visualisation comprenant un appareil électronique, par exemple, un ordiphone (de l’anglais smartphone) amovible ou intégré au casque, muni ou non d’un écran d’affichage, et un casque comportant un support de réception de l’appareil électronique, une surface d’appui contre le visage de l’utilisateur, en regard de ses yeux, et un ou deux dispositif (s) optique(s) disposé(s) entre le support de réception et la surface d’appui. En d’autres termes dans ce dernier cas d’application à la réalité virtuelle ou augmentée le dispositif est propre à parcourir un trajet du fait de son port par un utilisateur.
Il est connu d’obtenir un cap magnétique à l’aide d’un magnétomètre, généralement intégrés dans des centrales (ou capteurs) de référence de cap et d’attitude bas coût de type AHRS (de l’anglais « Attitude and Headïng Reference System »), puis de le corriger à l’aide d’une table de déclinaison magnétique pour en déduire un cap vrai.
Néanmoins, les performances intrinsèques déjà mauvaises du magnétomètre sont généralement dégradées après installation dans un véhicule propre à exploiter une donnée correspondant au cap, tel qu’un aéronef, un navire (submersible, tel un sousmarin ou non) ou encore un véhicule spatial ou terrestre.
Une erreur de cap de deux ou trois degrés est fréquente. Cette imprécision est généralement acceptable pour une application de navigation aérienne, maritime, spatiale ou terrestre (car elle est compensée grâce à l’utilisation de balises sol ou de points de repère (de l’anglais «waypoints») GPS pour recaler la trajectoire) ou encore dans le cas de la projection conforme d’une symbologie et/ou d’une image synthétique en tête basse.
Toutefois, une telle imprécision de cap devient perturbante pour le pilote, voire source d’erreur, dans le cas de la projection conforme d’une symbologie et/ou d’une image synthétique en tête haute (de l’anglais HUD pour « Head up display ») en surimpression de l’environnement de déplacement, ou en tête haute portée (qui se doit d’être cohérente de la vision extérieure de l’environnement de déplacement et nécessite pour ce faire un cap vrai précis).
Pour des véhicules, pourvus uniquement de centrale(s) (ou capteur(s)) de référence de cap et d’attitude bas coût de type AHRS (de l’anglais « Attitude and Heading Reference System »), notamment certains hélicoptères ou autres turbopropulseurs, l’intérêt de la projection d'informations en tête haute, ou en tête haute portée est donc limité, du fait de l’imprécision de cap vrai actuellement obtenue.
Pour y remédier, une première solution consiste à remplacer l’ensemble formé de la ou des centrale(s) (ou capteur(s)) de référence de cap et d’attitude bas coût de type AHRS et du magnétomètre par une centrale inertielle pour fournir directement un cap vrai avec la précision souhaitée. Néanmoins cette solution présente un coût d’acquisition prohibitif au regard du coût global du dispositif porteur considéré.
Une deuxième solution consiste à chercher à l’aide d’un capteur vidéo dans l’image extérieure des points d’intérêt connus (piste, relief) et à les recaler avec une position synthétique calculée à partir du cap délivré par la centrale de référence de cap et d’attitude bas coût de type AHRS, le recalage permettant de corriger le cap.
Néanmoins cette deuxième solution nécessite l’utilisation d’une base de données précise contenant la position des points d’intérêts. De plus, les conditions de visibilité doivent permettre de voir suffisamment loin pour distinguer de tels points d’intérêts, ce qui rend cette deuxième solution complexe à mettre en œuvre ou inexploitable en cas de mauvaise visibilité.
L’invention a donc pour but de répondre aux problèmes d’optimisation de la visualisation d’un utilisateur de véhicule surveillant à la fois son environnement en même temps que des informations fournies par ses instruments de bord.
Pour cela l’invention a pour objet un système d’affichage inclus dans un dispositif, le dispositif étant propre à parcourir un trajet entre au moins deux points distincts et à utiliser au moins une donnée de cap, dans lequel le système d’affichage comprend au moins :
- un capteur d’images configuré pour acquérir des images d’environnement au cours du trajet parcouru par le dispositif;
- un module de traitement d’images propre à déterminer en temps réel la dérive du dispositif ;
- un module de détermination d’une information représentative de la route suivie par le dispositif,
- un module de détermination en temps réel du cap vrai suivi par le dispositif à partir de l’information représentative de la route et de la dérive du dispositif,
- un module de restitution utilisateur d’une information représentative du cap vrai.
Suivant des modes particuliers de réalisation, le système d’affichage comporte une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :
- le module de restitution utilisateur est un module d’affichage propre à recaler une image synthétique et/ou une symbologie conforme dans l’axe de visée du dispositif associé au cap vrai, le module d’affichage appartenant au groupe comprenant au moins :
- un module d’affichage tête haute, propre à projeter l’image synthétique en tête haute du dispositif ;
- un module d’affichage tête haute portée propre à projeter l’image synthétique en tête haute portée par au moins un utilisateur du dispositif;
- un module d’affichage tête basse propre à projeter l’image synthétique en tête basse du dispositif ;
- le module de traitement d’images comprend un outil d’analyse d’images propre à déterminer automatiquement la dérive du dispositif en analysant au moins deux images successives, la dérive étant obtenue à partir de l'angle de déplacement des pixels d’une image à l’autre, l’angle de déplacement des pixels étant associé à l’angle entre le déplacement longitudinal et le déplacement latéral du dispositif;
- l’outil d’analyse d’images est un outil odométrique optique ;
- le capteur d’images est pointé vers le sol ;
- le champ visuel du capteur d’images est reconfigurable en fonction du taux de roulis instantané et/ou du taux de tangage instantané du dispositif et/ou en fonction de la phase du trajet effectué par le dispositif ;
- le capteur d’images est solidaire des axes du dispositif ou gyrostabilisé ;
- le module de traitement d’images comprend un outil de correction d’image(s) propre à corriger les images acquises préalablement ou postérieurement à leur analyse.
L’invention a également pour objet un procédé d’affichage mis en œuvre par le système d’affichage selon la présente invention, le procédé comprenant :
- l’acquisition d’images d’environnement au cours du trajet parcouru par le dispositif;
- le traitement d’images propre à déterminer en temps réel la dérive du dispositif ;
- la détermination d’une information représentative de la route suivie par le dispositif,
- la détermination en temps réel du cap vrai suivi par le dispositif à partir de l’information représentative de la route et de la dérive du dispositif,
- la restitution à l’utilisateur d’une information représentative du cap vrai.
L’invention a également pour objet un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé tel que défini ci-dessus.
L’invention et ses avantages seront mieux compris à la lecture de la description détaillée qui va suivre d’un mode de réalisation particulier, donné uniquement à titre d’exemple non limitatif, cette description étant faite en se référant aux dessins annexés sur lesquels :
- la figure 1 est une représentation sous forme de blocs du système d’affichage selon l’invention ;
- la figure 2 est un organigramme d’un procédé d’affichage selon l’invention.
Dans la suite de la description, l’expression « sensiblement » exprimera une relation d’égalité à plus ou moins 10%. De plus, par dispositif, on entend un dispositif propre à se déplacer entre deux points distincts et propre à utiliser au moins une donnée de cap.
Par exemple, un tel dispositif correspond à :
- un véhicule, tel qu’un aéronef, un navire (submersible ou insubmersible), un véhicule spatial ou encore un véhicule terrestre, ou encore à
- un système électronique de visualisation porté par un utilisateur au cours d’un déplacement entre deux positions distinctes.
Par la suite, pour des raisons de simplification, on utilise l’exemple selon lequel le dispositif correspond à un aéronef, tel qu’un hélicoptère ou un turbopropulseur, un tel aéronef étant par exemple uniquement pourvu d’une centrale de référence de cap et d’attitude bas coût de type AHRS (de l’anglais « Attitude and Heading Reference System ») et dépourvu de centrale inertielle, ou correspond à un système électronique de visualisation porté par un utilisateur embarqué à bord d’un tel aéronef (i.e. un pilote ou membre d’équipage de l'aéronef).
En se référant à la figure 1, le système d'affichage 10 d’un tel dispositif, selon la présente invention, comprend au moins un capteur d’images 12 configuré pour acquérir des images d’environnement au cours du trajet parcouru par l’aéronef, un module 14 de traitement d'images propre à déterminer en temps réel la dérive de l’aéronef, un module 16 de détermination d’une information représentative de la route suivie par l’aéronef, un module 18 de détermination en temps réel du cap vrai suivi par le dispositif à partir de l’information représentative de la route et de la dérive du dispositif, un module 20 de restitution utilisateur d’une information représentative du cap vrai.
Le capteur d’images 12 est par exemple intégré dans une caméra. Le capteur d’images 12 est, par exemple, associé à un objectif optique, par exemple un objectif hémisphérique de type hypergone (de l’anglais « fisheye »), c'est-à-dire couvrant un champ visuel d’un grand angle de vue, de l’ordre 180° ou plus. La caméra comprend le capteur d’image(s) et l’objectif disposé devant le capteur d’image(s) de façon que le capteur d’image(s) capte les images à travers l’objectif.
Un tel capteur d’images 12 est propre à être calibré de manière automatique ou manuelle de sorte à compenser des déformations liées à l’objectif optique auquel il est associé.
Le capteur d’images 12 est par exemple un capteur infrarouge (IR), un radar, ou un LIDAR (de l’anglais « light détection and ranging » ou « laser détection and ranging »), et est propre à délivrer des images en couleur (i.e. capteur d’images polychrome) ou à l’inverse des images monochromes.
Selon un aspect particulier, le capteur d’images 12 est configuré pour maximiser la vision du sol survolé par l’aéronef.
Pour ce faire, le capteur d’images 12 est, avantageusement dans le cas d’un dispositif correspondant à un aéronef, pointé vers le sol, afin d’augmenter la probabilité de détection du terrain (la visibilité verticale étant généralement meilleure que la visibilité horizontale).
Selon une première variante, la caméra comprenant le capteur d’images 12 est monté sous le porteur correspondant à l’aéronef (i.e. à l’extérieur du cockpit, à la surface inférieure de la carlingue de l’aéronef). Une telle position du capteur d’images 12 permet de maximiser la vision du sol et de points d’intérêt pertinents survolés par l’aéronef.
Selon une deuxième variante, le capteur d’images 12 (i.e. ainsi que la caméra le comprenant) est fixé sur la carlingue au niveau du cockpit tout en restant à l’extérieur de celui-ci.
Selon ces deux variantes le capteur d’images 12 est alors fixé de sorte à être solidaire des axes de l’aéronef.
Selon une troisième variante, le capteur d’images 12 (i.e. ainsi que la caméra le comprenant) est fixé dans le cockpit, par exemple au moyen d’une ventouse sur le parebrise. Dans ce cas, la caméra comprenant le capteur d’images 12 ne sera pas nécessairement orientée selon les axes de l’aéronef car fixée par le pilote sans référence précise. La dérive mesurée au moyen du capteur d’images 12 inclura donc un biais dépendant de l’angle de vision du capteur d’images 12.
Toutefois, tant que la caméra reste solidaire du référentiel de l’aéronef à partir duquel la centrale 22 de référence de cap et d’attitude bas coût de type AHRS calcule lés informations d’attitude, il reste possible de recaler l’image tête haute / tête haute portée avec l’environnement extérieur. Pour ce faire, une correction d’harmonisation entre les axes d’orientation de la caméra et les axes de l’aéronef sera par exemple réalisée de manière automatique ou manuelle lors de l’installation.
Selon une quatrième variante, le capteur d’images 12 est monté sur un casque porté par le pilote de l’aéronef, par exemple le casque d’un système tête haute portée propre à projeter une image synthétique, comprenant des informations d’assistance au pilotage, de sorte à être pour le pilote visuellement superposées sur son champ visuel de navigation. Selon cette quatrième variante, comme détaillé ci-après, le module de traitement d'images 14 comprend alors un outil de correction d’image(s) propre à corriger les images acquises par le capteur d’images 12, par re-projection de celles-ci dans un plan horizontal géographique (i.e. re-projection dans un référentiel commun prédéterminé au traitement de toutes les images acquises). La mise en œuvre d’une telle quatrième variante de montage du capteur d’images 12 est avantageuse, car tirant profit des aptitudes de mobilité de la tête du pilote qui a instinctivement tendance à porter son regard dans la direction de repères visuels extérieurs visibles en conditions réelles de vol.
A titre d’alternative, le capteur d’images 12 est gyrostabilisé ce qui permet de s’affranchir de toute besoin de re-projection et des éventuelles erreurs de re-projection associées.
Selon une autre variante, pour les aéronefs déjà équipés d’au moins une caméra comprenant un capteur d’images 12 EVS (de l’anglais « Enhance Vision System»), la caméra existante est avantageusement exploitée pour la mise en œuvre de la présente invention. De tels capteurs d’images 12 EVS sont par exemple fixes et montés dans l’axe de l’aéronef ou décalés, ou alors des capteurs mobiles (e.g. boule optronique).
Selon une autre variante, une pluralité de capteurs d’images 12 est mise en œuvre, ces capteurs d'image 12 étant par exemple activé(s) alternativement ou simultanément manuellement par le pilote, ou automatiquement de manière prédéterminé en fonction de la phase de vol de l’aéronef et/ou de l’assiette (des angles d’attitudes de l’aéronef).
Par ailleurs, selon une variante de réalisation, le champ visuel du ou des capteur(s) d’images 12 (de l’anglais « Field of View» (FOV)) est reconfigurable en fonction du taux de roulis instantané et/ou du taux de tangage instantané de l’aéronef et/ou en fonction de la phase de vol (i.e. la phase de trajet) effectué par l’aéronef, afin de garantir un nombre suffisant de pixels communs entre deux images captées successivement.
Le taux de roulis instantané et/ou le taux de tangage instantané de l’aéronef et/ou la phase de vol en cours est par exemple délivré(e) en temps réel par la centrale 22 de référence de cap et d’attitude bas coût de type AHRS à un outil de reconfiguration du système d’affichage 10, non représenté, du champ visuel obtenu à partir du capteur d'images 12. Une telle variation du champ visuel (FOV) est mise en œuvre notamment pour obtenir une succession d’images suffisamment différentes entre elles de manière à appairer des points entre ces images. Par exemple, à haute altitude, la vitesse de défilement étant moins élevée, le champ visuel est réduit pour conserver une telle possibilité d’appariement. Autrement dit, une telle reconfiguration correspond à la mise en œuvre d’un rétro-contrôle en fonction du taux de roulis instantané et/ou du taux de tangage instantané de l’aéronef.
Par ailleurs, selon un aspect particulier, un tel outil de reconfiguration du champ visuel, est propre à corriger en temps réel les déformations optiques potentielles du capteur d’images sous réserve que celles-ci soient préalablement mémorisées au sein d’une mémoire de l’aéronef accessible par l’outil de reconfiguration, la mémoire étant intégrée ou non au sein du système d’affichage 10.
Le module 14 de traitement d’images, propre à déterminer en temps réel la dérive D de l’aéronef, comprend un outil d'analyse des images délivrées (i.e. captées) par le capteur d’images 12, non représenté..
Plus précisément, un tel outil d’analyse des images captées est propre à déterminer automatiquement la dérive Dcamera de la caméra en analysant au moins deux images successives captées, la dérive Dcamera étant égale à l’angle de déplacement des pixels d’une image à l’autre par rapport à un axe prédéterminé constant pour toutes les images. Puis, à partir de la dérive Dcamera de le caméra, la dérive D de l’aéronef par rapport à son cap Cc de consigne est obtenue par l’outil d’analyse en appliquant une matrice de correction, dite d’harmonisation de repère, permettant de passer du référentiel caméra au référentiel de l’aéronef, une telle dérive D de l'aéronef correspondant à l’angle entre le déplacement longitudinal et le déplacement latéral de l’aéronef, donc à la dérive D de celui-ci.
Autrement dit, l’angle de dérive D de l’aéronef est, par exemple, exprimé par la relation suivante : D = ).
DEPlong
Une telle dérive D de l’aéronef est donc propre à être obtenue par l’outil d’analyse à l’aide de différents procédés de traitement d’images (par exemple des procédés de traitement de flux optique, des procédés de détection et de suivi de pixels,..) et d’opération(s) de changement de référentiel (i.e. correction d’harmonisation de repères) pour passer du référentiel caméra (i.e. référentiel du capteur d’image 12) au référentiel de l’aéronef afin de retranscrire, dans le repère de l’aéronef, la dérive caméra Dcamera (ellemême obtenue dans le référentiel caméra).
En particulier, l'outil d’analyse d’images est un outil odométrique optique propre à mettre en œuvre un procédé d’odométrie visuelle propre à estimer la rotation et/ou la translation de la caméra entre deux instants de capture de deux images acquises successivement par le capteur d’images 12 au fur et à mesure du trajet de l’aéronef de sorte à reconstruire la scène représentative de l’environnement de déplacement de la caméra et à y positionner la caméra.
De manière générale, tel qu’illustré notamment par le document « Visual Odometry » de D. Nistér et al. CPVR 2004, l'odométrie visuelle est basée sur la détection de points d’intérêt dans au moins deux images successives (de l’anglais POI pour « Point of Interest »), suivie de leur appariement et de l’estimation du mouvement de ces points entre les deux instants temporels de capture des deux images successives considérées.
Par exemple, une technique d’odométrie correspond à la technique de cartographie et localisation simultanées (SLAM de l’anglais «Simultaneous Localization And Mapping») tel que décrite notamment dans « Simultaneous map building and localization for an autonomous mobile root » de J. Leonard et al., et dont une variante particulière PTAM (de l’anglais « parallel tracking and mapping ») est propre à estimer la position de la caméra comprenant le capteur d’images 12 dans un environnement tridimensionnel (3D).
Plus précisément, l’outil odométrique optique est tout d’abord propre à mettre en œuvre un filtre des données d’image délivrées par le capteur d’images 12, par exemple, un filtre de Kalman, un filtre de Wiener ou encore un traitement de données d’images par ondelettes.
Puis, l’outil odométrique comprend un détecteur de points d’intérêt, tel qu’un détecteur de Moravec, un détecteur de Harris ou encore un détecteur de Fôrstner.
Puis, pour établir l’appariement de points d’intérêts de deux images successives, l’outil odométrique est propre à établir la correspondance de points dans deux images successives (de l’anglais « matching ») en utilisant par exemple :
- une technique de transformation de caractéristiques visuelles invariante à l’échelle (SIFT de l’anglais « Scale-I avariant Feature Transform », ou
- une technique de transformation d’image basée sur des caractéristiques robustes accélérées (SURF de l’anglais « Speeded Up Robust Features ») utilisant une approximation d’ondelettes de Haar, ou
- une technique alternative de transformation d’image, appelée ORB (de l’anglais « Oriented FAST and rotated BRIEF ») tel que décrite notamment dans « ORB : an efficient alternative to SIFT or SURF» de Leonard et al. basée à la fois sur un descripteur de caractéristiques issues de tests accélérés de segments (FAST de l’anglais « Features from Accelerated Segment Test ») et d’un descripteur visuel binaire par exemple de type BRIEF (de l’anglais « Binary Robust Independent Elementary Features »), ou encore,
- une technique de transformation d’image basée sur la mesure de flots optiques (ou flux optiques ou défilement visuel).
Selon un autre aspect particulier, l’outil odométrique est propre à prendre en compte la géométrie épipolaire des différentes images successives traitées par le module de traitement d’images 14 et délivrées par le capteur d’images 12.
Lorsque le capteur d’images 12 est monté sur un casque porté par le pilote de l’aéronef, le module de traitement d’images 14 comprend en outre un outil de correction d’image(s), non représenté, propre à corriger les images acquises préalablement ou postérieurement à leur analyse, en appliquant des corrections propre à agir sur l’attitude et le facteur d’échelle appliqué lors de l’acquisition d’image par le capteur d’images 12.
En d’autres termes, un tel outil de correction est propre à être connecté en amont ou en aval de l’outil d’analyse (i.e. directement sur l’information de dérive Dcamera calculée) précédemment décrit du module de traitement d’images 14.
Plus précisément, un tel outil de correction d’image est propre à re-projeter chaque image acquise par le capteur d’images dans un plan horizontal géographique à partir d’au moins une donnée délivrée par un capteur externe au module (14) de traitement d'images (i.e. externe au boîtier contenant l’outil de correction).
En particulier, une telle donnée appartient au groupe comprenant au moins :
- une ou plusieurs information(s) représentative(s) de l’attitude de l’aéronef,
- une ou plusieurs information(s) représentative(s) de la hauteur entre l’aéronef et le sol,
- une information représentative du champ visuel du capteur d’images 12.
Plus précisément, selon le présent exemple où le dispositif est un aéronef, l’information représentative de la hauteur terrain nécessaire à la projection peut être donnée soit par un radio altimètre soit, à défaut, par l’utilisation d’une hauteur synthétique calculée comme altitude par rapport au niveau de la mer (MSL de l’anglais « Mean Sea Level ») moins la hauteur terrain mémorisée au sein d’une base de donnée stockée dans un espace mémoire de l’aéronef. L’altitude MSL peut être obtenue :
- soit par un module 16 de détermination d’une information représentative de la route suivie par l’aéronef, à savoir un système de géolocalisation GPS ou Galliléo de l’aéronef,
- soit par une information de pression air corrigée.
En d’autres termes, une telle projection dans un plan horizontal géographique est propre à prendre en compte l’attitude de l’aéronef et/ou les facteurs d’échelles du capteur d’images 12 en fonction de la hauteur de navigation.
Sans l’outil de correction propre à mettre en œuvre une telle projection, une modification d’attitude pourrait potentiellement être confondue avec un changement de dérive D de l’aéronef.
Comme indiqué précédemment, le module 16 de détermination d’une information lT représentative de la route (de l’anglais « track) ») correspond par exemple au système de géolocalisation GPS ou Galliléo de l’aéronef, ou, selon un autre exemple au système de gestion de vol de l’aéronef (FMS de l’anglais « Flight Management System »).
A partir de l’information représentative de la route et de la dérive D, le cap vrai HT est propre à être déterminé en temps réel par le module de détermination 18 de cap vrai.
Plus précisément, le cap vrai HT (de l’anglais « true heading ») est obtenu en temps réel par le module de détermination 18 de cap vrai, propre à soustraire de l’information représentative de la route lT la dérive D, d’où : HT = IT - D.
Puis, le module de détermination 18 de cap vrai HT est propre à transmettre ce cap vrai HT au moins au module de restitution utilisateur 20, propre à restituer à un utilisateur, à savoir ici, lorsque le dispositif correspond à un aéronef, au(x) pilote(s) une information représentative de ce cap vrai HT.
Avantageusement, selon une deuxième approche de la présente invention, le module de restitution utilisateur 20 est un module d’affichage propre à recaler une image synthétique et/ou une symbologie conforme avec l’environnement extérieur dans l’axe de visée du dispositif associé au cap vrai, le module d’affichage appartenant au groupe comprenant au moins :
- un module d’affichage tête haute, propre à projeter l’image synthétique en tête haute du dispositif ;
- un module d’affichage tête haute portée propre à projeter l’image synthétique en tête haute portée par au moins un utilisateur du dispositif;
- un module d’affichage tête basse propre à projeter l’image synthétique en tête basse du dispositif.
En d’autres termes, la présente invention permet de corriger l’affichage de l’image synthétique et/ou de la symbologie conforme (i.e. un recalage en cap de l’image synthétique est obtenu) en tête haute et/ou tête haute portée et/ou encore tête basse de sorte que l’image synthétique d’aide au pilotage est centrée précisément sur l’axe de déplacement de l’aéronef, un tel axe de déplacement correspondant au cap vrai HT obtenu précédemment.
Selon un aspect optionnel, le module de détermination 18 de cap vrai HT est également propre à transmettre ce cap vrai HT à d’autres modules avioniques 26, propres à utiliser une information de cap, que le module de restitution utilisateur 20. Par exemple, ce cap vrai HT est transmis à la centrale de référence de cap et d’attitude bas coût de type AHRS, comprenant un magnétomètre, pour la recaler en cas de décalage entre le cap magnétique et ce cap vrai HT.
L’observation et la mémorisation de la dérive D AHRS dans le temps est également potentiellement propre à permettre une maintenance prédictive afin de détecter une panne latente.
Par ailleurs, lorsque la capture d’image mise en œuvre par le capteur d’images 12 n’est plus disponible, la mémoire du dispositif est propre à conserver le dernier écart E entre cap vrai et la somme du cap magnétique et de la déclinaison magnétique, et le restituer au module 18 de détermination en temps réel du cap vrai, propre dans ce cas, à ajouter cet écart E au cap magnétique AHRS pour continuer à bénéficier d’un cap vrai HT (qui dérivera, tant que l’acquisition d’image restera indisponible notamment durant les phases de virage, où l’erreur de cap magnétique AHRS intrinsèque a tendance à augmenter (la mesure du magnétomètre étant filtrée à l’aide d’une boucle gyromagnétique sensible aux erreurs des gyroscopes en virage).
A titre d’alternative, dans le cas ci-dessus où la capture d’image mise en œuvre par le capteur d’images 12 n’est plus disponible, le module 18 de détermination en temps réel du cap vrai est propre à mettre en œuvre un filtrage de Kalman ayant pour entrée le cap magnétique AHRS et le cap de la caméra (i.e. du capteur d’image 12 embarqué au sein de la caméra) et est propre à optimiser l’utilisation instantanée de ces deux entrées du filtre de Kalman en fonction de leur disponibilité en temps réel selon une règle d’optimisation définie au préalable En relation avec la figure 2, le procédé d’affichage mis en œuvre par le système d’affichage selon la présente invention est décrit ci-après.
De manière générale, le procédé comprend deux premières étapes 32 et 34 d’acquisition d’images par le capteur d’image et de détermination d’une information lT représentative de la route suivie par l’aéronef mises en œuvre successivement (selon un ordre quelconque d’exécution de ces deux premières étapes) ou en parallèle.
L’étape 32 d’acquisition d’images est suivie d’une étape 36 de traitement d’images (de l’anglais « image processing ») au cours de laquelle la dérive D du dispositif, à savoir l’aéronef, est déterminée en temps réel au fur et à mesure du traitement des images acquises successivement.
A partir de la dérive D et de l’information lT représentative de la route, une étape 38 de détermination du cap vrai HT est mise en œuvre.
Puis, selon une étape 40, une information représentative de ce cap vrai HT est restituée à l’utilisateur, à savoir au moins un pilote.
Plus précisément, l’étape 36 de traitement d’images comprend selon un aspect particulier, une étape 42 de vérification (i.e. le test) du type de capteur d’images 12 (de l’anglais « image sensor ») utilisé.
En particulier, si (Y) le capteur d’images 12 est gyrostabilisé, l’étape 36 de traitement d’images comprend uniquement une étape 44 d’analyse d’images mettant par exemple en œuvre une technique d’odométrie visuelle telle que détaillée précédemmentet propre à déterminer la dérive D de l’aéronef à partir de la dérive caméra Doamera par changement de référentiel (i.e. correction d’harmonisation de repères) pour passer du référentiel caméra (i.e. référentiel du capteur d’image 12) au référentiel de l’aéronef afin de retranscrire, dans le repère de l’aéronef, la dérive caméra Dcamera (elle-même obtenue dans le référentiel caméra).
Dans le cas contraire (N) (i.e. le capteur d’images 12 n’est pas gyrostabilisé mais monté sur un casque porté par le pilote de l’aéronef), l’étape 36 de traitement d’images comprend une étape 46 additionnelle de correction des données associées aux images acquises, à savoir : les données issues directement du capteur d’images 12 ou la donnée de dérive D de l’aéronef obtenue après l’étape 44 d’analyse d’images.
Plus précisément, l’étape 46 de correction de données d’images comprend par exemple une étape 48 de projection dans un plan horizontal géographique en tenant compte d’au moins une donnée prédéterminée, à savoir par exemple :
- une ou plusieurs information(s) représentative(s) de l’attitude de l’aéronef,
- une ou plusieurs information(s) représentative(s) de la hauteur entre l’aéronef et le sol,
- une information représentative du champ visuel du capteur d’images 12.
En ce qui concerne l’étape 40 de restitution à un utilisateur du dispositif, à savoir par exemple un pilote de l’aéronef, une telle étape 40 comprend une étape 50 de recalage d’une image synthétique comprenant des informations d’aide au pilotage dans l’axe de déplacement du dispositif associé au cap vrai HT calculé en temps réel selon l’invention.
Par exemple, un tel recalage 50 permet de recaler l’image synthétique dans l’axe du cap vrai de l’aéronef avant même de voir la piste lors d’une approche pour atterrir.
Une telle image synthétique et/ou symbologie conforme recalée dans l’axe du cap vrai H-r est projetée en superposition sur l’environnement de pilotage de l’utilisateur, par exemple selon trois étapes 52, 54, 56 de visualisation possibles activables manuellement 10 et/ou sélectionnées automatiquement selon le type de dispositif utilisé, à savoir une étape 52 de visualisation tête haute, une étape 54 de visualisation tête haute portée, ou encore une étape de visualisation tête basse.
On conçoit ainsi que l’invention permet une optimisation en temps réel de l’affichage d’image(s) synthétique(s) et/ou de symbologie conforme comprenant des 15 informations d’aide à l’utilisateur en fonction du cap vrai HT suivi par le dispositif, et ce en s’affranchissant notamment de la mise en œuvre d’une centrale inertielle coûteuse ou encore en s’affranchissant de l’utilisation de base de données complexe à enrichir et/ou à mettre à jour.

Claims (10)

1, - Système d’affichage inclus dans un dispositif, propre à parcourir un trajet entre au moins deux points distincts et à utiliser au moins une donnée de cap, dans lequel le système d’affichage comprend au moins :
- un capteur (12) d’images configuré pour acquérir des images d’environnement au cours du trajet parcouru par le dispositif;
- un module (14) de traitement d’images propre à déterminer en temps réel la dérive du dispositif ;
- un module (16) de détermination d’une information représentative de la route suivie par le dispositif,
- un module (18) de détermination en temps réel du cap vrai suivi par le dispositif à partir de l’information représentative de la route et de la dérive du dispositif,
- un module (20) de restitution utilisateur d’une information représentative du cap vrai.
2, -Système d’affichage selon la revendication 1, dans lequel le module (20) de restitution utilisateur est un module d’affichage propre à recaler une image synthétique et/ou une symbologie conforme dans l’axe de visée du dispositif associé au cap vrai, le module d’affichage appartenant au groupe comprenant au moins :
- un module d’affichage tête haute, propre à projeter l’image synthétique en tête haute du dispositif ;
- un module d’affichage tête haute portée propre à projeter l’image synthétique en tête haute portée par au moins un utilisateur du dispositif;
- un module d’affichage tête basse propre à projeter l’image synthétique en tête basse du dispositif.
3, - Système d’affichage selon la revendication 1 ou 2, dans lequel le module de traitement d’images (14) comprend un outil d’analyse d’images propre à déterminer automatiquement la dérive (D) du dispositif en analysant au moins deux images successives, la dérive (D) étant obtenue à partir de l’angle de déplacement des pixels d’une image à l’autre, l’angle de déplacement des pixels étant associé à l’angle entre le déplacement longitudinal et le déplacement latéral du dispositif.
4, - Système d’affichage selon la revendication 3, dans lequel l’outil d’analyse d’images est un outil odométrique optique.
5. - Système d’affichage selon l’une quelconque des revendications précédentes, dans lequel le capteur d’images (12) est pointé vers le sol.
6. - Système d’affichage selon l’une quelconque des revendications précédentes, dans lequel le champ visuel du capteur d’images (12) est reconfigurable en fonction du taux de roulis instantané et/ou du taux de tangage instantané du dispositif et/ou en fonction de la phase du trajet effectué par le dispositif.
7. - Système d’affichage selon l’une quelconque des revendications précédentes, dans lequel le capteur d’images (12) est solidaire des axes du dispositif ou gyrostabilisé.
8. - Système d’affichage selon l’une quelconque des revendications 2 à 7, dans lequel le module de traitement d’images comprend un outil de correction d’image(s) propre à corriger les images acquises préalablement ou postérieurement à leur analyse.
9. - Procédé d’affichage mis en œuvre par un système d’affichage inclus dans un dispositif, propre à parcourir un trajet entre au moins deux points distincts et à utiliser au moins une donnée de cap, le procédé comprenant :
- l’acquisition (32) d’images d’environnement au cours du trajet parcouru par le dispositif;
- le traitement (36) d’images propre à déterminer en temps réel la dérive du dispositif ;
- la détermination (34) d’une information représentative de la route suivie par le dispositif,
- la détermination (38) en temps réel du cap vrai suivi par le dispositif à partir de l’information représentative de la route et de la dérive du dispositif,
- la restitution (40) à l’utilisateur d’une information représentative du cap vrai.
10. -Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé selon la revendication 9.
FR1700973A 2017-09-22 2017-09-22 Systeme d'affichage, procede d'affichage et programme d'ordinateur associes Active FR3071624B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1700973A FR3071624B1 (fr) 2017-09-22 2017-09-22 Systeme d'affichage, procede d'affichage et programme d'ordinateur associes
GB1815336.1A GB2568780A (en) 2017-09-22 2018-09-20 Display system, related display method and computer program
CN201811109834.0A CN109782442A (zh) 2017-09-22 2018-09-21 显示***、相关显示方法和计算机程序
US16/140,131 US10802276B2 (en) 2017-09-22 2018-09-24 Display system, related display method and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1700973A FR3071624B1 (fr) 2017-09-22 2017-09-22 Systeme d'affichage, procede d'affichage et programme d'ordinateur associes
FR1700973 2017-09-22

Publications (2)

Publication Number Publication Date
FR3071624A1 true FR3071624A1 (fr) 2019-03-29
FR3071624B1 FR3071624B1 (fr) 2019-10-11

Family

ID=61521515

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1700973A Active FR3071624B1 (fr) 2017-09-22 2017-09-22 Systeme d'affichage, procede d'affichage et programme d'ordinateur associes

Country Status (4)

Country Link
US (1) US10802276B2 (fr)
CN (1) CN109782442A (fr)
FR (1) FR3071624B1 (fr)
GB (1) GB2568780A (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3143770A1 (fr) * 2022-12-19 2024-06-21 Airbus Helicopters Procédé et système de détection d’obstacles avec un capteur d’obstacles pour un aéronef à voilure tournante

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2719920A1 (fr) * 1994-05-11 1995-11-17 Bodenseewerk Geraetetech Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée.
WO2008034195A1 (fr) * 2006-09-21 2008-03-27 The Australian National University Système de détection optique
US7474962B2 (en) * 2005-07-13 2009-01-06 Honeywell International Inc. Methods and systems of relative navigation for shipboard landings
US20170270805A1 (en) * 2016-03-21 2017-09-21 Wal-Mart Stores, Inc. Systems and methods for autonomous drone navigation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714851B2 (en) * 2002-01-07 2004-03-30 Ford Global Technologies, Llc Method for road grade/vehicle pitch estimation
JP4630115B2 (ja) * 2005-04-19 2011-02-09 株式会社日立製作所 運動解析表示装置
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
JP2008309529A (ja) * 2007-06-12 2008-12-25 Panasonic Corp ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
WO2009010969A2 (fr) * 2007-07-18 2009-01-22 Elbit Systems Ltd. Aide à l'atterrissage pour aéronef
KR101646139B1 (ko) * 2009-10-15 2016-08-05 엘지전자 주식회사 이동 단말기의 내비게이션 방법 및 그 장치
US8346466B2 (en) * 2009-11-11 2013-01-01 Northrop Grumman Guidance & Electronics Systems and methods for determining heading
JP6355081B2 (ja) * 2014-03-10 2018-07-11 任天堂株式会社 情報処理装置
FR3035523B1 (fr) * 2015-04-23 2017-04-21 Parrot Systeme de pilotage de drone en immersion
CN106289250A (zh) * 2016-08-16 2017-01-04 福建工程学院 一种航向信息采集***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2719920A1 (fr) * 1994-05-11 1995-11-17 Bodenseewerk Geraetetech Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée.
US7474962B2 (en) * 2005-07-13 2009-01-06 Honeywell International Inc. Methods and systems of relative navigation for shipboard landings
WO2008034195A1 (fr) * 2006-09-21 2008-03-27 The Australian National University Système de détection optique
US20170270805A1 (en) * 2016-03-21 2017-09-21 Wal-Mart Stores, Inc. Systems and methods for autonomous drone navigation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3143770A1 (fr) * 2022-12-19 2024-06-21 Airbus Helicopters Procédé et système de détection d’obstacles avec un capteur d’obstacles pour un aéronef à voilure tournante
EP4390439A1 (fr) 2022-12-19 2024-06-26 Airbus Helicopters Procede et systeme de detection d'obstacles avec un capteur d'obstacles pour un aeronef a voilure tournante

Also Published As

Publication number Publication date
CN109782442A (zh) 2019-05-21
US10802276B2 (en) 2020-10-13
GB201815336D0 (en) 2018-11-07
GB2568780A (en) 2019-05-29
US20190094538A1 (en) 2019-03-28
FR3071624B1 (fr) 2019-10-11

Similar Documents

Publication Publication Date Title
EP3273318B1 (fr) Système autonome de prise de vues animées par un drone avec poursuite de cible et localisation améliorée de la cible
EP3323028A1 (fr) Procédé d'assistance automatique à l'atterrissage d'un aéronef
FR3000813A1 (fr) Drone a voilure tournante comprenant des moyens de determination autonome de position dans un repere absolu lie au sol.
EP3388914A1 (fr) Procédé de suivi de cible par un drone, programme d'ordinateur, système électronique et drone associés
FR3018383A1 (fr) Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage.
EP2932182B1 (fr) Procede de geo localisation precise d'un capteur d'images embarque a bord d'un aeronef
FR3033924A1 (fr) Procede d'assistance automatique a l'atterrissage d'un aeronef
FR3100895A1 (fr) Procédé et système de positionnement automatique de drones en essaim
FR3089038A1 (fr) Procede d’apprentissage d’un reseau de neurones embarque dans un aeronef pour l’aide a l’atterrissage dudit aeronef et serveur pour la mise en œuvre d’un tel procede
WO2015165838A1 (fr) Systeme avionique comportant des moyens de designation et de marquage du terrain
FR2958741A1 (fr) Procede et systeme d'information pour marquer une destination dans un vehicule
EP3502845A1 (fr) Procede et systeme d'harmonisation duale d'un systeme d'affichage tete haute porte avec un dispositif inertiel d'attitude amovible dans le cockpit
FR3071624B1 (fr) Systeme d'affichage, procede d'affichage et programme d'ordinateur associes
EP3502842A1 (fr) Procede et systeme d'harmonisation duale d'un systeme d'affichage tete haute porte pour rendre conforme l'affichage d'informations de pilotage d'un aeronef avec le monde reel exterieur
FR2816703A1 (fr) Centrale inertielle de navigation comportant un recepteur gps integre
EP3029420B1 (fr) Systeme de visualisation synthetique comprenant des moyens d'adaptation du paysage affiche
EP3620852B1 (fr) Procédé de capture d'images aériennes d'une zone géographique, procédé de cartographie tridimensionnelle d'une zone géographique et aéronef pour la réalisation de tels procédés
FR3033903A1 (fr) Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera.
FR3036529A1 (fr) Procede pour afficher une image d'une scene exterieure a un aeronef dans un contexte de realite augmentee
EP3018450B1 (fr) Procede de representation d'une image cartographique dans un systeme de visualisation geolocalise prenant en compte la precision de geolocalisation
FR3073655B1 (fr) Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes
EP3578926B1 (fr) Procédé de sécurisation du fonctionnement d'un système de vision synthétique d'un aéronef, produit programme d'ordinateur et système associés
FR3096142A1 (fr) Procédé de géolocalisation d'une plateforme se déplaçant en formation avec d'autres plateformes, produit programme d'ordinateur et module de géolocalisation associes
FR3041769A1 (fr) Procede de geolocalisation
WO2023083879A1 (fr) Procede de navigation hybride inertielle/stellaire a indicateur de performance d'harmonisation

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190329

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7